如何克服人工智能在貸款決策中的偏見
應用在貸款中的人工智能技術可以加快貸款流程,并實現(xiàn)決策的自動化。
幾個月前,人工智能初創(chuàng)廠商Upstart公司宣布自成立以來籌集了1.6億美元的資金,并與奧馬哈第一國民銀行和堪薩斯城第一聯(lián)邦銀行簽署了協(xié)議。
Upstart公司因其創(chuàng)新的貸款方式而獲得用戶認可。其推出的平臺使用所謂的“替代數(shù)據(jù)”訓練的人工智能技術確定合格的貸款人。這樣的替代數(shù)據(jù)包括關于申請人的購買習慣、電話記錄、喜歡的游戲,以及在社交媒體的平均信用評分等信息。
然而,在貸款中使用替代數(shù)據(jù)并不會使使貸款過程更快、更公平,以及完全符合GDPR標準。并且不是一個新奇事物。
早期的信貸機構(gòu)聘請專家來調(diào)查當?shù)赜嘘P客戶的評價。例如,美國在1935年就對社區(qū)的集體信譽進行了分類。在2002年的最近一個案例中,加拿大一位輪胎銷售主管分析了去年的交易數(shù)據(jù),發(fā)現(xiàn)購買屋頂清潔工具的客戶比購買廉價機油的客戶在財務上更可靠。
然而,過去和現(xiàn)在有著顯著的區(qū)別。早些時候,人們收集并處理了替代和傳統(tǒng)數(shù)據(jù),包括債務收入比、貸款價值比、個人信用記錄等,F(xiàn)在,這種算法仍在發(fā)展和進步,而許多人認為它更客觀、更快。
然而令人擔憂的是,人工智能可能會比人類更具偏見。需要注意的是:如果不控制算法如何自學,那么人工智能的決策可能會更加片面。
人工智能偏見的蔓延
一般來說,人工智能偏見不是偶然發(fā)生的,訓練算法的人員會讓它變得主觀。受某些個人、文化、教育和特定位置因素的影響,即使是最佳算法訓練人員也可能使用固有偏見的輸入數(shù)據(jù)。
如果沒有及時發(fā)現(xiàn),可能會導致產(chǎn)生具偏見的決定,這將隨著時間的推移而加劇。這是因為算法根據(jù)以前的算法做出新的決策,其自身發(fā)展最終比其操作開始時復雜得多(雪球效應)。簡而言之,人工智能在不斷地自學,無論訓練材料是否正確。
以下了解一下人工智能在做出的貸款決策中可能會產(chǎn)生什么樣的歧視。了解以下的例子,可以遵循關鍵的想法:人工智能偏見通常源于人類的偏見。
人工智能可以基于性別進行區(qū)分
傳統(tǒng)上,男性在高收入和高職位方面的比例很高,而女性仍然面臨所謂的“玻璃天花板”職業(yè)發(fā)展和薪酬差距問題。因此,盡管女性的儲蓄能力和支付能力都比男性強,但與男性相比,女性企業(yè)家獲得的商業(yè)貸款越來越少。
人工智能的使用可能只會加劇這種趨勢,因為性別歧視的輸入數(shù)據(jù)可能會導致大量的女性貸款被拒。基于錯誤的統(tǒng)計數(shù)據(jù),人工智能算法可能更傾向于男性申請者而不是女性申請者,即使所有其他參數(shù)都相似。
人工智能可以根據(jù)種族區(qū)分
這聽起來不太可能,但黑人申請人被拒絕貸款的可能性是白人的兩倍。如果用于算法學習的輸入數(shù)據(jù)反映了這種種族差異,那么它可以很快地實施,并開始越來越多拒絕黑人貸款。
替代數(shù)據(jù)也可能成為人工智能“種族主義”的來源。算法將申請者之前罰款和逮捕信息輸入其中。事實是,這樣的信息并不是中立的。據(jù)《華盛頓郵報》報道,非裔美國人比美國白人更容易成為警察的目標,而且在很多情況下都是毫無根據(jù)的。
其他類型的數(shù)據(jù)也是如此。少數(shù)種族群體面臨著收入、職業(yè)和社區(qū)的不平等。所有這些指標可能成為人工智能對非白人申請人說“不”的堅實理由。
人工智能可以根據(jù)年齡區(qū)分
信用記錄越多,人們就越了解某個人的信譽。老年人通常擁有更好的信用記錄,因為他們背后有更多的金融交易。相反,年輕一代有關業(yè)務的數(shù)據(jù)較少,這可能成為拒絕的一個不公平原因。
人工智能可以根據(jù)教育來區(qū)分
一些人工智能借貸算法在做出信用決策時可以分析申請人的語法和拼寫習慣。一種算法可能根據(jù)學習錯誤的拼寫習慣或錯別字來了解申請人的文化程度,從而導致很多申請人信譽不良。
從長遠來看,該算法開始拒絕具有寫作困難或障礙的符合條件的申請者,即使他們與支付能力無關。
解決貸款中的偏見
總的來說,為了使人工智能運行的貸款過程不受偏見的影響,需要讓輸入數(shù)據(jù)從任何可能的人類偏見中清除,從性別、種族主義到年齡歧視中清除出來。
為了使訓練數(shù)據(jù)更加中立,組織應該組建更多不同的人工智能開發(fā)團隊,包括貸款方和數(shù)據(jù)科學家,貸款方可以告知工程師他們工作的具體細節(jié)。更重要的是,這些金融機構(gòu)應該培訓參與人工智能決策的每個人,以便在他們的工作中遵守和執(zhí)行公平和非歧視性的做法。否則,如果不采取措施確保多樣性和包容性,貸款企業(yè)就有可能推出嚴重違反反歧視和公平借貸法律的人工智能算法。
實現(xiàn)更公平的人工智能的另一個步驟是審核算法做出的借貸決策;工作人員應評估這些決策。GDPR法規(guī)第22條支持這一觀點,聲稱人們不應受到純粹的自動化決策的影響,特別是這可能產(chǎn)生法律效力。
事實上,說起來容易做起來難。然而如果不加以解決,無意識的人工智能偏見問題可能會使貸款業(yè)務處于困境,并且不亞于任何故意的偏見行為,只有通過數(shù)據(jù)科學家和貸款專業(yè)人員的共同努力才能避免迫在眉睫的風險。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10 每日AI全球觀察
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當“安卓” ,那誰是“蘋果”?
- 4 拐點已至!匯川領跑工控、埃斯頓份額第一、新時達海爾賦能扭虧為盈
- 5 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 6 隱退4年后,張一鳴久違現(xiàn)身!互聯(lián)網(wǎng)大佬正集體殺回
- 7 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 8 谷歌“香蕉”爆火啟示:國產(chǎn)垂類AI的危機還是轉(zhuǎn)機?
- 9 機器人9月大事件|3家國產(chǎn)機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!
- 10 美光:AI Capex瘋投不止,終于要拉起存儲超級周期了?
- 生產(chǎn)部總監(jiān) 廣東省/廣州市
- 資深管理人員 廣東省/江門市
- Regional Sales Manager 廣東省/深圳市
- 銷售總監(jiān) 廣東省/深圳市
- 結(jié)構(gòu)工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 自動化高級工程師 廣東省/深圳市
- 技術專家 廣東省/江門市
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 封裝工程師 北京市/海淀區(qū)