自動駕駛汽車將如何影響未來的城市生活?
道德考量
無人駕駛汽車的問題可以概括為自動駕駛汽車的道德規(guī)范。在問題的經(jīng)典版本中,有一輛車沿著車道行走,駕駛員必須在保持車道和切換車道之間做出選擇。如果繼續(xù)保持在當前車道上,那么將有五人被殺。但是,如果他切換車道,則會只有一個人會被殺死。 2014年,麻省理工學院的研究人員建立了“道德機器”,以測試世界各地人們對自動駕駛汽車可能會遇到的棘手問題的態(tài)度和方法。
本質(zhì)上,車輛必須選擇要撞到的東西。例如,汽車將與寵物發(fā)生相撞,是否應該轉(zhuǎn)彎而與人相撞?這類情況是為殘疾人、年老、年輕、守法的公民、罪犯、男人,婦女、健康和有病的人設立的。
該研究的主要作者Edmond Awad解釋說:“該研究基本上是在試圖理解無人駕駛汽車可能要訴諸的道德決定。我們還不知道他們應該怎么做!比绻囕v能夠識別出犯罪分子,那么它必須非常聰明才能找出適合的人以及隱私隱患,但是我們僅假設車輛可以做出這樣的區(qū)分。
四年后,研究人員得到了答案。編入無人駕駛汽車的決策可能必須取決于汽車的位置。例如,假設車輛必須在撞上老人或兒童之間做出選擇。在法國和希臘,這種文化使年輕人可以幸免。然而,在中國和日本,老年人受到更多的尊重,更受歡迎的選擇是使老年人處境更加安全。但是,對于各種選擇,文化態(tài)度并不相同?紤]到在節(jié)省旅客和行人之間可以做出選擇,日本和中國處于相反的境地。日本人想挽救乘客,而中國人想饒恕行人。
研究人員從道德引擎中學到的東西是,人們想要的可能不是最佳的道德選擇,決策者可能需要介入并確保這些工具做出與大眾期望相反的決定。例如,世界上大多數(shù)人都認為,將地位高的人的安全放在地位低的人的安全上是可以接受的。
現(xiàn)在的事情是,當車輛被編程為以某種方式起作用時,它將在每次具有相同選擇的情況下都選擇該選項。例如,可以對車輛進行編程以使一個8歲的孩子免于受傷,并撞到一個80歲的男人。現(xiàn)在,每次得到選擇時,它都會做同樣的事情,乘客無權(quán)干預此決定,制造商已經(jīng)做出了道德選擇。
在法國的中國乘客上車時可能會面臨道德難題。乘客可能會更加猶豫,因為他們知道與行人相比,自己的生活將受到較低的重視。一種建議是,如果出現(xiàn)這種情況,則將控制權(quán)提供給駕駛員。但是,有研究表明,大多數(shù)人根本無法做出足夠迅速的反應來做出這樣的決定,因此這不是可行的方法。所有這些考慮都引出了一個問題,人類是否愿意讓計算機做出生死攸關(guān)的決定?
但是,考慮到自動駕駛汽車的實際工作方式,決策可能不會那么簡單,而只是做出選擇并繼續(xù)前進。決策過程是連續(xù)的,就像從所有傳感器了解周圍環(huán)境和車輛當前狀態(tài)的過程一樣。在自動駕駛汽車的計算機大腦中,權(quán)重賦予了某些概率,并根據(jù)這些概率采取后續(xù)行動。
例如,看似純白色的表面可以解釋為霧墻,實際上可能是水泥墻或卡車的后部。對功能性質(zhì)進行的任何判斷都可能隨時隨地更改。這通知了車輛做出的決定。因此,將道德考慮因素真正納入自動駕駛汽車的編程是一項非常細微的工作。車輛可能不得不在沒有完整的周圍環(huán)境信息的情況下做出決定,這受到車載傳感系統(tǒng)的限制。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
10 大模型的盡頭是開源
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當“安卓” ,那誰是“蘋果”?
- 4 華為公布昇騰芯片三年計劃,自研HBM曝光
- 5 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 6 機器人9月大事件|3家國產(chǎn)機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!
- 7 谷歌“香蕉”爆火啟示:國產(chǎn)垂類AI的危機還是轉(zhuǎn)機?
- 8 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 9 美光:AI Capex瘋投不止,終于要拉起存儲超級周期了?
- 10 華為已殺入!AI領(lǐng)域最熱黃金賽道,大廠的數(shù)字人美女讓我一夜沒睡著覺