最近,一篇論文報(bào)道了一項(xiàng)全球道德偏好調(diào)查,涉及無(wú)人駕駛汽車(chē)在不可避免的事故中應(yīng)該拯救哪一方。研究成果結(jié)合了全球參與者貢獻(xiàn)的4000萬(wàn)個(gè)決策,或?yàn)橹贫軌虮簧鐣?huì)普遍接受的人工智能(AI)倫理標(biāo)準(zhǔn)提供參考信息。
無(wú)人駕駛汽車(chē)不僅應(yīng)該能夠?qū)Ш铰肪€,還應(yīng)該在不可避免的事故中獨(dú)自應(yīng)對(duì)道德困境。因此,有必要制定一套倫理準(zhǔn)則來(lái)指導(dǎo)AI系統(tǒng)處理此類(lèi)場(chǎng)景。如果無(wú)人駕駛汽車(chē)一定會(huì)被廣泛使用,我們首先要確定社會(huì)普遍接受的道德標(biāo)準(zhǔn)。
麻省理工學(xué)院的伊亞德拉赫萬(wàn)和他的同事們建立了一個(gè)名為“道德機(jī)器”的大規(guī)模在線調(diào)查平臺(tái),統(tǒng)計(jì)世界各地人們的道德偏好。參與者被置于一個(gè)不可避免的事故現(xiàn)場(chǎng),當(dāng)時(shí)一輛無(wú)人駕駛汽車(chē)正在雙向街道上行駛。每一個(gè)場(chǎng)景都會(huì)把行人和乘客置于不同的危險(xiǎn)之中,汽車(chē)可以選擇不變道或者轉(zhuǎn)向另一條車(chē)道。參與者必須選擇誰(shuí)來(lái)保存并決定汽車(chē)的路線。這個(gè)實(shí)驗(yàn)記錄了大約4000萬(wàn)個(gè)這樣的決定。
研究人員已經(jīng)確定了許多共同的道德偏好,例如拯救大多數(shù)而不拯救少數(shù),拯救年輕人而不拯救老年人,以及拯救動(dòng)物。作者還發(fā)現(xiàn)了不同文化之間道德偏好的差異。例如,來(lái)自中美洲和南美洲國(guó)家、法國(guó)、前法國(guó)海外領(lǐng)土和目前法國(guó)領(lǐng)土的參與者表現(xiàn)出強(qiáng)烈的偏好,首先拯救婦女和強(qiáng)者。然而,來(lái)自收入差距較大國(guó)家的參與者在決定儲(chǔ)蓄對(duì)象時(shí),往往會(huì)考慮自己的社會(huì)地位。相關(guān)論文于《自然》在線發(fā)表。
最后,研究人員指出,在讓汽車(chē)做出道德選擇之前,需要進(jìn)行全球?qū)υ挘瑢⑷藗兊钠酶嬷獙?shí)施監(jiān)督的道德算法設(shè)計(jì)公司和政策制定者。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場(chǎng)無(wú)關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!