Williams爬到上面開(kāi)始工作時(shí),一只機(jī)器手臂也處于運(yùn)行狀態(tài)。很快,機(jī)器手來(lái)到Williams身邊,撞到了他的頭,他當(dāng)場(chǎng)死亡。機(jī)器手還在繼續(xù)工作,而這名工人的尸體直到30分鐘之后才被發(fā)現(xiàn)。
在那個(gè)冬日,Williams成了歷史上第一個(gè)被機(jī)器殺死的人。
這樣的事件完全是機(jī)器的無(wú)心之失。當(dāng)時(shí)的工廠沒(méi)有相關(guān)的保護(hù)設(shè)施和警報(bào)措施。1979年的人工智能還沒(méi)有發(fā)展到能夠預(yù)防這種事情的程度。最后,陪審團(tuán)裁定,機(jī)器在設(shè)計(jì)時(shí)沒(méi)有將這種事情考慮進(jìn)去,Williams的家人得到了1000萬(wàn)美元的賠償金。
第二例機(jī)器殺人事件發(fā)生在兩年后的日本,情況也類(lèi)似:機(jī)器沒(méi)有感應(yīng)到37歲工人Kenji Urada的存在,無(wú)意中造成了他的死亡。
隨后,機(jī)器人專(zhuān)家、電腦學(xué)家和人工智能專(zhuān)家一直在努力解決這個(gè)問(wèn)題,他們想讓機(jī)器安全地與人類(lèi)互動(dòng)。
幾十年后,人類(lèi)因機(jī)器而死的報(bào)導(dǎo)似乎越來(lái)越常見(jiàn)。Uber和特斯拉的自動(dòng)駕駛車(chē)輛就曾因?yàn)闅⑺莱丝突蜃驳铰啡硕狭诵侣劇km然現(xiàn)在的安全設(shè)施越來(lái)越發(fā)達(dá),但問(wèn)題仍然存在。
雖然這些死亡事件都不是機(jī)器有意為之的,但受到《終結(jié)者》和《黑客帝國(guó)》等電影和小說(shuō)的影響,人們很擔(dān)心人工智能會(huì)發(fā)展出自我意志,最終傷害人類(lèi)。
牛津大學(xué)科學(xué)家Shimon Whiteson將這種擔(dān)憂稱(chēng)為“擬人化錯(cuò)誤”,這種謬論認(rèn)為“擁有與人類(lèi)相似智力的系統(tǒng)也一定擁有類(lèi)似人的欲望,比如求生欲、自由欲望和對(duì)尊嚴(yán)的渴望等。但這是不可能的,因?yàn)橐粋€(gè)系統(tǒng)只會(huì)擁有我們所賦予的欲望。”
他認(rèn)為價(jià)值觀偏差才是對(duì)人類(lèi)的更大威脅,即程序員所下達(dá)的命令可能與他們的真實(shí)意愿有所不同,即機(jī)器不能完全理解人類(lèi)的命令。隨著電腦變得越來(lái)越智能化和自動(dòng)化,價(jià)值觀偏差導(dǎo)致的結(jié)果將更為嚴(yán)重。
另外,他認(rèn)為出于軍事目的而故意設(shè)計(jì)的殺人機(jī)器才更可怕。這也是為什么全球的AI和機(jī)器人專(zhuān)家都呼吁禁止發(fā)展這種技術(shù)。聯(lián)合國(guó)也因此將在2018年討論是否應(yīng)該對(duì)機(jī)器人殺手進(jìn)行管理,以及如何管理。
轉(zhuǎn)載請(qǐng)注明出處。