眾目睽睽之下發(fā)生的殺人事件永遠(yuǎn)是最吸引人眼球的。
就在7月3號,德國卡塞爾市的大眾汽車廠發(fā)生一起機器人傷人事故,一名21歲的外包工人在工作中忽然受到機器人的撞擊擠壓而受傷,最終傷重不治。
顯然,長期以來針對機器人是否最終會威脅到人類安全和發(fā)展的爭議始終不絕于耳,站在悲觀角度上的人包括史上霍金、比爾·蓋茨、馬斯克等人,他們是史上最偉大的物理學(xué)家,是長期站在行業(yè)前端對未來發(fā)展趨勢有著自己深刻見解的企業(yè)家。他們對機器人等人工智能的質(zhì)疑和警告或許并不只是杞人憂天而已,一系列的事件顯示機器人傷人事故并沒有隨著人工智能技術(shù)研究和實踐的深化而在新世紀(jì)杜絕:
1999年,就在 The Matrix 在全球范圍內(nèi)掀起對機器人統(tǒng)治未來的存在主義憂思的時候,一名肉食品加工廠的工人就因為誤操作啟動機器人而被卷入傳送帶,結(jié)果不幸身亡;
2個月后,悲劇再次發(fā)生,一名工人在機器人尚在運行時就對對其進(jìn)行維修,最終也受傷而死;
2001年,一名汽車廠工人在進(jìn)入機器人防護籠進(jìn)行清潔工作時被機器人扼住喉嚨壓迫在滾輪下最終窒息身亡,
2006年,一位女工被機器人挾住頸部釘在焊接機上,當(dāng)場遇難。
歷史就是由這樣不斷重演的悲劇而構(gòu)成的。曾經(jīng)建議美國在納粹之前開發(fā)原子彈的愛因斯坦在目睹廣島的慘狀后后悔不已。從原子能的發(fā)展來看,人們當(dāng)然有理由擔(dān)心一項嶄新技術(shù)的研究和應(yīng)用是否最終一定會造福于我們、是否有可能最終對反噬我們。
然而,問題的痛處在于我們究竟應(yīng)該如何看待人工智能?我們是否應(yīng)該因為這些傷人事故而遽然反對、杯葛人工智能?讓我們先回顧下阿西莫夫是如何解決這一困境的。在小說《我,機械人》(I,Robots)中,他提出了機器人三法則:
機器人不得傷害人類,或因不作為使人類受到傷害;
除非違背第一法則,機器人必須服從人類的命令;
在不違背第一及第二法則下,機器人必須保護自己。
可是,問題在于,如果存在主動違背第一原則的人工智能的話,那么,這是否意味著人工智能已經(jīng)具有主動判斷和自我意識的能力?在這種情況下,我們是否還有資格將其僅僅視為單純的人工智能?或者,在人工智能發(fā)展到相當(dāng)高度時,它是否具有了自己的意識和權(quán)利?在山本弘的《艾比斯之夢》中,未來的機器人有了自己的意識,他們可以選擇自己的生存或死亡,他們甚至?xí)械焦陋毣蛘弑舜酥g戀愛。
人工智能吊詭的地方在于,我們發(fā)展它是為了讓機器人更加智能、更好地為我們服務(wù),可是,當(dāng)它的發(fā)展程度超過某個閾值時,它又很可能成為一種新的具備權(quán)利主張和自我意識的個體,這個時候,這種人類歷史上從未出現(xiàn)過的新物種是否還會甘于僅僅是服務(wù)于人類呢?它們是否會甘于遵循人類既定的三大法則?更讓人不安的地方在于,你永遠(yuǎn)不知道這個時候究竟時候到來,你并不知道為你服務(wù)的機器人是否實際上已經(jīng)具備了自我意識。
然而,在這個時候到來之前,發(fā)生人工智能傷人事件時,我們又不得不面臨這樣的困境,我們究竟如何處理這樣的機器人?對這樣既沒有自我意識因又沒有行為能力的非自然人個體,社會共識和法律懲治措施對它們而言毫無意義。我們處于這樣的一種困境,一方面,我們斗爭都正或多或少地享受著人工智能帶來的福利,另一方面,人工智能的“恐怖谷效應(yīng)”在在現(xiàn)階段又是無法回避的客觀存在。
我們唯一能做的就是,盡其所能地發(fā)展人工智能,然后把所有的現(xiàn)實和對未來的擔(dān)憂都留給我們的下一代——如果人工智能真得發(fā)展到會威脅到人類存在的話,那至少在那個時候,人類本身的科技水平也能夠?qū)Υ俗龀龌貞?yīng),就像卡梅隆的《終結(jié)者》(Terminator)里講得那樣。
按照希區(qū)柯克的電影理論,或許,人工智能就相當(dāng)于那枚我們都能看到的餐桌下的倒計時炸彈。對此,我們既緊張又不免期待與興奮。