新華網 > > 正文

如何讓殺手機器人有“正義感”

2018年03月16日 09:02:51 來源: 解放軍報

    安靜的大學自習室,有情侶在教室後排的角落選修愛情,有的學生在看書,更多的學生在刷手機。

    一隊蜂群一樣的小東西從虛掩的教室門魚貫而入,它們發出的嗡嗡聲沒有驚動任何人。這群小東西在空中盤旋、搜索,似乎在思考並確認。終于,一個沉悶的聲音過後,響起一個女聲驚恐的尖叫,男生倒在血泊裏。

    就在剛剛過去的前一秒,盤旋在教室上空的那個小東西將它攜帶的3克炸藥毫無保留地傾注在男生的腦袋上。女生永失所愛,教室頓成屠場。

    這個血腥場面出自一段可怕的視頻。在聯合國《特定常規武器公約》會議上,來自美國加州大學的斯圖爾特·羅素爾教授公布了這一視頻。超過七十個國家的與會代表被震驚了。雖然視頻中“殺人蜂”進行的殺戮並非真實存在,但我們必須清楚的是,視頻中的科技目前已經存在。

    早在2017年2月,康橋大學的生存威脅研究機構相關人員就列出了10種可能導致世界末日、人類滅絕的威脅。名列前茅的正是人工智慧和殺手機器人。

    “殺人蜂”視頻是這個預言的證實和強調:殺手機器人時代來了。這加深了很多人的焦慮,數百名科學家曾聯名呼吁限制殺手機器人的相關研究。

    “殺手機器人禁令運動”組織的成員們並不是第一批對未來憂心忡忡的科學家。2015年,物理學家霍金等千余名人工智慧領域的專家就曾聯合譴責人工智慧時代的軍備競賽,呼吁在智能武器還沒有使用和造成萬劫不復的災難或毀滅人類之前,禁止使用智能武器。

    業界普遍認為,截至目前,人類的武器已經進行了兩次革命:火藥和核武器。現在殺手機器人所代表的致命性自主武器係統正在拉開第三次革命的帷幕。

    耶魯大學的研究人員把軍用機器人列為人工智慧技術最有前途的應用領域之一。軍用機器人的用途太誘人:既可降低己方士兵的風險,又能降低戰爭的代價。它省去了軍人的薪水、住房、養老、醫療等開銷,又在速度、準確性上高于人類,而且不用休息。它不會出現只有人類戰鬥員才會有的戰場應激障礙,情緒穩定,無需臨戰動員,一個指令,就能抵達人類不可及之處,完成各種任務。

    學界擔心,如果殺手機器人被大規模列裝,一個潛在的問題令人不安:它們如何識別平民和戰鬥人員?它們會不會濫殺無辜?

    “如果機器人犯錯誤,責任應該歸誰呢?”英國的一名機器人技術教授諾埃爾·沙爾吉説道,“顯然這不是機器人的錯。機器人可能會向它的電腦開火,開始發狂。我們無法決定誰應該對此負責,對戰爭法而言,確定責任人非常重要。”

    在倫理學家眼裏,殺手機器人同樣存在致命的缺陷。這意味著將剝奪自然人生命的權利交給非自然人,等于將人的生命和人的尊嚴交給機器來判定,不但沒有平等性,也是對人類生命權以及人格尊嚴的侮辱。

    殺手機器人該如何做?

    1942年,美國著名科幻小説家阿西莫夫曾創立機器人定律。其中首要定律便是:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。那麼,問題又來了,當機器人的主人和其他人類衝突時,機器人又該如何抉擇?

    這恐怕正是我們擔心的核心所在。事實上,自1920年戲劇《羅莎的萬能機器人》上演以來,無論是電視劇《神秘博士》,還是電影《終結者》《異形終結》《西部世界》《我,機器人》以及《銀翼殺手》等科幻電影和小説,一直貫穿這一主題:人類設計並主導的“殺手機器人”最終成為反叛者,擁有獨立意識,從戰爭的輔助工具轉變為與人類為敵的殺戮者。

    關于機器人題材的電影和故事幾乎沒有好結局。這源自我們人類的深層恐懼——如何讓殺手機器人有“正義感”?遺憾的是,目前無解。是的,你完全可以把這些東西永遠擱置起來。不過,它們只需充一次電就能再次啟動。對機器人的愛和恐懼還將繼續。

【糾錯】 [責任編輯: 蔡琳琳 ]
新華炫聞客戶端下載

相關稿件

010020030330000000000000011199031298305811