新華網 > > 正文

軍事機器人將帶來空前革命

2018年02月15日 11:16:10 來源: 參考消息

    【英國《經濟學人》周刊網站1月25日文章】題:自動武器是一個規則改變者

    迅速到來的軍事機器人革命是空前的。這些技術帶來了倫理、法律、政策等問題,可能構成在某些人看來關乎生死存亡的一種危險。

    聯合國《特定常規武器公約》(CCW)相關會議已經進行了有關致命自動武器的討論,該公約禁止或限制一些被認為會引起不合理痛苦的武器。CCW去年11月一場會議召集了一批政府專家和阻止殺手機器人運動組織的非政府組織代表。阻止殺手機器人運動組織希望達成一項具有法律約束力的國際條約,禁止使用致命自動武器,就像此前禁止集束彈藥、地雷和鐳射致盲武器一樣。

    棘手的是,自動武器包括從能夠有選擇性地瞄準的導彈到具有能夠決定打擊誰、何時打擊以及如何打擊等認知技能的學習型機器等一係列武器。大多數人認為,當使用致命武器時,應當由人來負責啟動。但要確定哪類人工控制是適宜的則更為棘手,並且相關技術發展太快,導致國際外交無法跟上形勢。

    令情況更加復雜的是,人工智慧和自動機器最引人注目的進展正由具有商業動機的私企實現。即使能夠達成禁止軍用機器人的協議,催生自動武器的技術也會很快普及並容易轉讓。

    防務分析人士彼得·辛格指出,人工智慧競賽由不可阻擋的力量驅動:地緣競爭、知識前沿領域的科學動力以及追求利潤的科技企業。因此,是否能抑制人工智慧競賽一些更令人不安的方面以及如何抑制成為問題所在。簡單來説,一個令大多數人驚恐的想法是讓能夠思考的機器自行選擇是否殺死人類。而且,盡管有關機器人暴動的終極噩夢仍是科幻小説,但其他擔憂則具有現實性。

    專家保羅·沙雷擔心自動係統可能因代碼編寫品質不高或對手發動網絡攻擊而失靈。這可能致使機器人攻擊人類部隊,或導致局勢快速升級,以至于人類無法做出反應。自動武器的可靠性非常難以測試。會思考的機器可能以人類操控者從未設想過的方式行事。

    關于與機器人係統“合作”的討論大多圍繞人類在“觀察、調整、決策、行動”(OODA)這一決策迴圈周期中所處的位置。一架遙控武裝“死神”無人機的操控人員處于OODA迴圈以內,因為他決定無人機飛往何處以及飛抵目的地時採取何種措施。相比之下,有人類跟蹤OODA迴圈的係統會在無人操控的情況下完成大部分任務,但人類可隨時介入,例如在目標已經改變的情況下放棄任務。完全自動化的係統(操控人員僅需按下啟動按鈕)負責執行全部任務,包括目標選擇,則處于OODA迴圈以外。

    美國前國防部副部長詹姆斯·米勒説,盡管美國將設法讓人類處于OODA迴圈之內或跟蹤OODA迴圈,但對手可能不會這樣。

    米勒認為,如果自動係統在競爭激烈的地區執行任務,讓機器全權負責的誘惑將變得難以阻擋。

【糾錯】 [責任編輯: 王楠楠 ]
新華炫聞客戶端下載

相關稿件

010020030330000000000000011199071298128601