新華網 > > 正文

銳讀丨人工智慧:“天使”or“魔鬼”?

2018年01月12日 12:31:52 來源: 解放軍報

    剛剛過去的一年,人工智慧帶來的衝擊一波接著一波:繼谷歌人工智慧程式“阿爾法狗”碾壓中韓頂級棋手後,全球第一個被授予“公民身份”的機器人索菲亞又揚言“要毀滅人類”,接著出現了會後空翻的機器人“阿特拉斯”,以及可執行“斬首”任務的微型無人機紛紛登臺亮相……

    在人工智慧高速發展的今天,正如許多專家所預言的那樣,戰爭機器人可能是繼核武器之後,又一把懸在人類頭上的“達摩克利斯之劍”。這引發人們深思:人工智慧究竟會被“馴服”,成為人類的朋友?還是會“叛逆”,給人類帶來無盡的災難?

    難以抗拒的誘惑

    高度智能化突破人類生理極限

    人工智慧作為物聯網、大數據、先進演算法和強大計算能力支援下的一種“群技術”,通過賦予“物”以人的智力,模擬和擴展人的智慧,輔助甚至代替人實現多種功能,進行認識、分析、決策、行動等活動。其核心優勢是高度自主性,能夠較少或完全不需要人工幹預就可完成復雜、繁重和精確性高的任務。

    人工智慧可以使人從繁重的重復性工作中解放出來,專注于發現性、創造性的工作。比如,在以前的指揮決策中,指揮人員85%的時間用于情報處理分析,只有15%的時間考慮作戰,而採取智能化情報處理係統後正好相反。現代戰場態勢高度復雜、瞬息萬變,完全依賴人的認知去理解戰場態勢變得越來越困難。而運用智能化數據處理技術,就可以在大數據中發現復雜事物間的關係,從本質上突破人類分析聯繫事物的局限性,還可依據對大量戰場數據的分析,提供可行性的決策建議。

    人工智慧具備自主學習能力,且運算精確度高,不受環境與心理等因素影響。2017年12月14日,美國宇航局宣布利用谷歌人工智慧機器人的學習能力,對開普勒太空望遠鏡收集的3.5萬個可能的行星信號、140億個數據點及大約2萬億個行星軌道進行分析,發現了首個幾乎和太陽係一樣的星係,其效率和準確性遠超傳統的分析方法。同樣,高度自主化的無人作戰係統,在後方操縱人員的監控下,能夠自動搜索和跟蹤目標,自主識別環境並規劃機動路線,快速捕捉戰機實施精確打擊。

    人工智慧還可通過電腦視覺、語音處理、自然語言處理等技術,使係統更加精準地理解人的行為並按照人的意志行動,實現人機高度融合。比如,在智能控制領域,能夠通過語音方式下達指令,由係統轉化為機器語言,實現作戰命令的快速下達和武器裝備的精確操控。在單兵助力方面,外骨骼係統可通過感知人體運動意圖,提升士兵的承載攜行、搬舉能力,同時又能實現人機一體化,保持士兵的高度靈活性。

    可以預見的風險

    人工智慧帶給人類巨大威脅

    美國“臉書” CEO馬克·扎克伯格曾放言:“人類當下面臨的最大威脅是什麼?無疑是人工智慧!”但就當前來講,人工智慧的“威脅”還不存在,因為它只專注于完成某個特別設定的任務,比如下圍棋就僅僅會下圍棋。而未來超過人類智慧的超人工智慧具備知識遷移能力,可以充分利用已掌握的技能解決新問題,這就有可能給人類造成巨大威脅。

    實現高度自主並可能“失控”。未來超人工智慧開始具備自主思維意識,能夠像人類一樣獨立思考,並自我決定如何行動。因此,自主智能機器係統雖然由人類設計制造,但它們的行為卻不受人類的直接指令控制,而是可以基于在不同情境中對其所獲得的資訊進行分析、判斷和決策,形成不需要人類介入或幹預的“感知—思考—行動”模式,並最終超出創造者預料或事先控制的范圍而失控。

    這種高度智能化的係統還能夠通過學習進行機器再造,可以快速復制或再生其他新的人工智慧體。據專家推算,一個失去控制的正在自我復制的奈米機器人,完成130個復制周期只需要3個半小時,考慮到奈米機器人向外移動擴張等因素,最多只需數周就可以“摧毀”地球上的一切生物。這也就是為什麼霍金多次“告誡”人們:人工智慧一旦脫離束縛,就會以不斷加速的狀態重新設計自身。而人類由于受到漫長生物進化的限制,無法與之競爭,最終或將被取代。

    遭遇非法入侵可能被“黑化”。人工智慧作為一種新興的技術領域,一般來説,沒有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能係統或機器人去實施破壞活動,這樣的後果是極其可怕的。而且,隨著人工智慧的發展,其他工具包括人工智慧的技術開發和復制也變得越來越容易。也就是説,未來任何人都可以使用該係統去實現自我復制或繁殖其他人工智慧係統。因此,超人工智慧係統一旦被非法獲取或操縱,將産生巨大的破壞力量。

    爆發機器戰爭造成武力“濫用”。未來大量智能化無人係統將運用于戰場,“死傷”的主要是沒有生命並可以大量再造的“智能機器”,使戰爭成本大大降低,並能夠實現作戰人員的“零傷亡”。戰爭的政治、外交風險明顯降低,這就可能會因戰爭顧慮和壓力減少而降低戰爭決策的門檻,導致軍事強國在武力使用上更加隨意,從而使戰爭的爆發更加頻繁,戰爭從“最後的選擇”轉變為“首先的手段”。為此,許多科學家呼吁禁止“致命性自主式武器”的研發和使用,並警告這將引發全球性人工智慧“軍備競賽”,人類社會將可能深陷戰爭泥潭。

    未雨綢繆的防范

    給人工智慧戴上“緊箍咒”

    霍金曾這樣評價人工智慧:“它既可能成為人類迄今發生過的最好的事,也可能成為最糟糕的事”。我們既不能盲目樂觀,也不能因噎廢食,必須及早給未來人工智慧的發展套上必要的安全、倫理等方面的“緊箍咒”,同時又不能阻礙技術創新和人類社會進步的步伐。

    從技術安全形度建立共同遵守的發展準則。根據人工智慧可預見的風險,建立世界范圍內的人工智慧發展準則,對研究范圍、內容、目的、用途等各個方面進行規范,確保安全、可控地發展人工智慧。比如,對于智能係統到底應該實現到什麼樣的自主程度,賦予其多大的自主權利以及哪些方面不能實現等進行明確限制。2017年1月,在美國加利福尼亞州舉辦的阿西洛馬人工智慧會議上,近千名人工智慧和機器人領域專家已聯合簽署了《阿西洛馬人工智慧23條原則》,呼吁世界在發展人工智慧時共同遵守,成為人工智慧安全、有序發展的良好開端。

    從道德倫理角度建立科學嚴格的評估機制。人工智慧主要是基于演算法,而演算法在本質上是“以數學方式或電腦代碼表達的意見”,是設計者、開發者的主觀創造,有可能將自己的偏見、價值觀嵌入演算法係統,制造出不符合社會道德規范的智能機器,這就需要對其進行嚴格評估以確保安全。2016年12月,美國電氣和電子工程師協會啟動了人工智慧倫理工程,提出對嵌入智能係統的規范和價值進行評估,以確定其是否和現實中的道德價值體係相一致。我國在《新一代人工智慧發展規劃》中也提出“建立人工智慧法律法規、倫理規范和政策體係,形成人工智慧安全評估和管控能力”。

    從規范運用角度建立具有法律約束力的普遍性制度條約。任何一種先進技術能否産生威脅,主要看使用者出于何種目的、如何運用。誠然,面對人工智慧的巨大優勢和潛在利益,特別是在涉及國家安全領域方面,直接禁止使用人工智慧技術是不現實的。這正如國際上禁止或限制使用“致命性自主武器係統”一樣,至今無法取得任何實質性進展。因此,應呼吁建立具有法律約束力的國際性條約,對某些特殊功能的智能係統風險和技術擴散等進行規范和預防。(趙先剛、滕兆文)

【糾錯】 [責任編輯: 劉憬杭 ]
新華炫聞客戶端下載

相關稿件

010020030330000000000000011100001297891781