新華網 正文
人工智慧或危及人類?
2015-01-14 07:07:15 來源: 新華網
關注新華網
微博
Qzone
評論
圖集

  不少科幻電影中,一些人工智慧機器拒絕服從人類指揮,甚至殺死或控制人類,最終統治世界。為避免這類情況出現,包括英國理論物理學家斯蒂芬·霍金在內,數百名科學家和企業家聯合發表一封公開信,敦促人們重視人工智慧安全,確保這類研究對人類有益。

  近年來,人工智慧技術高速發展,在給人們生活帶來便利的同時,可能存在危險性。一些科學家認為,人工智慧可能比核武器更具威脅。

  【益處巨大】

  英、法等國媒體12日報道,這封信由非營利機構“未來生活研究所”發布。除霍金外,在信上簽名的還有美國機器人和智能機械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學獎獲得者弗蘭克·維爾切克、美國網絡通訊軟件Skype創始人之一揚·塔利英、美國太空探索技術公司和美國特斯拉汽車公司首席執行官埃隆·馬斯克,以及一些來自美國哈佛大學、斯坦福大學等知名高校的頂尖學者和一些來自谷歌公司、微軟公司等高科技企業的工作人員。

  這封公開信説,人工智慧技術穩定發展已獲“廣泛共識”,而且未來能夠給人類帶來巨大益處。信中説,人工智慧已經為人類生活提供便利,包括語音識別技術、圖像分析技術、無人駕駛汽車和翻譯工具。

  公開信説:“由于人工智慧的巨大潛力,有必要研究如何在從其獲益的同時避免潛在的危險。”

  【或有危險】

  信中寫道,人工智慧技術發展良好,但給社會帶來的衝擊逐漸增加。如果沒有針對人工智慧的安全防護措施,可能導致人類的未來變得黯淡,甚至讓人類滅亡。

  短期而言,人工智慧可能導致數以百萬計人失業;長期而言,可能出現一些科幻電影中的情況,人工智慧的智力水準超過人類,開始“政變”。按人工智慧的發展進度,在不久的將來,機器可能以不斷加快的速度重新設計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。

  這封公開信説:“我們的人工智慧係統必須按照我們的要求工作。”

  今年早些時候,霍金提醒,需警惕人工智慧科技過度發展,防止人工智慧科技失控並超越人類智慧,最終破壞整個星球。他説,成功創造人工智慧科技“將是人類歷史上最偉大的成就,但不幸的是,有可能也是最後一項(成就)”。

  去年10月,太空探索技術公司和特斯拉汽車公司首席執行官馬斯克在美國麻省理工學院參加一場活動時説:“我認為對待人工智慧我們必須非常謹慎。按照我的猜想,人工智慧可能是我們面臨的最大滅絕風險。”

  馬斯克説,創造人工智慧猶如“召喚一只惡魔”,“在一些故事中,有人擁有五星陣法和聖水……他確信自己可以控制這只惡魔,不過事實並非如此”。

  為確保人工智慧不被誤用,美國谷歌公司不久前成立一個倫理委員會,監督這家企業的人工智慧技術研發。(新華社特稿)

  

+1
【糾錯】 責任編輯: 郝斐然
新聞評論
載入更多
濟南:大熊貓園內散步盡享美好春天
濟南:大熊貓園內散步盡享美好春天
長興花香浮動 正是踏青好時節
長興花香浮動 正是踏青好時節
雨後西湖晴歸來
雨後西湖晴歸來
新疆塔裏木:棉花播種忙
新疆塔裏木:棉花播種忙
010020030300000000000000011154581273833611