新華網 正文
人工智慧該如何遠離偏見與歧視
2018-10-15 08:08:54 來源: 文匯報
關注新華網
微博
Qzone
評論
圖集

  越來越多的高技術産業和數字服務都以人工智慧和機器學習為基礎。但是,我們必須看到:人類社會存在的偏見和歧視也會被復制到人工智慧係統中。因此,我們應對人工智慧的整個程式進行監管,包括資訊輸入輸出、數據、演算法、模型等,以克服偏見與歧視在人工智慧領域的延續。

  在人工智慧問題上,有個所謂 “黑盒子”的問題,即我們不能看到程式演算法的內部,因此無法理解人工智慧是如何做出決策的。如果沒有解決好這個問題,一些涉嫌歧視的數據將被演算法永久性地編碼進人工智慧程式中,從而影響未來人類與人工智慧的關係。不過,僅靠純粹的技術手段,很難實現對人工智慧的每個階段實現無漏洞監控,同時還需通過人工評估和幹預,才能確保偏見和歧視被徹底消除。

  要消除人工智慧潛在的歧視問題,第一步是打開演算法“黑匣子”。出于專利保護和商業機密的考慮,許多公司的人工智慧程式演算法都處于保密狀態。不過,這一狀況正得到改變,目前人工智慧領域正在加快代碼的開源,制定新的透明度標準,來提高人工智慧産品的可靠性。AI NOW是美國紐約大學一個倡導演算法公平的非營利組織,它提倡 “程式員必須對演算法得出的結論做出解釋,否則就不能投入使用”。

  目前,相當一部分互聯網巨頭開始正視這一點。如谷歌開發的幾個人工智慧項目,程式員為機器學習增加了手動限制,使輸出的資訊更準確,可理解性更高。美國國防部高級研究計劃局還資助了一項名為XAI(可解釋的人工智慧)的計劃,旨在打開人工智慧的 “黑匣子”,以保證用戶更好地控制人工智慧程式。微軟首席執行官薩蒂亞·納德拉也認可 “演算法問責制”的必要性。

  但通過打開演算法 “黑匣子”,制定法規和政策來確保消除人工智慧的偏見和歧視,這還遠遠不夠。因為偏見與歧視不光存在于演算法中,還存在于人工智慧得出的結論、預測和建議中。

  以虛擬助手為例,處理比較簡單的任務時,人工智慧係統會偏向使用女聲(例如Apple的Siri和亞馬遜的Alexa);而解決疑難問題時,係統則選用男聲(例如IBM的Watson和微軟的愛因斯坦)。由于在人工智慧行業女性從業人數偏少,這更是增加了性別歧視的可能性。

  鑒于此,我們應加強對人工智慧所使用的數據、演算法以及模型的評估,以剔除潛在的可導致偏見與歧視的因素,並且加強程式員的 “演算法問責制”,這樣才能提高人工智慧産品的可靠性,最終建立起人機信任。

  (作者:伊麗莎白·艾塞萊 英國皇家國際事務研究所;上海全球治理與區域國別研究院 劉琳 編譯)

點擊查看專題

點擊查看專題

+1
【糾錯】 責任編輯: 鐘玉嵐 王秀
新聞評論
載入更多
杭州舉行“彩繪錢塘”活動
杭州舉行“彩繪錢塘”活動
萌娃競速 樂享童年
萌娃競速 樂享童年
杭州:傳承敬老美德
杭州:傳承敬老美德
廬山西海秋意漸濃
廬山西海秋意漸濃

010020030300000000000000011100901299711231