Elon Musk,DeepMind創始人和研究人員,簽署承諾不開發致命的AI武器系統互聯網+
今天在斯德哥爾摩舉行的2018年國際人工智能聯合會議(IJCAI)上,全球研究人員和高管聯盟簽署了承諾不發展“致命自主武
(記者|謝東霞)今天在斯德哥爾摩舉行的2018年國際人工智能聯合會議(IJCAI)上,SpaceX和特斯拉首席執行官埃隆馬斯克; 谷歌DeepMind子公司的三位聯合創始人Shane Legg,Mustafa Suleyman,Demis Hassabis,Skype,Jaan Tallinn; 以及一些世界上最受尊敬和最杰出的人工智能研究人員,包括Stuart Russell,Yoshua Bengio和JürgenSchmidhuber已經簽署了承諾不發展“致命自主武器”的承諾。
這是一份非官方來自全球研究人員和高管聯盟的最新舉措,他們反對這種技術的傳播。該承諾警告,使用人工智能“無需人為干預”選擇和參與目標的武器系統“構成道德和實用威脅?!焙炇鹫哒J為,在道德上,“人命永遠不應該委托給一臺機器”,在現實層面,“這種武器的擴散將危及每個國家和個人的穩定”。
人工智能(AI)在軍事系統中發揮越來越大的作用,公民、政策制定者和領導者有必要區分人工智能的可接受和不可接受的用途。致命的自主武器,在沒有人為干預的情況下選擇和參與目標,將危及每個國家和個人的穩定。成千上萬的人工智能研究人員一致認為,致命的自主武器可能成為暴力和壓迫的有力工具,尤其是在與監視和數據系統相關聯時。
此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點,國際社會缺乏管理的技術工具和全球治理體系。單一集團的單方面行動很容易引發軍備競賽,防止這種軍備競賽應成為國家和全球安全的首要事項。
開發人工智能武器的技術已經很普遍,遏制“致命自主武器”的發展具有很大挑戰。到目前為止,試圖建立自主武器的國際監管一直是無效的。我們很難明確區分自主系統和非自主系統,此外參與開發此技術的國家,沒有真正的動機去阻止自主武器的發展。
軍事分析家保羅·沙爾(Paul Scharre)表示,沒有足夠的“勢頭”來推動國際限制?!皼]有一個核心的西方民主國家集團參與其中,而這與過去的武器禁令一樣至關重要。”
今天包括伊隆馬斯克在內的技術領導者,以及來自DeepMind的簽署人表示,我們既不參與也不支持致命自主武器的開發,制造,貿易或使用。呼吁各國政府和政府領導人建立一個強大的國際規范和法規,反對致命自主武器未來的發展。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。