「殺人機器人」似乎已被公認是下一輪軍用技術的制高點。中美俄英法韓等主要軍事大國,紛紛增加研發投入,爭相打造不需人類駕駛員、操縱者的「鋼鐵雄師」。但同時,這引發的倫理爭議與安全擔憂日漸升溫。一批機器人和 AI 領域的專家、企業家及技術領袖,正呼籲聯合國禁止「殺人機器人」開發和使用。
20 日,來自 26 個國家的 116 名專家,由馬斯克和 DeepMind 聯合創始人 Mustafa Suleyman 領頭,發表公開信號召全面禁止自主武器。
聯合國最近已投票透過開啟對此類軍用武器的正式討論,這包括自主化的無人機、坦克、機關槍。馬斯克等人已向聯合國提交一份公開信──希望在此時,即正式討論開始前呼籲,推動聯合國制定決議制止這波全球已開啟的「殺人機器人」軍備競賽。
在公開信中,這批技術領袖對主持該討論的聯合國常規武器會議警告,這輪軍備競賽極有可能導致「人類戰爭形式發生第三次革命」,前兩次分別由火藥和核子武器引發。他們寫道:
一旦研發出來,致命自主武器將使未來戰爭擴大到前所未有的規模,戰爭進展的速度也將超過人類對時間的理解。這類武器很可能成為恐怖的代名詞,獨裁者、恐怖分子能用在無辜平民上,也有可能被駭客利用,讓自主武器做出我們不希望看到的行為。
留給我們行動的時間並不多。一旦這個潘朵拉的盒子開啟,關上就難了。
之前 AI 專家曾警告,以現在的人工智慧技術和發展速度,部署全自主武器將在幾年內變得可行。雖然,AI 武器能讓戰場對軍隊服役人員來說更安全──更多人不需要上前線;但專家擔心自主行動的進攻性武器,將大大降低戰爭的門檻,導致更大量的傷亡。
公開信在今年國際人工智慧聯合會議(IJCAI)開幕致辭上公布,得到機器人及 AI 領袖不少知名專家學者的支持。公開信全文以及署名者名單可見此。他們強調緊急行動的重要性,尤其聯合國把討論該問題的會議時間推遲到今年 11 月,原計劃是 21 日。
這批聯合署名公開信的專家,呼籲把「在道德倫理上站不住腳」的致命自主武器系統,加入聯合國自 1983 年生效的特殊常規武器大會(CCW)武器禁用名單。後者包括化學武器及蓄意以致盲為目的的雷射武器。
新南威爾斯大學人工智慧教授 Toby Walsh 對此表示:
幾乎所有技術都有兩面性,AI 同樣如此。
它能幫助我們解決許多目前面臨的社會問題:不平等、貧困、氣候變化帶來的挑戰及仍未消退的全球金融危機。但是,同樣的技術也能用到自主武器,讓戰爭(進一步)工業化。
我們需要在今天決定,到底什麼樣的未來才是我們想要的。
大家很熟悉的馬斯克是該領域的活躍人物。他很早就對前瞻性的 AI 政策立法多次呼籲,把人工智慧說成人類的頭號生存威脅。馬斯克的說法造成很大爭議,不少頂級學者及意見領袖表達不同觀點,包括 Ray Kurzweil 與祖克柏。不少公眾可能認可 AI 對人類社會有很大破壞潛力這說法,但同時認為真正造成「破壞」還離得遠。
Clearpath Robotics 創始人 Ryan Gariepy 表示:
與其他科幻小說的 AI 潛在應用不一樣,自主武器系統研發正處在一個轉捩點,它對無辜平民造成殺傷的威脅非常現實,也有可能造成全球不穩定。
IJCAI 被專家用作討論致命自主武器系統的論壇,已經不是第一次了。兩年前,包括馬斯克和霍金在內的數千名 AI、機器人專家以及工業領袖在該大會簽署了另一封公開信,呼籲與這次相似的武器禁令。這推動了聯合國對致命自主武器開啟正式討論。
核子武器的威脅還未解決,人類又將面臨另一個自己製造的生存威脅。