人類能控制AI狙擊手的準星嗎?互聯網+
人類的生死不應該由機器來決定。那么,是不是所有的人工智能武器都要被禁止呢?
自從人工智能被賦予新的生命力量,其在短短幾年之內迅速蔓延到社會的各個層面。這其中自然免不了一些比較敏感的領域,比如武器開發。
冷兵器時代的武器的作用簡單明了,就是殺人。但當戰爭進入槍炮時代,尤其是現代各種高科技武器頻現,武器又并不僅僅是為了消滅對方更多的有生力量以取得勝利,而是形成震懾力以不戰而屈人之兵。比如核武器。
由于核武器的巨大威力,其很早就被禁止研發。但除此之外,還有一些武器由于其非人道性,比如激光武器、化學武器等,也處于被限制發展甚至禁止發展的境地。這很好理解,對一個人而言,一槍斃命倒也了結得快;但被激光弄瞎了眼而不死、被毒氣慢慢蔓延整個身體然后扭曲而死,實在是有點違背人性。
所以,當人工智能將觸角伸進武器的領域的時候,其引發了社會的強烈不滿。谷歌為五角大樓研發人工智能無人機的時候甚至引起了全公司員工的聯名反對。而就在不久前,馬斯克和Deepmind的三大聯合創始人以及其他的一眾公司大佬們也宣布,將永遠不會研發人工智能武器。
導致這種情況出現的原因,就是他們認為:人類的生死不應該由機器來決定。那么,是不是所有的人工智能武器都要被禁止呢?
比如人工智能狙擊手。
來無蹤去無影:
AI狙擊手為什么更令人恐懼?
去年,在日內瓦舉辦的聯合國特定常規武器公約會議上,人工智能研究者斯圖爾特·拉塞爾公布了一段搭載了面部識別、廣角攝像頭和各種傳感器的無人機擊殺目標任務和學生人群的視頻。視頻中,這些無人機飛快地穿過各種區域,然后通過精準的面部識別,對目標進行狙殺。直中眉心,一擊致命。
視頻主要是為了傳達這樣一個信息:在未來,人工智能武器的研發很可能把人類置于一個危險的境地。拋去這些比較遠的話題不談,視頻中呈現的無人機武器一旦成真的話,倒是很可能砸了一群人的飯碗:狙擊手。
我們知道,在現代戰爭當中,狙擊手的作用非常重要。不同于密集槍炮發射換來一點點戰果,優秀的狙擊手幾乎是百發百中,因此其又被稱為“神槍手”。又因其常常具有極佳的隱匿效果,加上消音器的作用,其往往會給人帶來心理上的恐懼。這又令其威脅倍增。
一名優秀的狙擊手要具備的基本素質有很多,挑選最佳射擊位置、巧妙的偽裝、對距離的測算、對風力的估計、極佳的耐力……一般人還真做不來。然而,人工智能狙擊手的到來,很可能讓這一切成為不必要條件。
比如上文提到的無人機武器。通過偽裝,其完全可以變成一只蒼蠅或者小鳥,在目標缺乏注意的情況下出其不意。毫無疑問,它能最大限度地接近目標,毋需考慮位置、射程、風速等任何問題,畢竟目標近在咫尺,風力什么的完全可以忽略不計。
可以確定的是,這一方面會令狙擊手失業,另一方面,其造成的恐懼也將是空前的。
想象一下,士兵們在以前遇到狙擊手的時候臥倒隱藏,然后尋找一下或許還能將來個反殺;但這種新型的武器你根本不知道它在哪兒,但它又無處不在,冷不丁你就一命嗚呼。這種情況下士兵們全都用來害怕了,哪里還有心思去打仗?并且,暗殺、刺殺等活動也很可能變得日益猖獗。
因此,它給人造成的心理恐慌恐怕會導致其被貼上“非人道”的標簽,被列入禁止武器的行列也就不足為奇。當然這一切還是在人工控制的前提下;如果是自行識別目標然后徑直攻擊,就更難以走到現實中來了。
但對狙擊本身而言,其使用的區域難道僅僅只局限于戰場或者暗殺嗎?
狙擊的特點就是精準,因此其也就會被用來“解難題”。比如在影視劇當中,一旦出現綁架事件,我們往往會看到刑警、特警一同出動,有負責喊話的,有負責攻堅的,而在不遠的高處則會埋伏著一名或數名狙擊手。在關鍵時刻對關鍵嫌犯實施精準打擊,將在很大可能上實現對復雜局面的快速解圍。
那么,人工智能狙擊手將會更出色地完成這一任務,在嫌犯神不知鬼不覺的情況下對其進行打擊。
并且,在其他的一些需要進行正面火力交鋒的時候,比如追捕毒販,其也可以派上用場。警察只需要將嫌犯困在一定的范圍內,然后放出這些智能武器進行追捕即可。
也就是說,在處理防恐、防暴、防毒等治安犯罪事件的時候,利用機器來避免對人造成生命傷害,也可以成為發展人工智能狙擊手的理由。
如果不能握在手心,
就把它永遠禁閉
而狙擊也僅僅是人工智能武器能有助于人類保證自身安全和處理緊急情況的一種選擇而已。戰爭中的對手可能只是暫時的,他們互為敵人,但不一定是壞人。但暴恐等分子卻永遠是作為人類社會的對立面而存在的。也就是說,在戰爭中適應于對手的,也同樣適用于犯罪分子。
從這個角度上來說,我們確實需要人工智能武器來幫助應對這個群體。那么同時問題就來了,我們還能說真的不需要人工智能武器嗎?
看來要說不需要,好像有點不合適。但其有一個大前提:務必是以積極維護社會的目的出現。而除此之外,面對在使用人工智能武器的過程中可能出現的問題,我們還需要有更多的考慮。
第一,人工智能不能擁有開火決定權。阿西莫夫早在1940年之前就提出了著名的“機器人三原則”,其中第一條和第二條分別為:“機器人不得傷害人類,或看到人類受到傷害而袖手旁觀”“機器人必須服從人類命令,除非這條命令與第一條相矛盾”。拯救人質自然算是看到人類受到傷害而不袖手旁觀了。但即便是要擊斃犯罪嫌疑人,其也要等待人類的授權,就像狙擊手的開火需要得到授權一樣。畢竟人工智能雖然擁有人臉識別的能力,但涉及到生命傷害,確定射殺對象的時候仍然要由人類做出最后判斷。
第二,嚴格人工智能武器的管理和使用程序。對警方而言,人工智能武器是一把破敵利器;一旦因為保管工作的失誤而導致武器遭竊或者丟失,甚至被恐怖分子利用,其帶來的社會安全隱患也將是巨大的。那么,為了應對這種情況,兩方面的問題應該值得注意。
一是要制定比常規武器更嚴格的保管、使用、收回等程序,確保其出庫和入庫都能做到萬無一失。畢竟這不是簡單的一個追究責任的問題,最好的方法就是不丟失。二是要在武器的開發上做充分的考慮,比如在發現武器丟失的第一時間可以暫時鎖定其功能,找回后再進行解鎖;如果確定武器丟失,可以開啟武器的自我毀滅(當然不一定是爆炸)。此外,設置啟動保護程序等也是非常必要的。
總之,利用一切手段保證人工智能武器不被壞人利用,是對人類社會負責的基本表現。
第三,人工智能武器的反制技術開發。說到底,人們對人工智能武器的擔憂來自于目前尚無特別好的反制方法。畢竟當有一個物種打破生態平衡的時候,一定要有相應的物種出現來維持平衡。為什么美國扔了個原子彈日本就投降了?
因為日本拿它沒辦法呀。
所以,這才是人工智能的可怕之處。畢竟在人類的對立面,也存在著一批利用技術作惡的危險分子。隨著人工智能技術的成熟和研發成本的降低,很難確保恐怖分子等不會因此而研發出人工智能武器來威脅民眾的生命安全。這就給各國提出了一個明確而急迫的要求:在人工智能武器的技術被壞人掌握之前,我們必須要有所作為,保證在惡魔來臨之前,我們有強大的法力將其制服。
而在以上的這些東西實現之前,對人工智能武器持非常慎重的態度自然是無可厚非。它不應該作為單純的危險物種而存在,但又不能對其有益之處也全盤否定。我們未來可能需要人工智能武器,但一定不能是以無辜的傷害為目的。當然,如果我們不能確定它只能為確保人類的安全而工作,人工智能武器的潘多拉魔盒還是緊閉為好。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。