圖為美國裝備的軍用無人機
據德國《每日鏡報》網站11月13日報道稱,在不久的將來,完全自主行動的殺人機器人將在戰場上決定人們的生死。關于禁止或者至少是限制此類武器系統使用的討論近年來一直沒有停止,但至今仍毫無結果。聯合國近期開始在日內瓦就此進行討論。
什麼是殺人機器人?
它的正式名稱為“致命自主武器系統”。目前還沒有普遍有效的定義。聯合國和國際紅十字會是這樣解釋的:它無需人類的幫助就可以確定目標、發動攻擊並清除目標。換句話說,一旦編好程序,這些武器系統可以獨立分析數據,導航至作戰地區並使用機關炮或火箭等武器。近年來人工智能領域的巨大進步構成了殺人機器人發展的基礎。
已經在使用的無人機目前還是由士兵操控的,因此它(還)不是殺人機器人。儘管距離它獨立操作似乎並不遙遠。
發展到何種程度了?
負責軍備的俄羅斯副總理羅戈津今年春天發布過一段視頻,裡面可以看到《終結者》似的類人殺人機器人。這更多地屬於宣傳範疇。外觀是否與人類相像一點都不重要。人權觀察組織的專家認為,“美國、英國、中國、以色列、俄羅斯和韓國開發的武器系統自主性都在增大”。目前已經有原型機在使用當中。
支持者辯稱,它將令軍人的危險最小化。但恰恰這點可能會導致門檻的降低並令戰爭增多——從而導致更多的平民傷亡。人們已經可以在遠程操控的無人機的使用中看到這樣的發展。
後果責任誰來承擔?
這是與殺人機器人密不可分的一個根本性的倫理問題。合乎倫理和道義的行動,善與惡、對與錯的區分,對後果的評估,對自身行為責任的承擔,所有這些在未來戰爭中都不存在。機器人雖然有人工智能,但卻沒有憐憫或悔恨等情感,它沒有任何的愧疚感。對於適度等概念它無從下手。但這卻是寫在所謂的戰爭法當中的:衝突各方必須避免不必要的破壞並避免給對方帶來不必要的傷痛。必須善待平民、受傷、無作戰能力和被俘的軍人。專家認為,這是無法編入程序當中的。2013年時,政策專家在給聯合國人權委員會的一份報告中就警告說:這些“不知疲倦的戰爭機器”可能會令武裝衝突變成無休止的戰爭——外交將沒有可能來終止專門用來在即便是毫無希望的情況下也繼續作戰的機器的殺戮。