機器人的道德選擇
覽·科學
作者:王瑞良
現實悲劇
作為一部頗有現實意義的電視劇,《紙牌屋》反映了當今社會的某些真實問題。如今,美軍已經大量使用能夠遠程遙控、實施自動攻擊的無人機,但也因此頻發殃及無辜的慘劇。在阿富汗戰爭中,美軍無人機每消滅1名恐怖分子,就會有50名無辜者連帶喪生。同時,許多歐盟國家也在研發可以自主行動的戰場機器人(俗稱“殺人機器人”),這種武器雖然還未問世,但相關技術已經非常成熟。不久前,聯合國安理會根據《特定常規武器公約》,呼籲各國中止這類機器人的研發和應用,並希望大家能夠永久性地禁止開發具備獨立殺人決策權的武器係統。
對這些鋼鐵機器而言,它們根本不知道什麼是法律和道德,它們也無法對自己的行為負責——它可以判斷對方是人還是機器,但卻無法識別對方是士兵還是平民。士兵可以用常識判斷眼前的女子,究竟是身藏炸藥還是身懷六甲,但機器人根本就沒有這個能力。它們甚至會誤傷已喪失戰鬥意誌或能力的傷員和準備投降的士兵。
聯合國人權理事會特別報告員克裏斯托弗·海因斯(Christopher Hines)說道:“這種機器人無法遵守國際人權法和人道法,如果各國軍隊將‘殺人機器人’常規化,或是恐怖分子利用它們取代自殺式襲擊,那就如同打開了現代的‘潘多拉魔盒’,後果不堪設想。而且,把是否殺害人類的判斷權托給機器更是‘道義責任的缺失’。”
道德僵屍
其實,海因斯的擔憂不無道理,“殺人機器人”正從由人類遠程遙控,向由計算機軟件和傳感器裝置控製發展。未來,它們很有可能可以全自動執行識別敵人、判斷敵情和殺死敵人等任務。那麼,有沒有辦法通過計算機程序的設計,讓機器人具有道德觀念和法律意識呢?又或是給機器人頒發一個“行動執照”,將它的所作所為限定在一個合法的範疇之內呢?
這些問題激發了一批頂尖科學家的靈感,有人已進行了相關試驗。英國布裏斯托爾機器人實驗室的專家艾倫·溫菲爾德(Alan Winfield)及其同事,為機器人設計了這樣一個程序——阻止其他擬人機器人掉進洞裏。該程序的設計原理,源於美國著名科幻小說家艾薩克·阿西莫夫(Isaac Asimov)提出的機器人學三定律之一——機器人不得傷害人類,或坐視人類受到傷害。
試驗一開始,機器人還能順利完成任務:當擬人機器人向洞口移動時,機器人會衝上去將其推開,防止其掉進洞裏。隨後,研究人員又添加了一個擬人機器人,兩個擬人機器人同時向洞口移動,救人機器人則要被迫做出選擇。有時,其中一個“人”會被成功解救,而另一個“人”則會掉進洞裏;有時,機器人甚至會想同時救出兩個“人”。不過機器人在33次的測試中,有14次因為在救哪一個“人”的問題上不知所措而浪費了時間,結果導致兩個“人”都掉進了洞裏。2014年9月2日,在英國伯明翰召開的“邁向自主機器人係統”會議上,研究人員將這項實驗的結果公開展示,並引起了世人的高度關注。