正文 機器人的道德選擇(2 / 2)

溫菲爾德說:“雖然根據程序設定,救人機器人是可以對他人施救的,但它根本不理解這種行為背後的真正原因。實際上,它就是一具‘道德僵屍’——隻知道根據程序指令行動,完成任務,僅此而已。我曾經不確定機器人能否做出道德倫理選擇,經過這一係列實驗,我仍然不知道答案。”

人類選擇

溫菲爾德所思考的問題對於所有人來說,都具有非常重要的意義。隨著機器人日益融入人們的生活,這一問題更加需要明確的答案。

以無人駕駛汽車為例,當它有一天要在保全車內人員安全還是行人安全之間做出權衡時,你認為它會怎麼選擇呢?或許,連它自己都會不知所措。

雖然目前要解決這個問題還非常困難(這也是無人駕駛汽車至今都無法大規模正式上路的主要原因),但某些為軍事戰爭設計的機器人,或許能夠為我們提供一個初步答案。美國佐治亞理工學院(Georgia Institute of Technology)的計算機專家羅納德·阿金(Ronald Akin),專門為一個名為“道德監督員”的軍事機器人研製了一套運算法則。在模擬戰鬥測試中,它可以幫助機器人在戰場上做出明智的抉擇,例如在學校和醫院等戰爭條例規定的受保護區附近不動用武器,且盡量減少人員傷亡。

不過,這道選擇題還是相對簡單的,如果遇到更加複雜的情況,結果往往會大不一樣。例如,在打擊“伊斯蘭國”極端恐怖組織的戰鬥中,美軍的無人機隻能對其陣地實施有效轟炸,但當對方士兵融入當地平民中後,無人機就無所施措了。

目前,盡管在國際社會上禁止研發這類“殺人機器人”的呼聲很高,但也有支持者認為,它們能更大程度地減少戰場上信息不對稱的情況,更加精確地打擊目標,使用這種技術可以有效減少傷亡、挽救生命。

任何戰爭武器都是可怕的,如果有什麼武器不由人操控那就更恐怖了。而且,要讓機器人做出正確的道德倫理選擇,也不是一朝一夕能夠做到的,這涉及到一係列極其尖端複雜的人工智能技術。可以想象,在未來的某一時刻,戰場上一定會出現為數不少的“殺人機器人”,但麵對它們,人類其實還有一個更好的選擇——和平!