人工智能方興未艾。在去年8月的一場虛擬空戰中,人工智能5比0戰勝一名人類飛行員。該結果仍在被討論,但毫無疑問,機器具有更快的反應能力,有能力同時追蹤數件事,並且不會受到疲勞或恐懼的困擾,疲勞和恐懼可能會導致在戰鬥中的糟糕決策。
對此有兩種回應。一種是努力並控制人工智能,讓其遠離戰場,因為機器缺乏人類的道德感。長期以來,反對“殺手機器人”的組織一直提出理由反對自主武器,而歐盟似乎也贊同。上周,歐洲議會確定其立場:“選擇一個目標並使用自主武器系統採取致命行動的決定,必須始終由人類做出,進行有意義的控制和判斷。”換言之,自主武器作出自己的決定應被法律禁止。
然而,美國似乎採取了不同的路線。由政府任命的一個小組本周向國會報告時提出,人工智能有可能比人類犯的錯誤少,並且在識別目標方面會做得更好。
該小組副主席、前國防部副部長羅伯特·沃克說:“至少追求這一假設是道德義務。”他認為,自主武器將減少由於目標錯誤識別而造成的傷亡。
在這背後,有軍事觀點。如果由人工智能控制的武器能夠擊敗人類操作的武器,那麼擁有人工智能的任何人都將獲勝,並且無法部署它們意味著接受失敗。
來源:參考消息網 |