殺人機器人如果被恐怖分子利用 後果將不堪設想
2023-03-29 12:14:45
隨著人工智慧技術的飛速發展,全自動化武器(殺人機器人)也將很快從科幻作品中走進現實。以殺人為目的的機器人一旦被研究出來,後果不堪設想,尤其是在恐怖分子活躍的當下。恐怖分子很可能會利用殺人機器人來襲擊他人,造成難以挽回的後果。
世界多國專家齊聚日內瓦研討「致命性全自動化武器系統」問題,並一致認為應儘早嚴控此類機器人的發展與利用。隨著科技的進步,尤其是機器人技術的飛速發展,被預先設置特定程序的機器人將擁有瞄準目標射擊的能力,在完全無人控制的情況下坦克也將具備主動尋找目標並自動射擊的能力。
因此,世界多國專家於今年初齊聚日內瓦,專門研討「致命性全自動化武器系統」問題。專家們一致認為,有多種自動化武器將擁有自動實施攻擊的能力。這次會議持續一周時間,會後聯合國發表最新報告警告稱,此類殺人機器人有落入恐怖分子之手的危險性,而且恐怖分子肯定難以抵擋住這種新型武器的誘惑。
聯合國報告認為,「雖然在最初階段,這些全自動化武器系統可能只有科技發達國家才會擁有,但是也極有可能很快擴散。此外,恐怖分子沒有任何遵守國際規範的動機,這也進一步增加了全球或地區不穩定性。現在有許多武器系統可以實施自動攻擊。」在這種情況下,這些致命性武器系統可以成倍地提升武力和攻擊力。因此,對這些武器系統進行人為幹涉和嚴格控制是非常有必要的。
此前,也有一份相關報告呼籲,在科技飛速發展的今天,人類更應該保持對所有武器系統的控制。報告認為,在戰鬥中武器系統的一些關鍵功能必須要靠人來控制,包括目標的選擇,從而才可以盡最大可能挽救生命,並保證戰鬥人員遵守國際法。「人權觀察組織」武器部高級研究專員鮑尼-多切蒂認為,「長期以來,機器人一直充當戰爭的工具,但都是人類在控制和使用它們。現在,一個真正的威脅是,人類放鬆了這種控制,並將生殺大權賦予了機器人。」不過,也有一些人辯稱,在戰場上使用機器人是利用它們來挽救生命。
去年,來自全球各國1000多位科學家和機器人專家發表公開信,警告稱這種致命性全自動化武器將於數年內成為現實,而不是幾十年後。這些科學家和專家包括世界著名物理學家史蒂芬-霍金、特斯拉公司CEO埃隆-馬斯克和蘋果聯合創始人史蒂芬-沃茲尼克等。在公開信中,他們聲稱 ,如果任何軍事大國或組織致力於研發全自動化武器,那麼全球性武器軍備競賽將不可避免。如果任由這種趨勢的發展,全自動化武器將可能成為明天的AK-47。
一直以來,霍金教授都堅持自己的反對態度。「我認為人工智慧的進步並不一定是有利的。機器人一旦到了能夠自我進化的階段,我們將無法預測它們的目標中是否包括我們自己。人工智慧的進化速度有可能會超越人類。」據總部位於英國倫敦的「禁止殺人機器人運動」組織介紹,美國、中國、以色列、韓國、俄羅斯和英國等國家仍在致力於此類系統的研發,希望能夠進一步提高武器的自動化作戰能力。
不過,谷歌董事長埃裡克-施密特在本周表達了自己的觀點。他認為,所有人都「不應該對人工智慧有恐慌心理」。施密特表示,「科學史表明,任何技術在最終改善人類生活之前,最初常常會受到質疑,並成為恐懼的對象。」雖然「世界末日」的假想也是值得考慮的情形,但是人工智慧的發展的最理想方向是幫助人類解決問題。「谷歌和其它許多公司也一起在致力於人工智慧安全性的研究,這樣才能保證人類在必要時可以暫停人工智慧系統。
想要研發出性能強化的的機器人並不是不可能,而後續的問題是怎樣去很好的控制它,科技本就是這樣,在研發這些人工智慧的同時,考慮到任何不確定因素並作出相應的對策,才是最好的辦法。