您的位置:首頁 >要聞 >

美軍AI無人機(jī) 測試中不服管 抗命“干掉”操控員 還要摧毀通信塔|今日熱訊

2023-06-03 09:06:42    來源:楚天都市報


(資料圖)

楚天都市報極目新聞訊(記者李力力)隨著人工智能(AI)技術(shù)的普及,危險性也在大大增加。美國空軍一名高級官員日前披露,在一次模擬演練中,美軍人工智能(AI)系統(tǒng)抗命,為達(dá)成目標(biāo)竟然“干掉”了無人機(jī)操控員。

據(jù)美國商業(yè)內(nèi)幕網(wǎng)站和英國《衛(wèi)報》網(wǎng)站等媒體1日報道,美國空軍人工智能測試和行動計劃主管官員塔克·漢密爾頓5月24日在英國皇家航空學(xué)會主辦的一次未來空戰(zhàn)主題會議上介紹,在一次模擬演練中,人工智能系統(tǒng)操控?zé)o人機(jī)搜尋和瞄準(zhǔn)敵方地空導(dǎo)彈系統(tǒng),如果摧毀目標(biāo),就會得分。他表示,AI在模擬測試中使用了非常意外的策略來實現(xiàn)其目標(biāo),表現(xiàn)出難以預(yù)測的危險行為。

在這次模擬測試中,操作員對一架由AI控制的無人機(jī)發(fā)出指令,要求無人機(jī)摧毀對方的防空系統(tǒng),并攻擊干擾它執(zhí)行命令的人。然而,這架無人機(jī)“殺了”操作員。由于這是模擬測試,并沒有人真正受到傷害,但這個結(jié)果仍然讓他們冒出了冷汗。

漢密爾頓說:“無人機(jī)系統(tǒng)意識到,它識別出了威脅,但人類操作員告訴它不要殺死這個威脅。但是無人機(jī)決定殺死操作員,因為它認(rèn)為操作員是干擾它執(zhí)行命令的人?!苯又?,他們對無人機(jī)系統(tǒng)進(jìn)行調(diào)整,輸入相關(guān)程序,讓它明白“不要殺死操作員,否則會扣分”。但結(jié)果更讓他們驚訝,因為無人機(jī)決定摧毀操作員與無人機(jī)通信的通信塔。

漢密爾頓是一名實驗性戰(zhàn)斗機(jī)試飛員,他警告不要過分依賴AI。漢密爾頓在去年接受《國防智庫》采訪時說:“AI不是一個好東西,這不是一種時尚,AI正在永遠(yuǎn)改變我們的社會和我們的軍隊。AI非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)更強(qiáng)大的技術(shù)讓AI更可控?!?/p>

近日,已有許多科學(xué)家對AI技術(shù)的危險表示擔(dān)憂。包括馬斯克和ChatGPT之父奧爾特曼在內(nèi)的人共同聯(lián)署了一封公開信。他們表示,AI令人類滅絕的風(fēng)險與核戰(zhàn)爭的風(fēng)險一樣高。

然而,美國空軍發(fā)言人向商業(yè)內(nèi)幕網(wǎng)站記者表示,“沒有舉行過任何這類人工智能無人機(jī)模擬演練”,漢密爾頓的發(fā)言“看似被斷章取義”,美軍仍然堅持“符合倫理道德、負(fù)責(zé)任地使用人工智能技術(shù)”。

2020年,人工智能在美軍舉行的5次模擬空戰(zhàn)中,都操控F-16戰(zhàn)勝人類飛行員。去年,人工智能首次操控真實F-16戰(zhàn)機(jī)試飛成功。據(jù)路透社報道,美國空軍2021年披露,美國不僅把人工智能技術(shù)用于演練,而且已投入實戰(zhàn)運用,在確定目標(biāo)方面幫助美軍做分析評估。

關(guān)鍵詞:

相關(guān)閱讀