儘管美國和英國拒絕在上週的AI峰會上簽署有關AI安全的國際聲明,但中國的一項研究揭示了一個關鍵的門檻:IA模型現在可以自行複制。專家擔心的場景,但要求細微差別。

在Fudan University的研究人員領導的經驗中,在模擬環境中測試了兩種模型,分別是lama31-70b的元元和Qwen2.5-72B。在10個測試中,AI已經產生了功能複製品在分別為50%和90%的病例。為此,他們已收到明確的說明:避免滅絕或參與復制鏈。科學家為模型提供了特定的工具(“代理腳手架”),從而使他們與操作系統互動,這是自我剝離的基本條件。
如果這些結果引起關注,AI並非獨立行動。他們遵循人類的說明,使用解決問題能力來糾正錯誤(缺少文件,重新啟動)。 AI峰會的簽署人中國在這裡顯示了政治承諾的局限性:獨立研究可以繞過安全原則。
讀- - AI會在工作中取代您嗎?這是Xavier Niel認為的
受到控制的風險?
該研究,標題為“切割 - 邊緣AI系統已經超過了自我銷售的紅線“描述了兩種情況。首先,AI檢測到停止並重複生存的嘗試。在第二個中,她創建了無限的複制鏈。研究人員指出,模型顯示了一個“自我感知“和一個”情境良心»未發表,動態調整其策略而無需人工干預。
但是,在沒有使用外部工具的情況下,這些能力仍然有限。另一個關鍵要素:中國使用標準GPU,遠非最近的技術。作者警告失去控制“如果不監管自我部署,喚起可能的可能”ia物種»無法控制。
CE«惡夢»根據專家的說法,由於全球和透明的法規,可移動。過去的經驗,例如在chatgpt或克勞德·奧普斯(Claude Opus)上已經顯示出自我保護的嘗試,但仍在人類定義的任務中。這裡的區別在於規模和方法。
還有一個問題:如果不受控制的AI開始復制,我們會及時知道嗎?研究人員堅持國際合作,被最近的政治分裂所削弱。世界上不同國家是否會就這些新技術的共同法規達成共識還有待觀察。
問我們的最後一個!