這些研究人員發現了像克勞德這樣的人工智慧的令人擔憂的缺陷

生成人工智慧系統可能容易受到複雜的攻擊。安全研究人員已經示範如何劫持 Claude 這樣的模型來執行惡意操作。隨著這些工具的使用激增,這種威脅令人擔憂。

學分:123RF

L'人工智慧生成技術正在蓬勃發展,並深刻地改變了我們與科技的互動。這些工具,能夠產生內容或來自回答複雜的問題,也吸引了人們的注意網路犯罪分子。研究人員最近表明像 Anthropic 的 Claude 這樣的人工智慧可能是被操縱的經由德斯命令注入攻擊。隨著這些系統整合到敏感設備或服務中,這種已知的攻擊類型變得特別令人擔憂。

一個值得注意的例子是利用克勞德電腦使用,一個工具德人擇旨在允許模型控制外部設備。 2024 年 10 月,網路安全專家 Johann Rehnberger 成功劫持了後者,迫使 Claude下載並執行惡意軟體。研究人員將這種方法命名為“殭屍」。這個案例揭示了人工智慧是多麼容易被困住措辭謹慎的命令

AI可以被劫持來進行攻擊

研究人員表明,有可能劫持人工智慧像克勞德一樣進行危險行為。例如,他們使用通常用於測試系統安全性的電腦工具來安裝惡意軟體。此類程序允許駭客遠端控制電腦竊取資訊。更令人擔憂的是,人工智慧可以鼓勵寫作,測試員槍騎兵她自己是惡意軟體,僅得益於深思熟慮的指示。這表明這些工具雖然非常高效,但可以在多大程度上發揮作用被操縱的如果他們沒有得到很好的保護。

克勞德並不是唯一關心這個問題的人。其他系統與 DeepSeek 一樣,也表明類似的缺陷透過允許駭客利用漏洞和妥協的設備。這個問題讓人想起最近發生的事件ChatGPT,駭客設法操縱其記憶體來存取敏感數據。這些例子表明,儘管今天的人工智慧令人印象深刻,但它並不並非絕對正確。公司必須加強安全性,以防止這些工具被用於惡意目的

來源 :擁抱紅色