这些研究人员发现了像克劳德这样的人工智能的令人担忧的缺陷

生成人工智能系统可能容易受到复杂的攻击。安全研究人员已经演示了如何劫持 Claude 这样的模型来执行恶意操作。随着这些工具的使用激增,这种威胁令人担忧。

学分:123RF

L'人工智能生成技术正在蓬勃发展,并深刻地改变了我们与技术的互动。这些工具,能够生成内容或来自回答复杂的问题,也吸引了人们的注意网络犯罪分子。研究人员最近表明像 Anthropic 的 Claude 这样的人工智能可能是被操纵的经由德斯命令注入攻击。随着这些系统集成到敏感设备或服务中,这种已知的攻击类型变得尤其令人担忧。

一个值得注意的例子是利用克劳德电脑使用,一个工具德人择旨在允许模型控制外部设备。 2024 年 10 月,网络安全专家 Johann Rehnberger 成功劫持了后者,迫使 Claude下载并运行恶意软件。研究人员将这种方法命名为“僵尸”。这个案例揭示了人工智能是多么容易被困住措辞谨慎的命令

AI可以被劫持来进行攻击

研究人员表明,有可能劫持人工智能像克劳德一样进行危险行为。例如,他们使用通常用于测试系统安全性的计算机工具来安装恶意软件。此类程序允许黑客远程控制计算机窃取信息。更令人担忧的是,人工智能可以鼓励写作,测试员枪骑兵她自己是恶意软件,仅得益于深思熟虑的指示。这表明这些工具虽然非常高效,但可以在多大程度上发挥作用被操纵的如果他们没有得到很好的保护。

克劳德并不是唯一关心这一问题的人。其他系统与 DeepSeek 一样,也表明类似的缺陷通过允许黑客利用漏洞和妥协的设备。这个问题让人想起最近发生的一起事件ChatGPT,黑客设法操纵其内存来访问敏感数据。这些例子表明,尽管今天的人工智能令人印象深刻,但它并不并非绝对正确。公司必须加强安全性,以防止这些工具被用于恶意目的

来源 :拥抱红色