几位网络安全专家发现,完全有可能绕过 ChatGPT 的限制,利用人工智能生成特别危险的恶意软件。事实上,只要稍加掌握,聊天机器人就可以使这种恶意软件完全无法检测到。
如果 ChatGPT 如此令互联网用户着迷,那是因为它既令人印象深刻又令人不安。工人们最担心的当然是看到他们的工作被人工智能取代,某些部门已经开始的进程。就网络安全专家而言,他们对黑客滥用的风险提出了警告,因为黑客很快就发布充满恶意软件的应用程序的假副本。
但到目前为止,很少有报告警告过通过 ChatGPT 创建恶意软件的风险。必须说的是,OpenAI 通过将安全限制集成到其聊天机器人中,防止任何恶意用户使用它生成恶意代码,从而确保了自己的安全。但显然,这还不够。事实上,一些网络安全专家已经证明,取消这些限制是可能的。
关于同一主题——ChatGPT:一名律师利用人工智能发明虚假案件来帮助他的工作
就是这样,ChatGPT 可以生成强大的恶意软件
更糟糕的是,ChatGPT 生成的恶意软件在受感染的计算机上可能完全不会被注意到。为此,网络安全专家设法生成了我们所说的多态代码,即一个能够变异以始终保持在雷达之下的程序。“使用这些新技术,攻击者可以将一系列通常高度可检测的行为组合成不寻常的组合并逃避检测”HYAS Infosec 的安全工程师 Jeff Sims 解释道。
CyberArk 则发现可以使用 ChatGPT 将代码注入已激活的进程中,这再次使其无法被主要安全系统检测到。目前,所有这些应用都还只是理论上的。但现在理论已经得到证实,黑客转向实践可能只是时间问题。
来源 :汤姆的硬件
询问我们最新的!
谷歌正在通过谷歌文档的一项有前途的新功能来扩展其人工智能工具库。这项创新被称为“帮助我创建”,它远远超出了简单的写作帮助,它允许完整生成结构化文档。这个消息……
应用领域