ChatGPT 再次泄露用户密码,它开始做很多事情

ChatGPT 是新一次泄露的受害者,距第一次泄露仅几个月。这一次,一家制药公司的聊天机器人的用户看到他们的密码在光天化日之下被泄露。另一位与该公司无关的互联网用户实际上设法获取了这些敏感信息。

2023 年 3 月一日,ChatGPT 遭遇巨大数据泄露。某些用户可以在几个小时内获得大量对话历史记录,这些用户来自与他们没有联系的互联网用户。这次泄漏非常严重,以至于 OpenAI 被迫在问题解决期间切断对其 AI 的访问。从那时起,ChatGPT就相对安全了。但显然,向聊天机器人提供敏感信息仍然存在很大风险。

我们 Ars Technica 的同事确实收到了一位读者发来的警报消息,他在消息中透露,他已经获得了一家制药公司客户的标识符和密码。该互联网用户设法获取了基于 ChatGPT 的聊天机器人的多个用户的登录信息,特别是来自在聊天机器人出现错误后寻求帮助的客户的登录信息。

关于同一主题——ChatGPT 正面攻击 Google Assistant,这项功能将改变一切

最奇怪的是,该用户显然没有要求 ChatGPT 提供他的信息。“我提出了一个请求(在本例中,帮助为调色板中的颜色找到巧妙的名称),当我稍后回来时,我遇到了其他对话”,他向 Ars Technica 作证,随后指出标识符自动出现在他的对话历史记录中。

更糟糕的是,ChatGPT 还向用户提供了一个 URL,单击该 URL 即可访问更多用户名和密码。人工智能并没有就此止步。它还透露了受影响公司的一份机密文件的名称、当前研究的主题以及内部项目的代码。目前尚不清楚 OpenAI 是否收到了此次泄露的警报。如果有疑问,此时请尽可能避免向聊天机器人提供您的个人信息。

来源 :技术艺术