ChatGPT 是新一次洩漏的受害者,距離第一次洩漏僅幾個月。這次,一家製藥公司的聊天機器人的用戶看到他們的密碼在光天化日之下被洩露。另一位與該公司無關的網路使用者實際上設法獲取了這些敏感資訊。
2023 年 3 月一日,ChatGPT 遭遇巨大資料外洩。某些用戶可以在幾個小時內獲得大量對話歷史記錄,這些用戶來自與他們沒有聯繫的網路使用者。這次洩漏非常嚴重,以至於 OpenAI 在問題解決期間被迫切斷對其 AI 的存取。從那時起,ChatGPT就相對安全了。但顯然,向聊天機器人提供敏感資訊仍然存在很大風險。
我們 Ars Technica 的同事確實收到了一位讀者發來的警報訊息,他在訊息中透露,他已經獲得了製藥公司客戶的識別碼和密碼。該網路用戶設法獲取了基於 ChatGPT 的聊天機器人的多個用戶的登入訊息,特別是來自在聊天機器人出現錯誤後尋求幫助的客戶的登入資訊。
關於同一主題——ChatGPT 正面攻擊 Google Assistant,這項功能將改變一切
最奇怪的是,該用戶顯然沒有要求 ChatGPT 提供他的資訊。「我提出了一個請求(在本例中,幫助為調色板中的顏色找到巧妙的名稱),當我稍後回來時,我遇到了其他對話”,他向 Ars Technica 作證,隨後指出標識符自動出現在他的對話歷史記錄中。
更糟的是,ChatGPT 還向使用者提供了一個 URL,點擊該 URL 即可存取更多使用者名稱和密碼。人工智慧並沒有就此止步。它還透露了受影響公司的一份機密文件的名稱、當前研究的主題以及內部專案的代碼。目前尚不清楚 OpenAI 是否收到了這次洩漏的警報。如果有疑問,此時請盡可能避免向聊天機器人提供您的個人資訊。
來源 :技術藝術