谷歌母公司 Alphabet 集團敦促其員工在使用 ChatGPT-4 甚至 Bard 等聊天機器人時保持警惕。為了什麼 ?因為害怕看到它的人工智慧恢復並分享機密資訊。

與人工智慧競賽中的絕大多數公司一樣,谷歌希望謹慎行事。就像網路巨頭的母公司 Alphabet 一樣。
根據我們同事分享的一份報告路透社,該組織呼籲其員工在使用聊天機器人作為聊天GPT-4甚至Bard,Google的對話式人工智慧。更具體地說,Alphabet 邀請其合作者與這些人工智慧互動時不使用機密資訊。
Alphabet(Google)擔心聊天機器人洩露
Alphabet 的擔憂是完全合理的,因為這些人工智慧利用機器學習隨著時間的推移而不斷改進。事實上,沒有什麼可以阻止他們複製和共享敏感數據他們會在之前的談話中收集的。
此外,該集團還要求其工程師不要在聊天機器人中直接使用 Bard 所基於的電腦程式碼。這個想法再次是為了避免可能危及聊天機器人安全的洩漏。請注意,Google並不是唯一一家警告員工不要使用公開聊天機器人的公司。三星、蘋果和亞馬遜等幾家主要科技公司也建立了保障措施。
許多專業人士使用聊天機器人而不擔心風險
專業社交網路 Fishbowl 於 2021 年 1 月發布的一項研究證明,這些措施是必要的。根據這項針對 12,000 人的調查顯示,43% 的受訪專業人士使用過公共聊天機器人作為他們任務的一部分,而不通知他們的上級。
我們知道 ChatGPT-4 和其他對話式人工智慧完全有能力編寫電子郵件和複雜文檔,包括軟體。因此,如果它們將自己呈現為促進許多專業人員工作的強大工具,產生的內容可能包含錯誤、機密或受保護的資訊。
截至 6 月 1 日,Google率先在與員工分享的備忘錄中表示:「請勿在與巴德的對話中包含機密或敏感資訊」。Cloudflare 執行長 Matthew Prince 認為,將敏感資料輸入公共聊天機器人相當於“把你所有的私人檔案託付給一群博士生」。這是一個很好的總結。