ChatGPT、巴德:谷歌邀请员工不要在聊天机器人上分享敏感信息

谷歌母公司 Alphabet 集团敦促其员工在使用 ChatGPT-4 甚至 Bard 等聊天机器人时保持警惕。为了什么 ?因为害怕看到它的人工智能恢复并分享机密信息。

学分:123RF

与人工智能竞赛中的绝大多数公司一样,谷歌希望谨慎行事。就像网络巨头的母公司 Alphabet 一样。

根据我们同事分享的一份报告路透社,该组织呼吁其员工在使用聊天机器人作为聊天GPT-4甚至Bard,谷歌的对话式人工智能。更具体地说,Alphabet 邀请其合作者与这些人工智能交互时不使用机密信息。

Alphabet(谷歌)担心聊天机器人泄露

Alphabet 的担忧是完全合理的,因为这些人工智能利用机器学习随着时间的推移而不断改进。事实上,没有什么可以阻止他们复制和共享敏感数据他们会在之前的谈话中收集的。

此外,该集团还要求其工程师不要在聊天机器人中直接使用 Bard 所基于的计算机代码。这个想法再次是为了避免可能危及聊天机器人安全的泄漏。请注意,谷歌并不是唯一一家警告员工不要使用公开聊天机器人的公司。三星、苹果和亚马逊等几家主要科技公司也建立了保障措施。

另请阅读:谷歌被迫推迟巴德人工智能在欧洲的推出,原因如下

许多专业人士使用聊天机器人而不担心风险

专业社交网络 Fishbowl 于 2021 年 1 月发布的一项研究证明,这些措施是必要的。根据这项针对 12,000 人的调查显示,43% 的受访专业人士使用过公共聊天机器人作为他们任务的一部分,而不通知他们的上级。

我们知道 ChatGPT-4 和其他对话式人工智能完全有能力编写电子邮件和复杂文档,包括软件。因此,如果它们将自己呈现为促进许多专业人员工作的强大工具,生成的内容可能包含错误、机密或受保护的信息。

截至 6 月 1 日,谷歌率先在与员工分享的一份备忘录中表示:“请勿在与巴德的对话中包含机密或敏感信息”。Cloudflare 首席执行官 Matthew Prince 认为,将敏感数据输入公共聊天机器人相当于“把你所有的私人档案托付给一群博士生”。这是一个很好的总结。