谷歌告诉员工要警惕人工智能聊天机器人

Alphabet 已告知其员工不要将机密信息输入 Bard,这是由 Alphabet 拥有的 Google 创建和运营的生成式 AI 聊天机器人。

据路透社周四报道,该公司的警告还延伸到其他聊天机器人,例如来自 OpenAI 的微软支持的 ChatGPT。

人工智能驱动的聊天机器人近几个月来引起了人们的极大兴趣,因为它们能够以类似人类的方式进行交谈、撰写论文和报告,甚至在学术测试中取得成功。

但 Alphabet 担心其员工会通过这些工具无意中泄露内部数据。

在改进和改进先进 AI 技术的持续工作中,人工审阅者可能会阅读用户与聊天机器人的对话,从而对个人隐私构成风险,并可能泄露商业机密,Alphabet 似乎特别关注后者关于。

此外,聊天机器人部分使用用户的文本交换进行训练,因此在某些提示下,该工具可能会向公众重复它在这些对话中收到的机密信息。

ChatGPT一样,Bard 现在可供任何人免费试用。在其网页上,它警告用户:“请不要在与巴德的对话中包含可用于识别您或其他人身份的信息。”

它补充说,谷歌收集“巴德对话、相关产品使用信息、你的位置信息和你的反馈”,并使用这些数据来改进包括巴德在内的谷歌产品和服务。

谷歌表示,它会将 Bard 活动存储长达 18 个月,不过用户可以在其谷歌帐户中将其更改为三个月或 36 个月。

它补充说,作为一项隐私措施,在人类审阅者看到之前,巴德的对话会与谷歌账户断开连接。

路透社称,虽然 Alphabet 的警告已经存在了一段时间,但它最近扩大了警告范围,告诉其员工避免使用聊天机器人生成的精确计算机代码。该公司告诉新闻媒体,Bard 有时会提出“不需要的代码建议”,尽管该工具的当前迭代仍被认为是一种可行的编程辅助工具。

Alphabet 并不是唯一一家就与使用聊天机器人相关的隐私和安全风险向员工发出警告的公司。在一些员工将敏感的半导体相关数据输入 ChatGPT 后,三星最近向其员工发出了类似的指示,据报道,苹果和亚马逊等公司也制定了类似的内部政策。


Posted

in

by

Tags: