谷歌自己的员工表示,谷歌的 ChatGPT 竞争对手在道德上一团糟

一份新报告称,谷歌推出了其 ChatGPT 竞争对手Bard ,尽管内部担心它是一个“病态的骗子”并产生了“令人畏惧”的结果。工作人员表示,在疯狂尝试赶上 ChatGPT并阻止它可能对谷歌搜索业务构成的威胁时,这些担忧显然被忽略了。

这些启示来自彭博社的一份报告,该报告深入探讨了 Google Bard 以及参与该项目的员工提出的问题。这是一个令人大开眼界的描述,说明了聊天机器人明显偏离轨道的方式,以及这些事件在相关工人中引起的疑虑。

ChatGPT 与智能手机上的 Google。

例如,彭博社援引一位匿名员工的话说,他向巴德询问如何降落飞机的说明,然后惊恐地发现巴德的描述会导致飞机坠毁。另一名工作人员表示,巴德的水肺潜水技巧“可能会导致严重伤害或死亡”。

据称,这些问题显然是在 Bard 发布前不久提出的,但谷歌仍坚持上线日期,因为它希望跟上ChatGPT 开辟的道路。但它这样做却无视自己的道德承诺,不仅导致危险的建议,而且还可能传播错误信息。

抢先发射

Android 智能手机屏幕上显示的 Web 浏览器中的 Google Bard AI 聊天机器人。
莫贾希德·莫塔金 / Unsplash

2021 年,谷歌承诺将其研究人工智能 (AI) 伦理后果的员工团队增加一倍,并投入更多资金来确定潜在危害。然而,彭博社的报告称,该团队现在“被剥夺了权力和士气低落”。更糟糕的是,团队成员被告知“不要妨碍或试图杀死开发中的任何生成人工智能工具”,这让谷歌对人工智能伦理的承诺受到质疑。

就在 Bard 发布之前就已经看到了这一点。今年 2 月,一名谷歌员工给一个内部小组发消息说,“Bard 比无用还糟糕:请不要启动”,许多其他员工也附和表示同意。下个月,谷歌 AI 治理负责人 Jen Gennai 否决了一项风险评估,该评估称 Bard 可能会造成伤害并且尚未准备好发布,从而推动了聊天机器人的首次公开发布。

彭博社的报告描绘了一家公司不信任道德问题的画面,它认为这可能会妨碍其产品的盈利能力。例如,一名工人要求在机器学习中从事公平性工作,但一再被劝阻,以至于影响了他们的绩效评估。该员工表示,经理们抱怨道德问题阻碍了他们的“真正工作”。

这是一个令人担忧的立场,特别是因为我们已经看到很多AI 聊天机器人不当行为的例子,这些例子产生了冒犯性、误导性或彻头彻尾的虚假信息。如果彭博社关于谷歌看似敌对道德问题的报道是正确的,那么这可能只是人工智能引起的问题的开始。


Posted

in

by

Tags: