调查揭露了 ChatGPT 和 AI 聊天机器人行业的阴暗面

时代》杂志的一项调查揭露了 AI 聊天机器人行业的阴暗面,强调至少有一家初创公司如何使用有问题的做法来改进其技术。

《时代》周刊周三发布的报告重点介绍了微软支持的 OpenAI 及其 ChatGPT 聊天机器人,该技术最近因其生成高度自然的对话文本的卓越能力而备受关注。

《时代》杂志的调查发现,为了训练人工智能技术,OpenAI 使用肯尼亚一个团队的服务来仔细研究包含令人不安的主题的文本,例如儿童性虐待、人兽交、谋杀、自杀、酷刑、自残和乱伦。由于他们努力给令人厌恶的内容贴上标签,团队中的许多人每小时的收入不到 2 美元。

这项工作于 2021 年 11 月开始,是必要的,因为 ChatGPT 的前身 GPT-3 虽然令人印象深刻,但由于其训练数据集是通过从网络的各个角落收集数千亿个单词而编制的,因此有喷出攻击性内容的倾向.

由旧金山公司 Sama 运营的肯尼亚团队将标记攻击性内容以帮助训练 OpenAI 的聊天机器人,从而改进其数据集并减少任何令人反感的输出的机会。

时代周刊称,它采访的所有四名 Sama 员工都描述了他们的工作在精神上留下了伤痕。 Sama 提供了咨询服务,但员工们表示,由于工作需要,这些服务效率低下而且很少进行,尽管 Sama 发言人告诉时代周刊,治疗师随时可以联系。

一名工人告诉时代周刊,阅读这些令人震惊的材料有时感觉像是“折磨”,并补充说到周末他们会感到“不安”。

2022 年 2 月,当 OpenAI 启动了一个与 ChatGPT 无关的单独项目时,Sama 的情况变得更加黑暗,该项目要求其肯尼亚团队收集性和暴力性质的图像。 OpenAI 告诉时代周刊,这项工作对于使其人工智能工具更安全是必要的。

在这个基于图像的项目启动后的几周内,任务的惊人性质促使 Sama 取消了与 OpenAI 的所有合同,尽管 Time 暗示它也可能是由关于类似主题的报告的 PR 影响引起的大约在同一时间发布了有关 Facebook 的信息。

Open AI 告诉时代周刊,关于它要求 Sama 收集的图像的性质存在“误解”,坚称它没有要求最极端的图像,也没有查看任何已发送的图像。

但终止合同影响了工人的生计,肯尼亚的一些团队失去了工作,而其他人则转移到收入较低的项目。

《时代》杂志的调查提供了一个令人不安但重要的观察,即最近让科技行业兴奋不已的人工智能聊天机器人的工作类型。

虽然这项技术具有变革性和潜在益处,但它显然是以人力为代价的,并引发了一系列道德问题,涉及公司如何开发新技术,更广泛地说,涉及富裕国家如何继续将不太理想的任务外包给较贫穷国家以获得较低的财务支出。

技术背后的初创公司将在未来几个月和几年内受到更集中的审查,因此他们最好尽早审查和改进他们的做法。

Digital Trends 已联系 OpenAI 就时代的报告发表评论,我们会在收到回复后更新这篇文章。


Posted

in

by

Tags: