OpenAI 、谷歌 Deep Mind 和 Anthropic 的十几名现任和前任员工周二发表了一封公开信,呼吁人们关注在没有有效监督框架的情况下继续快速开发该技术所带来的“严重风险”。
研究小组认为,该技术可能被滥用,加剧现有的不平等、操纵信息和传播虚假信息,甚至“自主人工智能系统失去控制可能导致人类灭绝”。
签署方认为,通过科学界、立法者和公众的共同努力,这些风险可以“充分减轻”,但担心“人工智能公司有强大的经济动机来避免有效的监督”,不能指望它们能够公正地管理该技术的发展。
自 2022 年 11 月发布ChatGPT以来,生成式 AI 技术席卷了计算世界,谷歌云、亚马逊 AWS、甲骨文和微软 Azure 等超大规模企业预计到 2032 年将成为价值数万亿美元的行业。 麦肯锡最近的一项研究发现,截至 2024 年 3 月,近 75% 的受访组织至少在一项职能中采用了人工智能。与此同时,微软在年度工作指数调查中发现,75%的办公室职员已经在工作中使用人工智能。
然而,正如 OpenAI 前员工 Daniel Kokotajlo 告诉《华盛顿邮报》的那样,“他们和其他人已经接受了‘快速行动、打破常规’的方法,这与如此强大但如此糟糕的技术所需要的相反。明白了。”例如,包括OpenAI和Stable Diffusion在内的人工智能初创公司多次违反美国版权法,而公开的聊天机器人经常被怂恿重复仇恨言论和阴谋论,并传播错误信息。
反对的人工智能员工认为,这些公司拥有有关其产品功能和局限性的“大量非公开信息”,包括模型造成伤害的潜在风险以及它们的防护栏实际上有多有效。他们指出,政府机构只能通过“弱共享义务”获得其中的部分信息,而公众无法获得这些信息。
该组织表示:“只要政府对这些公司没有有效的监督,现任和前任雇员就是少数能够让他们对公众负责的人之一。”该组织认为,该行业广泛使用保密协议,而保密协议执行不力。现有的举报人保护措施正在阻碍这些问题的解决。
该组织呼吁人工智能公司停止签订和执行非贬低协议,为员工建立匿名流程,以便向公司董事会和政府监管机构解决他们的担忧,如果这些内部流程证明不足,不要对公众举报人进行报复。