由于“大规模风险”,技术领导者呼吁暂停 GPT-4.5、GPT-5 的开发

近几个月来,随着各种工具和机器人(如OpenAI 的 ChatGPTGoogle Bard等)的推出,生成 AI 一直以令人难以置信的速度发展。然而,这种快速发展正在引起 AI 领域经验丰富的资深人士的严重关注——以至于超过 1,000 人签署了一封公开信,呼吁 AI 开发人员踩刹车。

这封信发表在未来生命研究所的网站上,该组织的既定使命是“引导变革性技术造福于生活,远离极端大规模的风险”。签署者中有几位著名的学者和科技领袖,包括苹果联合创始人史蒂夫沃兹尼亚克、推特首席执行官埃隆马斯克和政治家杨安泽。

文章呼吁所有从事比最近发布的 GPT-4更强大的 AI 模型的公司立即停止工作至少六个月。这种暂停应该是“公开的和可验证的”,并将留出时间“共同开发和实施一套共享的安全协议,用于先进的人工智能设计和开发,并由独立的外部专家严格审计和监督。”

信中说这是必要的,因为“具有人类竞争情报的人工智能系统可能对社会和人类构成深远的风险。”这些风险包括宣传的传播、工作岗位的破坏、人类生活的潜在替代和过时,以及“我们文明的失控”。作者补充说,是否继续推进这个未来的决定不应该留给“未经选举的技术领导者”。

人工智能“为了所有人的明显利益”

ChatGPT 与智能手机上的 Google。

这封信是在声称 GPT-5(支持 ChatGPT 的技术的下一版本)可以实现通用人工智能之后发布的。如果正确,那就意味着它能够理解和学习人类所能理解的任何东西。这可能会以尚未完全探索的方式使其变得异常强大。

更重要的是,这封信认为,围绕人工智能系统开发的负责任的规划和管理并没有发生,“尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,而没有一个人——即使是他们的创造者——也无法理解、预测或可靠地控制。”

相反,这封信声称必须创建新的治理系统来规范人工智能的发展,帮助人们区分人工智能创造的内容和人类创造的内容,让像 OpenAI 这样的人工智能实验室对其造成的任何伤害负责,使社会能够应对人工智能的破坏(特别是民主),等等。

作者以积极的方式结束,声称“人类可以通过人工智能享受繁荣的未来……我们从中获得回报,设计这些系统以造福所有人,并为社会提供适应的机会。”他们表示,在比 GPT-4 更强大的人工智能系统上暂停会允许这种情况发生。

这封信会产生预期的效果吗?这很难说。 OpenAI 显然有动力继续研究先进的模型,包括财务和声誉。但是由于存在如此多的潜在风险——而且对这些风险知之甚少——这封信的作者显然觉得这些激励措施太危险了,无法追求。


Posted

in

by

Tags: