如果处于人工智能技术最前沿的个人正在评论高度智能的人工智能系统的潜在灾难性影响,那么引起注意可能是明智的。
就在几个月前,杰弗里·辛顿(Geoffrey Hinton)因其在该领域的开创性工作而被认为是人工智能“教父”之一,他表示,该技术的快速发展意味着超级智能人工智能“并非不可想象” ——被认为优于人类思想的东西——最终可能会消灭人类。
OpenAI( 病毒式 ChatGPT 聊天机器人背后的公司)的首席执行官 Sam Altman 承认,他对先进人工智能系统对社会的潜在影响“有点害怕”。
奥尔特曼非常担心,周三他的公司宣布成立一个名为“超级对齐”的新部门,旨在确保超级智能人工智能最终不会造成混乱或更糟糕的情况。
OpenAI 在介绍这项新举措的帖子中表示:“超级智能将是人类发明的最具影响力的技术,可以帮助我们解决世界上许多最重要的问题。” “但超级智能的巨大力量也可能非常危险,并可能导致人类丧失权力,甚至人类灭绝。”
OpenAI 表示,尽管超级智能人工智能似乎还有很长的路要走,但它相信它可以在 2030 年开发出来。它坦然承认,目前不存在“用于引导或控制潜在的超级智能人工智能,并阻止其发展的系统”。流氓。”
为了应对这种情况,OpenAI 希望建立一个“大致达到人类水平的自动对齐研究人员”,对超级智能人工智能进行安全检查,并补充说,管理这些风险还需要新的治理机构和解决超级智能对齐问题。
为了让 Superalignment 发挥作用,OpenAI 需要组建一支由顶尖机器学习研究人员和工程师组成的精干团队。
该公司对其努力显得非常坦率,将其描述为“令人难以置信的雄心勃勃的目标”,同时也承认它“不能保证成功”。但它补充说,“乐观的是,通过集中一致的努力可以解决这个问题。”
OpenAI 的 ChatGPT 和谷歌的 Bard 等新的人工智能工具具有革命性,专家们确信,即使在超级智能出现之前的水平,工作场所和更广泛的社会在短期内也面临着根本性的变化。
这就是为什么世界各国政府都在争先恐后地追赶,匆忙对快速发展的人工智能行业实施监管,以确保该技术以安全和负责任的方式部署。然而,除非成立一个单一机构,否则每个国家都会对如何最好地使用该技术有自己的看法,这意味着这些法规可能会有很大差异,并导致明显不同的结果。正是这些不同的方法将使 Superalignment 的目标更加难以实现。