微软有一种保持 ChatGPT 道德的新方法,但它会起作用吗?

微软在 2023 年 3 月关闭其人工智能 (AI) 道德与社会团队时受到了很多批评。考虑到几乎同时发生的丑闻席卷人工智能,这看起来并不好看,但该公司刚刚阐述了它的打算保持其未来的努力负责并检查前进。

在微软的On the Issues 博客上的一篇文章中,Redmond 公司的首席人工智能负责人 Natasha Crampton 解释说,道德团队被解散是因为“负责负责任或道德人工智能的单一团队或单一学科无法实现我们的目标”

笔记本电脑上显示的 Bing Chat。

相反,微软采用了其隐私、安全和可访问性团队所采用的方法,并“在整个公司内嵌入负责任的人工智能”。实际上,这意味着微软拥有高级员工“负责在每个核心业务集团内带头负责人工智能”,以及“一个由负责任的人工智能‘拥护者’组成的大型网络,他们拥有一系列技能和角色,可以更定期、更直接地参与。”

除此之外,Crampton 表示,微软“有近 350 名员工致力于负责任的 AI,其中超过三分之一(准确地说是 129 名)全职投入其中;其余人将负责任的人工智能职责作为他们工作的核心部分。”

在微软关闭其道德与社会团队后,克兰普顿指出,一些团队成员随后融入了整个公司的团队。然而,由于微软在 2023 年初裁员 10,000 人的大规模裁员计划的一部分,该小组的七名成员被解雇。

浏览丑闻

Bing Chat 说它想成为人类。

近几个月来,人工智能丑闻不断,正是这些担忧加剧了人们对微软解散其人工智能道德团队的强烈反对。如果微软缺乏一个专门的团队来帮助引导其 AI 产品朝着负责任的方向发展,那么人们的想法是,它将很难减少其 Bing 聊天机器人已经臭名昭著的各种滥用和可疑行为。

该公司最新的博文无疑旨在减轻公众的这些担忧。微软似乎并没有完全放弃其 AI 工作,而是在寻求确保整个公司的团队与负责任的 AI 专家定期接触。

不过,毫无疑问,关闭其 AI 伦理与社会团队的结果并不好,而且微软仍有一些方法可以缓解公众对这个话题的集体看法。事实上,即使是微软自己也认为 ChatGPT——其开发者 OpenAI 为微软所有——应该受到监管

就在昨天,“人工智能教父”杰弗里·辛顿 (Geoffrey Hinton) 离开了谷歌,并告诉纽约时报,他对人工智能扩张的速度和方向深感担忧,而一群领先的技术专家最近签署了一封公开信,呼吁暂停人工智能的发展,以便更好地了解其风险。

微软可能不会忽视对道德人工智能开发的担忧,但其新方法是否正确还有待观察。在 Bing Chat 经历了有争议的开端之后,Natasha Crampton 和她的同事们希望事情会有所好转。


Posted

in

by

Tags: