谷歌将人工智能的军事用途重新提上日程

2 月 4 日,谷歌更新了其“人工智能原则”,该文件详细说明了该公司将如何以及不会在其产品和服务中使用人工智能。旧版本分为“人工智能应用的目标”和“我们不会追求的人工智能应用”两部分,并明确承诺不开发人工智能武器或监视工具。

谷歌人工智能原理(旧版本)。
谷歌

此次更新最先由《华盛顿邮报》注意到,最明显的区别是“我们不会追求人工智能应用”部分的完全消失。事实上,该文件的语言现在只关注“谷歌将做什么”,而根本没有承诺“谷歌不会做什么”。

为什么这很重要?好吧,如果你说你不会追求人工智能武器,那么你就不能追求人工智能武器。它非常干净且干燥。然而,如果你说你将采用“严格的设计、测试、监控和保障措施来减轻意外或有害的结果并避免不公平的偏见”,那么你可以追求任何你想要的东西,并只是声称你采取了严格的保障措施。

同样,当谷歌表示将实施“适当的人类监督”时,我们无法知道这意味着什么。谷歌可以准确决定什么是适当的人类监督。这是一个问题,因为这意味着该公司实际上没有做出任何承诺或向我们提供任何可靠的信息。它只是开放一切,以便它可以更自由地移动——同时仍然试图给人留下社会责任感的印象。

谷歌在 2017 年和 2018 年参与美国国防部的Maven 项目,最终形成了最初的人工智能原则文档。数千名员工抗议这一军事项目,作为回应,谷歌没有续签协议,并承诺停止研发人工智能武器。

然而,几年后,谷歌的大多数竞争对手都参与了此类项目,Meta、OpenAI 和亚马逊都允许将其人工智能技术用于军事用途。随着更新后的人工智能原理变得更加灵活,谷歌实际上可以自由地重返游戏并赚取一些军事资金。看看谷歌的员工在不久的将来是否会对此发表任何言论将会很有趣。


Posted

in

by

Tags: