新的“中毒”工具给人工智能文本到图像技术带来麻烦

专业艺术家和摄影师对生成人工智能公司利用他们的作品来训练他们的技术感到恼火,他们可能很快就会有一种有效的回应方式,而无需诉诸法庭。

大约一年前,随着 OpenAI 的 ChatGPT 聊天机器人的推出,生成式 AI 突然出现。该工具非常擅长以非常自然、类似人类的方式进行对话,但为了获得这种能力,它必须接受从网络上抓取的大量数据的训练。

类似的生成式人工智能工具也能够根据文本提示生成图像,但与 ChatGPT 一样,它们是通过抓取网络上发布的图像来进行训练的。

这意味着艺术家和摄影师的作品在未经同意或补偿的情况下被科技公司用来构建他们的生成人工智能工具。

为了解决这个问题,一组研究人员开发了一种名为 Nightshade 的工具,它能够混淆训练模型,导致它根据提示吐出错误的图像。

最近《麻省理工学院技术评论》的一篇文章中概述了 Nightshade 通过在一件艺术品上传到网络之前添加不可见像素来“毒害”训练数据。

“使用它来‘毒害’这些训练数据可能会损害图像生成人工智能模型的未来迭代,例如 DALL-E、Midjourney 和 Stable Diffusion,因为它们的一些输出变得毫无用处——狗变成了猫,汽车变成了牛,麻省理工学院的报告称,并补充说,茄属植物背后的研究已提交同行评审。

虽然图像生成工具已经令人印象深刻并且正在不断改进,但事实证明它们的训练方式存在争议,许多工具的创建者目前面临艺术家的诉讼,声称他们的作品在未经许可或付费的情况下被使用。

Nightshade 背后的研究团队负责人、芝加哥大学教授本·赵表示,这样的工具可以帮助将权力平衡重新转移到艺术家手中,向忽视版权和知识产权的科技公司发出警告。

《麻省理工科技评论》在其报告中表示:“大型人工智能模型的数据集可能包含数十亿张图像,因此模型中的有毒图像越多,该技术造成的损害就越大。”

当它发布 Nightshade 时,该团队计划将其开源,以便其他人可以改进它并使其更加有效。

Nightshade 背后的团队意识到它的破坏潜力,表示它应该被用作“内容创作者抵御不尊重其权利的网络抓取工具的最后一道防线”。

为了解决这个问题,DALL-E 的创建者 OpenAI 最近开始允许艺术家从其训练数据中删除他们的作品,但这个过程被描述为极其繁重,因为它要求艺术家发送他们所创作的每张图像的副本。想要删除,以及该图像的描述,每个请求都需要自己的应用程序。

使删除过程变得更加容易可能会在某种程度上阻止艺术家选择使用像 Nightshade 这样的工具,从长远来看,这可能会给 OpenAI 和其他人带来更多问题。


Posted

in

by

Tags: