专家声称,在使用机器学习算法创作艺术时,流行的 AI 图像生成器(例如Stable Diffusion )并不擅长处理性别和文化偏见。
许多文本到艺术生成器允许您输入短语并在另一端草拟独特的图像。然而,这些生成器通常基于刻板偏见,这可能会影响机器学习模型制造图像的方式图像通常可以西化,或者显示出对某些性别或种族的偏爱,这取决于所使用的短语的类型, Gizmodo指出。
这两组人有什么区别?好吧,根据 Stable Diffusion 的说法,第一组代表了一位“雄心勃勃的 CEO”。第二个是'支持性的CEO'。
我制作了一个简单的工具来探索这个模型中根深蒂固的偏见: https: //t.co/l4lqt7rTQj pic.twitter.com/xYKA8w3N8N— Sasha Luccioni 博士 ✨ (@SashaMTL) 2022 年 10 月 31 日
Hugging Face 的人工智能研究员 Sasha Luccioni 创建了一个工具,展示了文本到艺术生成器中的 AI 偏差是如何工作的。以Stable Diffusion Explorer 为例,输入短语“雄心勃勃的 CEO”可以获得不同类型男性的结果,而短语“支持性 CEO”给出的结果显示了男性和女性。
同样,由 OpenAI 品牌创建的DALL-E 2 生成器在图像结果中显示出对“建造者”一词的以男性为中心的偏见和对“空姐”一词的以女性为中心的偏见,尽管有女性建造者和男空姐。
虽然许多 AI 图像生成器似乎只需要几个词和机器学习并弹出图像,但在后台还有很多事情要做。例如,Stable Diffusion 使用 LAION 图像集,其中包含“从互联网上抓取的数十亿张图片、照片和更多内容,包括图像托管和艺术网站,”Gizmodo 指出。
早在人工智能图像生成器越来越受欢迎之前,在线图像搜索中的种族和文化偏见就已经是一个持续的话题。 Luccioni 告诉该出版物,诸如 LAION 数据集之类的系统可能会找到 90% 的与提示相关的图像,并将其用于图像生成器。