GPT-4——为ChatGPT Plus提供支持的大型语言模型 (LLM)——可能很快就会扮演一个新角色:在线版主、监管论坛和社交网络,防止不应该出现的邪恶内容。 ChatGPT 开发商 OpenAI 的一篇新博客文章称,这可以为“数字平台的未来提供更积极的愿景”。
OpenAI 表示,通过利用人工智能(AI)而不是人类主持人,GPT-4 可以“更快地迭代政策变化,将周期从几个月缩短到几个小时”。除此之外,“GPT-4 还能够解释长内容政策文档中的规则和细微差别,并立即适应政策更新,从而产生更一致的标签,”OpenAI 声称。
例如,博客文章解释说,审核团队可以为内容分配标签,以解释它是否属于给定平台的规则之内或之外。然后,GPT-4 可以采用相同的数据集并分配自己的标签,而无需事先知道答案。
然后,主持人可以比较两组标签,并利用任何差异来减少混乱并为其规则添加澄清。换句话说,GPT-4 可以充当日常用户并衡量规则是否有意义。
人员伤亡
目前,各种网站上的内容审核都是由人类执行的,这使他们经常接触到潜在的非法、暴力或其他有害内容。我们已经多次看到内容审核给人们带来的 可怕损失,Facebook 向因工作创伤而患有创伤后应激障碍 (PTSD) 的审核人员支付了 5200 万美元。
减轻人类主持人的负担有助于改善他们的工作条件,而且由于像 GPT-4 这样的人工智能不会受到人类在处理麻烦内容时感受到的精神压力的影响,因此可以在部署它们时不必担心倦怠和创伤后应激障碍 (PTSD)。
然而,它确实提出了这样的问题:以这种方式使用人工智能是否会导致失业。内容审核并不总是一项有趣的工作,但它仍然是一项工作,如果 GPT-4 接管这一领域的人类,人们可能会担心以前的内容审核员会被裁员,而不是被重新分配到其他角色。
OpenAI 在其博客文章中没有提到这种可能性,这确实是内容平台需要决定的事情。但这可能并不能缓解人们的担忧,即大公司部署人工智能只是为了节省成本,而很少担心后果。
尽管如此,如果人工智能能够减少或消除那些过度劳累且不受重视的团队所面临的精神摧残,这些团队每天都会管理数十亿人使用的网站上的内容,那么这一切可能会有一些好处。同样具有破坏性的裁员是否会缓解这种情况还有待观察。