OpenAI 使用自己的模型来对抗选举干扰

OpenAI 是流行的ChatGPT生成式人工智能解决方案背后的大脑,它发布了一份报告称,截至 2024 年,该解决方案在全球范围内阻止了 20 多个操作和不诚实网络。这些行动的目标、规模和重点各不相同,用于创建恶意软件并编写虚假媒体帐户、虚假简历和网站文章。

OpenAI 确认它已经分析了已停止的活动,并从分析中提供了重要见解。报告称:“威胁行为者不断发展并尝试我们的模型,但我们还没有看到证据表明这会导致他们在创造全新恶意软件或建立病毒受众的能力方面取得有意义的突破。”

考虑到今年是美国、卢旺达、印度和欧盟等多个国家的选举年,这一点尤其重要。例如,7 月初,OpenAI 禁止了一些发表有关卢旺达选举评论的帐户,这些评论是由 X(以前称为 Twitter)上的不同帐户发布的。因此,很高兴听到 OpenAI 表示威胁行为者无法在活动中取得太大进展。

OpenAI 的另一项胜利是扰乱了一个名为“SweetSpecter”的中国威胁行为者,该行为者试图对 OpenAI 员工的公司和个人地址进行鱼叉式网络钓鱼。该报告接着说,8​​ 月份,微软公开了一组域名,他们将其归因于伊朗一项名为“STORM-2035”的秘密影响行动。 “根据他们的报告,我们调查、破坏并报告了 ChatGPT 上的一组相关活动。”

OpenAI 还表示,他们的模型创建的社交媒体帖子没有引起太多关注,因为他们收到的评论、点赞或分享很少或根本没有。 OpenAI 确保他们将继续预测威胁行为者如何使用先进模型达到有害目的,并计划采取必要的行动来阻止它。


Posted

in

by

Tags: