OpenAI 从未透露黑客破解了其内部消息系统

黑客在暗室中工作的概念图像。
微商杂志

《纽约时报》周四报道,一名黑客去年成功渗透了 OpenAI 的内部消息系统,并携带有关该公司人工智能设计的详细信息潜逃。这次攻击针对的是一个在线论坛, OpenAI员工在其中讨论了流行聊天机器人即将推出的技术和功能,但是,存储实际 GPT 代码和用户数据的系统并未受到影响。

尽管该公司于 2023 年 4 月向员工和董事会成员披露了该信息,但该公司拒绝就此次泄露事件通知公众或联邦调查局,并声称这样做是不必要的,因为没有用户或合作伙伴数据被盗。 OpenAI 不认为此次攻击构成国家安全威胁,并认为攻击者是与外国势力没有联系的个人。

据《纽约时报》报道,OpenAI 前员工利奥波德·阿申布伦纳 (Leopold Aschenbrenner) 此前曾对该公司的安全设备状况表示担忧,并警告说,中国等对手的情报部门可能会访问其系统。尽管 OpenAI 发言人 Liz Bourgeois 告诉《纽约时报》,阿申布伦纳被公司立即解雇,但他的解雇与该备忘录无关。

这并不是 OpenAI 第一次遭遇此类安全漏洞。自 2022 年 11 月首次亮相以来,ChatGPT 多次成为恶意攻击者的攻击目标,常常导致数据泄露。今年 2 月, 用户名和密码在一次单独的黑客攻击中被泄露。去年 3 月, OpenAI 不得不让 ChatGPT 完全下线,以修复一个错误,该错误会向其他人泄露用户的付款信息,包括名字和姓氏、电子邮件地址、付款地址、信用卡类型以及卡号的后四位数字。活跃用户。去年 12 月, 安全研究人员发现,他们只需指示系统无休止地重复“诗”这个词,就可以诱使 ChatGPT 泄露其训练数据片段。

“ChatGPT 并不安全。就这样,”人工智能研究员加里·马库斯 (Gary Marcus) 一月份告诉《华尔街日报》 。 “如果你在聊天机器人中输入一些内容,最安全的假设可能是(除非他们另有保证),聊天机器人公司可能会根据这些数据进行训练;这些数据可能会泄露给其他用户。”自袭击发生以来,OpenAI 已采取措施加强其安全系统,包括安装额外的安全护栏以防止未经授权的访问和滥用模型,以及建立安全委员会来解决未来的问题。


Posted

in

by

Tags: