微软的Bing Chat比 2 月份发布时要好得多,但很难忽视 GPT-4 支持的聊天机器人在发布时遇到的问题。毕竟,它告诉我们它想成为人类,并且经常崩溃成精神错乱的反应。根据一份新报告,微软收到了有关此类响应的警告,并决定发布 Bing Chat。
据《华尔街日报》报道, ChatGPT和支持 Bing Chat 的 GPT-4 模型背后的公司 OpenAI 警告微软将其早期的 AI 模型集成到 Bing Chat 中。具体来说,OpenAI 标记了“不准确或奇怪”的响应,而微软似乎忽略了这一点。

该报告描述了 OpenAI 和微软之间的独特紧张关系,它们在过去几年中建立了某种程度的开放式合作伙伴关系。 OpenAI 的模型建立在 Microsoft 硬件(包括数以千计的 Nvidia GPU )之上,并且 Microsoft 在 Bing、Microsoft Office 和 Windows 本身中利用了该公司的技术。 2023 年初,微软甚至向 OpenAI 投资了 100 亿美元,差点直接收购该公司。
尽管如此,该报告称,微软员工在访问 OpenAI 模型方面存在问题,他们担心 ChatGPT 会盖过被 AI 淹没的 Bing Chat。更糟糕的是,《华尔街日报》报道称,OpenAI 和微软都在销售 OpenAI 的技术,导致供应商在处理两家公司的联系人的情况。
据报道,最大的问题是微软和 OpenAI 正试图通过类似的产品赚钱。在微软的支持下,但不控制 OpenAI,ChatGPT 开发人员可以自由地与其他公司建立合作伙伴关系,其中一些可以直接与微软的产品竞争。
根据我们所见,OpenAI 报告的警告是站得住脚的。在发布 Bing Chat 后不久, Microsoft 限制了用户在单个会话中可以收到的响应数量。此后,随着 Bing Chat 中GPT-4 模型的完善,微软也慢慢解除了限制。报告显示,一些微软员工经常提到“悉尼”,取笑 Bing Chat(代号为悉尼)的早期及其响应。