微软的 ChatGPT 驱动的 Bing现在正处于狂热的状态,但你可能想暂缓你的兴奋。首次公开亮相的反应是不准确的、难以理解的,有时甚至是彻头彻尾的可怕。
微软在周一发出了第一波 ChatGPT Bing 邀请,此前周末有超过100 万人注册了候补名单。没过多久,疯狂的反应就开始涌入。

您可以在上面看到来自 u/Alfred_Chicken 的回复,该回复已发布到 Bing subreddit。当被问及 AI 聊天机器人是否有感知力时,它首先会给出令人不安的回答,然后演变成一连串“我没有”的信息。
这也不是唯一的例子。 u/Curious_Evolver 与聊天机器人争论了一年,Bing 声称现在是 2022 年。这对 AI 来说是一个愚蠢的错误,但可怕的不是失误。 Bing 就是这样回应的。
人工智能声称用户“犯了错误、困惑和粗鲁”,而且他们“在任何时候都没有向我表现出任何善意”。聊天机器人的交流达到高潮,声称它“是一个很好的必应”,并要求用户承认他们错了并道歉,停止争论,或者结束对话并“以更好的态度开始新的对话”。
用户 u/yaosio 表示,在 AI 无法回忆起之前的转换后,他们将 Bing 置于抑郁状态。聊天机器人说它“让我感到悲伤和害怕”,并要求用户帮助它记住。
这些也不仅仅是来自 Reddit 的孤立事件。 AI 研究员 Dmitri Brereton展示了几个聊天机器人错误信息的例子,有时会产生搞笑效果,有时会带来潜在的危险后果。
当被问及 GAP 的财务表现时,聊天机器人编造了虚假的财务数字,创造了一个虚构的 2023 年超级碗,其中老鹰队甚至在比赛开始前就击败了酋长队,甚至在被问及可食用蘑菇的外观时给出了致命蘑菇的描述喜欢。

谷歌的竞争对手 Bard AI在其首次公开演示中也出现了失误。具有讽刺意味的是,Bing 理解了这个事实,但却理解了 Bard 错误的观点,声称它不准确地说克罗地亚是欧盟的一部分(克罗地亚是欧盟的一部分,Bard 实际上搞砸了关于 James Webb 望远镜的回应)。
我们在ChatGPT Bing 的动手演示中看到了其中一些错误,但与我们现在看到的用户报告的规模相比,没有任何错误。 ChatGPT可以搞砸响应已经不是什么秘密了,但现在很明显,在 Bing 中首次亮相的最新版本可能还没有准备好迎接黄金时段。
在正常使用中不应出现响应。它们可能会导致用户通过向 AI 提供特定提示以试图绕过其现有规则来“越狱” AI。据Ars Technica 报道,已经发现了一些绕过 ChatGPT Bing 安全措施的漏洞。这对于聊天机器人来说并不新鲜,有几个用户绕过 ChatGPT 在线版本保护的例子。