这就是 Bing Chat 对话长度现在受到限制的原因

Bing Chat现在似乎限制了对话的长度,以试图避免 AI 偶尔与您对有用助手的期望发生不幸的分歧。

Bing Chat 才上线了一个多星期,微软已经限制了这个应该可以帮助你度过忙碌一天的强大工具的使用。微软分析了这次首次公开展示的结果,并对可能导致 Bing Chat 变得不那么有用的情况进行了一些观察。

一个悲伤的机器人拿着一个红色的厨房定时器。
由艾伦·特鲁利 (Alan Truly) 提示的经过修改的 Midjourney 渲染图。

“很长的聊天会话会使模型混淆它正在回答的问题,” 微软解释说。由于 Bing Chat 会记住对话中早些时候说过的所有内容,因此它可能正在连接不相关的想法。在博客文章中,提出了一个可能的解决方案——添加一个刷新工具来清除上下文并重新开始新的聊天。

显然,微软目前正在限制 Bing Chat 的对话长度作为即时解决方案。 凯文·罗斯 (Kevin Roose) 的推文是最先指出这一最新变化的推文之一。达到未公开的聊天时长后,Bing Chat 会反复说:“糟糕,我想我们已经结束了这次对话。如果愿意,请单击“新主题”! MSPoweruser发现了这条推文。

Bing 的 AI 聊天功能今天好像更新了,有对话时长限制。不再需要两小时的马拉松比赛。 pic.twitter.com/1Xi8IcxT5Y

——凯文·罗斯 (@kevinroose) 2023 年 2 月 17 日

微软还警告说,Bing Chat 反映出“要求它提供响应的语气可能会导致我们不希望出现的风格。”这或许可以解释在线分享的一些令人不安的反应,这些反应使 Bing Chat AI 看起来充满活力和精神错乱

总的来说,此次发布是成功的,微软报告说,Bing Chat 提供的答案中有 71% 得到了满意用户的“竖起大拇指”作为奖励。显然,这是一项我们都渴望的技术。

然而,当Bing Chat 宣布“我想成为人类”时,它仍然令人不安。我们自己与 Bing Chat 确认的有限对话似乎是阻止这种情况发生的一种方式。

Bing Chat 更有可能混合了早期对话的元素并像即兴演员一样演奏,说出与语调相匹配的台词。生成文本一次处理一个词,有点像智能手机键盘上的预测文本功能。如果你曾经玩过重复点击下一个建议的单词来形成一个奇怪但略微连贯的句子的游戏,你就会明白模拟感知是多么的可能。


Posted

in

by

Tags: