尽管围绕 ChatGPT 和类似的人工智能聊天机器人令人兴奋,但基于文本的工具仍然存在一些需要解决的严重问题。
其中之一是当他们不知道问题的答案时,他们倾向于编造东西并将其作为事实呈现,这种现象后来被称为“幻觉”。正如您可以想象的那样,向使用新一波强大聊天机器人之一的人提供虚假信息可能会产生严重后果。
这种麻烦在最近的一起事件中得到了凸显,在该事件中,一位经验丰富的纽约市律师引用了ChatGPT建议的案例,但事实证明这些案例从未发生过。律师可能会因其行为而受到制裁。
另一起事件在 4 月份受到了广泛关注,当时 ChatGPT 显然改写了历史,称一名澳大利亚市长在为一家银行工作期间因贿赂被判入狱,而实际上他是此案的举报人。
为了使其聊天机器人技术更加可靠,OpenAI 工程师透露,他们目前正专注于改进其软件,以减少并有望消除这些问题的发生。
在周三发布并被CNBC 转载的一篇研究论文中,OpenAI 表示,聊天机器人“表现出在不确定的时刻编造事实的倾向”,并补充道:“这些幻觉在需要多步推理的领域尤其成问题,因为一个单一的逻辑错误足以破坏更大的解决方案。”
为了解决聊天机器人的失误,OpenAI 工程师正在研究其 AI 模型如何在获得答案时奖励自己输出正确的数据,而不是仅在得出结论时奖励自己。据工程师称,该系统可以带来更好的结果,因为它包含了更多类似人类的思维链程序。
但一些专家对这项工作表示怀疑,告诉 CNBC 在它被纳入 ChatGPT 之前它几乎没有用,同时它会继续产生幻觉。 OpenAI 没有说是否以及何时可以将其工作纳入其生成人工智能工具。
虽然很高兴知道 OpenAI 正在努力解决这个问题,但我们可能还需要一段时间才能看到任何改进。与此同时,正如 OpenAI 自己所说,ChatGPT 有时可能会生成不正确的信息,因此如果它们是任何重要任务的一部分,请务必确认其响应。