OpenAI 周二通过 Twitter 宣布,将于本周开始向 Plus 和 Teams 级别的订阅者推出其高级语音功能以及对话式 AI 的五种新语音。 Enterprise 和 Edu 订阅者将从下周开始获得访问权限。
高级语音将在本周内向 ChatGPT 应用程序中的所有 Plus 和 Team 用户推出。
在您耐心等待的同时,我们添加了自定义指令、记忆、五种新声音和改进的口音。
它还可以用 50 多种语言说“对不起,我迟到了”。 pic.twitter.com/APOqqhXtDg
— OpenAI (@OpenAI) 2024 年 9 月 24 日
在 GPT-4o 模型上运行的高级语音允许用户放弃书面文本提示,并 像与其他人一样直接与聊天机器人交谈。它首次在OpenAI 的春季更新活动中宣布,并于 7 月份向选定的 ChatGPT Plus 订阅者群体发布,以对系统进行 Beta 测试。现在,每个付费订阅者都可以亲自尝试该功能。
该公司还为聊天机器人推出了五种新声音:Arbor、Maple、Sol、Spruce 和 Vale(您现在可以收听它们)。它们将提供标准和高级语音模式,加入 ChatGPT 已经提供的四种语音(Breeze、Juniper、Cove 和 Ember)。 OpenAI 还指出,虽然高级语音目前不支持视频和屏幕共享,但这些功能将在稍后推出。
更重要的是,OpenAI 正在整合一对工具来赋予高级语音功能,使其更符合基于文本的聊天机器人体验的其余部分: 内存和自定义指令。当它首次亮相时,高级语音只能参考当前聊天中的信息。借助记忆功能,人工智能还能够回忆起之前对话的细节,减少用户重复对话的需要。同样,自定义指令旨在设置模型在生成响应时要遵循的基本规则。例如,您可以规定任何基于编码的响应都以 Python 呈现。
当该功能在其帐户上上线时,Plus 和 Teams 订阅者将收到应用内通知。遗憾的是,高级语音在欧盟、英国、瑞士、冰岛、挪威和列支敦士登不可用。
ChatGPT 并不是唯一可以直接与用户对话的人工智能。周二的公告是在谷歌向所有用户(包括免费用户)发布 Gemini Live 后不到两周发布的。