在 OpenAI 假日新闻闪电战的第九天,该公司宣布将发布其o1 推理模型的完整版本,以通过该公司的 API 来选择开发人员。在周二的消息发布之前,开发人员只能访问功能较差的o1-preview模型。
据该公司称,完整的 o1 模型将开始向 OpenAI 的“第 5 级”开发人员类别中的人员推出。这些用户拥有帐户超过一个月,并且在该公司花费了至少 1,000 美元。这项新服务对用户来说特别昂贵(考虑到 o1 需要的额外计算资源),每分析(大约)750,000 个单词花费 15 美元,模型生成的每(大约)750,000 个单词花费 60 美元。这是使用GPT-4o执行相同任务的成本的三到四倍。
按照这些价格,OpenAI 确保比预览迭代提高完整模型的功能。新的 o1 模型比其前身更具可定制性(其新的“reasoning_effort”参数决定了人工智能思考给定问题的时间),并提供函数调用、开发人员消息和图像分析,所有这些都在 o1 预览版中缺失。
该公司还宣布将其GPT-4o和4o-mini模型纳入其 Realtime API,该 API 专为低延迟、语音 AI 应用程序(如高级语音模式)而构建。该 API 现在还支持 WebRTC,这是用于在网络浏览器中开发语音 AI 应用程序的行业开放标准,因此,请做好准备,迎接 2025 年更多网站试图与您对话。
OpenAI 在其声明中写道:“我们的 WebRTC 集成旨在在现实条件下实现流畅且响应灵敏的交互,即使网络质量存在变化。” “它处理音频编码、流媒体、噪声抑制和拥塞控制。”
到目前为止,作为直播活动的一部分,OpenAI 已经推出了 o1 的完整版本(除了周二的公告之外),发布了Sora 视频生成模型,首次推出了新的 Projects 功能,并对其Canvas 、Search 进行了多项更新和 高级语音模式功能。
距离活动大结局仅剩三天,OpenAI 接下来将展示什么?我们得拭目以待。