早前 OpenAI 推出基于 o1 系列的新模型,分为 o1-preview 预览版和更快更便宜的 o1-mini 版,该系列模型的主要特点是可以解决更复杂推理任务。
需要强调的是 o1 模型并不能直接替代 GPT-4o 模型,原因在于 o1 模型仅提高推理能力,但不支持图像功能、函数调用和快速响应时间。
对大多数开发者而言可能需要混合使用 GPT-4o、GPT-4o-mini 和 o1 系列模型,即在不同的使用场景中搭配不同的模型以获得最佳性能。
今天 OpenAI 宣布提高 Tier 5 开发者的 o1 系列模型调用速率,鼓励更多开发者积极使用 o1 系列模型,但目前这仅适用于 5 级开发者,后续 OpenAI 会陆续扩展支持 1~4 级开发者。
此次调整前 o1-preview 模型的调用速率为每分钟 100 个请求,o1-mini 的调用速率则是每分钟 250 个请求;此次调整后 o1-preview 调用速率提高到每分钟 500 个请求,而 o1-mini 调用速率提高到每分钟 1000 个请求。
调整后开发者们可以在更大并发场景中使用 o1 系列模型解决复杂的推理任务,并在获得推理结果后再使用 GPT-4o 系列模型进行接下来的处理等。
除了面向开发者调整速率外,OpenAI 在本周还面向 ChatGPT Plus 和 ChatGPT Team 用户调整了 o1-mini 的速率限制,从每周可以发送 50 条消息提高到每天可以发送 50 条消息。
但因为 o1-preview 模型的服务成本更高,所以 OpenAI 只将该模型的消息限制从每周 30 条提高到每周 50 条,所以总体来说还是有一些使用限制的。
以上就是“OpenAI面向开发者继续提高o1系列模型的调用速率 最高每分钟可调用1000次 ”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网。
扫码二维码 获取免费视频学习资料
- 本文固定链接: http://www.phpxs.com/post/12492/
- 转载请注明:转载必须在正文中标注并保留原文链接
- 扫码: 扫上方二维码获取免费视频资料