上周,OpenAI 推出了一系列新的人工智能模型,旨在花更多时间思考后再做出反应。与以前的 OpenAI 模型相比,新的 OpenAI o1 系列模型能在科学、编码和数学领域推理出复杂的任务并解决更难的问题。例如,o1 模型在编程竞赛题(Codeforces)中的得分达到了第 89 百分位数,并在美国数学奥林匹克竞赛(AIME)预选赛中跻身美国前 500 名学生行列。
OpenAI o1 系列包括两个推理模型:o1-preview(o1 模型的早期预览版)和 o1-mini(o1 更快、更便宜的版本)。值得注意的是,o1 模型仅在推理方面取得了重大进步,因此不能在所有使用案例中取代 GPT-4o。o1 模型不支持图像输入和函数调用,也不能提供始终如一的快速响应时间。因此,GPT-4o 和 GPT-4o mini 模型仍将是大多数开发人员的选择。需要深度推理并能适应较长响应时间的开发人员可以使用这些新的 o1 型号。
本周初,OpenAI 提高了针对第 5 层开发者的 o1 系列模型 API 的速率限制。o1-preview 支持每分钟 100 次请求,而 o1-mini 支持每分钟 250 次请求。今天,OpenAI 将进一步提高这些 API 的速率限制。o1-preview API 现在支持每分钟 500 个请求,而 o1-mini API 现在支持每分钟 1000 个请求。OpenAI 团队正在进一步提高速率限制,并将 API 访问扩展到更多开发人员层级。
对于普通用户,OpenAI 在本周初提高了消息限制。对于 ChatGPT Plus 和 Team 用户,OpenAI 将 o1-mini 的速率限制提高了 7 倍,从每周 50 条消息提高到每天 50 条。由于 o1-preview 模型的服务成本较高,OpenAI 将费率限制从每周 30 条消息提高到了每周 50 条。我们可以预期,OpenAI 在优化这些新模式的成本后,将在未来几个月内进一步提高普通消费者的消息限制。
随着不断改进和接入范围的扩大,o1 系列模型在各种应用中大有可为,尤其是那些要求高级推理能力的应用。