尽管 GPT-4 目前在日益错综复杂的生成式人工智能世界中处于顶峰,但其竞争对手,包括 Anthropic 的 Claude 和 Meta 的开源 Llama,都在不断进步,因此 OpenAI 的旗舰产品大型语言模型(LLM)有必要进行新一轮迭代。虽然许多人预计山姆-奥特曼的非营利组织将在 2024 年发布 GPT-5,但一些分析师现在断言,这种预期仍然很牵强,尤其是考虑到所需的资源规模。
GPT-5 所需的计算资源约为 GPT-4 的 100 倍,即 3 个月约 100 万个 H100。
据人工智能安全中心(Center for AI Safety)主任丹-亨德里克斯(Dan Hendrycks)称,OpenAI 的 GPT LLM 每迭代一次,所需的计算资源就增加 10 倍。因此,如果 OpenAI 跳过 GPT-4.5,直接跳到 GPT-5,那么计算需求将比 GPT-4 增加约 100 倍,相当于约 100 万个 H100 芯片连续运行三个月。
Anthropic 公司首席执行官达里奥-阿莫代(Dario Amodei)最近指出,目前培养一名最先进的 LLM 需要花费约 10 亿美元,预计到 2025/26 年,这一成本将激增到 50 亿到 100 亿美元之间。最重要的是,10 亿美元的培训成本与 GPT-4.5 的计算资源激增 10 倍是一致的。
我们最近注意到,英伟达今年部署的 H100 设备预计每年将消耗约 13,000 千兆瓦时的电力,相当于立陶宛和危地马拉等国的年耗电量。到 2027 年,全球数据中心的耗电量预计将达到 85 到 134 太瓦时(TWh)!
当然,GPT-4 的竞争对手正在迅速迎头赶上。Meta 公司的 Llama 3 LLM(700亿参数)目前在 Arena 排行榜上排名第五。重要的是,Llama 3 现在的性能超过了所有其他开源 LLM,而这还是在没有即将推出的 4050 亿参数模型的情况下。
更有甚者,一些专家现在认为,OpenAI 将不得不改变 GPT-5 的 "原始课程",目前的课程包括利用 "不完善的人类对话" 和整体 "幼稚" 的训练过程。这与我们最初的观点不谋而合,即 OpenAI 很可能会在今年发布一个迭代的 GPT-4.5 模型,而不是在 GPT-5 中彻底改变赌注。