共计 840 个字符,预计需要花费 3 分钟才能阅读完成。
最新的《华尔街日报》报道显示,OpenAI 正在研发中的下一代大型语言模型 GPT- 5 的进展未能按计划进行, 而目前取得的成就与其巨额投入并不成正比。

这一消息与之前《The Information》的报道相呼应,后者提到 OpenAI 正在探索新的策略, 因为 GPT- 5 可能无法实现前所未有的性能提升 。《华尔街日报》的后续报道则详细介绍了代号为“猎户座”(Orion)的 GPT- 5 在长达 18 个月的研发阶段所遇到的更多挑战。
据悉,OpenAI 已经进行了至少两次大规模的训练,目的是通过海量数据来增强模型的性能。第一次训练的结果未达预期,这意味着更大规模的训练将需要耗费更多的时间和资金。尽管据称 GPT- 5 的性能优于前一代产品, 但其进步幅度并不足以合理化维持该模型运行所需的高昂成本 。
此外,报道还指出,OpenAI 除了依赖公开数据和相关许可外,还招募了人员通过编写代码和解决数学问题来生成全新的数据。同时,该公司还在利用其另一款模型 o1 生成的合成数据。
截至 IT 之家发稿时,OpenAI 尚未对此作出任何回应。该公司之前曾表示不会在今年发布代号为“猎户座”的模型。
消息称 OpenAI 新模型 GPT- 5 研发遇阻,成本高昂、效果未达预期
当 GPT 首次推出时,就有人提出,llm 大量利用互联网上的语料进行训练。然而,llm 发布后,由其自身生成的语料也会大量涌入网络,并逐渐成为主流,甚至可能最终占据网络语料的绝大部分。在新的 llm 进行训练时,不得不使用由之前的 llm 生成的语料,这就好比在同一个碗里既吃又拉一样……不知 GPT- 5 的训练过程中是否也面临了类似的困境。