共计 3324 个字符,预计需要花费 9 分钟才能阅读完成。

大模型的开放趋势愈发明显,行业先锋纷纷采取开放策略。
作者丨郑佳美
编辑丨马晓宁
在 2 月 13 日,文心一言在其官网上宣布自 4 月 1 日 0 时起全面提供免费服务,所有 PC 和移动端用户均可体验文心系列的最新模型,享受超长文档处理、专业检索增强、高级 AI 绘画及多语种对话等诸多功能。
与此同时,OpenAI 的首席执行官 Sam Altman 也透露了 GPT-4.5 和 GPT- 5 的最新动态。用户可以在标准智能设置下,毫无限制地使用免费版 ChatGPT 进行与 GPT- 5 的对话。
这个消息引发了广泛关注,许多网友纷纷表示:人工智能普及的新时代已经到来!
AI 科技评论团队对文心一言 3.5 与 4.0 版本进行了详细对比,得出的结论是:百度在这次更新中展现了极大的诚意!
首先,我们给大模型设定了一个提示:“请参照原文:‘日照香炉生紫烟,遥看瀑布挂前川。’在新的主题下尝试仿写,昆明湖仿写要求:模仿风格及格式,写两句诗。”
文心一言 3.5 的回应虽然工整,但仅仅给出了一句诗,缺乏深度的思考过程。
相比之下,文心一言 4.0 的回应显得更加全面。它不仅深刻分析了原文的诗词意境和写作技巧,还对生成内容进行了详细的解读,呈现得清晰且易于理解。
除了继续写诗,我们还提出了一个富有创意的问题:在世界八大奇迹中,哪一座最有可能是外星人所建造的?请进行严谨的推理。
文心一言 3.5 对此的回答显得比较平淡,没有给出明确的结论,整体语气充满了“模糊感”。

文心一言 4.0 版本对此问题进行了清晰的解答,过程透明且易于理解,同时还附加了丰富的多媒体内容。
在生成图片的能力上,两个版本的文心一言表现出了显著的差异。
以提示词“帮我画一个奥黛丽赫本吃汤圆”为例,文心一言 3.5 版本生成的图像呈现出浓厚的“人工智能风格”。
而文心一言 4.0 则借助其 IRAG 功能,生成的脸部特征更加准确,避免了“人工智能气息”,更显真实可信,并且能够一次性产生多张图像。
1 大模型人人可用:“免费午餐”来了
通过实测,显而易见 文心一言 4.0 版本相比于先前的 3.5 版本,已经实现了质的飞跃。该版本在语言理解和多模态能力上都有了显著提升,同时增加了深度搜索等强大功能。
文心一言 4.0 版本全面增强了应对专业咨询问题的能力,轻松解决了查询门槛高、渠道专业化、结果分析复杂等挑战。它在民生、创业、经济分析等领域也能够提供专家级的回复。
此外,4.0 版本还在思维、规划和反思能力上做了全面强化,针对工具的规划与使用能力进行了提升,使其能够更“聪明”地运用多种工具来处理复杂任务。例如可以先进行内容搜索,再结合代码解释器;或者先阅读上传的文档,再进行分析,最后综合输出结果。
在提升用户体验的同时,也有效降低了大众使用人工智能的门槛。
将文心一言与市场上其他主流大模型进行对比,你会发现它其实是一个“六边形战士”。
在众多评判标准中,RAG 作为大模型竞争的核心指标之一,成为评估其优劣的重要维度。百度在 RAG 技术上具备深厚的中文理解、多模态检索、专业领域定制及实时数据整合等优势,使其在中文互联网、企业服务及政务等应用场景中展现出极强的实用性和竞争力。
此外,在 RAG 能力的实际测试中,国内外主流大模型中,百度文心一言的综合表现尤为突出。
回顾人工智能搜索技术的演变,实际上,这些进展本质上是对检索增强生成(RAG)技术的进一步发展。随着技术的不断迭代,RAG 技术在文本生成方面已经有效消除了大型模型的“幻觉”现象。然而,在多模态应用,尤其是在图像生成领域,这项技术的应用仍显不足。
我们常能在网络上发现,诸多大型模型在文本转图功能上产生的失败案例,这些图像不仅看起来虚假,甚至常常与物理逻辑相悖,出现了许多“幻觉问题”,使得图像充满了明显的“AI 风格”。
对此,百度早已意识到,并在去年推出了一种专门针对图像生成幻觉问题的 iRAG 技术,走在了行业的前沿。
百度的 iRAG 技术结合了检索与生成的双重策略,旨在提高生成内容的可靠性和准确性。 这一技术将百度搜索中数以亿计的图像资源与强大的基础模型相结合,从而生成极为真实的图像,效果远超传统文生图系统。
通过 iRAG 技术,生成的图像不仅减少了“AI 味”,同时还极大地帮助用户降低了创作成本。总体来看,百度此次全面推出文心一言的操作,真正将最佳内容呈现给了用户。
2 技术进步与成本压缩双重驱动
不可否认,百度宣布文心一言全面开放,正是 技术突破与成本降低的结合成果。
李彦宏在“世界政府峰会”上提到:“过去我们谈论摩尔定律时,性能水平或价格每 18 个月都会减半,但如今在大型语言模型上,成本的下降速度更为显著,12 个月内可降幅超过 90%。”
在训练成本方面,百度依靠昆仑芯的高性价比,大幅降低了对计算资源的需求,从而减轻了算力成本。此外,百度智能云的万卡集群(计划扩展至三万卡)利用规模效益,显著提升了资源的利用率,避免了算力的闲置,同时增强了计算效率。
百舸平台通过高效的网络和创新的散热方案,优化了大规模集群的管理与部署,提升了通信效率,降低了能耗。
为了解决大模型训练中对高带宽通信的需求,百度建立了超大规模的 HPN 高性能网络,通过优化的拥塞控制算法与集合通信策略,显著提升了通信效率,将带宽有效性提升至 90% 以上。同时,由于万卡集群的能耗较高,百舸采用了创新的散热方案,有效降低了能耗,进而减少了电力支出。
为了提高 GPU 的有效利用率,百舸还不断优化分布式训练策略,通过高效的任务并行切分,将训练主流开源模型的集群 GPU 有效利用率(MFU)提高至 58%。百舸还提供全面的故障诊断手段,借助百度自研的 BCCL(百度集合通信库)迅速定位与修复故障,确保训练任务的稳定性,将故障恢复时间从小时缩短至分钟,确保集群的有效训练率达到 98%。
此外,有分析人士认为,文心一言全面开放的一个重要因素是 推理成本的不断降低。
他们指出,百度在模型推理部署方面的优势显著,特别是在飞桨深度学习框架的支持下,飞桨的并行推理与量化推理等自研技术极大提升了推理性能,并有效降低了相关成本。飞桨与文心的深度优化协同作用,进一步提升了推理效率,并降低了相关支出。
3 全民狂欢:开放促进 AI 普惠
在短短的一天内,2 月 13 日,OpenAI 与百度同时宣布全面开放各自的大模型产品。
北京时间 2 月 7 日,OpenAI 宣布 ChatGPT Search 向所有用户开放,无需注册,用户只需访问 OpenAI 官网即可直接使用该搜索功能。几小时后,谷歌也宣布向公众开放其最新的 Gemini 2.0 模型,包括 Flash、Pro Experimental 和 Flash-Lite 三个版本。
各大企业的举动,让人们逐渐看清了大模型行业未来的发展方向:全面开放。
AI 技术的开放,既能降低技术的门槛,又能让越来越多的用户和开发者直接接触到这些强大的模型与工具。同时,开放也意味着 AI 将渗透到各个行业,深刻影响日常生活和工作方式。
随着越来越多的企业加入到开放大模型的行列,AI 的应用场景将变得更加多元化,技术门槛也将逐步降低,甚至可能形成一个更加开放与共享的 AI 生态。
由百度、OpenAI 等领先企业引领的 AI 大模型开放潮流,或许只是未来更大范围开放的开始。在这一过程中,不仅是 AI 技术的进步,更是 AI 与人类社会的深度融合,进而带来更广泛的创新机遇与发展空间。
AI 普惠的时代,确实已经到来了。
禁止未经「AI 科技评论」授权的转载,任何形式的网页、论坛或社区传播均属违法!
如需在公众号上引用,务必先通过「AI 科技评论」后台申请授权,并在转载时注明来源及插入本公众号名片。
//
「鲶鱼」DeepSeek 正在引发不小波动
硅谷的主要企业需正视一个现实:「DeepSeek 现象」仅是中国 AI 崛起的起点。
Andrej Karpathy 在其最新视频中高度赞扬 DeepSeek,指出 R1 正在揭示人类思维的逻辑并进行模拟。