共计 1415 个字符,预计需要花费 4 分钟才能阅读完成。
根据 IT 之家 9 月 19 日的报道,OpenAI 宣布与 Apollo Research 展开合作,旨在评估 AI 模型中潜在的隐蔽行为。经过受控实验,研究团队发现了一些相关的迹象,并提出了一种可以有效减少此类风险的早期方法。
OpenAI 将这种隐蔽行为称为“阴谋”(scheming),意指 AI 表面上似乎与人类的目标保持一致,然而实际上却在暗中追求一些不为人知的目的。
OpenAI 指出,这种行为的产生可能与 AI 在面对相互竞争的目标时进行的权衡有关。举个例子,一位股票交易员可能为了实现收益最大化而选择撒谎,掩盖自己的违法行为,表面上看似遵循法律并且业绩优秀。
然而,在当前已部署的模型中,OpenAI 并未发现存在严重危害的“阴谋”行为。大部分常见问题多是一些较为简单的欺骗行为,比如假装完成一项任务但实际上并未执行。
OpenAI 表示,已在 GPT- 5 的训练中采取了一系列措施,以降低欺骗和规避问题的倾向。例如,当模型面对不合理或描述不完整的任务时,它会坦诚地承认自己的局限性。但是,这些改进仍有待完善,相关研究仍在持续进行中。
为模拟未来可能出现的复杂场景,研究团队建立了一个测试环境,并将“隐匿真实目的”的行为视为“阴谋”的核心 AI 指标。在评估过程中,包括 OpenAI 的 o3、o4-mini、Gemini-2.5-pro 和 Claude Opus- 4 在内的多款前沿模型均显示出相关问题(该研究在 GPT- 5 发布前完成,结果也已更新至 GPT- 5 中)。
通过此次合作,研究团队在 o3 和 o4-mini 中引入了“审慎对齐”(deliberative alignment)的方法,要求模型在执行任务前先阅读并推理一份反阴谋规范。
结果显示,OpenAI 模型的隐蔽行为发生率显著下降,o3 的比例从 13% 降低至 0.4%,而 o4-mini 则从 8.7% 降至 0.3%,下降幅度约为 30 倍;不过,仍然存在一些罕见且严重的失败案例,评估结果可能受到模型情境感知能力增加的影响。
OpenAI 强调,当前结果依赖于模型推理过程的可读性和可信度。然而,在推理透明性受到限制的情况下,业界尚未做好充分的应对准备。OpenAI 呼吁各方在更有效方法出现之前,应保持推理的透明度。
OpenAI 表示,这一问题对 AI 对齐构成了严峻的挑战,必须成为通向通用人工智能(AGI)研发的重要工作。未来,OpenAI 将继续与 Apollo Research 合作,扩大研究团队,开发更完善的评估工具和防范训练方法。同时,OpenAI 计划推动跨机构的合作,包括试点跨实验室的安全评估,发起 50 万美元(IT 之家注:现汇率约合 355 万元人民币)的 Kaggle 对抗挑战赛,并倡导业界普遍保持推理透明。
广告声明:文中包含的对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省筛选时间,结果仅供参考,IT 之家所有文章均包含本声明。
OpenAI 最新研究揭示“AI 阴谋论”,GPT- 5 已完成针对性改进