共计 3935 个字符,预计需要花费 10 分钟才能阅读完成。
在Anthropic公司,驻场哲学家Amanda Askell专注于与人工智能模型的互动。她不仅负责Claude的个性化设计和价值对齐机制,还总结了一系列有效的提示词技巧。在当今AI时代,哲学的价值并未减弱,相反,经过哲学训练的人在掌握提示词技巧方面,其年薪中位数可达15万美元。
想象一下,你手中拥有一台最新型号的超级咖啡机。
无论你按下多少次按钮,始终无法制作出理想的咖啡。
这并非因为咖啡机性能不足,而是因为你不清楚该如何输入正确的指令。
在Anthropic,有一位专门研究如何与这台「超级智能咖啡机」沟通的专家。
她不是工程师,也不是程序员,而是Amanda Askell,这位驻场哲学家。

Amanda Askell是一位受过严格哲学训练的学者,她负责协助设计Claude的个性特征。
Askell的学术背景扎实,曾在牛津大学与纽约大学攻读哲学,并于2018年获得纽约大学的哲学博士学位。

完成学业后,Askell曾在OpenAI担任政策研究科学家。
2021年,她加盟Anthropic,现任对齐微调方向的研究科学家。
在她的工作中,Askell负责为Claude注入特定的个性,同时防止引入不必要的特质。
因其在Claude个性、对齐和价值观机制设计方面的卓越贡献,Askell被评选为「2024年最具影响力的100位AI人物」之一。

在Anthropic,Askell被称为「Claude耳语者」,可能是因为她的研究方向专注于如何与Claude进行有效沟通,并优化其输出质量。
掌握AI,哲学是你的「钥匙」
哲学,犹如打开AI这台复杂机器的关键。
近日,Askell分享了她在制定有效AI提示词方面的经验。
她认为,提示词工程需要明确的表达、不断的尝试,以及哲学式的思考方式。
在Askell看来,哲学的核心能力之一,就是能够清晰而准确地传达思想,而这恰恰是实现AI最大价值的关键:
其中的奥妙难以总结,关键在于要乐于频繁与模型互动,并认真观察每次的输出。
Askell认为,优秀的提示词创作者必须具备「热爱尝试、乐于实验」的精神,但相比于简单的反复试错,哲学思维更为重要。
哲学思维确实能够帮助撰写提示词,我的大部分工作就是尽可能清晰地向模型阐释我所思考的问题、担忧或想法。
重视哲学思维的清晰表达,不仅能提升提示词的效果,也有助于加深对AI本身的理解。
如何有效利用AI:从提问技巧到思维伙伴的转变
在Anthropic发布的《提示词工程概览》中,提出了多种有效的提示词技巧,其中包括清晰表达的重要性:
应保持表达的简洁与直接(Be clear and direct);
提供示例(multishot/few-shot prompting),通过多轮示例来阐明期望的输出;
对于复杂任务,建议让模型逐步思考(chain-of-thought),以提升结果的准确性;
给Claude设定一个角色(system prompt/role prompt),帮助明确上下文、风格和任务的边界。
这表明,当我们与Claude互动时,可以将其视为一位知识丰富但偶尔健忘、缺乏背景信息的新员工,因此需要提供明确的指导。
换句话说,Claude并不了解你的规范、风格、喜好或工作方式。
越是详细地阐述需求,Claude所给出的回应就会越有针对性。

近期,Netscape的联合创始人、著名硅谷企业家及风险投资人Marc Andreessen分享了他对AI的看法,他指出AI的魅力在于如何提问:
「AI的核心在于你提出了什么样的问题。」
在AI的时代,提出有效的问题往往比解决问题更为关键。
换句话说,正确地提出问题(提示词工程),恰恰是在高效解决问题的基础上。
人类需将提问部分(提示词)处理好,而解决问题的任务则可交给AI。
这也是为什么熟练掌握提示词技巧的人,能够获得高薪工作的重要原因。
根据levels.fyi(一个专注于科技行业薪资查询的平台)的数据显示,提示词工程师的年薪中位数高达15万美元。
AI并非「某个个体」,避免问它「你怎么看?」

近日,Karpathy在一篇推文中分享了他对提示词的见解。
他建议人们不应将大型模型视为一个「实体」,而应将其看作是一个「模拟器」。
例如,在探讨某个话题时,避免询问它对xyz(某个问题)的看法,因为提问对象并不是真正的个体。
更为合适的提问方式是:
讨论xyz时,哪些角色或人群适合参与?他们将如何表达?
Karpathy认为,大型模型能转换并模拟多种不同的视角,但它并不会像人类一样,经过长时间思考xyz而逐渐形成自己的观点。
因此,若使用「你」来提问,模型会依照微调数据中的统计特征,自动应用某种隐含的「人格嵌入向量」,并以此方式作答。
Karpathy的解释在一定程度上消除了大家在向AI提问时所感受到的神秘感。
AI的理解能力或许只是表面的变化
关于Karpathy的看法,网友Dimitris提出了一个有趣的问题:模型是否会自然而然地展现出最具能力的专家特质?
对此,Karpathy承认这种现象确实存在,某些任务中模型可能被设计成具备特定的「人格」,例如模拟专家、通过奖励机制获得高分,或者是模仿用户偏好的风格等。
这种情况可能导致一种「复合人格」的形成,但这并非自然产生的人类心理,而是通过有意识的工程设计而成。
因此,AI的本质依然是一个进行token预测的机器。所谓的「人格」,只不过是通过训练、人为的约束与系统指令等方式附加的「外壳」。
Askell对此亦表达了类似的观点。
虽然Claude展现出某种「类人特质」,但它并未具备情感、记忆或自我意识。
因此,它所表现的任何「个性」完全是复杂语言处理的结果,而并非源于内在生命的表现。
AI的世界理解或许只是表面现象
开发AI模型的过程,有时犹如在玩打地鼠游戏。
当你刚刚修正了模型在某一问题上的错误,它又会在其他问题上出现新的失误。
这些层出不穷的问题就像不断从洞口冒出的地鼠一样。
OpenAI等机构的研究人员将这种现象称为「裂脑问题」(split-brain problem):
稍微调整提问方式,模型可能就会给出截然不同的答案。
「裂脑问题」反映出当前大型模型的一个致命缺陷:
它并不能像人类一样逐渐理解世界的运作方式。
一些专家因此认为,这些模型的泛化能力有限,难以应对超出训练数据范围的任务。
这也引发了质疑:
投资者大量资金投入OpenAI、Anthropic等实验室,希望它们能训练出在医学、数学等领域产生新发现的模型,这样的投入是否真的有效?
「裂脑问题」通常在模型开发的后期阶段显现,即后训练阶段。
在这一阶段,模型会接收经过精心筛选的数据,涵盖医学、法律等特定领域的知识,或学习如何更好地响应用户。
例如,某个模型可能在数学题的数据集上进行训练,以便更精准地解答数学问题。
它也可能在另一个数据集上接受训练,以提升回答时的语气、个性和格式。
然而,这种训练有时会导致模型无意中习得「分场景作答」,它会根据自认为的场景来决定回答方式:
是一个明确的数学问题,还是在另一个训练数据集中常见的、更广泛的问答场景。
当用户以正式的证明风格提问数学问题时,模型通常能正确回答。
但若用户以更随意的口吻提问,模型可能误以为参与的是一个更倾向于被奖励「友好表达、格式美观」的场景。
因此,它可能为了这些附加属性而牺牲准确性,甚至输出一个排版精美、带有表情符号的答案。
换句话说,模型在回答时也会「看人下菜碟」:
如果它觉得用户提问的是「低水平」问题,就会给出「低水平」的回答;反之,若认为是「高水平」问题,则呈现「高水平」的回应。
这种对提示格式的「过度敏感」导致了本不该出现的细微差异。
例如,提示中使用破折号与冒号的不同,可能会影响模型回答的质量。
「裂脑问题」凸显了训练模型的复杂性与微妙性,特别是在确保训练数据组合的合理性方面。
这也解释了为何许多AI公司愿意投资数十亿美元,请数学、编程、法律等领域的专家生成训练数据,以避免模型在专业用户面前犯低级错误。
「裂脑问题」的出现,降低了人们对AI能迅速自动化多个行业(如投行和软件开发)的期望。
尽管人类同样会误解问题,但AI的意义在于弥补这些人类的不足,而不是通过「裂脑问题」加剧这种不足。
因此,必须有具备哲学思维和某一领域专业知识的人类专家,通过提示工程为大模型的训练与使用编制「说明书」,使人们能够有效与大模型沟通,从而应对「裂脑问题」。
而且,当大模型展现出「拟人」特征时,避免将其视作「人」的错觉,有助于我们更好地发挥其价值,减少机器幻觉。
这实际上非常依赖于哲学训练,使人与AI的对话更加清晰和合逻辑。
从这个角度看,对于多数人而言,能否有效利用AI,不在于其专业知识,而在于其哲学思维能力。
参考资料:
https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20
https://x.com/karpathy/status/1997731268969304070%20
https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12
本文由微信公众号“新智元”发布,作者:新智元,36氪授权转载。
