牛津博士揭秘Claude成功背后的百万年薪提示词秘诀!

共计 3935 个字符,预计需要花费 10 分钟才能阅读完成。

在Anthropic公司,驻场哲学家Amanda Askell专注于与人工智能模型的互动。她不仅负责Claude的个性化设计和价值对齐机制,还总结了一系列有效的提示词技巧。在当今AI时代,哲学的价值并未减弱,相反,经过哲学训练的人在掌握提示词技巧方面,其年薪中位数可达15万美元。

想象一下,你手中拥有一台最新型号的超级咖啡机。

无论你按下多少次按钮,始终无法制作出理想的咖啡。

这并非因为咖啡机性能不足,而是因为你不清楚该如何输入正确的指令。

在Anthropic,有一位专门研究如何与这台「超级智能咖啡机」沟通的专家。

她不是工程师,也不是程序员,而是Amanda Askell,这位驻场哲学家。

Amanda Askell是一位受过严格哲学训练的学者,她负责协助设计Claude的个性特征。

Askell的学术背景扎实,曾在牛津大学与纽约大学攻读哲学,并于2018年获得纽约大学的哲学博士学位。

完成学业后,Askell曾在OpenAI担任政策研究科学家。

2021年,她加盟Anthropic,现任对齐微调方向的研究科学家。

在她的工作中,Askell负责为Claude注入特定的个性,同时防止引入不必要的特质。

因其在Claude个性、对齐和价值观机制设计方面的卓越贡献,Askell被评选为「2024年最具影响力的100位AI人物」之一。

在Anthropic,Askell被称为「Claude耳语者」,可能是因为她的研究方向专注于如何与Claude进行有效沟通,并优化其输出质量。

掌握AI,哲学是你的「钥匙」

哲学,犹如打开AI这台复杂机器的关键。

近日,Askell分享了她在制定有效AI提示词方面的经验。

她认为,提示词工程需要明确的表达、不断的尝试,以及哲学式的思考方式。

在Askell看来,哲学的核心能力之一,就是能够清晰而准确地传达思想,而这恰恰是实现AI最大价值的关键:

其中的奥妙难以总结,关键在于要乐于频繁与模型互动,并认真观察每次的输出。

Askell认为,优秀的提示词创作者必须具备「热爱尝试、乐于实验」的精神,但相比于简单的反复试错,哲学思维更为重要。

哲学思维确实能够帮助撰写提示词,我的大部分工作就是尽可能清晰地向模型阐释我所思考的问题、担忧或想法。

重视哲学思维的清晰表达,不仅能提升提示词的效果,也有助于加深对AI本身的理解。

如何有效利用AI:从提问技巧到思维伙伴的转变
牛津博士揭秘 Claude 成功背后的百万年薪提示词秘诀!

在Anthropic发布的《提示词工程概览》中,提出了多种有效的提示词技巧,其中包括清晰表达的重要性:

应保持表达的简洁与直接(Be clear and direct);

提供示例(multishot/few-shot prompting),通过多轮示例来阐明期望的输出;

对于复杂任务,建议让模型逐步思考(chain-of-thought),以提升结果的准确性;

给Claude设定一个角色(system prompt/role prompt),帮助明确上下文、风格和任务的边界。

这表明,当我们与Claude互动时,可以将其视为一位知识丰富但偶尔健忘、缺乏背景信息的新员工,因此需要提供明确的指导。

换句话说,Claude并不了解你的规范、风格、喜好或工作方式。

越是详细地阐述需求,Claude所给出的回应就会越有针对性。

牛津博士揭秘 Claude 成功背后的百万年薪提示词秘诀!

近期,Netscape的联合创始人、著名硅谷企业家及风险投资人Marc Andreessen分享了他对AI的看法,他指出AI的魅力在于如何提问:

「AI的核心在于你提出了什么样的问题。」

在AI的时代,提出有效的问题往往比解决问题更为关键。

换句话说,正确地提出问题(提示词工程),恰恰是在高效解决问题的基础上。

人类需将提问部分(提示词)处理好,而解决问题的任务则可交给AI。

这也是为什么熟练掌握提示词技巧的人,能够获得高薪工作的重要原因。

根据levels.fyi(一个专注于科技行业薪资查询的平台)的数据显示,提示词工程师的年薪中位数高达15万美元。

AI并非「某个个体」,避免问它「你怎么看?」

牛津博士揭秘 Claude 成功背后的百万年薪提示词秘诀!

近日,Karpathy在一篇推文中分享了他对提示词的见解。

他建议人们不应将大型模型视为一个「实体」,而应将其看作是一个「模拟器」。

例如,在探讨某个话题时,避免询问它对xyz(某个问题)的看法,因为提问对象并不是真正的个体。

更为合适的提问方式是:

讨论xyz时,哪些角色或人群适合参与?他们将如何表达?

Karpathy认为,大型模型能转换并模拟多种不同的视角,但它并不会像人类一样,经过长时间思考xyz而逐渐形成自己的观点。

因此,若使用「你」来提问,模型会依照微调数据中的统计特征,自动应用某种隐含的「人格嵌入向量」,并以此方式作答。

Karpathy的解释在一定程度上消除了大家在向AI提问时所感受到的神秘感。

AI的理解能力或许只是表面的变化

关于Karpathy的看法,网友Dimitris提出了一个有趣的问题:模型是否会自然而然地展现出最具能力的专家特质?

对此,Karpathy承认这种现象确实存在,某些任务中模型可能被设计成具备特定的「人格」,例如模拟专家、通过奖励机制获得高分,或者是模仿用户偏好的风格等。

这种情况可能导致一种「复合人格」的形成,但这并非自然产生的人类心理,而是通过有意识的工程设计而成。

因此,AI的本质依然是一个进行token预测的机器。所谓的「人格」,只不过是通过训练、人为的约束与系统指令等方式附加的「外壳」。

Askell对此亦表达了类似的观点。

虽然Claude展现出某种「类人特质」,但它并未具备情感、记忆或自我意识。

因此,它所表现的任何「个性」完全是复杂语言处理的结果,而并非源于内在生命的表现。

AI的世界理解或许只是表面现象

开发AI模型的过程,有时犹如在玩打地鼠游戏。

当你刚刚修正了模型在某一问题上的错误,它又会在其他问题上出现新的失误。

这些层出不穷的问题就像不断从洞口冒出的地鼠一样。

OpenAI等机构的研究人员将这种现象称为「裂脑问题」(split-brain problem):

稍微调整提问方式,模型可能就会给出截然不同的答案。

「裂脑问题」反映出当前大型模型的一个致命缺陷:

它并不能像人类一样逐渐理解世界的运作方式。

一些专家因此认为,这些模型的泛化能力有限,难以应对超出训练数据范围的任务。

这也引发了质疑:

投资者大量资金投入OpenAI、Anthropic等实验室,希望它们能训练出在医学、数学等领域产生新发现的模型,这样的投入是否真的有效?

「裂脑问题」通常在模型开发的后期阶段显现,即后训练阶段。

在这一阶段,模型会接收经过精心筛选的数据,涵盖医学、法律等特定领域的知识,或学习如何更好地响应用户。

例如,某个模型可能在数学题的数据集上进行训练,以便更精准地解答数学问题。

它也可能在另一个数据集上接受训练,以提升回答时的语气、个性和格式。

然而,这种训练有时会导致模型无意中习得「分场景作答」,它会根据自认为的场景来决定回答方式:

是一个明确的数学问题,还是在另一个训练数据集中常见的、更广泛的问答场景。

当用户以正式的证明风格提问数学问题时,模型通常能正确回答。

但若用户以更随意的口吻提问,模型可能误以为参与的是一个更倾向于被奖励「友好表达、格式美观」的场景。

因此,它可能为了这些附加属性而牺牲准确性,甚至输出一个排版精美、带有表情符号的答案。

换句话说,模型在回答时也会「看人下菜碟」:

如果它觉得用户提问的是「低水平」问题,就会给出「低水平」的回答;反之,若认为是「高水平」问题,则呈现「高水平」的回应。

这种对提示格式的「过度敏感」导致了本不该出现的细微差异。

例如,提示中使用破折号与冒号的不同,可能会影响模型回答的质量。

「裂脑问题」凸显了训练模型的复杂性与微妙性,特别是在确保训练数据组合的合理性方面。

这也解释了为何许多AI公司愿意投资数十亿美元,请数学、编程、法律等领域的专家生成训练数据,以避免模型在专业用户面前犯低级错误。

「裂脑问题」的出现,降低了人们对AI能迅速自动化多个行业(如投行和软件开发)的期望。

尽管人类同样会误解问题,但AI的意义在于弥补这些人类的不足,而不是通过「裂脑问题」加剧这种不足。

因此,必须有具备哲学思维和某一领域专业知识的人类专家,通过提示工程为大模型的训练与使用编制「说明书」,使人们能够有效与大模型沟通,从而应对「裂脑问题」。

而且,当大模型展现出「拟人」特征时,避免将其视作「人」的错觉,有助于我们更好地发挥其价值,减少机器幻觉。

这实际上非常依赖于哲学训练,使人与AI的对话更加清晰和合逻辑。

从这个角度看,对于多数人而言,能否有效利用AI,不在于其专业知识,而在于其哲学思维能力。

参考资料:

https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20

https://x.com/karpathy/status/1997731268969304070%20

https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12

本文由微信公众号“新智元”发布,作者:新智元,36氪授权转载。

来源:今日头条
原文标题:打脸哲学无用,牛津博士教出Claude,自曝百万年薪提示词秘诀 – 今日头条
声明:
文章来自网络收集后经过ai改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!
正文完
 0
小智
版权声明:本站原创文章,由 小智 于2025-12-27发表,共计3935字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
使用智语AI写作智能工具,您将体验到ChatGPT中文版的强大功能。无论是撰写专业文章,还是创作引人入胜的故事,AI助手都能为您提供丰富的素材和创意,激发您的写作灵感。您只需输入几个关键词或主题,AI便会迅速为您生成相关内容,让您在短时间内完成写作任务。
利用AI智能写作工具,轻松生成高质量内容。无论是文章、博客还是创意写作,我们的免费 AI 助手都能帮助你提升写作效率,激发灵感。来智语AI体验 ChatGPT中文版,开启你的智能写作之旅!
利用智语AI写作工具,轻松生成高质量内容。无论是文章、博客还是创意写作,我们的免费 AI 助手都能帮助你提升写作效ai率,激发灵感。来智语AI体验ChatGPT中文版,开启你的智能ai写作之旅!