Anthropic公开5个AI指令技巧:ChatGPT、Claude都适用!

如何让AI生成你想要的内容? Anthropic近日分享了一份提示工程指南,教导用户如何才能有效地向AI下指令。

如何向AI下指令、给予提示词在人工智慧崛起的时代已成为一项技能,各大企业一度捧着20万美元高薪,就为求得相关人才,现在更渐渐成为所有工作者需要具备的能力。 AI新创Anthropic就发布了一份提示工程指南,和用户分享如何能够有效地给予AI提示。

ChatGPT问世后,提示工程曾经职场上最受追捧的新技能,不乏企业开出20万到25万美元的年薪招募拥有提示工程能力的人才,不过随着AI模型变得越来越易用,这项技能从有着一定门槛的专业能力,逐渐转变为众多工作者都得熟练运用的技巧。

即使如此,要有效下指令给AI执行,仍需要懂得一些窍门。推出Claude系列模型的Anthropic,近日发布了一篇《提示工程概述》的指南,教导用户如何有效地利用提示词与模型互动,以得到自己想要的结果。

根据《Business Insider》报导,这份指南虽然是针对Anthropic旗下的Claude量身打造,同样适用于市面上几乎所有聊天机器人。

Anthropic强调这份指南主要是提供有一些基础的AI用户,至少需要有一份想改进的初步提示词,以及有着明确的成功标准,并有办法进行实证评估。 《数位时代》也从中节选部分关键诀窍与读者分享。

诀窍一:提示要明确

Anthropic建议,与Claude互动时,要把他想像成一位很有才华、但记忆力不太好的新员工,「Claude不了解你的规范、风格、准则或偏好的工作方式,你越精准解释想要的内容,Claude的回应就会越好。」

在举例中,当你要求Claude在输出内容中不要用删节号时,详细解释要求比单纯提出要求更好。

较不有效的写法

「不要使用删节号」

更有效的写法

「你的回应会转成语音朗读,所以不要使用删节号,因为文字转语音功能不知道如何发音。」

指南中提到,给予Claude的任务最好包括生成的结果要用于哪里、输出的内容要提供给谁、这项任务属于什么工作流程,以及它最终的样貌。并且可以使用编号或项目符号标记要求,确保AI依照你期望的顺序、方式完成任务。指示越有条理、越清晰,得到的结果就越好。

诀窍二:给予AI范例

Anthropic在指南中分享的另一个要点,则是建议多给予AI模型范例,「范例是让Claude产生你所需内容的秘密武器,在提示中加入一些精心设计的范例,可以显著提升Claude的准确性、一致性及品质。」这种作法被称作「多范例提示」(few-shot)。

指南中提到,范例要有效需要注意相关性,范例是否反应实际案例,以及多样性,范例是否涵盖大多甚至极端状况,同样还要注意明确程度,例如使用<范例>标签注明,让AI明白知道哪些内容是你提供的范例。

诀窍三:给AI思考的空间

「当面对研究、分析或解决问题等复杂任务时,给予Claude思考时间可以大幅提升表现。」Anthropic在指南中如此表示。

那么,该如何给予AI思考的时间?这涉及到一种被称为「思维链」(CoT)的提示技术,透过让AI逐步拆解问题,进而生成更精准、细致的回应。虽然思考可以让AI模型提供更准确的答案,指南中也表示,思考会影响输出时间,不是所有任务都需要AI深入思考,需要妥善在性能与延迟间取得平衡。


这份指南虽然是针对Anthropic旗下Claude撰写,但同样适用于其他业者的AI模型。图/ shutterstock

而最基本的作法,就是直接在提示词中要求AI「逐步思考」。文中也以一封请求捐赠人援助今年关爱儿童计画为例。

●基本提示

撰写个人化的电子邮件,请求捐赠人为今年的关爱儿童计画提供援助。

在撰写电子邮件前请逐步思考

这种提示虽然较为简短,但缺乏如何思考的指导。

●引导式思考

撰写个人化的电子邮件,请求捐赠人为今年的关爱儿童计画提供援助。

撰写电子邮件前请先思考。首先,依照他们的捐赠历史和过去援助的活动,思考什么讯息可以思考这位捐赠人。然后依照这些历史资讯,思考关爱儿童计画有哪些方面可能吸引他们。最后,运用你的分析结果撰写个人化电子邮件。

这种方法告诉AI几个可以依循的步骤,不过Anthropic指出,缺点在于缺乏结构化,无法将答案从思考过程分离出来。

●结构化提示

撰写个人化的电子邮件,请求捐赠人为今年的关爱儿童计画提供援助。

在使用<思考> 标签撰写电子邮件之前,请先思考一下。首先,依照他们的捐赠历史和过去援助的活动,思考什么讯息可以给予这位捐赠人参考。然后依照这些历史资讯,思考关爱儿童计画有哪些方面可能吸引他们。最后,使用<电子邮件> 标签,结合你的分析撰写个人化电子邮件。

相比前两种作法,这可以将AI的推理过程与最终答案分离开来,但相对也需要占用较多的文本量,并需要更长的思考时间。

诀窍四:赋予AI角色

Anthropic指出,赋予AI一个角色(比如新闻记者、法务专家),能够大幅提升其表现。

这种被称为「角色提示」的作法,能够将AI从一般助手转变为该领域的专家,「在复杂的场景中(比如法律分析或建立财务模型),角色提示可以显著提升Claude的表现。」

同时,为AI赋予角色也能更容易规范它的遣词用字符合你的需求,例如需要如财务长报告般简洁扼要,或者专业撰稿人的正式文笔,都能更简单地让AI按照预期产出内容。另外,还可以透过限定角色的情境,确保AI在任务的特定范围内进行回覆。

Anthropic在提供的范例中,要求AI分析一份软体授权协议可能存在的风险,没有被赋予角色的AI回答很简略,没有看出什么重大问题。然而当它被赋予了「财星500强企业法务长」的身份后,便发现协议中存在大量陷阱,对公司极为不利,可能导致上百万美元的损失。

诀窍五:允许AI说「我不知道」

AI生成内容最大诟病点,便是可能一本正经胡说八道,信誓旦旦地说着编造的内容,或者正确的内容中参杂虚假资讯,导致难以察觉或核实。

要减少AI产生幻觉的可能性,该指南中提到,最好的方式就是允许AI说「我不知道」,明确开放AI可以承认自己不确定的事项,如此一来便能大大减少出现错误资讯的情况。

另外,在一些涉及长文档的任务时,可以要求AI先撷取引用资讯,再执行任务,这样可以确保AI的回应都是基于引用资讯,降低幻觉问题。

用户还可以再更进一步,要求AI为每个声明标记引文和资料来源,让你在查阅生成内容时可以查证说法是否属实,甚至直接让AI在生成内容后,重新检视所有说法,一旦找不到引用来源就得撤回。

不过Anthropic也强调,这些技术虽然可以降低幻觉机率,却不能保证完全消除风险,用户最好手动验证部分关键讯息,尤其是涉及重要决策时。

熟悉这些要点并实行,能够让AI更准确生成用户所期望的内容,不过上述的5个要点只是Anthroic这份指南中的一部份内容,其中还有更多的范例与细节教学,若希望精进自己运用AI能力的人,或许值得再阅读完整指南。

本文链接地址:https://www.wwsww.cn/rgzn/33455.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。