您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:chatGPT究极进化指南-如何让prompt成为高效的咒语 - 发现报告
当前位置:首页/其他报告/报告详情/

chatGPT究极进化指南-如何让prompt成为高效的咒语

2023-03-22-未知机构爱***
chatGPT究极进化指南-如何让prompt成为高效的咒语

chatGPT究极进化指南⸺如何让prompt成为 加微信jingtao_luo,获取更多aigc情报 ⾼效的咒语 更多chatGPT知识:0基础⼩⽩学习ChatGPT 来源⻚⾯:https://github.com/dair-ai/Prompt-Engineering-Guide 本⽂在线地址(可根据⽬录查看):chatGPT究极进化指南⸺如何让prompt成为⾼效的咒语翻译:openai 账号,plus代充,聊天机器⼈部署,chatGPT商业化交流微信:isiuonk 校对:Stephen(⽔平有限) PromptingIntroduction(prompt介绍) ================================================================================ ===== Promptengineeringisarelativelynewdisciplinefordevelopingandoptimizingpromptstoefficientlyuselanguagemodels(LMs)forawidevarietyofapplicationsandresearchtopics.Promptengineeringskillshelptobetterunderstandthecapabilitiesandlimitationsoflargelanguagemodels(LLMs).ResearchersusepromptengineeringtoimprovethecapacityofLLMsonawiderangeofcommonandcomplextaskssuchasquestionansweringandarithmeticreasoning.DevelopersusepromptengineeringtodesignrobustandeffectivepromptingtechniquesthatinterfacewithLLMsandothertools. "提⽰⼯程是⼀⻔相对较新的学科,⽤于开发和优化提⽰以有效地使⽤语⾔模型(LMs)来处理各种应 ⽤程序和研究主题。提⽰⼯程技能有助于更好地了解⼤型语⾔模型(LLMs)的能⼒和局限性。研究⼈员使⽤提⽰⼯程来改进LLMs在各种常⻅和复杂的任务上的能⼒,例如问答和算术推理。开发者使⽤提 ⽰⼯程来设计强⼤⽽有效的提⽰技术,与LLMs和其他⼯具进⾏交互。" Thisguidecoversthebasicsofstandardpromptstoprovidearoughideaonhowtousepromptstointeractandinstructlargelanguagemodels(LLMs). 这篇指南涵盖了标准提⽰的基础知识,提供了使⽤提⽰与⼤型语⾔模型(LLMs)进⾏交互和指导的⼤致思路。 Allexamplesaretestedwith text-davinci-003 (usingOpenAI'splayground)unless otherwisespecified.Itusesthedefaultconfigurations,e.g., p=1. temperature=0.7 and top- 除⾮另有说明,否则所有例⼦都是使⽤OpenAI的playground中的text-davinci-003进⾏测试的。它使⽤默认配置,例如temperature=0.7和top-p=1。 Topic: •[BasicPrompts] •[AWordonLLMSettings] •[StandardPrompts] •[PromptElements] •[GeneralTipsforDesigningPrompts] BasicPrompts(基本提⽰) --------------------------------------- Youcanalreadyachievealotwithprompts,butthequalityofresultsdependsonhowmuchinformationyouprovideit.Apromptcancontaininformationliketheinstructionorquestionyouarepassingtothemodelandincludingotherdetailssuchasinputsorexamples. 你已经可以通过提⽰实现很多功能,但是结果的质量取决于你提供的信息量。提⽰可以包含如指令或问题等传递给模型的信息,以及包括其他细节,如输⼊或⽰例。 Hereisabasicexampleofasimpleprompt: 这⾥是⼀个简单提⽰的基本例⼦: Prompt 1 2 3 Output: Theskyis 天空是。 1blue2 3Theskyisblueonaclearday.Onacloudyday,theskymaybegrayorwhite.4 5在晴朗的⽇⼦⾥,天空是蓝⾊的。在多云的⽇⼦⾥,天空可能是灰⾊或⽩⾊的。 Asyoucansee,thelanguagemodeloutputsacontinuationofstringsthatmakesensegivethecontext"Theskyis".Theoutputmightbeunexpectedorfarfromthetaskwewanttoaccomplish. 正如你所看到的,语⾔模型输出了⼀系列字符串的延续,这些字符串在给定上下⽂“天空是”下 是有意义的。输出结果可能出乎意料,或者离我们想要完成的任务相差甚远。 Thisbasicexamplealsohighlightsthenecessitytoprovidemorecontextorinstructionsonwhatspecificallywewanttoachieve. 这个基本⽰例也突显了提供更多上下⽂或说明以明确我们想要实现的具体⽬标的必要性。Let'strytoimproveitabit: 让我们试着稍微改进⼀下吧: Prompt: 1 2 3 4 5 Output: Completethesentence: Theskyis 完成这个句⼦:天空 1sobeautifultoday.2 3今天真美丽。 Isthatbetter?Well,wetoldthemodeltocompletethesentencesotheresultlooksalotbetterasitfollowsexactlywhatwetoldittodo("completethesentence").Thisapproachofdesigning optimalpromptstoinstructthemodeltoperformataskiswhat'sreferredtoaspromptengineering. 这个更好了吗?我们告诉模型要完成这个句⼦,所以结果看起来更好,因为它完全按照我们告诉它要做的("完成句⼦")来执⾏。这种通过设计最佳提⽰来指导模型执⾏任务的⽅法被称为提⽰⼯程。 Theexampleaboveisabasicillustrationofwhat'spossiblewithLLMstoday.Today'sLLMsareabletoperformallkindsofadvancedtasksthatrangefromtextsummarizationtomathematicalreasoningtocodegeneration. 上⾯的例⼦是展⽰LLMs今天所能做到的基本⽰例。现今的LLMs能够执⾏各种⾼级任务,包括⽂本摘要、数学推理以及代码⽣成。 AWordonLLMSettings(LLM设置注意事项) ----------------------------------------------------------------- Whenworkingwithprompts,youwillbeinteractingwiththeLLMviaanAPIordirectly.Youcanconfigureafewparameterstogetdifferentresultsforyourprompts. 在使⽤提⽰时,您将通过API或直接与LLM进⾏交互。您可以配置⼀些参数,以获取不同的提⽰结果。 Temperature-Inshort,thelowerthetemperaturethemoredeterministictheresultsinthesensethatthehighestprobablenexttokenisalwayspicked.Increasingtemperaturecouldleadtomorerandomnessencouragingmorediverseorcreativeoutputs.Weareessentiallyincreasingtheweightsoftheotherpossibletokens.Intermsofapplication,wemightwanttouselowertemperatureforsomethinglikefact-basedQAtoencouragemorefactualandconciseresponses.Forpoemgenerationorothercreativetasksitmightbebeneficialtoincreasetemperature. 温度-简⽽⾔之,温度越低,结果越确定,因为最有可能的下⼀个标记总是被优先选择。增加温度可能会导致更多的随机性,⿎励更多的多样化或创造性输出,实际上增加了其他可能标记的权重。在应⽤ ⽅⾯,对于像基于事实的问答这样的内容,我们可能希望使⽤较低的温度来⿎励更加实际和简洁的回答。对于诗歌⽣成或其他创意任务,增加温度可能会更有益。 Top_p-Similarly,withtop_p,asamplingtechniquewithtemperaturecallednucleussampling,youcancontrolhowdeterministicthemodelisatgeneratingaresponse.Ifyouarelookingforexactandfactualanswerskeepthislow.Ifyouarelookingformorediverseresponses,increasetoahighervalue. 使⽤top_p技术和称为核⼼采样的带有温度的采样技术,可以控制模型⽣成响应时的确定性⽔平。如果您要寻找确切和实际的答案,请将此设定为较低值。如果您要寻找更多样化的响应,请将其增加到更⾼的值。 Thegeneralrecommendationistoalteronenotboth. ⼀般建议是修改⼀个⽽不是两个。 Beforestartingwithsomebasicexamples,keepinmindthatyourresultsmayvarydependingontheversionofLLMyouareusing. 在开始⼀些基本⽰例之前,请记住您使⽤的LLM版本可能会影响您的结果。 StandardPrompts(标准提⽰) ------------------------------------------------------------------------ Wehavetriedaverysimplepromptabove.Astandardprompthasthefollowingformat: 我们上⾯给出了⼀个⾮常简单的提⽰。标准提⽰的格式如下: 1<Question>? Thiscanbef