爆肝整理!Google官方67页提示工程秘籍,小白也能轻松看懂

B站影视 内地电影 2025-04-13 19:42 2

摘要:最近,Google 发布了一份67 页提示工程技巧(Prompt Engineering)PDF 文档。

大家好,我是运营黑客。

最近,Google 发布了一份 67 页提示工程技巧(Prompt Engineering)PDF 文档。

这是一份非常值得一看的报告:

✅ 它总结了,针对最新 LLM(如 Gemini、ChatGPT),行之有效的提问技巧
✅ 这份报告的内容非常系统化,适合新手、小白学习入门。

不过,原版 PDF 全部是英文,而且有 67 页之多。

对于国内的小伙伴不太友好。

今天肝了 6 个小时,将这份报告中涉及「提示技巧」的部分全部扒下来,整理成了 3000 余字的内容。

希望能帮你,更高效的运用好现在的 AI 大模型。

话不多说,我们开始正文。

每次看到提示工程(Prompt Engineering),不少朋友会被「工程」两个字吓到,接下来我会用最简单的方式,带你一步步了解如何更好地与 AI「沟通」

简单来说,提示工程就是:

研究怎么“问对问题”或者“给对指令”让 AI(尤其是像 Gemini、ChatGPT 这样的大语言模型)能更准确、更有效地理解你的意思,并给出你想要的答案或内容

核心概念:

提示 (Prompt): 你输入给 AI 的任何文本。可以是一个问题、一个命令、一段开头,甚至是一张图片(多模态)。

生活化比喻: 就像你给导航 App 输入目的地地址。地址越精确(提示越好),导航路线越靠谱(AI 回答越好)。

提示工程 (Prompt Engineering): 设计、优化和测试这些“提示”的过程。目标是让 AI“秒懂”你的需求。

生活化比喻: 不只是告诉厨师“做个菜”,而是详细说明“做一道少油少盐的番茄炒蛋,鸡蛋要嫩,番茄去皮切小块”。这个详细说明的过程,就是提示工程。

大语言模型 (LLM): 指那些“读万卷书”(海量数据)训练出来的 AI 模型,比如 Google 的 Gemini。它们擅长理解和生成文本。

因为 AI 并不是真正“思考”,它们是基于概率工作的。

一个模糊或有歧义的提示,很可能让 AI“跑偏”,给出驴唇不对马嘴的答案。

提示工程就是那座桥梁,连接你的意图和 AI 的“理解”,让你能真正驾驭 AI 的力量。

除了写好提示,我们还可以调整一些参数,像控制音响的按钮一样,微调AI输出的风格和内容。

输出长度 (Output Length / Max Tokens): 控制 AI 回答的字数(准确地说是 token 数,可以粗略理解为单词或汉字)。

比如: 规定作文的字数上限。

温度 (Temperature): 控制 AI 回答的“创造性”或“随机性”。值越低(比如0.1),回答越稳定、越“一本正经”;值越高(比如 0.9),回答越有创意、越“天马行空”,但也可能越不着边际。温度为 0 时,AI 会选择最最可能的那个词,回答最确定。

比如: 调节“创意”按钮。低 = 新闻播报员,高 = 即兴诗人。

Top-K: AI 在生成下一个词时,只从概率最高的 K 个词里选。K 越小,选择范围越窄,回答越“聚焦”。

比如: 点菜时只看菜单上最受欢迎的前3道菜。

Top-P: AI 选择词的范围,直到这些词的累计概率达到 P(比如 0.95)。这比 Top-K 更灵活,有时选的词多,有时少。

比如: 点菜时一直看菜单,直到看过的菜加起来覆盖了 95% 大家常点的菜为止。

注意: 这些参数会相互影响,需要不断尝试找到最适合你任务的组合。

这部分是精髓!掌握这些技巧,你的“提问”水平将大大提升。

基础招式

零样本 (Zero-shot): 直接提问或下指令,不给 AI 任何例子。

比如: 直接问朋友:“法国首都是哪里?”

单样本/少样本 (One-shot / Few-shot): 在提示里给 AI 一个或几个例子,告诉它你想要的格式或答案类型。

比如: 教小孩认字,指着“猫”的图片说“这是猫”,然后指着另一张猫问“这是什么?”(单样本)。或者先教认“猫”、“狗”、“鸟”,再问(少样本)。这对需要特定格式输出的任务特别有用。

设定场景与角色

系统提示 (System Prompting): 给 AI 设定一个整体的背景、规则或“人设”。

比如: 玩游戏前先告诉大家:“我们现在都在扮演侦探,目标是找出凶手。”

上下文提示 (Contextual Prompting): 提供与当前任务相关的具体背景信息。

比如: 点菜时告诉厨师:“我今天有点过敏,不能吃海鲜。”(这是针对这顿饭的特定信息)。

角色提示 (Role Prompting): 让 AI 扮演一个特定的角色来回答问题。

比如: “请你扮演一位经验丰富的旅行规划师,给我推荐适合带小孩去的东京景点。”

高级思维技巧

退一步思考 (Step-back Prompting): 在解决具体问题前,先引导 AI 思考更宏观、更普遍的原理。

比如: 在设计一把特别的椅子前,先思考“什么样的结构才能让任何椅子都稳固?”

思维链 (Chain of Thought - CoT): 让 AI 在给出最终答案前,先一步步展示它的思考或推理过程。这对非推理模型,解决复杂问题时特别有效!

比如: 做数学题时,不只写答案,还要把解题步骤写出来。这样更容易发现错误,答案也更可靠。

自洽性 (Self-consistency): 让 AI 用 CoT 的方式多次思考同一个问题(因为温度等设置,路径可能不同),然后选择出现次数最多的那个答案。

比如: 同一道难题,请 5 位学霸独立写出解题步骤和答案,最后选那个最多人得出的答案。

思维树 (Tree of Thoughts - ToT): 允许 AI 同时探索多个不同的思考路径,像树枝一样散开,评估哪条路更有希望。

比如: 侦探破案,同时考虑多种可能性(嫌疑人 A 作案、嫌疑人 B 作案、意外事故),并对每种可能性进行深入调查。

ReAct (Reason & Act): 让 AI 不仅能思考,还能“行动”——比如调用外部工具(像搜索引擎搜索最新信息、运行代码计算等),然后根据行动结果继续思考。这是实现 AI 智能体(Agent)的关键一步。

比如: 你问 AI“现在北京天气怎么样?”,它不仅思考你的问题,还会去调用天气查询工具(行动),然后把查到的结果告诉你

自动提示工程 (Automatic Prompt Engineering - APE): 让 AI 帮你生成和优化提示。

比如: 想学做菜,但不知怎么写菜谱?请一位大厨帮你写几份不同风味的“番茄炒蛋”菜谱出来。

提供示例 (Provide examples): 少样本通常比零样本效果好。

保持简洁清晰 (Design with simplicity): 人都看不懂的提示,AI更难懂。

具体说明输出要求 (Be specific about the output): 想要什么格式、什么风格、包含哪些信息,说清楚。

用指令而非限制 (Use Instructions over Constraints): 多说“要做什么”,少说“不要做什么”。(例如,“只包含 A、B、C”比“不要包含 D、E、F”更好)。

控制输出长度 (Control the max token length): 避免回答太长或被截断。

善用变量 (Use variables in prompts): 让提示更灵活,方便复用。

尝试不同风格和格式 (Experiment): 多试试不同的问法。

对于分类任务,打乱示例顺序 (Mix up classes for few-shot): 防止 AI“死记硬背”顺序。

适应模型更新 (Adapt to model updates): 新模型可能有新特性或行为变化。

尝试结构化输出 (Experiment with output formats): 比如要求返回 JSON 格式,便于程序处理,也能减少 AI“自由发挥”的错误。

记录你的尝试 (Document the various prompt attempts): 好记性不如烂笔头!记录下哪些提示有效,哪些无效,以及为什么。

虽然,LLM(大语言模型)正在不断进化,但从目前阶段看了,掌握提示技巧的人,往往能更快的获取「优质答案」

AI 时代,一步快、步步快

最后,如果觉得这篇内容对你有一些帮助,记得帮忙点赞、转发

各位兄弟姐妹的支持,是我们持续输出干货内容最大的动力。

来源:海武说科技

相关推荐