与传统编程不同,与 AI 协作的核心在于清晰地传达你的意图。大语言模型(Large Language Models, LLMs)并不具备人类意义上的“理解”能力——它们只是根据训练数据中的统计模式来预测输出。这一本质特性,对我们的提示(prompt)方式提出了明确要求。
为了获得一致可靠的结果,建议将提示结构化为清晰的几个部分。一种推荐的格式(可视为提示工程的“辅助轮”)包含四个明确标注的模块:上下文(Context)、任务(Task)、指导原则(Guidelines)和约束条件(Constraints)。
1. 提供上下文和细节
AI 模型不具备常识,也无法依赖你未明确提供的隐含背景。因此,务必主动提供相关的背景信息或具体需求。
例如,不要只说:“构建一个登录页面。”
而应明确说明:“使用 React 创建一个登录页面,支持邮箱/密码认证,并处理 JWT。”
如果涉及特定技术栈或工具(如“使用 Supabase 实现认证”),也必须显式指出。
2. 明确给出指令和约束
永远不要假设 AI 能自行推断你的目标。如果你有特定限制或偏好,请直接说明。
例如,若要求输出必须使用某个特定库,或限定在某个功能范围内,务必在提示开头就明确告知。
AI 会严格按照字面意思执行指令——任何模糊不清的表述都可能导致意外结果,甚至引发 AI “幻觉”(hallucinations),即生成虚构或错误的信息。
3. 结构至关重要:顺序与重点影响效果
得益于 Transformer 架构,模型会特别关注提示的开头和结尾部分。你可以利用这一点:
将最关键的信息或请求放在提示开头;
如有必要,在结尾再次强调不可妥协的要求。
同时请注意:模型具有固定的上下文窗口长度。过长的提示或持续过久的对话可能导致 AI 遗忘早期细节。因此,请保持提示聚焦,并在必要时主动刷新上下文。例如,在长时间对话中,可适时提醒模型关键前提:“我们正在使用 Next.js 13 的 App Router 架构”。
4. 了解模型的局限性
AI 的知识完全来源于其训练数据。它无法知晓你未提供的最新事件、内部系统或专有信息。更需警惕的是,即使在猜测时,AI 也会表现得非常自信——这正是“幻觉”产生的根源。
因此,对于涉及事实性内容的查询,请务必提供参考文本或数据;或者,准备好自行验证其输出结果。
总结:把提示当作给“字面主义实习生”的任务说明
你可以把编写提示想象成给一位极其死板、只按字面执行指令的实习生布置任务。你提供的指引越清晰、结构越明确,得到的结果就越可靠。