leven.chen
Published on 2025-09-30 / 0 Visits
0
0

理解 AI 的“思维方式”

#AI

与传统编程不同,与 AI 协作的核心在于清晰地传达你的意图。大语言模型(Large Language Models, LLMs)并不具备人类意义上的“理解”能力——它们只是根据训练数据中的统计模式来预测输出。这一本质特性,对我们的提示(prompt)方式提出了明确要求。

为了获得一致可靠的结果,建议将提示结构化为清晰的几个部分。一种推荐的格式(可视为提示工程的“辅助轮”)包含四个明确标注的模块:上下文(Context)、任务(Task)、指导原则(Guidelines)和约束条件(Constraints)

1. 提供上下文和细节

AI 模型不具备常识,也无法依赖你未明确提供的隐含背景。因此,务必主动提供相关的背景信息或具体需求。

例如,不要只说:“构建一个登录页面。”
而应明确说明:“使用 React 创建一个登录页面,支持邮箱/密码认证,并处理 JWT。”
如果涉及特定技术栈或工具(如“使用 Supabase 实现认证”),也必须显式指出。

2. 明确给出指令和约束

永远不要假设 AI 能自行推断你的目标。如果你有特定限制或偏好,请直接说明。

例如,若要求输出必须使用某个特定库,或限定在某个功能范围内,务必在提示开头就明确告知。
AI 会严格按照字面意思执行指令——任何模糊不清的表述都可能导致意外结果,甚至引发 AI “幻觉”(hallucinations),即生成虚构或错误的信息。

3. 结构至关重要:顺序与重点影响效果

得益于 Transformer 架构,模型会特别关注提示的开头和结尾部分。你可以利用这一点:

  • 将最关键的信息或请求放在提示开头;

  • 如有必要,在结尾再次强调不可妥协的要求。

同时请注意:模型具有固定的上下文窗口长度。过长的提示或持续过久的对话可能导致 AI 遗忘早期细节。因此,请保持提示聚焦,并在必要时主动刷新上下文。例如,在长时间对话中,可适时提醒模型关键前提:“我们正在使用 Next.js 13 的 App Router 架构”。

4. 了解模型的局限性

AI 的知识完全来源于其训练数据。它无法知晓你未提供的最新事件、内部系统或专有信息。更需警惕的是,即使在猜测时,AI 也会表现得非常自信——这正是“幻觉”产生的根源。

因此,对于涉及事实性内容的查询,请务必提供参考文本或数据;或者,准备好自行验证其输出结果。


总结:把提示当作给“字面主义实习生”的任务说明

你可以把编写提示想象成给一位极其死板、只按字面执行指令的实习生布置任务。你提供的指引越清晰、结构越明确,得到的结果就越可靠。


Comment