大语言模型与反馈
什么是 LLM?
LLM(Large Language Model)= 大语言模型
简单来说,LLM 就是一个超级聪明的"文字预测器"。
工作原理:
- 训练阶段:读遍互联网上的书籍、文章、对话
- 学习能力:掌握语言的模式和规律
- 生成能力:根据输入预测最合适的回答
关键认识
LLM 不是真的"理解",而是通过大量学习变得非常擅长"模仿"人类的语言表达方式。
当我们和 LLM 对话时发生了什么?
第一步:Token 化
Token 是 LLM 理解文本的最小单位。中文通常每个字是一个 Token。
第二步:推理过程
第三步:文本生成
LLM 逐词生成回答,每一步基于:
- 前面已经生成的内容
- 原始 Prompt 的要求
- 训练时学到的语言模式
Prompt:与 AI 对话的艺术
Prompt = 提示词,就是你给 LLM 的指令或问题。
Prompt 的类型:
- 简单对话型:
"今天天气怎么样?" - 任务指令型:
"请总结这篇文章的主要观点" - 角色扮演型:
"你是一个诗人,请用古典风格写一首诗" - 链式思考型:
"请一步步分析这个数学题的解法"
从 LLM 到 Agent
Agent = 智能代理,是基于 LLM 构建的能够执行复杂任务的 AI 系统。
| 特征 | 普通 LLM | AI Agent |
|---|---|---|
| 交互方式 | 一问一答 | 多步骤对话 |
| 能力范围 | 文本生成 | 调用外部工具 |
| 任务复杂度 | 简单任务 | 复杂任务分解 |
| 错误处理 | 无自我纠正 | 可以重试和优化 |
中文房间思想实验
哲学家约翰·塞尔(John Searle,1980年)提出的著名思想实验:
关键问题:外面的人会认为房间里有一个懂中文的人,但实际上房间里的人完全不理解中文 — 他只是在机械地执行规则。
执行正确的程序 ≠ 真正的理解
这与 LLM 的关系:ChatGPT 处理文本,就像房间里的人处理中文字符 — 都遵循预设的规则,都能产生令人信服的输出,但都可能没有真正的"理解"。
LLM 的控制论分析
推理过程的控制论环路
- 输入处理(传感器):Token 化、位置编码、上下文感知
- 注意力机制(控制器):权重分配、特征提取、模式识别
- 生成输出(执行器):概率计算、Token 选择、文本生成
- 上下文更新(反馈):历史信息整合、状态维护
AI Agent 的控制论模型
从控制论角度看,LLM 和 AI Agent 都体现了经典的控制论特征:注意力机制作为控制器,通过反馈调节生成过程。
核心概念总结
- Token:AI 的"字典",把话切成小块
- Prompt:与 AI 的"对话术",如何提问很重要
- LLM:AI 的"大脑",理解和生成的核心
- Agent:AI 的"助手",能做复杂任务的升级版