Skip to content

大语言模型与反馈

什么是 LLM?

LLM(Large Language Model)= 大语言模型

简单来说,LLM 就是一个超级聪明的"文字预测器"。

工作原理:

  1. 训练阶段:读遍互联网上的书籍、文章、对话
  2. 学习能力:掌握语言的模式和规律
  3. 生成能力:根据输入预测最合适的回答

关键认识

LLM 不是真的"理解",而是通过大量学习变得非常擅长"模仿"人类的语言表达方式。

当我们和 LLM 对话时发生了什么?

第一步:Token 化

Token 是 LLM 理解文本的最小单位。中文通常每个字是一个 Token。

第二步:推理过程

第三步:文本生成

LLM 逐词生成回答,每一步基于:

  • 前面已经生成的内容
  • 原始 Prompt 的要求
  • 训练时学到的语言模式

Prompt:与 AI 对话的艺术

Prompt = 提示词,就是你给 LLM 的指令或问题。

Prompt 的类型:

  1. 简单对话型"今天天气怎么样?"
  2. 任务指令型"请总结这篇文章的主要观点"
  3. 角色扮演型"你是一个诗人,请用古典风格写一首诗"
  4. 链式思考型"请一步步分析这个数学题的解法"

从 LLM 到 Agent

Agent = 智能代理,是基于 LLM 构建的能够执行复杂任务的 AI 系统。

特征普通 LLMAI Agent
交互方式一问一答多步骤对话
能力范围文本生成调用外部工具
任务复杂度简单任务复杂任务分解
错误处理无自我纠正可以重试和优化

中文房间思想实验

哲学家约翰·塞尔(John Searle,1980年)提出的著名思想实验:

关键问题:外面的人会认为房间里有一个懂中文的人,但实际上房间里的人完全不理解中文 — 他只是在机械地执行规则。

执行正确的程序 ≠ 真正的理解

这与 LLM 的关系:ChatGPT 处理文本,就像房间里的人处理中文字符 — 都遵循预设的规则,都能产生令人信服的输出,但都可能没有真正的"理解"。

LLM 的控制论分析

推理过程的控制论环路

  • 输入处理(传感器):Token 化、位置编码、上下文感知
  • 注意力机制(控制器):权重分配、特征提取、模式识别
  • 生成输出(执行器):概率计算、Token 选择、文本生成
  • 上下文更新(反馈):历史信息整合、状态维护

AI Agent 的控制论模型

从控制论角度看,LLM 和 AI Agent 都体现了经典的控制论特征:注意力机制作为控制器,通过反馈调节生成过程。

核心概念总结

  • Token:AI 的"字典",把话切成小块
  • Prompt:与 AI 的"对话术",如何提问很重要
  • LLM:AI 的"大脑",理解和生成的核心
  • Agent:AI 的"助手",能做复杂任务的升级版