第二章习题参考答案 By 安妮的心动录 #491
Unanswered
anneheartrecord
asked this question in
💬 Exercises & Q&A
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
第二章 习题参考答案
1. 物理符号系统假说是符号主义时代的理论基石。请分析:
该假说的"充分性论断"和"必要性论断"分别是什么含义?
结合本章内容,说明符号主义智能体在实践中遇到的哪些问题对该假说的"充分性"提出了挑战?
大语言模型驱动的智能体是否符合物理符号系统假说?
充分性论断和必要性论断分别是什么意思
哪些现实问题挑战了它的“充分性”
本章已经给出了几类关键挑战,这些问题并不一定直接证明假说错误,但至少说明仅靠显式符号和规则,在现实世界中实现通用智能远比想象中困难。
从第一性原理看,挑战不在“符号推理没用,而在于现实世界所需的知识量、更新速度和不确定性,远远超出了手工符号工程的可承受范围。
大语言模型驱动的智能体是否符合该假说
我更倾向于给出一个审慎答案:既不是完全符合,也不是完全不符合。
可以分两种口径看:
更准确的说法是:现代 LLM 智能体既继承了符号处理的一面,也突破了经典符号主义的实现方式。它不是传统意义上的专家系统,但它也没有完全脱离符号这一层。
2.专家系统MYCIN在医疗诊断领域取得了显著成功,但最终并未大规模应用于临床实践。请思考:
提示:可以从技术、伦理、法律、用户接受度等多个角度分析
除了本章提到的"知识获取瓶颈"和"脆弱性",还有哪些因素可能阻碍了专家系统在医疗等高风险领域的应用?
如果让现在的你设计一个医疗诊断智能体,你会如何设计系统来克服MYCIN的局限?
在哪些垂直领域中,基于规则的专家系统至今仍然是比深度学习更好的选择?请举例说明。
除了知识获取瓶颈和脆弱性,还有哪些阻碍因素
如果现在设计一个医疗诊断智能体,如何克服 MYCIN 的局限
我会采用LLM + 检索 + 规则 + 人类监督的混合架构,而不是把决策完全交给单一模型。
建议架构如下:
哪些垂直领域中,规则系统至今仍优于深度学习
当问题具备规则稳定、边界清晰、审计要求高的特征时,规则系统依然更好。
典型例子:
这些场景的关键目标不是更像人,而是可预测、可审计、可追责。
3.在2.2节中,我们实现了一个简化版的ELIZA聊天机器人。请在此基础上进行扩展实践:
提示:这是一道动手实践题,建议实际编写代码
为ELIZA添加3-5条新的规则,使其能够处理更多样化的对话场景(如谈论工作、学习、爱好等)
实现一个简单的"上下文记忆"功能:让ELIZA能够记住用户在对话中提到的关键信息(如姓名、年龄、职业),并在后续对话中引用
对比你扩展后的ELIZA与ChatGPT,列举至少3个维度上存在的本质差异
为什么基于规则的方法在处理开放域对话时会遇到"组合爆炸"问题并且难以扩展维护?能否使用数学的方法来说明?
为 ELIZA 添加 3-5 条新规则
下面给出一个可工作的示例:
简单上下文记忆功能
可以让 ELIZA 额外维护一个
memory字典,识别用户在对话中透露的关键信息。调用顺序可以是:
remember(user_input)。memory_response()。扩展后的 ELIZA 与 ChatGPT 的本质差异
至少有以下三点:
一句话概括:ELIZA 的智能主要来自规则设计者,是写死的逻辑;ChatGPT 的智能主要来自大规模学习与上下文推理,是涌现的知识推理能力。
为什么基于规则的方法会遇到组合爆炸
因为开放域对话不是有限菜单,而是高维组合空间。
如果你要覆盖:
那么仅一轮对话就需要覆盖:
如果再考虑两轮上下文依赖,规则规模接近:
更抽象地说,若词表大小为
V,句子模式长度为n,可能的模式数近似是O(V^n)。这就是为什么规则法在封闭域还能工作,一到开放域就迅速失控。4. 马文·明斯基在"心智社会"理论[7]中提出了一个革命性的观点:智能源于大量简单智能体的协作,而非单一的完美系统。
在图2.6"搭建积木塔"的例子中,如果 GRASP 智能体突然失效了,整个系统会发生什么?这种去中心化架构的优势和劣势是什么?
将"心智社会"理论与现在的一些多智能体系统(如CAMEL-Workforce、MetaGPT、CrewAI)进行对比,它们之间存在哪些关联和不同之处?
马文·明斯基认为智能体可以是"无心"的简单过程,然而现在的大语言模型和智能体往往都拥有强大的推理能力。这是否意味着"心智社会"理论在大语言模型时代不再适用了?
如果 GRASP 智能体失效,会发生什么
在“搭建积木塔”的系统里,如果负责抓取的
GRASP智能体失效,那么上游的识别和规划可能仍能运行,但系统无法完成把积木真正拿起来这一步,整个任务闭环会卡住。这说明去中心化架构有一个关键现实:整体能力来自多个子能力协作,因此局部故障会影响全局任务完成率。
去中心化架构的优势和劣势
优势:
劣势:
与 CAMEL-Workforce、MetaGPT、CrewAI 的关联和差异
关联:
不同:
LLM 时代,心智社会理论是否失效
没有失效,只是粒度变了。
明斯基强调的是一个原则:复杂智能不一定来自单一完美核心,也可以来自大量子单元、Agent协同。这个原则在今天仍然成立。
变化在于:
因此,心智社会不是被替代了,而是被升级实现了。
5. 强化学习与监督学习是两种不同的学习范式。请分析:
用AlphaGo的例子说明强化学习的"试错学习"机制是如何工作的
为什么强化学习特别适合序贯决策问题?它与监督学习在数据需求上有什么本质区别?
现在我们需要训练一个会玩超级马里奥游戏的智能体。如果分别使用监督学习和强化学习,各需要什么数据?哪种方法对于这个任务来说更合适?
在大语言模型的训练过程中,强化学习起到了什么关键性的作用?
AlphaGo 如何体现“试错学习”
AlphaGo 在对局中看到当前棋盘状态,选择一个落子动作,然后继续与对手或自身博弈,最终根据胜负得到奖励,是一个典型的RL系统。
系统并没有人类在每一步告诉它这里该落哪。它是在大量自我对弈中不断试错,通过奖励信号反向调整策略,逐步学会什么样的决策更有利于最终取胜。
为什么强化学习特别适合序贯决策
因为序贯决策的核心特征是:
强化学习正是为这种“状态 -> 动作 -> 新状态 -> 长期回报”链条设计的。
监督学习更擅长静态映射,例如图片到标签、文本到类别。
与监督学习在数据需求上的本质区别
也就是说,监督学习学的是标准答案,强化学习学的是如何通过试错获得更高回报、提升能力。
超级马里奥任务中,两种方法分别需要什么数据
如果用监督学习:
<游戏画面状态, 人类动作标签>。如果用强化学习:
更合适的方法通常是强化学习,因为超级马里奥是典型序贯决策问题,且最优动作依赖长期收益,而不是单帧标签。
强化学习在 LLM 训练中的作用
强化学习并不是 LLM 获得语言知识的主要来源,语言知识主要来自预训练(pre-training);强化学习更关键的作用在于后训练阶段(post-training)。
典型作用包括:
6.预训练-微调范式是现代人工智能领域的重要突破。请深入思考:
为什么说预训练解决了符号主义时代的"知识获取瓶颈"问题?它们在知识表示方式上有什么本质区别?
预训练模型的知识绝大部分来自互联网数据,这可能带来哪些问题?如何缓解以上问题?
你认为"预训练-微调"范式是否可能会被某种新范式取代?或者它会长期存在?
为什么说预训练缓解了知识获取瓶颈
符号主义时代的知识获取方式是人工显式编码。这意味着:
预训练的方式不同:
因此它并不是把知识工程做得更快,而是换了一种知识获取机制。
两者在知识表示上的本质区别
前者更易审计,后者更强泛化。
互联网预训练数据会带来哪些问题
如何缓解这些问题
这一范式会被取代吗
我认为短期内不会被完全取代,但会被更大的训练与使用闭环吸收。
更可能的未来不是
没有预训练,而是:
也就是说,预训练会从唯一核心范式变成更大系统中的基础层。
7. 假设你要设计一个"智能代码审查助手",它能够自动审查代码提交(Pull Request),概括代码的实现逻辑、检查代码质量、发现潜在BUG、提出改进建议。
如果在符号主义时代(1980年代)设计这个系统,你会如何实现?会遇到什么困难?
如果在没有大语言模型的深度学习时代(2015年左右),你会如何实现?
在当前的大语言模型和智能体的时代,你会如何设计这个智能体的架构?它应该包含哪些模块(参考图2.10)?
对比这三个时代的方案,说明智能体技术的演进如何使这个任务从"几乎不可能"变为"可行"
符号主义时代(1980 年代)
核心方案是构建基于规则的专家系统,把资深工程师的经验编码为
IF-THEN规则。例如:
IF函数行数 > 50THEN提示函数过长。IFmalloc 后没有 freeTHEN提示可能内存泄漏。IF异常被吞掉THEN提示错误处理不完整。能做的事主要是:风格检查、部分静态模式匹配和规范校验。
困难在于:
结论:可以做 Linter,但难以做真正意义上的智能审查。
没有 LLM 的深度学习时代(2015 年左右)
这时可以把任务拆成多个专用模型:
相比规则系统,这种方案有更强泛化能力,但仍有明显问题:
结论:某些子任务可行,但端到端代码审查仍然不成熟。
当前的大语言模型与智能体时代
推荐设计为一个多模块智能体:
它应包含图 2.10 所体现的典型现代智能体要素:感知、推理、工具、记忆、行动。
为什么这个任务从“几乎不可能”变成“可行”
关键不是某一个技巧,而是三个能力首次合流:
因此,现代方案第一次具备了理解 + 推理 + 调工具 + 输出建议的完整闭环。
Beta Was this translation helpful? Give feedback.
All reactions