第一章习题试答 #565
Unanswered
jaceborder
asked this question in
💬 Exercises & Q&A
第一章习题试答
#565
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
请分析以下四个 case 中的主体是否属于智能体,如果是,那么属于哪种类型的智能体(可以从多个分类维度进行分析),并说明理由:
case A:一台符合冯·诺依曼结构的超级计算机,拥有高达每秒 2EFlop 的峰值算力
反应类,其并不会因为外界而做出反应
case B:特斯拉自动驾驶系统在高速公路上行驶时,突然检测到前方有障碍物,需要在毫秒级做出刹车或变道决策
反应类,其需要在毫秒级做出决策
case C:AlphaGo在与人类棋手对弈时,需要评估当前局面并规划未来数十步的最优策略
规划类,规划未来数十步的最优策略
case D:ChatGPT 扮演的智能客服在处理用户投诉时,需要查询订单信息、分析问题原因、提供解决方案并安抚用户情绪
混合类,处理用户投诉为反应,分析原因为规划等。
假设你需要为一个"智能健身教练"设计任务环境。这个智能体能够:
通过可穿戴设备监测用户的心率、运动强度等生理数据
根据用户的健身目标(减脂/增肌/提升耐力)动态调整训练计划
在用户运动过程中提供实时语音指导和动作纠正
评估训练效果并给出饮食建议
请使用 PEAS 模型完整描述这个智能体的任务环境,并分析该环境具有哪些特性(如部分可观察、随机性、动态性等)。
P:用户是否在预期时间内减脂/增肌/提升耐力,运动是否在安全阀值等 特性:动态性,部分可观察(心率等)
E:室内或室外场景。特性:动态性
A:实时语音指导和动作纠正 特性:动态性
S:监测用户的心率、运动强度等生理数据 特性:动态性
某电商公司正在考虑两种方案来处理售后退款申请:
方案 A(Workflow):设计一套固定流程,例如:
A.1 对于一般商品且在 7 天之内,金额 < 100RMB 自动通过;100-500RMB 由客服审核;>500RMB 需主管审批;而特殊商品(如定制品)一律拒绝退款
A.2 对于超过 7 天的商品,无论金额,只能由客服审核或主管审批;
方案 B(Agent):搭建一个智能体系统,让它理解退款政策、分析用户历史行为、评估商品状况,并自主决策是否批准退款
请分析:
这两种方案各自的优缺点是什么?
A:优点,开发简单,高度可解释。缺点:可能出现智能体判断错误,流程固化
B:优点:遇到边缘问题可以灵活处理,能持续迭代。 缺点:训练数据依赖,冷启动困难。
在什么情况下 Workflow 更合适?什么情况下 Agent 更有优势?如果你是该电商公司的负责人,你更倾向于采用哪种方案?
流程较为固定,情况较为单一时workflow更为合适,反之则agent。我更倾向于结合使用
是否存在一个方案 C,能够结合两种方案,达到扬长避短的效果?
采用混合架构可以解决,在接收情况后首先判断情况并分流。普通用户且无特殊情况可以直接workflow,反之给agent甚至人工介入。
在 1.3 节的智能旅行助手基础上,请思考如何添加以下功能(可以只描述设计思路,也可以进一步尝试代码实现):
提示:思考如何修改 Thought-Action-Observation 循环来实现这些功能。
添加一个"记忆"功能,让智能体记住用户的偏好(如喜欢历史文化景点、预算范围等)
增加记忆字典,将用户输入的偏好部分记在字典里,用户以后在 Thought 阶段,将用户偏好作为额外的系统提示词注入
当推荐的景点门票已售罄时,智能体能够自动推荐备选方案
增加查询功能,若该景点已售罄则思考“需要找替代景点”,从网络数据库筛选相似用户选择的地点并寻找。
如果用户连续拒绝了 3 个推荐,智能体能够反思并调整推荐策略
先增加拒绝计数器,在用户连续反应三次不要、不行等关键词后调用方法Reflection向llm输入反思提示词。
卡尼曼的"系统 1"(快速直觉)和"系统 2"(慢速推理)理论[2]为神经符号主义 AI 提供了很好的类比。请首先构思一个具体的智能体的落地应用场景,然后说明场景中的:
提示:医疗诊断助手、法律咨询机器人、金融风控系统等都是常见的应用场景
例子:法律咨询机器人
哪些任务应该由"系统 1"处理?
普通任务,如咨询常规法律问题
哪些任务应该由"系统 2"处理?
复杂法律问题
这两个系统如何协同工作以达成最终目标?
通过规则分流器协同工作
尽管大语言模型驱动的智能体系统展现出了强大的能力,但它们仍然存在诸多局限。请分析以下问题:
为什么智能体或智能体系统有时会产生"幻觉"(生成看似合理但实际错误的信息)?
因为有时候用户提出的问题在知识库中并没有完全一致的问题,导致只能从相似的问题答案中拼凑出result输出
在 1.3 节的案例中,我们设置了最大循环次数为 5 次。如果没有这个限制,智能体可能会陷入什么问题?
反复询问,烧大量算例
如何评估一个智能体的"智能"程度?仅使用准确率指标是否足够?
不够,还要看鲁棒性,可解释性等。
Beta Was this translation helpful? Give feedback.
All reactions