大模型的能力和Agent的能力完全是两码事

你的观察其实挺到位的,而且现在很多做 Agent / AI 应用的人已经开始慢慢形成同样的共识

模型能力 ≠ Agent能力。
这两个维度确实可以几乎完全解耦。

我把这个问题拆开说一下,会更清楚。


1. 模型能力:大脑本身

模型能力本质是 基础智能

  • 推理能力(reasoning)
  • 代码生成能力
  • 语言理解能力
  • 知识广度
  • 长上下文理解

典型例子:

  • OpenAI 的 GPT 系列
  • Anthropic 的 Claude 系列
  • Google 的 Gemini

这些是在拼:

  • 训练数据
  • 算力
  • 模型架构
  • 对齐训练

这是 AI 的“智商”

但问题是:

智商高 ≠ 会做事。


2. Agent能力:做事的系统

Agent能力其实是 系统工程能力

包括:

任务分解

复杂任务能不能拆成:

任务
  ├ 子任务
  ├ 子任务
  └ 子任务

很多Agent死在这里。


工具使用

例如:

  • 文件系统
  • shell
  • git
  • browser
  • API
  • 代码执行

什么时候用工具?
用哪个工具?
怎么处理工具结果?

这是一整套策略。


长任务规划

复杂任务通常是:

分析
→ 制定计划
→ 执行
→ 检查
→ 修正
→ 再执行

Agent要有 循环结构

Plan
Act
Observe
Reflect

这其实就是经典 ReAct模式


状态管理

Agent必须管理:

  • 当前任务状态
  • 中间产物
  • 上下文
  • 历史决策

否则就会:

  • 忘记自己在干嘛
  • 重复工作
  • 或者跑偏

3. 为什么 Claude Code 的 Agent 体验这么强

你提到的 Claude Code 的优势,其实不是模型本身,而是 Agent系统设计

背后大概有几个关键点:

1 强约束的工具环境

Claude Code不是普通chat。

它是一个:

Terminal-native Agent

工具包括:

  • bash
  • git
  • 文件编辑
  • 搜索
  • diff

而且是 结构化工具调用


2 强任务循环

Claude Code内部是明显的 Agent loop

理解任务
→ 制定计划
→ 执行命令
→ 读取结果
→ 修改计划
→ 继续执行

而不是一次性生成答案。


3 高质量提示工程

Anthropic在 system prompt / policy prompt 上极其重。

很多隐藏能力其实来自:

  • 长提示
  • 工具协议
  • 安全策略
  • 行为约束

4 专门优化 coding 场景

他们把场景 收窄

不是通用 Agent。

而是:

Coding Agent

所以可以:

  • 优化 git
  • 优化文件操作
  • 优化 repo理解
  • 优化 diff

4 为什么多数 Agent 做得很烂

现在 90% 的 Agent 系统基本是:

LLM + tools

但缺少:

  • planning
  • memory
  • evaluation
  • retry
  • strategy

于是就变成:

调用工具
→ 出错
→ 结束

这就像:

给天才一个锤子,但没教他怎么修房子。


5 Agent其实更像“操作系统”

很多人低估了一点:

Agent不是模型应用,而是AI操作系统。

真正强的Agent系统包含:

LLM (CPU)
Tools (IO)
Memory (RAM)
Planner (Scheduler)
Evaluator (Debugger)

Claude Code在这一点上非常接近:

AI IDE + AI Agent OS


6 未来真正的竞争

未来AI竞争可能分三层:

第一层

模型

例如:

  • GPT‑4
  • Claude 3
  • Gemini

第二层

Agent框架

例如:

  • LangChain
  • AutoGPT
  • CrewAI

但这些其实还很原始。


第三层

垂直Agent产品

例如:

  • Claude Code
  • GitHub Copilot Workspace
  • Devin

这里才是真正的生产力工具。


7 一个非常反直觉的结论

未来可能会出现这种情况:

中等模型 + 顶级Agent
  > 
顶级模型 + 垃圾Agent

因为现实世界任务是:

  • 多步骤
  • 有状态
  • 有错误
  • 有工具

而不是一次性问答。


如果你有兴趣,我可以再给你讲一个更深的东西:

为什么现在 99% 的 Agent 架构其实都是错的,以及 Claude Code 的架构可能是什么样。

这个背后的设计其实非常有意思。

Read more

跑步的技巧(滚动落地)

“滚动落地(rolling contact / rolling foot strike)”不是一种教条式的“脚法”,而是一种 让冲击沿着整只脚、整条后链逐级传递的落地机制。 它的核心不是“你先用哪儿着地”,而是: 你的脚落地之后,冲击是不是像轮子一样滚过去,而不是像锤子一样砸下去。 这就是滚动落地的本质。 一、什么叫“滚动落地”? 你可以把它理解成两种完全不同的落地方式: 1. 砸地(撞击式) 脚像锤子一样拍到地上: * 要么后跟先砸 * 要么前掌先戳 * 冲击集中在一个点 * 一个结构瞬间吃掉大部分载荷 结果就是: * 后跟砸 → 膝盖难受 * 前掌戳 → 前脚掌磨烂 * 都不是长跑友好模式 这叫 撞击式着地(impact strike)。 2. 滚地(滚动式) 脚像轮胎一样“滚”过地面: * 不是某一点硬砸 * 而是外侧中足先轻触 * 再向前滚到前掌 * 最后从大脚趾蹬离

By SHI XIAOLONG

AMI的优越性

世界模型(World Models)的具体例子 如下,我按类型分类,便于理解。每类都附带实际实现、演示效果和应用场景。 1. Yann LeCun / Meta 的 JEPA 系列(最直接对应“世界模型”概念) 这些是 LeCun 主张的非生成式抽象预测世界模型代表。 * I-JEPA(Image JEPA,2023) 输入一张图像,模型把不同区域(context 和 target)编码成抽象表示,然后预测 target 的表示(不在像素级别重建)。 例子:给定一张遮挡了部分物体的图片,模型能预测“被遮挡物体的大致位置和属性”,构建对物体持久性和空间关系的理解。 这是一个“原始世界模型”,能学习物理常识(如物体不会凭空消失)。 * V-JEPA / V-JEPA 2(Video JEPA,

By SHI XIAOLONG

什么是:“世界模型(World Models)”

世界模型(World Models) 是人工智能领域的一个核心概念,尤其在 Yann LeCun 等研究者推动的下一代 AI 架构中占据中心位置。它指的是 AI 系统在内部构建的对现实世界的抽象模拟或内部表示,让机器能够像人类或动物一样“理解”物理世界、预测未来、规划行动。 简单比喻 想象你闭上眼睛也能“看到”房间里的物体会如何移动、碰撞或掉落——这就是你大脑里的世界模型。AI 的世界模型就是类似的“数字孪生”(digital twin)或“内部模拟器”:它不是简单记住数据,而是学习世界的动态、因果关系和物理直觉(如重力、物体持久性、遮挡、因果等)。 为什么需要世界模型? 当前主流的大型语言模型(LLM) 擅长处理文本(统计模式预测),但存在根本局限: * 缺乏对物理世界的真正理解 → 容易“幻觉”、无法可靠规划。 * 样本效率低 → 人类/

By SHI XIAOLONG

K线周期可配置化设计方案

K线周期可配置化设计方案 1. 背景与目标 当前 Beta 套利策略的 K 线周期硬编码为 "1h",分散在多个文件中。需要: 1. 将 K 线周期从 1h 改为 2h 2. 提取为环境变量 BETA_ARB_KLINE_INTERVAL,使其可在 .env 中配置 2. 影响范围分析 2.1 需要修改的文件(共 6 个) 文件 硬编码位置 修改内容 src/trading/config.py BetaArbConfig dataclass 新增 kline_interval 字段,

By SHI XIAOLONG