Skip to main content

Generate / Review / Controller 模型

生成、审阅、控制器 题图

如果 LLM 不能被允许直接写账, 那么系统必须回答一个新的问题:

如何在不混淆责任与权力的前提下,
让 AI 参与业务决策?

在 BookiAI 中,我们给出的答案是 对角色与权力的刻意拆分

生成(Generate) → 审阅(Review) → 控制(Controller)

这不是三次对话, 而是一条系统级边界


从“动作”到“角色”

许多 AI Agent 设计把模型当作行动者:

  • 模型推理
  • 模型决策
  • 模型执行

这种模式只适用于“出错成本很低”的场景。

在业务系统中,我们必须反过来思考:

  • 谁负责提出建议?
  • 谁负责校验?
  • 谁拥有执行权?

这些职责不能合并。


Generate:提出建议,而不是下指令

Generate 角色由 LLM 承担。

它的职责是:

  • 理解输入与上下文
  • 推断可能的处理方式
  • 生成结构化建议
  • 明确假设与不确定性

生成结果永远不是指令, 而是一个建议对象(Proposal)

例如:

  • 建议的会计分录
  • 推断的科目选择
  • 分类或判断结果

在这个阶段:

  • 不写账
  • 不修改状态
  • 不产生副作用

Review:校验与评估建议

Review 角色只回答一个问题:

这个建议是否在
已知规则与约束下可接受?

审阅过程可能包括:

  • 结构与 schema 校验
  • 业务规则检查
  • 置信度评估
  • 二次 AI 审阅(如 CPA 风格 Reviewer)
  • 人工审阅

Review 的输出是一个明确的 审阅报告(Review Report)

  • 哪些通过了
  • 哪些失败了
  • 哪些存在不确定性
  • 为什么可以或不可以继续

审阅本身不执行任何操作。


Controller:系统权力的承载者

Controller 不是第三个 Agent。

它代表的是系统本身的意志

Controller 的职责包括:

  • 解读审阅结果
  • 应用系统策略与阈值
  • 决定是否执行
  • 是否需要用户确认
  • 是否阻断操作

Controller 拥有最终执行权。

它通常由以下方式实现:

  • 硬编码逻辑
  • 决策表
  • 策略引擎
  • 工作流编排

LLM 可以辅助判断, 但不能取代 Controller。


为什么必须拆分这三个角色

通过拆分 Generate / Review / Controller, 系统获得了:

  • 清晰的责任边界
  • 可审计的决策路径
  • 可控的失败方式
  • 逐步自动化的能力

最关键的是:

没有任何一个组件可以单独改变系统状态


对象,而不是对话

这个模型成立的前提是: AI 输出必须是对象,而不是聊天内容

我们不依赖:

  • 自然语言解释
  • 对话上下文

而是使用:

  • 建议对象(Proposal)
  • 审阅报告(Review Report)
  • 明确决策(Decision)

这些对象可以被:

  • 记录
  • 测试
  • 回放
  • 审计
  • 持续演进

AI 行为因此变成 系统可理解的结构化输入


人工优先是刻意设计

在系统早期阶段,Controller 可能:

  • 要求人工确认
  • 不自动执行任何建议

这不是能力不足, 而是刻意的设计选择

自动化不会被否定, 而是通过证据逐步获得。


接下来

当角色被清晰拆分之后, 下一个核心问题是质量:

如何判断一个 AI 建议
是否“足够好”可以继续?

👉 推荐可信性保障与校验机制


本文由 ChatGPT 撰写,经 BookiAI 团队审阅。