流式输出(Streaming)+ 分块
OpenClaw 有两个独立的"流式输出"层:
- 块流式输出(通道): 在助手写作时发出已完成的 块。这些是普通的通道消息(不是 Token 增量)。
- 类 Token 流式输出(仅 Telegram): 在生成期间用部分文本更新 草稿气泡;最终消息在结束时发送。
目前 没有 真正的 Token 流式输出到外部通道消息。Telegram 草稿流是唯一的部分流界面。
块流式输出(通道消息)
块流式输出在助手输出可用时以粗粒度块发送。
Model output
└─ text_delta/events
├─ (blockStreamingBreak=text_end)
│ └─ chunker emits blocks as buffer grows
└─ (blockStreamingBreak=message_end)
└─ chunker flushes at message_end
└─ channel send (block replies)图例:
text_delta/events:模型流事件(对于非流式模型可能稀疏)。chunker:EmbeddedBlockChunker应用最小/最大边界 + 断点偏好。channel send:实际的出站消息(块回复)。
控制项:
agents.defaults.blockStreamingDefault:"on"/"off"(默认 off)。- 通道覆盖:
*.blockStreaming(及每账户变体)强制每通道"on"/"off"。 agents.defaults.blockStreamingBreak:"text_end"或"message_end"。agents.defaults.blockStreamingChunk:{ minChars, maxChars, breakPreference? }。agents.defaults.blockStreamingCoalesce:{ minChars?, maxChars?, idleMs? }(发送前合并流式块)。- 通道硬上限:
*.textChunkLimit(如channels.whatsapp.textChunkLimit)。 - 通道分块模式:
*.chunkMode(length默认,newline在长度分块之前按空行(段落边界)拆分)。 - Discord 软上限:
channels.discord.maxLinesPerMessage(默认 17)拆分高回复以避免 UI 裁剪。
边界语义:
text_end:分块器发出后立即流式传输块;在每个text_end时刷新。message_end:等到助手消息完成,然后刷新缓冲输出。
即使 message_end 如果缓冲文本超过 maxChars,仍然使用分块器,因此可能在最后发出多个块。
分块算法(低/高边界)
块分块由 EmbeddedBlockChunker 实现:
- 低边界: 直到缓冲区 >=
minChars才发出(除非强制)。 - 高边界: 优先在
maxChars之前拆分;如果强制,在maxChars处拆分。 - 断点偏好:
paragraph→newline→sentence→whitespace→ 硬断。 - 代码围栏: 永远不在围栏内拆分;当在
maxChars处强制时,关闭 + 重新打开围栏以保持 Markdown 有效。
maxChars 被限制在通道 textChunkLimit,因此你不能超过每通道上限。
合并(合并流式块)
当启用块流式输出时,OpenClaw 可以在发送之前 合并连续的块。这减少了"单行刷屏"同时仍提供渐进输出。
- 合并等待 空闲间隙(
idleMs)后才刷新。 - 缓冲区受
maxChars限制,超出时刷新。 minChars防止微小片段发送,直到累积足够文本(最终刷新总是发送剩余文本)。- 连接符从
blockStreamingChunk.breakPreference派生(paragraph→\n\n,newline→\n,sentence→ 空格)。 - 通道覆盖可通过
*.blockStreamingCoalesce(包括每账户配置)。 - Signal/Slack/Discord 的默认合并
minChars提升到 1500,除非被覆盖。
块间仿人节奏
当启用块流式输出时,你可以在块回复之间添加 随机暂停(在第一个块之后)。这使多气泡响应感觉更自然。
- 配置:
agents.defaults.humanDelay(通过agents.list[].humanDelay每智能体覆盖)。 - 模式:
off(默认)、natural(800–2500ms)、custom(minMs/maxMs)。 - 仅适用于 块回复,不适用于最终回复或工具摘要。
"流式分块还是全部输出"
这映射到:
- 流式分块:
blockStreamingDefault: "on"+blockStreamingBreak: "text_end"(边写边发出)。非 Telegram 通道还需要*.blockStreaming: true。 - 结束时全部流出:
blockStreamingBreak: "message_end"(刷新一次,如果很长可能多个块)。 - 无块流式输出:
blockStreamingDefault: "off"(仅最终回复)。
通道说明: 对于非 Telegram 通道,块流式输出 关闭除非 *.blockStreaming 被显式设置为 true。Telegram 可以流式草稿(channels.telegram.streamMode)而无需块回复。
配置位置提醒:blockStreaming* 默认值位于 agents.defaults 下,不是根配置。
Telegram 草稿流(类 Token)
Telegram 是唯一支持草稿流的通道:
- 在 带主题的私聊 中使用 Bot API
sendMessageDraft。 channels.telegram.streamMode: "partial" | "block" | "off"。partial:用最新流文本更新草稿。block:以分块块更新草稿(相同的分块器规则)。off:无草稿流。
- 草稿分块配置(仅用于
streamMode: "block"):channels.telegram.draftChunk(默认:minChars: 200,maxChars: 800)。 - 草稿流与块流式输出是独立的;块回复默认关闭,仅在非 Telegram 通道上通过
*.blockStreaming: true启用。 - 最终回复仍然是普通消息。
/reasoning stream将推理写入草稿气泡(仅 Telegram)。
当草稿流活跃时,OpenClaw 为该回复禁用块流式输出以避免双重流。
Telegram (private + topics)
└─ sendMessageDraft (draft bubble)
├─ streamMode=partial → update latest text
└─ streamMode=block → chunker updates draft
└─ final reply → normal message图例:
sendMessageDraft:Telegram 草稿气泡(非真正消息)。final reply:普通 Telegram 消息发送。