5.6 KiB
5.6 KiB
2026-03-17
OpenClaw / oMLX / subagent 配置记录
Warp / ACP / opencode 规范草案
- 已决定长期文档主名采用
warp-acp-* - 第一阶段仅先标准化
opencode的 Warp ACP 接入;后续再扩展到gemini cli、claude code - 已新增本地 secrets 文件占位:
~/.openclaw/.env - 已确认节点级配置规则:
mac-5、mac-6、mac-7三台机器都应各自本地配置~/.openclaw/.env;不能假设mac-5的 secrets 会在 Warp-backed ACP harness 实际落到mac-6/mac-7时自动可用 - 当前预置的 provider 环境变量名:
WARP_INFINI_API_KEYWARP_INFINI_BASE_URLWARP_CKIMI_API_KEYWARP_CKIMI_BASE_URL
- 已确定:provider 级别用环境变量命名,不用模型名命名,避免不同 provider 出现同名模型时冲突
- 已确定
opencode的 Warp ACP agent 命名规范采用 provider-qualified 形式:opencode-warp-infini-kimiopencode-warp-infini-minimaxopencode-warp-infini-glm
- 已确定 wrapper 方案为后续 ACP 稳定注入点:wrapper 显式读取
~/.openclaw/.env,不依赖~/.zshrc - 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型/同任务意图的跨 provider fallback,其次同 provider 跨相邻模型 fallback
- 已补充 ACP 连续执行规则:若中途因 provider 请求限制、quota、rate limit 等失败,应先总结当前任务已完成内容、失败点与剩余工作,再切换到新的 Warp fallback agent 继续执行,而不是盲目从零重跑
- 新增长期设计文档:
shared/long-term/projects/warp-acp-integration.md - 新增 OpenClaw 私域操作文档:
agents/openclaw-main/warp-acp-ops.md
OpenClaw / oMLX / subagent 配置记录
- mac-5 / mac-6 / mac-7 三台机器都已安装并运行
oMLX,模型权重统一放在~/MLXModels - 三台机器都存在
com.lingyuzeng.omlx的 launchd plist,用于开机自动启动 oMLX 服务 - 三台机器的 oMLX OpenAI 兼容接口分别为:
- mac-5:
http://100.64.0.19:8000/v1 - mac-6:
http://100.64.0.21:8000/v1 - mac-7:
http://100.64.0.23:8000/v1
- mac-5:
- 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为:
Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
- mac-5 的
~/.openclaw/openclaw.json已新增 3 个 provider:omlx_mac5omlx_mac6omlx_mac7
- mac-5 的
agents.defaults.subagents.model已设置为:omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
- mac-5 额外新增了 3 个本地 worker agent:
local-mac5local-mac6local-mac7
- 这些 worker agent 分别绑定到对应机器的 oMLX endpoint,供后续 subagent / team 并行编排使用
mainagent 已放开subagents.allowAgents,允许调度:local-mac5local-mac6local-mac7
- mac-6 / mac-7 也已补写
~/.openclaw/openclaw.json,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用 - 新增一份 OpenClaw 私域记忆:
agents/openclaw-main/subagent-scheduling-v1.1.md - v1.1 新增的关键调度原则:
- 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用
- mac-5/6/7 的 Huihui 模型名与 fallback
vllm_messages/Qwen3.5-27B的模型名不同,不能混用 - 对速度要求高的 subagent 任务,优先使用
vllm_messages/Qwen3.5-27B - 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点
- 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败
- 已将 lossless-claw 显式绑定为
plugins.slots.contextEngine - 保持
memory.backend = qmd - 已显式设置
memory.qmd.sessions.enabled = false,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠 - 已将
agents.defaults.memorySearch配置为本机 oMLX embeddings:- provider:
openai - model:
bge-m3-mlx-fp16 - baseUrl:
http://127.0.0.1:8000/v1
- provider:
- 当前主记忆检索仍然是 QMD;LCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留
- 目前已确认:
- provider / model 注册已完成
- gateway 已执行重启调度以加载新配置
- 仍需后续继续验证:
sessions_spawn(runtime="subagent")在local-mac5/local-mac6/local-mac7上的真实调度行为nodes run -> harness/opencode/acpx超时根因- gateway 重启后 memory / context engine 新配置的实际运行行为
2026-03-18 凌晨补充:opencode 默认模型规则更新
- 原先可简写为“默认使用本机本地模型”的
opencode规则已不再准确,现已按机器角色重新分流 mac-5当前opencode默认模型改为:opencode/minimax-m2.5-free
- 这样做的原因是:此前 direct
opencode与 ACP 最小测试都已验证 minimax free 路径可用,且它能绕开本地oMLX在 ACP/session 路径上的超时脆弱点 mac-6与mac-7当前opencode默认模型改为共享 vLLM 接口:- base URL:
http://100.64.0.5:8000/v1 - model id:
Qwen3.5-27B - provider/model 字符串:
vllm/Qwen3.5-27B
- base URL:
- 已从
mac-6和mac-7实测GET http://100.64.0.5:8000/v1/models,当前暴露模型为:Qwen3.5-27B
- 已将两台机器的
~/.config/opencode/opencode.json切到上述 vLLM 配置,并完成 ACP 最小测试:mac-6->MAC6_VLLM_ACP_OKmac-7->MAC7_VLLM_ACP_OK
- 因此当前稳定默认规则应记为:
mac-5:opencode/minimax-m2.5-freemac-6:vllm/Qwen3.5-27Bviahttp://100.64.0.5:8000/v1mac-7:vllm/Qwen3.5-27Bviahttp://100.64.0.5:8000/v1