4.2 KiB
4.2 KiB
2026-03-17
OpenClaw / oMLX / subagent 配置记录
Warp / ACP / opencode 规范草案
- 已决定长期文档主名采用
warp-acp-* - 第一阶段仅先标准化
opencode的 Warp ACP 接入;后续再扩展到gemini cli、claude code - 已新增本地 secrets 文件占位:
~/.openclaw/.env - 已确认节点级配置规则:
mac-5、mac-6、mac-7三台机器都应各自本地配置~/.openclaw/.env;不能假设mac-5的 secrets 会在 Warp-backed ACP harness 实际落到mac-6/mac-7时自动可用 - 当前预置的 provider 环境变量名:
WARP_INFINI_API_KEYWARP_INFINI_BASE_URLWARP_CKIMI_API_KEYWARP_CKIMI_BASE_URL
- 已确定:provider 级别用环境变量命名,不用模型名命名,避免不同 provider 出现同名模型时冲突
- 已确定
opencode的 Warp ACP agent 命名规范采用 provider-qualified 形式:opencode-warp-infini-kimiopencode-warp-infini-minimaxopencode-warp-infini-glm
- 已确定 wrapper 方案为后续 ACP 稳定注入点:wrapper 显式读取
~/.openclaw/.env,不依赖~/.zshrc - 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型跨 provider fallback,其次同 provider 跨相邻模型 fallback
- 新增长期设计文档:
shared/long-term/projects/warp-acp-integration.md - 新增 OpenClaw 私域操作文档:
agents/openclaw-main/warp-acp-ops.md
OpenClaw / oMLX / subagent 配置记录
- mac-5 / mac-6 / mac-7 三台机器都已安装并运行
oMLX,模型权重统一放在~/MLXModels - 三台机器都存在
com.lingyuzeng.omlx的 launchd plist,用于开机自动启动 oMLX 服务 - 三台机器的 oMLX OpenAI 兼容接口分别为:
- mac-5:
http://100.64.0.19:8000/v1 - mac-6:
http://100.64.0.21:8000/v1 - mac-7:
http://100.64.0.23:8000/v1
- mac-5:
- 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为:
Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
- mac-5 的
~/.openclaw/openclaw.json已新增 3 个 provider:omlx_mac5omlx_mac6omlx_mac7
- mac-5 的
agents.defaults.subagents.model已设置为:omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
- mac-5 额外新增了 3 个本地 worker agent:
local-mac5local-mac6local-mac7
- 这些 worker agent 分别绑定到对应机器的 oMLX endpoint,供后续 subagent / team 并行编排使用
mainagent 已放开subagents.allowAgents,允许调度:local-mac5local-mac6local-mac7
- mac-6 / mac-7 也已补写
~/.openclaw/openclaw.json,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用 - 新增一份 OpenClaw 私域记忆:
agents/openclaw-main/subagent-scheduling-v1.1.md - v1.1 新增的关键调度原则:
- 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用
- mac-5/6/7 的 Huihui 模型名与 fallback
vllm_messages/Qwen3.5-27B的模型名不同,不能混用 - 对速度要求高的 subagent 任务,优先使用
vllm_messages/Qwen3.5-27B - 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点
- 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败
- 已将 lossless-claw 显式绑定为
plugins.slots.contextEngine - 保持
memory.backend = qmd - 已显式设置
memory.qmd.sessions.enabled = false,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠 - 已将
agents.defaults.memorySearch配置为本机 oMLX embeddings:- provider:
openai - model:
bge-m3-mlx-fp16 - baseUrl:
http://127.0.0.1:8000/v1
- provider:
- 当前主记忆检索仍然是 QMD;LCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留
- 目前已确认:
- provider / model 注册已完成
- gateway 已执行重启调度以加载新配置
- 仍需后续继续验证:
sessions_spawn(runtime="subagent")在local-mac5/local-mac6/local-mac7上的真实调度行为nodes run -> harness/opencode/acpx超时根因- gateway 重启后 memory / context engine 新配置的实际运行行为