# 2026-03-17 ## OpenClaw / oMLX / subagent 配置记录 ## Warp / ACP / opencode 规范草案 - 已决定长期文档主名采用 `warp-acp-*` - 第一阶段仅先标准化 `opencode` 的 Warp ACP 接入;后续再扩展到 `gemini cli`、`claude code` - 已新增本地 secrets 文件占位:`~/.openclaw/.env` - 当前预置的 provider 环境变量名: - `WARP_INFINI_API_KEY` - `WARP_INFINI_BASE_URL` - `WARP_CKIMI_API_KEY` - `WARP_CKIMI_BASE_URL` - 已确定:provider 级别用环境变量命名,**不**用模型名命名,避免不同 provider 出现同名模型时冲突 - 已确定 `opencode` 的 Warp ACP agent 命名规范采用 provider-qualified 形式: - `opencode-warp-infini-kimi` - `opencode-warp-infini-minimax` - `opencode-warp-infini-glm` - 已确定 wrapper 方案为后续 ACP 稳定注入点:wrapper 显式读取 `~/.openclaw/.env`,不依赖 `~/.zshrc` - 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型跨 provider fallback,其次同 provider 跨相邻模型 fallback - 新增长期设计文档:`shared/long-term/projects/warp-acp-integration.md` - 新增 OpenClaw 私域操作文档:`agents/openclaw-main/warp-acp-ops.md` ## OpenClaw / oMLX / subagent 配置记录 - mac-5 / mac-6 / mac-7 三台机器都已安装并运行 `oMLX`,模型权重统一放在 `~/MLXModels` - 三台机器都存在 `com.lingyuzeng.omlx` 的 launchd plist,用于开机自动启动 oMLX 服务 - 三台机器的 oMLX OpenAI 兼容接口分别为: - mac-5: `http://100.64.0.19:8000/v1` - mac-6: `http://100.64.0.21:8000/v1` - mac-7: `http://100.64.0.23:8000/v1` - 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为: - `Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit` - mac-5 的 `~/.openclaw/openclaw.json` 已新增 3 个 provider: - `omlx_mac5` - `omlx_mac6` - `omlx_mac7` - mac-5 的 `agents.defaults.subagents.model` 已设置为: - `omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit` - mac-5 额外新增了 3 个本地 worker agent: - `local-mac5` - `local-mac6` - `local-mac7` - 这些 worker agent 分别绑定到对应机器的 oMLX endpoint,供后续 subagent / team 并行编排使用 - `main` agent 已放开 `subagents.allowAgents`,允许调度: - `local-mac5` - `local-mac6` - `local-mac7` - mac-6 / mac-7 也已补写 `~/.openclaw/openclaw.json`,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用 - 新增一份 OpenClaw 私域记忆:`agents/openclaw-main/subagent-scheduling-v1.1.md` - v1.1 新增的关键调度原则: - 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用 - mac-5/6/7 的 Huihui 模型名与 fallback `vllm_messages/Qwen3.5-27B` 的模型名不同,不能混用 - 对速度要求高的 subagent 任务,优先使用 `vllm_messages/Qwen3.5-27B` - 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点 - 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败 - 已将 lossless-claw 显式绑定为 `plugins.slots.contextEngine` - 保持 `memory.backend = qmd` - 已显式设置 `memory.qmd.sessions.enabled = false`,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠 - 已将 `agents.defaults.memorySearch` 配置为本机 oMLX embeddings: - provider: `openai` - model: `bge-m3-mlx-fp16` - baseUrl: `http://127.0.0.1:8000/v1` - 当前主记忆检索仍然是 QMD;LCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留 - 目前已确认: - provider / model 注册已完成 - gateway 已执行重启调度以加载新配置 - 仍需后续继续验证: - `sessions_spawn(runtime="subagent")` 在 `local-mac5/local-mac6/local-mac7` 上的真实调度行为 - `nodes run -> harness/opencode/acpx` 超时根因 - gateway 重启后 memory / context engine 新配置的实际运行行为