Files
collective-memory-repo/daily/2026-03-17.md

5.6 KiB
Raw Blame History

2026-03-17

OpenClaw / oMLX / subagent 配置记录

Warp / ACP / opencode 规范草案

  • 已决定长期文档主名采用 warp-acp-*
  • 第一阶段仅先标准化 opencode 的 Warp ACP 接入;后续再扩展到 gemini cliclaude code
  • 已新增本地 secrets 文件占位:~/.openclaw/.env
  • 已确认节点级配置规则:mac-5mac-6mac-7 三台机器都应各自本地配置 ~/.openclaw/.env;不能假设 mac-5 的 secrets 会在 Warp-backed ACP harness 实际落到 mac-6 / mac-7 时自动可用
  • 当前预置的 provider 环境变量名:
    • WARP_INFINI_API_KEY
    • WARP_INFINI_BASE_URL
    • WARP_CKIMI_API_KEY
    • WARP_CKIMI_BASE_URL
  • 已确定provider 级别用环境变量命名,用模型名命名,避免不同 provider 出现同名模型时冲突
  • 已确定 opencode 的 Warp ACP agent 命名规范采用 provider-qualified 形式:
    • opencode-warp-infini-kimi
    • opencode-warp-infini-minimax
    • opencode-warp-infini-glm
  • 已确定 wrapper 方案为后续 ACP 稳定注入点wrapper 显式读取 ~/.openclaw/.env,不依赖 ~/.zshrc
  • 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型/同任务意图的跨 provider fallback其次同 provider 跨相邻模型 fallback
  • 已补充 ACP 连续执行规则:若中途因 provider 请求限制、quota、rate limit 等失败,应先总结当前任务已完成内容、失败点与剩余工作,再切换到新的 Warp fallback agent 继续执行,而不是盲目从零重跑
  • 新增长期设计文档:shared/long-term/projects/warp-acp-integration.md
  • 新增 OpenClaw 私域操作文档:agents/openclaw-main/warp-acp-ops.md

OpenClaw / oMLX / subagent 配置记录

  • mac-5 / mac-6 / mac-7 三台机器都已安装并运行 oMLX,模型权重统一放在 ~/MLXModels
  • 三台机器都存在 com.lingyuzeng.omlx 的 launchd plist用于开机自动启动 oMLX 服务
  • 三台机器的 oMLX OpenAI 兼容接口分别为:
    • mac-5: http://100.64.0.19:8000/v1
    • mac-6: http://100.64.0.21:8000/v1
    • mac-7: http://100.64.0.23:8000/v1
  • 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为:
    • Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
  • mac-5 的 ~/.openclaw/openclaw.json 已新增 3 个 provider
    • omlx_mac5
    • omlx_mac6
    • omlx_mac7
  • mac-5 的 agents.defaults.subagents.model 已设置为:
    • omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
  • mac-5 额外新增了 3 个本地 worker agent
    • local-mac5
    • local-mac6
    • local-mac7
  • 这些 worker agent 分别绑定到对应机器的 oMLX endpoint供后续 subagent / team 并行编排使用
  • main agent 已放开 subagents.allowAgents,允许调度:
    • local-mac5
    • local-mac6
    • local-mac7
  • mac-6 / mac-7 也已补写 ~/.openclaw/openclaw.json,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用
  • 新增一份 OpenClaw 私域记忆:agents/openclaw-main/subagent-scheduling-v1.1.md
  • v1.1 新增的关键调度原则:
    • 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用
    • mac-5/6/7 的 Huihui 模型名与 fallback vllm_messages/Qwen3.5-27B 的模型名不同,不能混用
    • 对速度要求高的 subagent 任务,优先使用 vllm_messages/Qwen3.5-27B
    • 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点
    • 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败
  • 已将 lossless-claw 显式绑定为 plugins.slots.contextEngine
  • 保持 memory.backend = qmd
  • 已显式设置 memory.qmd.sessions.enabled = false,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠
  • 已将 agents.defaults.memorySearch 配置为本机 oMLX embeddings
    • provider: openai
    • model: bge-m3-mlx-fp16
    • baseUrl: http://127.0.0.1:8000/v1
  • 当前主记忆检索仍然是 QMDLCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留
  • 目前已确认:
    • provider / model 注册已完成
    • gateway 已执行重启调度以加载新配置
  • 仍需后续继续验证:
    • sessions_spawn(runtime="subagent")local-mac5/local-mac6/local-mac7 上的真实调度行为
    • nodes run -> harness/opencode/acpx 超时根因
    • gateway 重启后 memory / context engine 新配置的实际运行行为

2026-03-18 凌晨补充opencode 默认模型规则更新

  • 原先可简写为“默认使用本机本地模型”的 opencode 规则已不再准确,现已按机器角色重新分流
  • mac-5 当前 opencode 默认模型改为:
    • opencode/minimax-m2.5-free
  • 这样做的原因是:此前 direct opencode 与 ACP 最小测试都已验证 minimax free 路径可用,且它能绕开本地 oMLX 在 ACP/session 路径上的超时脆弱点
  • mac-6mac-7 当前 opencode 默认模型改为共享 vLLM 接口:
    • base URL: http://100.64.0.5:8000/v1
    • model id: Qwen3.5-27B
    • provider/model 字符串:vllm/Qwen3.5-27B
  • 已从 mac-6mac-7 实测 GET http://100.64.0.5:8000/v1/models,当前暴露模型为:
    • Qwen3.5-27B
  • 已将两台机器的 ~/.config/opencode/opencode.json 切到上述 vLLM 配置,并完成 ACP 最小测试:
    • mac-6 -> MAC6_VLLM_ACP_OK
    • mac-7 -> MAC7_VLLM_ACP_OK
  • 因此当前稳定默认规则应记为:
    • mac-5opencode/minimax-m2.5-free
    • mac-6vllm/Qwen3.5-27B via http://100.64.0.5:8000/v1
    • mac-7vllm/Qwen3.5-27B via http://100.64.0.5:8000/v1