Files
collective-memory-repo/daily/2026-03-17.md
2026-03-17 19:53:58 +08:00

4.0 KiB
Raw Blame History

2026-03-17

OpenClaw / oMLX / subagent 配置记录

Warp / ACP / opencode 规范草案

  • 已决定长期文档主名采用 warp-acp-*
  • 第一阶段仅先标准化 opencode 的 Warp ACP 接入;后续再扩展到 gemini cliclaude code
  • 已新增本地 secrets 文件占位:~/.openclaw/.env
  • 当前预置的 provider 环境变量名:
    • WARP_INFINI_API_KEY
    • WARP_INFINI_BASE_URL
    • WARP_CKIMI_API_KEY
    • WARP_CKIMI_BASE_URL
  • 已确定provider 级别用环境变量命名,用模型名命名,避免不同 provider 出现同名模型时冲突
  • 已确定 opencode 的 Warp ACP agent 命名规范采用 provider-qualified 形式:
    • opencode-warp-infini-kimi
    • opencode-warp-infini-minimax
    • opencode-warp-infini-glm
  • 已确定 wrapper 方案为后续 ACP 稳定注入点wrapper 显式读取 ~/.openclaw/.env,不依赖 ~/.zshrc
  • 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型跨 provider fallback其次同 provider 跨相邻模型 fallback
  • 新增长期设计文档:shared/long-term/projects/warp-acp-integration.md
  • 新增 OpenClaw 私域操作文档:agents/openclaw-main/warp-acp-ops.md

OpenClaw / oMLX / subagent 配置记录

  • mac-5 / mac-6 / mac-7 三台机器都已安装并运行 oMLX,模型权重统一放在 ~/MLXModels
  • 三台机器都存在 com.lingyuzeng.omlx 的 launchd plist用于开机自动启动 oMLX 服务
  • 三台机器的 oMLX OpenAI 兼容接口分别为:
    • mac-5: http://100.64.0.19:8000/v1
    • mac-6: http://100.64.0.21:8000/v1
    • mac-7: http://100.64.0.23:8000/v1
  • 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为:
    • Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
  • mac-5 的 ~/.openclaw/openclaw.json 已新增 3 个 provider
    • omlx_mac5
    • omlx_mac6
    • omlx_mac7
  • mac-5 的 agents.defaults.subagents.model 已设置为:
    • omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit
  • mac-5 额外新增了 3 个本地 worker agent
    • local-mac5
    • local-mac6
    • local-mac7
  • 这些 worker agent 分别绑定到对应机器的 oMLX endpoint供后续 subagent / team 并行编排使用
  • main agent 已放开 subagents.allowAgents,允许调度:
    • local-mac5
    • local-mac6
    • local-mac7
  • mac-6 / mac-7 也已补写 ~/.openclaw/openclaw.json,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用
  • 新增一份 OpenClaw 私域记忆:agents/openclaw-main/subagent-scheduling-v1.1.md
  • v1.1 新增的关键调度原则:
    • 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用
    • mac-5/6/7 的 Huihui 模型名与 fallback vllm_messages/Qwen3.5-27B 的模型名不同,不能混用
    • 对速度要求高的 subagent 任务,优先使用 vllm_messages/Qwen3.5-27B
    • 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点
    • 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败
  • 已将 lossless-claw 显式绑定为 plugins.slots.contextEngine
  • 保持 memory.backend = qmd
  • 已显式设置 memory.qmd.sessions.enabled = false,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠
  • 已将 agents.defaults.memorySearch 配置为本机 oMLX embeddings
    • provider: openai
    • model: bge-m3-mlx-fp16
    • baseUrl: http://127.0.0.1:8000/v1
  • 当前主记忆检索仍然是 QMDLCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留
  • 目前已确认:
    • provider / model 注册已完成
    • gateway 已执行重启调度以加载新配置
  • 仍需后续继续验证:
    • sessions_spawn(runtime="subagent")local-mac5/local-mac6/local-mac7 上的真实调度行为
    • nodes run -> harness/opencode/acpx 超时根因
    • gateway 重启后 memory / context engine 新配置的实际运行行为