Files
collective-memory-repo/daily/2026-03-17.md

75 lines
4.5 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# 2026-03-17
## OpenClaw / oMLX / subagent 配置记录
## Warp / ACP / opencode 规范草案
- 已决定长期文档主名采用 `warp-acp-*`
- 第一阶段仅先标准化 `opencode` 的 Warp ACP 接入;后续再扩展到 `gemini cli``claude code`
- 已新增本地 secrets 文件占位:`~/.openclaw/.env`
- 已确认节点级配置规则:`mac-5``mac-6``mac-7` 三台机器都应各自本地配置 `~/.openclaw/.env`;不能假设 `mac-5` 的 secrets 会在 Warp-backed ACP harness 实际落到 `mac-6` / `mac-7` 时自动可用
- 当前预置的 provider 环境变量名:
- `WARP_INFINI_API_KEY`
- `WARP_INFINI_BASE_URL`
- `WARP_CKIMI_API_KEY`
- `WARP_CKIMI_BASE_URL`
- 已确定provider 级别用环境变量命名,**不**用模型名命名,避免不同 provider 出现同名模型时冲突
- 已确定 `opencode` 的 Warp ACP agent 命名规范采用 provider-qualified 形式:
- `opencode-warp-infini-kimi`
- `opencode-warp-infini-minimax`
- `opencode-warp-infini-glm`
- 已确定 wrapper 方案为后续 ACP 稳定注入点wrapper 显式读取 `~/.openclaw/.env`,不依赖 `~/.zshrc`
- 已将 fallback 纳入规范设计:当 provider 配额耗尽、限流或模型不可用时,优先同模型/同任务意图的跨 provider fallback其次同 provider 跨相邻模型 fallback
- 已补充 ACP 连续执行规则:若中途因 provider 请求限制、quota、rate limit 等失败,应先总结当前任务已完成内容、失败点与剩余工作,再切换到新的 Warp fallback agent 继续执行,而不是盲目从零重跑
- 新增长期设计文档:`shared/long-term/projects/warp-acp-integration.md`
- 新增 OpenClaw 私域操作文档:`agents/openclaw-main/warp-acp-ops.md`
## OpenClaw / oMLX / subagent 配置记录
- mac-5 / mac-6 / mac-7 三台机器都已安装并运行 `oMLX`,模型权重统一放在 `~/MLXModels`
- 三台机器都存在 `com.lingyuzeng.omlx` 的 launchd plist用于开机自动启动 oMLX 服务
- 三台机器的 oMLX OpenAI 兼容接口分别为:
- mac-5: `http://100.64.0.19:8000/v1`
- mac-6: `http://100.64.0.21:8000/v1`
- mac-7: `http://100.64.0.23:8000/v1`
- 当前用于 OpenClaw 本地子智能体 / worker 的本地模型统一为:
- `Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit`
- mac-5 的 `~/.openclaw/openclaw.json` 已新增 3 个 provider
- `omlx_mac5`
- `omlx_mac6`
- `omlx_mac7`
- mac-5 的 `agents.defaults.subagents.model` 已设置为:
- `omlx_mac5/Huihui-Qwen3.5-27B-Claude-4.6-Opus-abliterated-4bit`
- mac-5 额外新增了 3 个本地 worker agent
- `local-mac5`
- `local-mac6`
- `local-mac7`
- 这些 worker agent 分别绑定到对应机器的 oMLX endpoint供后续 subagent / team 并行编排使用
- `main` agent 已放开 `subagents.allowAgents`,允许调度:
- `local-mac5`
- `local-mac6`
- `local-mac7`
- mac-6 / mac-7 也已补写 `~/.openclaw/openclaw.json`,保存各自本机 oMLX provider 与默认 subagent 模型定义,便于后续本地 OpenClaw/agent 复用
- 新增一份 OpenClaw 私域记忆:`agents/openclaw-main/subagent-scheduling-v1.1.md`
- v1.1 新增的关键调度原则:
- 派发 subagent 前先对目标后端做轻量 curl/等价请求,确认对应模型当前可调用
- mac-5/6/7 的 Huihui 模型名与 fallback `vllm_messages/Qwen3.5-27B` 的模型名不同,不能混用
- 对速度要求高的 subagent 任务,优先使用 `vllm_messages/Qwen3.5-27B`
- 若 vLLM 不可用,再 fallback 到 mac-5/mac-6/mac-7 的 oMLX 节点
- 本机优先使用 localhost/127.0.0.1,减少 tailscale 网卡不稳定带来的失败
- 已将 lossless-claw 显式绑定为 `plugins.slots.contextEngine`
- 保持 `memory.backend = qmd`
- 已显式设置 `memory.qmd.sessions.enabled = false`,避免 QMD sessions indexing 与 lossless-claw 的会话召回能力重叠
- 已将 `agents.defaults.memorySearch` 配置为本机 oMLX embeddings
- provider: `openai`
- model: `bge-m3-mlx-fp16`
- baseUrl: `http://127.0.0.1:8000/v1`
- 当前主记忆检索仍然是 QMDLCM 负责上下文恢复;本机 oMLX embeddings 作为内建 memorySearch 的已配置能力保留
- 目前已确认:
- provider / model 注册已完成
- gateway 已执行重启调度以加载新配置
- 仍需后续继续验证:
- `sessions_spawn(runtime="subagent")``local-mac5/local-mac6/local-mac7` 上的真实调度行为
- `nodes run -> harness/opencode/acpx` 超时根因
- gateway 重启后 memory / context engine 新配置的实际运行行为