任务 ID: task-embedding-research-52870 | 文件: task.md | 最后修改: 2026-02-27 08:41:36
task-embedding-research-52870
任务概述
调研热门向量 Embedding 模型,分析优劣势、性能、硬件需求,并评估两台目标服务器能否部署运行。
目标服务器硬件信息
LE-B(冷备份服务器,加拿大)
- CPU:Intel Xeon E3-1270 v6 @ 3.80GHz(4核8线程,最高4.2GHz)
- 内存:62GB
- 用途:冷备份服务器,未来可能承担向量搜索任务
RS1000(主力迁移候选,美国)
- CPU:AMD EPYC 9634(4核,单线程,高频 EPYC 系列)
- 内存:7.8GB
- 用途:当前运行银狼 Agent,未来爱衣主机迁移目标
调研维度
- 热门向量 Embedding 模型盘点
- 涵盖:all-MiniLM-L6-v2、BGE 系列(bge-small/base/large)、text-embedding-ada-002(API)、E5 系列、GTE 系列、Nomic Embed 等
-
每个模型:参数量、维度、模型大小、适用语言(中文支持?)
-
性能与质量对比
- MTEB 基准分数(中文 / 多语言 / 英文)
- 检索质量 vs 速度权衡
-
中文支持情况(重要:我们有大量中文内容)
-
硬件需求与部署可行性
- 内存占用(加载后 RAM 使用量)
- CPU 推理速度(emb/s,基于上述两台服务器估算)
- 是否需要 GPU?纯 CPU 能否接受?
- 针对 LE-B(62GB RAM,4核8线程 Xeon E3-1270 v6)的可行性评估
-
针对 RS1000(7.8GB RAM,4核 EPYC 9634)的可行性评估
-
部署方式
- sentence-transformers / Ollama / llamacpp / fastembed 等方案对比
-
哪种方案最适合 OpenClaw memory_search 集成?
-
推荐方案
- 为爱衣 + 银狼 Agent 推荐最适合的 1-2 个模型
- 综合考虑:中文支持、纯CPU可用、内��合理、质量够用
输出格式
- 报告写入:
/root/.openclaw/workspace/tasks/task-embedding-research-52870/report.md
- 报告包含:对比表格 + 每个模型简评 + 两台服务器可行性结论 + 最终推荐
质检 SOP(爱衣执行)
- 报告是否覆盖所有调研维度(5个)
- 是否有针对 LE-B 和 RS1000 的具体可行性评估
- 是否有中文支持分析
- 是否给出明确推荐结论
- 报告可读性和结构
执行链
researcher → 爱衣质检
完成通知格式
task_id=task-embedding-research-52870
task=/root/.openclaw/workspace/tasks/task-embedding-research-52870/task.md
发送给:agent:main:main