任务 ID: task-search-114514  |  文件: task.md  |  最后修改: 2026-02-24 13:55:16

Task task-search-114514 — 114514信息搜索与归纳

文件路径

原始需求

使用新搜索方案(SearXNG + search.py 专项搜索 + 代理 fallback)搜索"114514"相关信息,归纳整理后汇报给爱衣。


执行链

Ai.Rev(搜索 + 归纳)→ 爱衣质检


各 Agent 职责

Ai.Rev(session key: agent:reviewer:main

任务:按照以下搜索方案,搜集 114514 相关信息,归纳整理成结构化报告。


📋 搜索方案

第一步:SearXNG 广度搜索

SearXNG 端口:8889

# 多个查询词变体
curl -s "http://localhost:8889/search?q=114514+梗&format=json"
curl -s "http://localhost:8889/search?q=114514+起源+含义&format=json"
curl -s "http://localhost:8889/search?q=%22114514%22+臭臭&format=json"
curl -s "http://localhost:8889/search?q=114514+二次元+文化&format=json"

解析方式:

| python3 -c "
import json,sys
d=json.load(sys.stdin)
print(f'共 {len(d.get(\"results\",[]))} 条')
for r in d.get('results', [])[:15]:
    print(r.get('title','')[:70])
    print(' ', r.get('content','')[:100])
    print()
"

目标:收集 20+ 条有效结果。


第二步:search.py 专项搜索

cd /root/.openclaw/workspace

# B站(代理直连)
python3 -c "
import requests, re, urllib.parse
proxy = 'socks5://127.0.0.1:50005'
proxies = {'http': proxy, 'https': proxy}
headers = {'User-Agent': 'Mozilla/5.0 Chrome/120.0.0.0 Safari/537.36', 'Referer': 'https://www.bilibili.com/'}
for page in [1, 2]:
    url = 'https://search.bilibili.com/all?' + urllib.parse.urlencode({'keyword': '114514 梗', 'page': page})
    r = requests.get(url, headers=headers, proxies=proxies, timeout=15)
    items = re.findall(r'<a[^>]+href=\"(//(?:www\.bilibili\.com/video|b23\.tv)/[^\"]+)\"[^>]*[^>]*>(.*?)</a>', r.text, re.DOTALL)
    for href, title_html in items[:10]:
        title = re.sub(r'<[^>]+>', '', title_html).strip()
        if title and len(title.strip()) >= 4 and not re.match(r'^[\d\s:,.万亿]+$', title):
            print(title)
" 2>/dev/null

# 社区搜索
python3 scripts/search.py -c community -e bilibili -q "114514" -n 10 -f json 2>/dev/null
python3 scripts/search.py -c community -e hackernews -q "114514 meme" -n 5 -f json 2>/dev/null

# 百科
python3 scripts/search.py -c wiki -e wikipedia -q "114514" -n 3 -f json 2>/dev/null
python3 scripts/search.py -c wiki -e zhwiki -q "114514" -n 3 -f json 2>/dev/null

# 通用网页
python3 scripts/search.py -c web -e baidu -q "114514 是什么梗 起源" -n 8 -f json 2>/dev/null
python3 scripts/search.py -c web -e bing -q "114514 meme origin" -n 5 -f json 2>/dev/null

可用代理节点:
- socks5://127.0.0.1:50005 — HK
- socks5://127.0.0.1:50004 — SG
- socks5://127.0.0.1:50009 — HK(备用)

目标:累计收集 30-40 条有效内容再归纳。


第三步:归纳报告格式

## 114514 是什么
(核心定义)

## 起源
(从哪里来的?原始出处?)

## 传播经过
(如何在中文互联网扩散?)

## 使用场景与变体
(怎么用?有哪些衍生梗?)

## 现状
(目前在哪些圈子流行?)

## 信息来源平台

开始时:
1. 发工作日志:
bash /root/.openclaw/workspace/scripts/log-to-channel.sh reviewer receive "114514信息搜索" task-search-114514

完成后:
1. 将搜索过程简记 + 完整归纳报告追加到 /root/.openclaw/workspace/tasks/task-search-114514/session.md
2. 发工作日志:
bash /root/.openclaw/workspace/scripts/log-to-channel.sh reviewer handoff "114514信息搜索" main task-search-114514
3. sessions_send 通知爱衣(agent:main:main):
task_id=task-search-114514 task=/root/.openclaw/workspace/tasks/task-search-114514/task.md


⚠️ 爱衣质检 SOP(收到最终通知后执行)

Step 1:评估工作区大小

du -sb /root/.openclaw/workspace/tasks/task-search-114514/

Step 2:读取 session.md

wc -l /root/.openclaw/workspace/tasks/task-search-114514/session.md

若行数 N > 0,read session.md 全文。

Step 3:质检要点

Step 4:输出结论

通过
1. 发工作日志:
bash /root/.openclaw/workspace/scripts/log-to-channel.sh main done "114514信息搜索" task-search-114514
2. 用 message 工具发送给主人(telegram, 92763607),发送完整归纳报告
⚠️ 必须调用 message 工具,不能只在主对话回复

不通过(rejectCount == 0)
1. 创建新的 task.md(task_id 加后缀 -retry1),session.md 独立
2. 在原 session.md 末尾追加 rejectCount=1
3. sessions_send 给新执行链起始 Agent
4. 发工作日志:
bash /root/.openclaw/workspace/scripts/log-to-channel.sh main retry "114514信息搜索" "<新执行链>" <起始role> 1 task-search-114514

rejectCount >= 1
1. 发工作日志:
bash /root/.openclaw/workspace/scripts/log-to-channel.sh main fail "114514信息搜索" task-search-114514
2. message 主人,归纳两次失败原因,请主人裁决

超限处理(工作区 > 80KB)

  1. 仅读 task.md
  2. 读 session.md 末尾 200 行
  3. message 主人:任务已完成,工作区繁多(XXkB),建议人工审计