Skip to content

wentorai/Research-Claw

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

478 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

科研龙虾 · Research-Claw

科研龙虾 · Research-Claw

AI 时代,谁还不能是个导师了?

你做导师,科研龙虾做团队。24/7 本地运行,一切产出专属于你。

Version License Node Platform Skills

🌐 wentor.ai · 🇬🇧 English · 📖 文档 · 🪲 问题反馈


Windows 用户 → Docker 一键部署(推荐)或 WSL2 手动安装


下方指令适用于 macOS 和 Linux(Ubuntu)

同一条命令:首次安装 · 版本更新 · 重新启动

curl -fsSL https://wentor.ai/install.sh | bash

这是什么

会定义下一个时代的研究者,不该把时间耗在排版参考文献上。凌晨两点独自面对屏幕的研究生,值得拥有和顶级实验室一样的科研基础设施。

科研龙虾完全运行在你的本机。它替你精读论文,在你入睡时盯着 arXiv,帮你起草方法论、设计实验、管理引文、生成图表,用你的口吻写作——而不是它的。

你的论文库、笔记、实验数据,全部存在你自己的机器上。唯一的外部依赖是你选择的大模型 API。

📖 使用指南(飞书文档)

扫码加入科研龙虾 · WentorOS 微信群

微信群二维码

本群仅用于开发者与贡献者交流讨论。如有问题请直接提 Issue


六个场景

让 Zotero 开口说话

你:Zotero「未分类」堆了 200 多篇,帮我按主题分类,每篇加一句话摘要 龙虾:已读取 217 篇,聚类分析中……建议分 6 组:LLM Reasoning (43) · Agent (38) · RAG (31) · Multimodal (28) · Eval (19) · Others (58),可以吗? 你:可以,Others 超 10 篇同主题的再拆 龙虾:✓ 已分到 8 个 Collection · 每篇已加摘要 · 已同步 Zotero

双向联动 Zotero / EndNote:自动分类、批注摘要、BibTeX 导出,对话式管理整个文献库。

Zotero 文献导入


组会材料,自动生成

每周五早 8 点,自动汇总一周研究进展,生成汇报材料,通过 Telegram / 飞书 / QQ / 钉钉 发到你手机。你醒来就能看到,一行命令都不用敲。


论文写作:从空白页到初稿

你:开始写「Multi-Agent Debate for Factual Reasoning」,先构建框架,再把 Related Work 写了 龙虾:基于 proposal + 实验笔记生成框架:1. Intro · 2. Related Work · 3. Method · 4. Experiments · 5. Conclusion,要调整吗? 你:2.3 改成 Multi-Agent Collaboration & Consensus 龙虾:✓ Related Work 初稿完成(2,800 词 · 47 篇引用)· 已保存至 ~/research/paper/02_related.md · BibTeX 已同步 references.bib


7×24 科研雷达 × IM 推送

设置追踪关键词、学者、期刊,科研龙虾在后台持续扫描 arXiv、OpenAlex 等学术数据库。有重要更新第一时间推送到你的 Telegram / 飞书 / QQ,你不在电脑前也不会错过。

Telegram 连接 × 科研雷达


邮件:说想法,它发送

你:给 Yann LeCun 发邮件,说我们正在复现他的 XXX 论文,遇到一个问题,想请教……语气正式但不生硬 龙虾:[起草完毕,请确认后发送]

起草、确认、发送,全在对话里完成。语气随时可调。


本地 GPU,自动复现论文

你:帮我跑一下 arxiv:2406.12345 的实验 龙虾:正在 clone 仓库,配置 conda 环境……遇到 CUDA 版本不兼容,已自动切换,正在重试……✓ 实验完成,结果保存至 results/

卡住了自己调试,搞不定给作者发邮件。

真实案例:HiF8 量化实验 —— 以下截图来自一次实际的 Wan2.1 视频生成模型量化实验推进过程。

自主推进实验

龙虾每 10 分钟自动汇报:环境验证(GPU / CUDA / PyTorch 全链路检查)→ 逐个运行实验 → 记录遇到的问题与解决方案 → 制定下一步计划。你只需要看汇报,不需要手动执行任何命令。

实验推进 — 环境验证与阶段汇总 模型准备 — 问题解决与下一步计划
30 分钟完整汇总 — GPU A800 环境全绿,已完成 2 个实验 自动排障(5 个问题全部自行解决)并制定后续计划

遇到阻塞,主动找你决策

当模型下载被 HuggingFace 限速(~1MB/s,预计 95 分钟)时,龙虾不会傻等——它发出紧急汇报,分析根因,提出三个方案并给出推荐,等你拍板后继续执行。

紧急汇报 — 下载阻塞 三选一方案 — 推荐 B
检测到严重阻塞,主动发起紧急汇报 给出 A/B/C 三个方案,推荐 B(先用小模型验证流程)

Human-in-the-Loop 原则:涉及外部凭证(API Token)、不可逆操作、或需要资源决策时,龙虾不会擅自行动,而是带着分析和方案来找你——你做导师,它做执行。


Dashboard

大多数本地 AI Agent 的界面是一个聊天框加几个按钮。科研龙虾不是。

我们为学术工作流专门设计了一套 Dashboard,这是目前所有本地科研 AI 中功能和设计最完整的界面,支持暖色 Paper 与暗色 Terminal 双主题切换。

文献库面板 任务管理面板
文献库 — 搜索、引用、一键打开 PDF 任务看板 — Agent / Human 任务分层管理
面板 功能
Chat 对话主界面,21 种结构化输出卡片,告别纯文本墙
文献库 全文检索 · 标签 · 批注 · 引用图谱 · 阅读统计
任务 Agent / Human 任务分层 · 四级优先级 · 48h 截止日期预警
工作区 文件操作与版本历史,Git 追踪每一次变更
监控 追踪关键词 / 学者 / 期刊 · 自动化任务配置 · IM 推送
设置 Setup Wizard · 所有配置在浏览器完成,无需编辑文件

技术规格:React 18 + Vite 6 + Ant Design 5 + Zustand 5,中英双语(469 i18n keys),1084 单元测试,TypeScript 零报错,响应式支持桌面 / 平板 / 浮窗三种模式。


技能与集成

科研龙虾内置 438 个学术技能(安装时自动配置,无需手动操作),覆盖科研全流程:

类别 技能数 典型能力
文献检索 87 多库联搜 · 全文获取 · 文献追踪
研究方法 79 DID · RDD · IV · 元分析 · 系统综述
数据分析 68 Python · R · STATA · 可视化 · 面板数据
学术写作 74 论文各章节 · LaTeX · 审稿意见回复
学科领域 93 16 个学科,从 CS 到法学到生物
效率工具 51 Terminal · Jupyter · 文档处理
外部集成 35 Zotero · GitHub · Slack · arXiv

34 个 Agent 工具直连学术数据库:arXiv · OpenAlex · CrossRef · PubMed · Unpaywall · Europe PMC · DBLP · DOAJ 等

150 个 MCP 配置即插即用:

  • 文献管理:Zotero · EndNote · Mendeley
  • IM 推送:Telegram · 飞书 · QQ · 钉钉 · Slack(在你惯用的 IM 里收到科研提醒)
  • 开发工具:GitHub · Jupyter · VSCode
  • AI 服务:OpenAI · Claude · 各类国内模型 API

架构设计

┌─────────────────────────────────────────────────────────────────────┐
│                         Research-Claw                               │
│                                                                     │
│   L0  workspace/                  L2  dashboard/                    │
│       ├─ SOUL.md                      React 18 + Vite 6             │
│       ├─ AGENTS.md                    Ant Design 5 + Zustand 5      │
│       ├─ TOOLS.md                     21 卡片类型 · 6 面板            │
│       ├─ HEARTBEAT.md                 WebSocket RPC v3 客户端        │
│       └─ (8 bootstrap files)          469 i18n keys (EN + ZH-CN)    │
│                                             │                       │
│   L1  extensions/                           │ ws://127.0.0.1:28789  │
│       └─ research-claw-core                 │                       │
│          ├─ 38 tools                        │                       │
│          ├─ 79 WS RPC interfaces            │                       │
│          └─ 16 SQLite tables + FTS5         ▼                       │
│       ╔═══════════════════════════════════════════════════╗         │
│       ║           OpenClaw  (npm dependency)              ║         │
│       ║         Gateway · WS RPC v3 · Port 28789          ║         │
│       ╚═══════════════════════════════════════════════════╝         │
│                              │                                      │
│   L3  patches/               ▼                                      │
│       ~20 lines · 7 files    @wentorai/research-plugins             │
│                              438 skills · 34 tools                  │
└─────────────────────────────────────────────────────────────────────┘

核心设计决策

决策 原因
Satellite 而非 Fork OpenClaw 作为内置 npm 依赖引入(无需单独安装),上游可随时升级,耦合面控制在 ~20 行 pnpm patch
4 层耦合,从外到内 L0 文件系统 → L1 插件 SDK → L2 WS RPC → L3 patch,每层独立,可单独替换
本地优先 SQLite + WAL 模式,无需数据库服务;数据全在本地,唯一外部依赖是 LLM API
技能 > 裸提示词 438 个 SKILL.md 结构化封装学术场景,可按研究方向安装/卸载
端口与上游错开 28789(科研龙虾)vs 18789(OpenClaw 默认),两者可并存
浏览器配置一切 无需编辑配置文件,所有设置通过 Setup Wizard 在浏览器完成

安全模型

四层纵深防御,前三层为代码级硬约束:

──────────────────────────────────────────────
  L1  网络隔离                                 
      loopback only · 无远程端口暴露            
      无 telemetry · 无云端回传                 
──────────────────────────────────────────────
  L2  Workspace 沙箱                           
      原生 write/edit 工具由 config 层禁用       
      插件写文件 = 强制路径校验(拒绝 ../)        
      原生 read 保持开放(可读论文/代码)         
──────────────────────────────────────────────
  L3  命令执行防护(before_tool_call hook)      
      拦截:rm -rf / · dd of=/dev/ · fork bomb 
      放行:python · git · npm · 单文件 rm      
──────────────────────────────────────────────
  L4  Git 版本控制备份                          
      workspace 变更自动提交(5s debounce)      
      纯本地 · 无 push · 支持全历史回滚           
──────────────────────────────────────────────
  L+  提示词级协议(软约束)                     
      SOUL.md:禁止伪造引用/数据                 
      AGENTS.md:不可逆操作需 Human-in-Loop     
──────────────────────────────────────────────

快速上手

系统要求

平台 方案 依赖
macOS / Linux 一键安装脚本(推荐) Git · Node.js 22(均自动安装)
macOS / Linux 手动安装(源码) Git · Node.js 22+ · pnpm 9
macOS / Linux / Windows Docker 一键安装 Docker Desktop

所有平台均需 LLM API Key(推荐 Anthropic Claude / OpenAI,支持国内中转 API)。

不需要单独安装 OpenClaw。 科研龙虾已内置 OpenClaw 和全部学术技能插件,安装脚本 / Docker 会自动完成所有配置。如果你已有独立安装的 OpenClaw,也可以只安装技能插件:openclaw plugins install @wentorai/research-plugins,但推荐完整安装以获得 Dashboard 和全部功能。

安装

macOS / Linux — 源码一键安装(推荐):

curl -fsSL https://wentor.ai/install.sh | bash

Docker 一键安装(macOS / Linux / Windows 通用)

先安装 Docker Desktop,确保启动后托盘显示 Running,然后:

# macOS / Linux
curl -fsSL https://wentor.ai/docker-install.sh | bash
# Windows PowerShell
irm https://wentor.ai/docker-install.ps1 | iex

脚本自动完成:检测 Docker → 停止/删除旧容器 → 拉取最新镜像 → 启动 → 打开浏览器。 重复运行即可更新到最新版本,数据不丢失(持久化在 Docker named volumes 中)。

安装完成后浏览器自动打开 http://127.0.0.1:28789,在 Setup Wizard 中配置 API Key,无需编辑任何配置文件。

手动安装 / 大陆网络 / 故障排查

手动安装(源码)

需要 Git、Node.js 22+ 和 pnpm 9。一键脚本会自动安装这些依赖,手动安装需要自行准备。

git clone https://github.com/wentorai/Research-Claw.git
cd Research-Claw          # ⚠️ 必须进入项目目录,否则 pnpm install 会报错
pnpm install && pnpm build
cp config/openclaw.example.json config/openclaw.json
pnpm serve

本地构建 Docker(大陆用户备选)

GHCR(ghcr.io)在大陆无法直接访问。可以从源码本地构建,Dockerfile 已内置清华 apt 源 + npmmirror:

git clone https://github.com/wentorai/Research-Claw.git
cd Research-Claw
docker compose up -d --build

或者在 Docker Desktop → Settings → Resources → Proxies 中配置代理后使用一键脚本。

Docker 连接不上?

  1. 验证端口curl http://127.0.0.1:28789/healthz — 返回 {"ok":true} 说明正常
  2. 127.0.0.1,不用 localhost:Windows 上 localhost 可能解析到 IPv6,导致连接失败
  3. 检查 Docker:确认 Docker Desktop 状态为 Running,容器状态为绿色
  4. 重启docker restart research-claw

Docker 详细说明

Token 认证:Docker 模式使用 token 认证(容器内无法完成浏览器设备配对)。默认 token research-claw 已内置在 Dashboard 中,直接访问 http://127.0.0.1:28789/ 即可,无需在 URL 中手动添加 token。如需自定义 token,先删除旧容器再手动启动:

docker stop research-claw && docker rm research-claw
docker run -d --name research-claw -p 127.0.0.1:28789:28789 \
  -e OPENCLAW_GATEWAY_TOKEN=your-token \
  -v rc-config:/app/config -v rc-data:/app/.research-claw -v rc-workspace:/app/workspace -v rc-state:/root/.openclaw \
  ghcr.io/wentorai/research-claw:latest

数据持久化:配置、数据库、工作区、会话历史挂载在具名 volume(rc-configrc-datarc-workspacerc-state),容器删除后数据不丢失。

LLM API 代理:如果你的 LLM API(如 OpenAI)需要代理访问,在 Docker Desktop → Settings → Resources → Proxies 中配置 HTTP/HTTPS 代理即可。本地构建用户也可在 docker-compose.yml 中取消 HTTP_PROXY / HTTPS_PROXY 注释。

常用命令

pnpm serve          # 启动(配置保存后自动重启)
pnpm start          # 单次启动(不自动重启)
pnpm dev            # 开发模式(Dashboard dev: localhost:5175)
pnpm test           # 运行单元测试
pnpm health         # 检查运行状态
pnpm backup         # 备份数据库

pnpm serve 是推荐的日常启动方式。修改 API Key / 模型等配置后,网关会自动重启,无需手动操作。

斜杠命令

在对话输入框中输入 / 即可触发命令联想菜单,支持键盘导航(↑↓ 选择,Enter 确认,Esc 关闭)。

命令 说明
/compact 压缩会话上下文(解决 token 超限问题)
/model [name] 查看或切换当前模型
/think [level] 设置思考级别(off / low / medium / high)
/fast [on|off] 切换快速模式
/verbose [on|off|full] 切换详细模式
/usage 查看当前会话 Token 用量
/help 显示所有可用命令
/stop 停止当前运行
/clear 清空聊天记录
/new 开始新会话

更新

curl -fsSL https://wentor.ai/install.sh | bash

数据迁移(整机搬家)

科研龙虾的所有记忆、会话历史、文献库、任务和工作区文件都可以完整迁移到另一台电脑。

点击展开:完整迁移指南(macOS / Linux / WSL2 / Docker)

数据在哪里?

数据 路径 说明
文献库 / 任务 / 监控 ~/research-claw/.research-claw/library.db SQLite 数据库(核心数据,17 张表 + FTS5 全文索引)
会话历史 ~/.openclaw/agents/main/sessions/ 所有聊天记录(.jsonl 文件)
Agent 记忆 ~/.openclaw/memory/main.sqlite 长期记忆 FTS 数据库
工作区文件 ~/research-claw/workspace/ MEMORY.md、.ResearchClaw/、用户上传的文件、Git 历史
API Key / 模型配置 ~/research-claw/config/openclaw.json 项目级配置(API Key、模型、代理等)
浏览器数据 ~/.openclaw/browser/ 已登录的学术网站 session
IM 渠道凭证 ~/.openclaw/credentials/ Telegram / 飞书 / QQ 等 token

不需要迁移的node_modules/dashboard/dist/(重新安装会自动生成);~/.openclaw/openclaw.json(全局配置含机器相关绝对路径,新机器上会自动生成);~/.openclaw/gateway/~/.openclaw/cron/(运行时数据,自动重建)。


方案一:macOS / Linux 原生安装

旧机器 — 打包:

# 1. 停止科研龙虾
pkill -f "run.sh" 2>/dev/null; pkill -f openclaw 2>/dev/null

# 2. 等待 SQLite WAL 落盘(重要!否则可能丢数据)
sleep 3

# 3. 一键打包所有数据
tar -czf ~/rc-migration.tar.gz \
  -C / \
  "$HOME/.openclaw/agents" \
  "$HOME/.openclaw/memory" \
  "$HOME/.openclaw/browser" \
  "$HOME/.openclaw/credentials" \
  -C "$HOME/research-claw" \
  .research-claw \
  config/openclaw.json \
  workspace

新机器 — 恢复:

# 1. 先在新机器上全新安装(安装脚本会创建目录结构)
curl -fsSL https://wentor.ai/install.sh | bash

# 2. 停止刚安装好的科研龙虾
pkill -f "run.sh" 2>/dev/null; pkill -f openclaw 2>/dev/null

# 3. 将 rc-migration.tar.gz 复制到新机器后解压覆盖
cd /
tar -xzf ~/rc-migration.tar.gz

# 4. 启动
cd ~/research-claw && pnpm serve

如果新旧机器的用户名不同(如旧机器 alice,新机器 bob),解压后需要手动修正 tar 中的路径。可以用分步复制替代:

# 在新机器上逐个复制
scp -r old-mac:~/.openclaw/agents/ ~/.openclaw/agents/
scp -r old-mac:~/.openclaw/memory/ ~/.openclaw/memory/
scp -r old-mac:~/.openclaw/browser/ ~/.openclaw/browser/
scp -r old-mac:~/.openclaw/credentials/ ~/.openclaw/credentials/
scp -r old-mac:~/research-claw/.research-claw/ ~/research-claw/.research-claw/
scp old-mac:~/research-claw/config/openclaw.json ~/research-claw/config/
scp -r old-mac:~/research-claw/workspace/ ~/research-claw/workspace/

方案二:WSL2(Windows)

WSL2 中的路径与 Linux 相同,但传输文件需要通过 Windows 文件系统中转。

旧机器 — 打包(在 WSL2 终端中):

pkill -f "run.sh" 2>/dev/null; pkill -f openclaw 2>/dev/null
sleep 3

# 打包到 Windows 桌面(方便拷贝)
tar -czf /mnt/c/Users/$USER/Desktop/rc-migration.tar.gz \
  -C / \
  "$HOME/.openclaw/agents" \
  "$HOME/.openclaw/memory" \
  "$HOME/.openclaw/browser" \
  "$HOME/.openclaw/credentials" \
  -C "$HOME/research-claw" \
  .research-claw \
  config/openclaw.json \
  workspace

新机器 — 恢复(在 WSL2 终端中):

# 1. 先安装科研龙虾
curl -fsSL https://wentor.ai/install.sh | bash
pkill -f "run.sh" 2>/dev/null; pkill -f openclaw 2>/dev/null

# 2. 将 rc-migration.tar.gz 复制到新机器桌面,然后在 WSL2 中解压
cd /
tar -xzf /mnt/c/Users/$USER/Desktop/rc-migration.tar.gz

# 3. 启动
cd ~/research-claw && pnpm serve

方案三:Docker

Docker 的数据在具名 Volume 中,需要用 docker run 导出/导入。

旧机器 — 导出:

# 1. 停止容器
docker stop research-claw

# 2. 导出 4 个 Volume 到 tar 文件
for vol in rc-config rc-data rc-workspace rc-state; do
  docker run --rm -v ${vol}:/data -v ~/:/backup alpine \
    tar -czf /backup/${vol}.tar.gz -C /data .
done

# 结果:~/rc-config.tar.gz  ~/rc-data.tar.gz  ~/rc-workspace.tar.gz  ~/rc-state.tar.gz

新机器 — 导入:

# 1. 先用一键脚本安装(会创建容器和 Volume)
curl -fsSL https://wentor.ai/docker-install.sh | bash

# 2. 停止容器
docker stop research-claw

# 3. 将 4 个 tar.gz 复制到新机器后,逐个导入
for vol in rc-config rc-data rc-workspace rc-state; do
  # 清空现有 Volume 内容
  docker run --rm -v ${vol}:/data alpine sh -c "rm -rf /data/*"
  # 导入旧数据
  docker run --rm -v ${vol}:/data -v ~/:/backup alpine \
    tar -xzf /backup/${vol}.tar.gz -C /data
done

# 4. 启动
docker start research-claw

Windows Docker 用户:在 PowerShell 中将 for vol in ... 替换为逐条执行,Volume 名和命令相同。


迁移后验证

启动后在 Dashboard 中检查:

  • 文献库:论文列表、标签、笔记是否完整
  • 任务:待办事项和截止日期是否存在
  • 工作区:文件树和版本历史是否正常
  • 设置:API Key 和模型配置是否保留
  • 对话历史:点击 /new 后能否通过历史会话列表回看之前的聊天

如果 API Key 丢失:进入 Settings 面板重新填写即可,其余数据不受影响。

如果连接了 Telegram / 飞书等 IM:迁移后 bot token 会保留,但可能需要在新机器上重新验证网络连通性。


项目结构

research-claw/
├── config/           # OpenClaw 配置覆盖层
├── dashboard/        # React + Vite Dashboard
│   └── src/
│       ├── components/   # TopBar, LeftNav, ChatView, panels, cards
│       ├── gateway/      # WS RPC v3 client + hooks
│       ├── i18n/         # en.json + zh-CN.json
│       ├── stores/       # Zustand stores × 7
│       └── types/        # 21 Card type definitions
├── extensions/
│   └── research-claw-core/   # 28 tools · 52 RPC · 13 tables
├── patches/          # pnpm patch (~20 lines, 7 files)
├── scripts/          # install / health / backup / sync
├── skills/           # 自定义 SKILL.md 文件
└── workspace/        # Bootstrap files (SOUL.md, AGENTS.md …)

卸载

已有 OpenClaw 用户:恢复原始 OpenClaw

如果你在安装科研龙虾后遇到以下问题,说明安装脚本修改的全局设置影响了你原有的 OpenClaw:

  • openclaw 命令启动的是科研龙虾,而非原始 OpenClaw
  • 端口被固定为 28789,原始 OpenClaw 无法正常启动
  • openclaw config 读写的是科研龙虾的配置,而非 ~/.openclaw/openclaw.json

修复方法(两步即可,无需卸载科研龙虾):

# 1. 删除 CLI wrapper(安装脚本在 ~/.local/bin/ 创建了指向科研龙虾的启动脚本)
rm -f ~/.local/bin/openclaw

# 2. 清除 shell 配置中的环境变量覆盖
#    查看哪些文件被修改过:
grep -n "OPENCLAW_CONFIG_PATH\|# Research-Claw\|\.local/bin.*Research-Claw" ~/.zshrc ~/.bashrc ~/.bash_profile 2>/dev/null
#    找到带 "Research-Claw" 注释的行,删除即可。

清理后重开终端openclaw 命令即恢复为原始版本。科研龙虾不受影响——通过 cd ~/research-claw && pnpm serve 启动即可,run.sh 会在进程内自行设置正确的配置路径,两者可以并存。

为什么会冲突? 安装脚本在 ~/.local/bin/openclaw 创建了一个 wrapper 脚本,并将 OPENCLAW_CONFIG_PATH 写入 shell profile,使所有终端中的 openclaw 命令都指向科研龙虾的配置(端口 28789 等)。这是为了让纯科研龙虾用户可以在任意目录使用 openclaw CLI,但对已有 OpenClaw 安装的用户会造成覆盖。

macOS / Linux(源码安装)

# 1. 停止运行中的进程
pkill -f "openclaw.*gateway" 2>/dev/null

# 2. 删除项目目录
rm -rf ~/research-claw

# 3. 删除本地数据(数据库、配置、记忆)
rm -rf ~/.research-claw

# 4.(可选)删除 OpenClaw 全局配置
rm -rf ~/.openclaw

# 5. 删除 CLI wrapper 和 shell 环境变量
rm -f ~/.local/bin/openclaw
# 编辑 ~/.zshrc 或 ~/.bashrc,删除包含 OPENCLAW_CONFIG_PATH 和
# "Research-Claw" 注释的行(通常 2-3 行),然后重开终端

# 6.(可选)清除 pnpm 全局缓存
pnpm store prune

Docker(macOS / Linux / Windows)

# 1. 停止并删除容器
docker stop research-claw && docker rm research-claw

# 2. 删除镜像
docker rmi ghcr.io/wentorai/research-claw:latest

# 3.(可选)删除持久化数据(配置、数据库、工作区)
docker volume rm rc-config rc-data rc-workspace rc-state

Windows PowerShell 命令相同,在 PowerShell 中逐行执行即可。

注意:执行第 3 步将永久删除所有数据(论文库、任务、工作区文件、会话历史)。如需保留数据,跳过此步。

Docker 安装不会修改宿主机的 shell 配置或 CLI wrapper,无需额外清理。

WSL2(Windows 手动安装)

# 1. 在 WSL2 中停止并删除(同 Linux 步骤)
wsl -e bash -c "pkill -f 'openclaw.*gateway' 2>/dev/null; rm -rf ~/research-claw ~/.research-claw ~/.openclaw ~/.local/bin/openclaw"

# 2. 清理 shell 环境变量(在 WSL2 Ubuntu 终端中)
wsl -e bash -c "sed -i '/OPENCLAW_CONFIG_PATH/d;/Research-Claw/d' ~/.bashrc 2>/dev/null"

# 3.(可选)如果 WSL2 仅用于科研龙虾,可以完全卸载 WSL 发行版
wsl --unregister Ubuntu

卸载 WSL 发行版会删除该发行版内的所有数据,请确认无其他用途后再操作。


问题反馈

遇到 Bug?在 GitHub Issues 提交报告,标题格式:[Bug] 一句话描述

一份有效的 Bug 报告需要四样东西:

要素 怎么提供
复现步骤 写清楚你做了什么、点了什么、说了什么,让开发者能重现问题
后端日志 从终端 / Docker 复制日志文字(见下方命令),不要只截图
浏览器控制台 Cmd+Option+J(macOS)或 Ctrl+Shift+J(Windows)打开,复制错误信息
环境信息 系统、安装方式(install.sh / Docker / WSL2)、RC 版本(Dashboard 左下角)、模型

为什么日志要文字复制? 截图里的日志无法搜索、无法复制到代码中定位、容易截不全。截图展示界面异常 + 文字复制日志内容,两者配合。

各平台获取后端日志的命令
# macOS / Linux 原生安装
tail -50 ~/.openclaw/openclaw.log

# Docker(macOS / Linux / Windows)
docker logs --tail 50 research-claw

# WSL2(systemd 服务模式)
journalctl --user -u research-claw --no-pager -n 50

也可以在 Dashboard → SettingsLogs 标签中查看和筛选日志。

功能建议和讨论请用 GitHub Discussions


致谢

  • ppt-master — PPT 生成引擎,为科研龙虾的 PPT 导出功能提供了核心支持

许可证

BSL 1.1 — 个人及学术研究免费使用。商业用途需单独授权,联系 [email protected]。2030-03-12 自动转为 Apache 2.0 开源。


Built with ❤️ by Wentor AI

About

In the AI era, why can't everyone be a Principal Investigator?

Resources

License

Stars

Watchers

Forks

Packages

 
 
 

Contributors