真实场景,真实用法。从日常科研工作中发现 CiteBox 的更多可能。
通过微信 ClawBot 企业机器人,直接在手机上转发 PDF 论文,CiteBox 自动导入、解析图表、提取元数据。随时随地用聊天指令检索文献、浏览图表、向 AI 提问——把碎片时间变成高效阅读时间。
你正在地铁上刷到一篇有趣的论文 PDF,或者同事在微信群里分享了一篇新文献。打开电脑太麻烦?直接把 PDF 转发给 CiteBox 的微信机器人,论文就会自动入库。等你到了实验室,打开 CiteBox 桌面端,文献已经整理好,图表也都提取完毕——随时开始深度阅读。
在你的服务器或本地电脑上启动 CiteBox 后端服务。确保服务可以访问外网,以便与微信 iLink Bot API 通信。
在设置页面的「PDF 提取配置」中选择提取方案。默认的「手工」方案仅提取 PDF 全文,不会自动识别图表。推荐选择「内置 LLM 坐标提取」,并在「图片场景」模型中配置视觉模型,即可实现图表的自动检测与裁剪。
在 CiteBox 设置页面点击「绑定微信」,系统生成 iLink Bot 登录二维码。用微信扫码授权后,机器人自动绑定到你的 CiteBox 实例。
在设置中开启「微信桥接」开关。CiteBox 会以后台轮询的方式持续监听微信消息,收到 PDF 文件时自动触发导入流程。
在微信中找到 ClawBot 联系人,直接发送 PDF 文件或文字指令。论文自动入库,图表自动提取,一切在后台完成。
在微信中向 ClawBot 发送以下指令,即可远程操作你的文献库。也可以直接发送自然语言,AI 会自动理解你的意图并执行对应操作。
搜索论文或图表,支持中英文关键词,AI 智能匹配最相关的结果。
/search 单细胞转录组
查看当前论文的所有图表,选择特定图表可查看高清预览图。
/figures
对当前论文提出问题,AI 基于论文全文生成回答,支持多轮对话。
/ask 这篇文章用了什么分析方法?
查看最近导入的论文、为图表添加笔记、AI 解读图表、重置上下文等。
/help
以下是一个典型的使用场景:从转发 PDF 到检索图表、AI 问答的完整流程。
已导入论文「Spatial transcriptomics reveals cell-type organization in human brain」 标题:Spatial transcriptomics reveals... 期刊:Nature Neuroscience 年份:2024 图表:共提取 12 张 发送 /figures 查看所有图表
找到 3 张相关图表: 1. Fig.4a 基因表达热图 2. Fig.5c 细胞类型标志物热图 3. Fig.S3 差异表达热图 发送 /figure 1 查看详情
Fig.4a — Gene expression heatmap across spatial domains [图片预览] 发送 /interpret 让 AI 解读此图
根据论文内容,主要发现包括: 1. 利用空间转录组技术揭示了人脑皮层中细胞类型的空间分布规律 2. 发现了特定细胞亚群在不同脑区的富集模式 3. 鉴定出若干新的空间特异性标志基因 4. 构建了高分辨率的人脑细胞类型空间图谱
打开一篇复杂论文,AI 阅读伴侣帮你逐段拆解:对全文提问、解读图表含义、翻译生僻术语、切换不同专业视角——把「硬啃论文」变成「对话式阅读」。
你需要精读一篇跨学科论文——空间转录组 + 深度学习的结合。方法部分涉及不熟悉的算法,结果部分有大量复合图表。以前你可能花一整天查资料、翻术语,现在打开 CiteBox 的 AI 阅读伴侣,直接对论文提问,AI 基于全文内容生成回答;遇到看不懂的图,让 AI 逐步解读;碰到生僻的英文术语,选中即翻译。读完一篇论文的时间,从一天缩短到两小时。
CiteBox 的 AI 阅读伴侣不只是聊天机器人——它读过你正在看的论文全文,理解上下文,给出精准回答。
基于论文全文的多轮对话,AI 理解上下文,回答关于方法、结论、数据的任何问题。
选中任意图表,AI 结合论文内容与视觉信息,解读图表含义、标注关键发现。
遇到生僻术语或长难句,选中文本即可翻译,支持中英双向,保留学术语境。
预设或自定义 AI 角色——「入门解说员」「方法论专家」「统计审稿人」——用最适合你的视角解读论文。
以下是一个典型的 AI 阅读场景:打开论文 → 提问方法 → 解读图表 → 追问细节。
根据论文 Methods 部分: 1. 实验技术:10x Visium 空间转录组平台,对人脑皮层冷冻切片进行空间基因表达捕获 2. 配套数据:同一组织的单细胞 RNA-seq(snRNA-seq)作为参考图谱 3. 分析方法: - 使用 Cell2location 进行空间反卷积 - UMAP 降维 + Leiden 聚类 - Moran's I 统计量检测空间自相关基因 4. 验证:RNAscope 原位杂交验证关键标志基因的空间表达
Fig.2a 是对 snRNA-seq 数据的 UMAP 降维可视化: - 共鉴定出 15 个细胞簇,用不同颜色标注 - 兴奋性神经元(Ex)和抑制性神经元(In)各自形成独立的大簇 - 非神经元细胞(星形胶质细胞、少突胶质细胞、小胶质细胞)在 UMAP 空间中明显分离 - 关键发现:Ex-L2/3 和 Ex-L5/6 亚群分别对应皮层不同层次,说明转录组差异反映了空间位置信息 这张图为后续的空间反卷积分析奠定了细胞类型注释基础。
论文在 Supplementary Discussion 中提到了这一点: Cell2location 相比 RCTD 的主要优势: 1. 采用贝叶斯框架,能估计每个 spot 中多种细胞类型的绝对丰度(而非仅比例) 2. 对低丰度细胞类型的检测灵敏度更高 3. 内置正则化机制,在高噪声区域表现更稳健 不过作者也指出,两种方法在主要细胞类型的空间分布上结论一致,差异主要体现在稀有细胞类型上。
从 30+ 篇论文中自动提取所有图表,按关键词搜索、按标签筛选、拆分复合子图、提取配色方案——把散落在 PDF 里的图表变成随时可用的可视化素材库。
你正在准备开题报告,需要从几十篇文献中挑选代表性的实验结果图。以前你一篇篇打开 PDF 截图,命名混乱,找图全靠记忆。现在把文献批量导入 CiteBox,图表自动提取入库。想找「UMAP 图」?搜一下就出来。某张图里有 6 个 panel 只需要其中两个?子图拆分帮你搞定。做 PPT 配色想和论文统一?直接从图表提取配色方案。
将文献 PDF 批量上传到 CiteBox,系统自动解析全文并提取所有图表。支持手工标注模式和 LLM 视觉模型自动检测两种方式。
在图表库中按关键词搜索(支持图表标题、注释、笔记的全文检索),或按分组、标签快速筛选,精确定位目标图表。
论文中常见的复合图(如 Fig.2 包含 a/b/c/d 四个子图),CiteBox 支持手动框选拆分为独立子图,每个子图可单独搜索、标注、导出。
选中任意图表,一键提取主要颜色生成配色方案。做 PPT、画图时直接复用论文配色,保持视觉风格一致。配色方案保存在配色库中,随时调用。
CiteBox 的图表库不只是截图收藏夹——它理解图表的结构,让你像管理代码一样管理科研图表。
基于 FTS5 trigram 的全文搜索,覆盖图表标题、描述和笔记,中英文混合搜索无压力。
为图表打上自定义彩色标签(如「UMAP」「热图」「流式」),按标签快速分类筛选。
将复合图拆分为 a/b/c/d 等子图,层级关系清晰。子图按需裁剪,不额外占用存储空间。
从任意图表中提取主要颜色,生成可复用的配色方案,保存到配色库统一管理。