这是一个最小可行 Chrome / Microsoft Edge 扩展:在网页中选中文字后点击“解释”,插件会把选中文本和少量上下文发送给你配置的模型接口,并在页面浮层和侧边栏显示解释。
- 兼容 Chrome 和 Microsoft Edge 的 Chromium 扩展体系
- 网页划词后出现“解释”按钮
- 划词后的“解释”按钮默认出现在选区下方,减少与其他划词工具重叠
- 右键菜单“解释选中文字”
- 页面内浮层显示简短解释
- 浏览器侧边栏显示详细解释和历史记录
- 如果 Side Panel API 不可用,会降级打开扩展内详情页
- 可选择 OpenAI 兼容协议或 Anthropic 协议
- 可自定义 API Base URL、模型名、API Key、解释深度和缓存偏好
- 设置页可测试当前协议、Base URL、模型和 API Key 是否可用
- 设置页可测试完整解释链路,排查“连接成功但解释卡住”的问题
- 兼容常见代理返回格式,包括 Anthropic、OpenAI、SSE、纯文本和常见包装字段
- 对会先返回
thinking块的模型,解释请求会预留更多输出 token 等待最终文本 - 网页解释使用流式输出,模型返回一段就显示一段
- 解释弹窗会把“一句话解释 / 当前语境 / 例子”等内容自动分段排版
- 解释弹窗是可滚动小窗,标题和底部按钮固定,正文区域单独滑动
- 解释弹窗可以拖动标题栏调整位置
- 点击弹窗外的网页空白处会自动关闭弹窗
- 网页浮层会显示当前扩展版本和已等待秒数,真实解释最多等待 95 秒
- 设置页显示当前扩展版本,方便确认浏览器是否已重新加载新版
- API Key 只存储在
chrome.storage.local
适合 OpenAI、DeepSeek、OpenRouter、Ollama、本地代理等兼容 /chat/completions 的服务。
示例:
- API Base URL:
https://api.openai.com/v1 - Model:
gpt-4o-mini
本地 Ollama 示例:
- API Base URL:
http://localhost:11434/v1 - Model:
llama3.1
适合 Anthropic 原生 Messages API。
示例:
- API Base URL:
https://api.anthropic.com - Model:
claude-3-5-haiku-latest
插件会请求 API Base URL + /v1/messages,并发送 anthropic-version: 2023-06-01。如果你的 Base URL 已经以 /v1 或 /v1/messages 结尾,插件会自动避免重复拼接。
- 打开
chrome://extensions/ - 打开右上角“开发者模式”
- 点击“加载已解压的扩展程序”
- 选择这个目录:
C:\Users\LSY\Documents\Codex\2026-05-13\ai-ai-a-apik - 打开扩展的“选项”,配置协议、Base URL、模型和 API Key
- 打开
edge://extensions/ - 打开左侧或页面中的“开发人员模式”
- 点击“加载解压缩的扩展”
- 选择这个目录:
C:\Users\LSY\Documents\Codex\2026-05-13\ai-ai-a-apik - 打开扩展的“扩展选项”,配置协议、Base URL、模型和 API Key
这个 MVP 是个人自用版。API Key 保存在本机浏览器扩展存储里,不会上传到第三方服务器。但客户端保存 Key 不能抵御本机恶意软件、被篡改的浏览器环境或恶意扩展。
为了支持自定义模型接口,manifest.json 允许访问 HTTPS API 地址,以及本机 HTTP 地址:
https://*/*http://localhost/*http://127.0.0.1/*
如果要发布给其他用户,建议改成:
- 插件不保存真实模型 API Key
- 用户登录你的服务
- 插件请求你的后端
- 后端做鉴权、限流、计费、日志脱敏
- 后端再调用 OpenAI、Anthropic 或其他模型服务