Summa 治好了我的信息饥渴症

247 天前
 silvon

我想我是有什么病的,暂且叫间歇性信息饥渴症吧。

发作时会疯狂订阅 RSS 源、关注 Medium 博主、加入 Reddit 版块......

后遗症是一段时间后就会积累很多待读文章或帖子,多到不敢打开这些网站。

当鼓足勇气打开这些网站后,通常我会快速浏览,遇到感兴趣的内容再细读,但这存在两个问题:

  1. 快速浏览可能会错过重要信息或文章;
  2. 如果是英文文章,无法快速判断是否值得细读;

为了解决这两个问题,我开发了 Summa 插件,旨在帮助用户(我自己)快速浏览大量文章。

功能介绍

Summa 是一款 Chrome 扩展,利用 AI 对网页内容进行总结。无论是博客文章还是论坛帖子,只需点击扩展图标,即可获得当前页面核心内容,包括摘要、主要内容和关键结论。

使用说明

  1. 适用于任意网站: 包括但不限于 Medium 、Reddit 、Hacker News 、知乎、CSDN......甚至 V2EX 。
  2. API Key 配置: 需要自行配置 API key 。我使用的是 openRouter 提供的 API ,该平台目前支持免费使用 gemini-2.0-flash 模型。
  3. 模型建议: Gemini 模型非常适合内容总结,可能是因为上下文窗口更大,Gemini 模型相比 OpenAI 和 Claude 的模型,能够在总结中保留更多细节。
  4. Prompt 可自定义: 内置 prompt 适合总结技术类文章,也支持自定义,以适应不同类型文章。
  5. 安装地址: https://chromewebstore.google.com/detail/summa/ifpcledicmpicocmaggfkegiighkdeog

技术栈

开发说明

  1. 大部分代码由 cursor 生成,我的主要工作是做技术选型,感觉这可能是 AI 时代的开发新模式。
  2. 由于没有设计师,界面效果全靠 cursor 发挥,因此 UI/UX 存在不一致和不完善的地方。
3558 次点击
所在节点    分享创造
27 条回复
laox0
244 天前
@silvon #20
ollama list 命令返回的内容是:
NAME ID SIZE MODIFIED
deepseek-v2:latest 7c8c332f2df7 8.9 GB 10 minutes ago
模型 ID 改为"deepseek-v2:16b" 或 "deepseek-v2:236b"之后,报错现象变为立马报错,并提示 [总结时发生错误: Not Found]
如果用"deepseek-v2",至少还会转圈加载,提示总结完成,然后才报错
silvon
244 天前
@laox0 从 ollama list 的返回来看,模型 ID 好像是 "deepseek-v2:latest 7c8c332f2df7",看起来 Ollama 可能有自己的一套本地命名规则。你可以试试用 "deepseek-v2:latest 7c8c332f2df7" 或者 "deepseek-v2:latest" 作为模型 ID ,看看能不能行~
Is0
212 天前
可以支持硅基流动的 api 吗,其他几个国内不是很稳定
silvon
211 天前
@Is0 我正在增加对硅基流动、TogetherAI 和 Hyperbolic 的支持。不过,在测试过程中,我发现硅基流动在调用 DeepSeek R1 和 DeepSeek V3 时速度较慢,不清楚具体原因。此外,TogetherAI 和 Hyperbolic 的响应速度也不算快。
Is0
211 天前
@silvon 硅基流动现在基本要充值后用 pro 版本的模型速度会正常一些,可能白嫖用户太多撑不住吧
silvon
210 天前
@Is0 LLM 服务商现在支持硅基流动,代码已经推到 https://github.com/silvonli/Summa.git 。另外,还加了多个总结切换的功能。先测试两天,没问题的话就提交到 Chrome 商店!
Is0
209 天前
@silvon 感谢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1103215

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX