AiReader:一个不联网的 AI 阅读助手,让你的算力为你服务

2 天前
 Lissajous

现在扔个 PDF 去在线翻译或者问 AI ,等于直接把文件喂给别人服务器,越来越觉得不爽。

所以我搞了个小工具叫 AiReader,一句话总结:
一个桌面阅读器,AI 全部在你本地 CPU/GPU 上跑,文档死活不离线、不上传。

简单说它能干啥:

为啥能在本地跑?用了 llama.cpp + 通义千问 Qwen3 系列(从 0.6B 到 32B 都有量化版)。

电脑大概能跑成啥样:

第一次打开它会自己测你硬件、推荐模型、一键下好,几分钟就搞定,后面拔网线也能用。

三个系统都有安装包:Windows / macOS / Linux ,全免费、MIT 开源、无广告、无埋点、代码全公开。

项目地址(重点)
https://github.com/LissajousX/aireader
直接去 Releases 下对应系统的包就行。

谁会喜欢用?

顺便贴一篇我之前写的开发心得,讲为什么我觉得「代码已死,判断永生」:
https://zhuanlan.zhihu.com/p/2005292324457047061
(就是 vibe 编程那套思路,这工具基本也是这么来的)

有同样隐私焦虑、或者也在折腾本地 AI 的朋友,欢迎来聊聊~
你现在是怎么处理敏感文档 + AI 的?用什么方案?

有兴趣就去点个 star 吧哈哈,谢谢~

502 次点击
所在节点    分享创造
5 条回复
gap
2 天前
不错不错👍
gap
2 天前
M1 Pro 能跑得最好模型是?
shuang
2 天前
文章写的不错,虽然有点子 AI 味
Lissajous
1 天前
@gap 可以测试一下试试,我内置了几个档位,一键配置会做基准测试然后自动选择合适的。也可以自己调
Lissajous
1 天前
@shuang 哈哈哈,我已经丧失打字超过 100 个的能力了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1199825

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX