有没有现成的 chrome 插件,能使用 gpt 一键翻译网页内容。

80 天前
 longchisihai

RT ,小弟英语水平半吊子,如果有这个神器就可以事半功倍。

3212 次点击
所在节点    浏览器
40 条回复
m1nm13
80 天前
@ErYiii #19 可能我看错了,但是用 gemini 经常遇到需要 retry
lovestudykid
80 天前
@m1nm13 #10 一般的翻译,用 3.5 的 api 就够了,价格不会太贵
gitreny
80 天前
为什么不试试沉浸式翻译呢
sola97
80 天前
@m1nm13 ollama 支持 openapi 方式调用了,在沉浸式翻译里只要把 key 设置为 ollama ,自定义模型名称就能跑
unco020511
80 天前
沉浸式翻译
stanjia
79 天前
推荐楼主用 [https://sider.ai/] 安好后会在网页有悬浮图标,点 [翻译] 会翻译当前网页。
如果对你有帮助请给我点 [♥️]
Chance19
79 天前
@sola97 具体怎么设置知道么,比如我的 ollama 地址是 192.168.1.11,模型 llama2:7b ,我该怎么设置才能让沉浸翻译工作
m1nm13
79 天前
@sola97
像这样?但是测试都是返回 403. 用 vscode 内的插件测试就正常。浏览器的插件无法访问 localhost?
m1nm13
79 天前
@m1nm13 #28 即使我关了 edge://flags/#block-insecure-private-network-requests 也没有效果,依旧 403
sola97
79 天前
@m1nm13 启动 ollama 的时候,需要配置环境变量 OLLAMA_ORIGINS=*,我是在 systemctl 里加的
官方文档: https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama
sola97
79 天前
sola97
79 天前
@sola97
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
m1nm13
79 天前
Chance19
79 天前
我就是直接在环境变量里面加上 ORIGINS 的这个变量解决,但是自建模型翻译质量太低,提示词设定你们怎么搞的
Chance19
79 天前
@m1nm13 你用的哪个模型,回复质量如何
m1nm13
78 天前
@Chance19 #35 都不行。。作为翻译又慢,效果也差,不过我用 CPU 跑的就是了
unclemcz
78 天前
同求一个 ollama 支持的模型,我在用 qwen ,翻译质量很一般。
sola97
77 天前
@unclemcz 我用 2080ti 22g 跑了一个 sus-chat 的 34b 模型( q3-K-S 版本大概 16G ),在沉浸式翻译中比 qwen 的 14b 要稳定效果好
我是下载的 guff 然后用 ollama create 自己构建的
unclemcz
77 天前
@sola97 我的电脑内存只有 8g ,只能跑 4b 以下的模型😭
sola97
35 天前
@unclemcz #39 我现在改成白嫖了,算了下送的 token 等效于我拿显卡本地跑半个月 https://platform.lingyiwanwu.com/docs

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1019575

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX