AI 本地化部署的方式

18 小时 29 分钟前
 wenkgin

最近在尝试本地化部署 AI ,用了 ollama+dify ,只是简单的试用了下,感觉还行,能完全在离线环境安装使用。

想问问老哥们的方式有哪些,我都想试试对比一下

1539 次点击
所在节点    程序员
29 条回复
byby
18 小时 22 分钟前
都半斤八兩,最後都要老老實實上 api
songyoucai
18 小时 21 分钟前
超微 7049 128g 内存 2080ti22g * 2 pve+Ubuntu + vllm 部署了 千问 30b
SGL
18 小时 20 分钟前
本地化部署的是不是都是“弱智”AI ,有实际应用价值不
totoro52
18 小时 19 分钟前
多少 B 的? 本地部署大语言模型纯降智成智障,还不如接 api 真的,花点钱还省了多少电费
davidyin
16 小时 56 分钟前
在 16G 内存的 i5 6500 上跑过 十几 b 的模型,反应速度还行。
visper
16 小时 52 分钟前
本地就 ollama 玩玩就行了啊。又或者 xinference 之类的可以部署其他格式的模型。
chiaf
16 小时 49 分钟前
本地聊天的那种没意思。

生成图片视频的还不错,但是对设备的要求太高
justtokankan
16 小时 45 分钟前
用来做量化交易用应该不错吧
sdwgyzyxy
16 小时 29 分钟前
cnb 每个月可以白嫖 1600 核时,h20 的 gpu ,可以跑 gpt-oss:120b ,挺好的
wenkgin
15 小时 47 分钟前
@byby 很多场景还是需要本地化的(涉密信息、能完全控制 api 的方式以后停用、收费),设备不用担心有需要就肯定有钱买,主要是看 ai 模型的效果如何
wenkgin
15 小时 46 分钟前
@visper 我现在玩的就是 ollama 感觉可用性太低了,我电脑性能也不太行
wenkgin
15 小时 45 分钟前
@davidyin 也是用的 ollama 吗
wenkgin
15 小时 45 分钟前
@totoro52 qwen3:4b ,测试用的 我只是验证可行性
youtubbbbb
15 小时 33 分钟前
本地部署的意义是什么?即使你有隐私的考虑,租服务器也好很多
wenkgin
15 小时 27 分钟前
@youtubbbbb 有些涉密内容的知识库或者公司内部的一些东西,不能公开的
silomrelephant
15 小时 15 分钟前
8b 可以稳定工具调用了,20b oss 能用用。硬件可以考虑 ai pc ,32g 统一大内存足够,2/4 通道板载内存速度够用。
wenkgin
15 小时 5 分钟前
@silomrelephant 我这够吗?
<img src="https://i.mji.rip/2025/09/12/876a350e56245a7659d2ca98b33874d8.png" alt="876a350e56245a7659d2ca98b33874d8.png" border="0">
wenkgin
15 小时 0 分钟前
@silomrelephant 搞了半天这个应该能是图片了吧
https://imgur.com/a/aX4bsr3
wenkgin
14 小时 58 分钟前
wenkgin
14 小时 57 分钟前

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1158786

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX