目前开源可以本地部署的模型有哪些?

3 天前
 microscopec

可以瑟瑟的,本地部署,要求 12G 内存以下,或者 16G 勉强上,可以本地部署的模型有哪些比较好用的?

1541 次点击
所在节点    Local LLM
11 条回复
neosfung
3 天前
比较简单的计算方法,例如 6B 模型,如果用 BF16 的话,乘以 2 ,就是 12GB 运存(显存/内存)。然后还有激活 activation ,就是我们常说的 KV Cache ,也会随着上下文长度增加,具体不太好估计,得看看是 MHA ,GQA 还是 MLA 结构才知道增长倍数
neosfung
3 天前
好吧,才看到不是语言大模型
euph
3 天前
z-images
qindan
3 天前
“可以瑟瑟的”是什么意思,屌大的解释一下
chanssl
3 天前
@qindan R18
crackself
3 天前
难道是 goonsai/qwen2.5-3B-goonsai-nsfw-100k
crackself
3 天前
tomclancy
2 天前
借楼问一下 gemma3 27b 怎么解开道德限制
salor
2 天前
小体积的模型瑟瑟也是智障,上下文长了就成复读机了,Grok 才是真神。
goodryb
2 天前
下午刚看到这个,实际没用过 https://mp.weixin.qq.com/s/hqpN4U0YEgOa-QYXNuEBPg
CraftDeadMRC
1 天前
@goodryb qwen-image 是 20b 的,而且文生图的模型计算瓶颈较大,如果 offload 比较多很影响性能。z-image-turbo 相对低要求

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1180219

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX