请问目前哪些本地 AI 模型的代码能力比较强? 8G 显存的情况下.

323 天前
 chackchackGO
因为特殊需求, 需要离线查代码相关资料.

或者请问有这方面的排行榜 /测试表吗
1520 次点击
所在节点    问与答
10 条回复
murmur
323 天前
8g 的模型除了画图都是玩具,基本没多长的会话长度,想真的用还得整个 o22g 的魔改版
czfy
323 天前
本地
8G 显存

这两点就决定了当前不会有可用的
rogerer
323 天前
好奇是什么资料查询需要用到 AI 模型
locoz
323 天前
已经测试过了,目前能在消费级 GPU 上运行的开源模型,没有任何一个在代码能力方面达到可用水平的。
lithiumii
323 天前
https://github.com/fauxpilot/fauxpilot

8G 卡得很好,可以跑 2B 参数的模型了
yanyuechuixue
323 天前
借楼问下,24G 的话有什么模型可以跑呀?
swulling
323 天前
@yanyuechuixue 24G 显存,可以跑 40B 参数模型的 4bit 量化版本。
yanyuechuixue
323 天前
@swulling 谢谢大佬!请教一下,40B 的 4bit 量化和 7B 的无量化哪个性能好一些呀?
lchynn
322 天前
@locoz StarCoder 这种肯定不行,但是 bigcode/santacoder 这种轻量级代码模型也不行么?
swulling
322 天前
@yanyuechuixue 那肯定是大参数好

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/950930

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX