想用笔记本跑 AI 模型,有什么推荐的吗

256 天前
 mqb666

rt ,目前预算 1w 左右,想买台笔记本跑 AI ,目前主要跑 SD

2737 次点击
所在节点    硬件
13 条回复
YJi
256 天前
买点算力,云上部署一套,随用随开,多划算。 (狗头
MacsedProtoss
256 天前
这个价格 再加上笔记本显存不大 hmmm…
感觉笔记本 AI 还是 Mac 的显存划算啊(狗头)

正经来说 笔记本好像低 U 高显的也很少 反正你就花钱买里面性能释放最佳 且 GPU 最好的即可
mumbler
256 天前
显存越大越好,1W 预算可以上个 4070 16G
如果跑大语言模型可以用 flashai.com.cn 的一键整合包,能流畅跑 gemma2 9B
Seanfuck
256 天前
@mumbler 笔记本的 GPU 都是残血的,尤其是显存,4090 也才 16G
mumbler
256 天前
@Seanfuck #4 笔记本功耗做不到 200W 以上,但笔记本有笔记本的场景,不需要追求极致性能
qingtian3343
256 天前
好多云上部署了,想用就用
h130666
256 天前
拯救者
hbdh5
256 天前
推荐就是老老实实的调 api ,别想本地跑啥模型,新发布的 deepseek v3 看了吧,这玩意主流的笔记本就是量化到 1bit 都加载不进内存。
mumbler
256 天前
@hbdh5 本地有本地的用途,跟云端是不同赛道,有些私密资料只能在本地处理,比如医疗数据
hbdh5
256 天前
@mumbler 可题主问的是笔记本跑,那我就默认是个人用了。医疗数据应该是有业务用途的怎么也得买个 8 卡集群吧?
cbythe434
255 天前
预算不够,否则就 mac pro max ,内存拉满
jifengg
255 天前
楼主是要跑 生图 模型,不是 LLM 。
我现在是笔记本 4080 ,12G 。跑 SD 还可以。跑 SDXL ,1024 左右分辨率,文生图我记得应该是 10 几秒?
1w 目前买不到 4080latop ,4070 的话显存又略小( 8g )
KimGuo
255 天前
考虑到笔记本 10GB 显存还挺难搞……其实不如考虑 macbook pro ,m4 款丐版国补完大概刚好 1w 多

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1100510

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX