Windows、 Linux 平台支持类似于 apple M 系列芯片的 Unified Memory Architecture(UMA)架构吗, AI 模型跑不起来...

28 天前
 wwwuser

目前在试着跑了下开源的大模型,发现大模型数据比较占用显存,一般消费级别的显存都很小,不会超过 16G ,但是稍微参数大些的模型数据就超过 16G 了,当加载模型数据到显存时显然是不够的,然后发现程序就完全在硬盘上推理,速度奇慢无比,如果显卡能使用内存加显存岂不是很爽,再大的模型都可以加载,而且不用跑的那么慢 有大佬比较清楚吗,可以详细说说么

683 次点击
所在节点    问与答
5 条回复
NoOneNoBody
28 天前
不要滥发分享创造这个节点,站长会处理的
一般提问就问与答就可以了

消费级就不要跑建模了,不如只用 CPU+内存
handuo
28 天前
nvidia jetson agx 64GB ,但是 CPU 和 GPU 很弱,一般用于边缘计算的,勉强可以跑小型 llm
minami
28 天前
wwwuser
28 天前
@minami 驱动解决,感谢
@NoOneNoBody 好的,下次会注意的
mortal
27 天前
明明有混合模式

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1035351

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX