1
Kevinyy 3 小时 48 分钟前
直接 64G ,得不到的永远在躁动
|
2
taozheju 3 小时 45 分钟前
肯定越大越好
|
3
PeiXyJ 3 小时 43 分钟前
|
4
andforce 3 小时 40 分钟前 via iPhone
兄弟,我告诉你,我的 M1 都上 64G 内存了
|
6
CloudMx 3 小时 30 分钟前
64,如果预算更多直接 128 了.
|
7
diudiuu 3 小时 28 分钟前
48 吧 我 m4 搞得 32 这会用的时候还是有点吃力,主要是上本地模型了,昨天去以旧换新,旧的折算 5000 ,算了讲究用吧
|
9
yifangtongxing28 OP @CloudMx 平台上 128g 的都光了,看了下价格,有货情况 3w5 左右能拿下,预算投入超支了哈哈
|
10
yifangtongxing28 OP @diudiuu 多少 B 的模型?上下文多轮对话能扛得住吗?
|
11
chitanda 3 小时 13 分钟前
48g 。64g 多出来的 16g 并不能干什么
|
12
fredweili 3 小时 12 分钟前
16g m1 pro ,准备换 48g m5 pro ,因为公司只给这个
|
13
comefromweb 3 小时 11 分钟前
|
14
stinkytofux 3 小时 10 分钟前
64g 吧, 能多用两年.
|
15
turing518 3 小时 1 分钟前
如果在纠结,那就直接上 64G ,免得以后后悔
|
16
rockddd 3 小时 0 分钟前
想用五年肯定越大越好,如果两三年就换那么 48G 更合适,目前 64 也跑不了智商在线的模型
|
17
marvinxtechbot18 PRO 内存多多益善,预算充足情况下,绝对不考虑省这个。
|
18
yhxx 2 小时 55 分钟前
看自己现在的电脑日常用了多少
我是 48 足够了 觉得拉满可以多用两年,其实大部分人还没到那两年,就换 M7M8 了 |
19
wombat 2 小时 52 分钟前
除非部署模型,不然 48g 足够。 我觉得 64g 部署的模型要体验好,也就 32b 及一下吧? 32b 的话不如用云端的模型 api ,32b 作为 openclaw 、日常使用差点。
|
20
yifangtongxing28 OP @rockddd 模型这个没啥执念,我用 windows 台式机玩了一下,目前还看不出什么设备是本地部署利器,消费级的产品来说的话
|
23
wombat 2 小时 47 分钟前
@wombat 日常微信、飞书,外加使用 IDEA 、WebStorm 、还有 CodeX 、Antigravity 等等,多项目开发。 也就能用 30g+内存。
|
24
wu67 2 小时 46 分钟前
可以但是没必要, 你加钱搞那么多内存, 都够你开各种 API 套餐爽用了, 反正我是觉得 24 够用 32 爽用了.
|
25
painter 2 小时 13 分钟前
8g 内存的 M1 Air 依然在咔咔 AI Coding
|
26
kerwin1874 2 小时 12 分钟前
现在 16g 的 m1 pro 本地开发也开始吃力了。
需求是 idea 开 2 个项目,goland 开一个,3-4 个服务,safari 开 10 个标签,然后要 docker 跑 3-4 个容器,还有一堆 electron app ,感觉还是要 64g 心里才有底。 m5 pro 64+1t 看价格是 21k ,不知道同模具的 m2 max/m3 max 大内存版本能压到多少价格? m5 pro 的 cpu 性能感觉进步挺大的。 |
27
night98 1 小时 23 分钟前
有条件内存肯定越大越好。
|