在考虑给自组的 NAS 加一个 4060ti 玩 AI

2025 年 5 月 29 日
 h4ckm310n

现在的 NAS 的配置是这样的:

随着 5060ti 出来,4060ti 也降价了一些,最近想整一个 16G 的来玩 AI ( comfyui 之类的),不知道能不能直接塞到现有的 NAS 里,然后对内存和电源做个升级(或者直接弄第二块电源单独为显卡供电,短接启动)。就是不知道 12100 会不会带不动 4060ti (在 AI 方面)。如果确实带不动的话,那我也不打算升级 cpu 了,等 5060ti 再便宜点的时候再另装一套 DDR5 平台。

2567 次点击
所在节点    NAS
10 条回复
yuhuai
2025 年 5 月 29 日
那你考虑下省了这笔钱吧,哪怕是 5060ti 算力不不算高,绘图和大模型等待时间太长,60ti 一般还低人一等,位宽还被砍了
beyondandsharp
2025 年 5 月 29 日
16G 配合 nuchaku 来使用也挺好的
Greendays
2025 年 5 月 29 日
跑 AI 没 CPU 什么事吧。我以前用的 3500X 带 4060TI 跑 ComfyUI 没啥问题。不过那个时候还是普通的文生图的版本,现在玩法可能更多了。
v0rtix
2025 年 5 月 29 日
直接买 api 更香
h4ckm310n
2025 年 5 月 29 日
@chenbin36255 就 AI 画图来说,线上平台没法画涩图
zhouxuchen
2025 年 5 月 29 日
跑 comfyui 的话,估计 cpu 都不怎么出汗
zhucegeqiu
2025 年 5 月 29 日
电源够就行,我把公司的 3090 带回家了,12300T 一样带的飞起
momo2278
2025 年 5 月 30 日
去年我弟高考想报人工智能,就给提前配了 4060ti16G ,结果后面他想上的学校人工智能专业在老家省里没有名额,最后反倒是让我在他高考前爽玩了几个月 VR ,本来也想试试画图,但因为沉迷 VR 给鸽掉了
charles0
2025 年 5 月 31 日
也许可以先试试线上租 GPU ,比如 autodl, runpod ?
h4ckm310n
2025 年 6 月 3 日
@charles0 尝试了 autodl ,感觉还不错,就是使用的时候总有一种争分夺秒的感觉,不能像本地那样从容地玩,虽然主要还是我心态原因。11G 的 flux fp8 量化模型上传上去大概要半小时,无卡模式下上传慢点也还好,后来网上查了下发现这个速度已经算是快的了,如果遇到高峰期不知道要等多久。先这么用着吧,显卡我继续慢慢蹲好价的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1135200

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX