想配一台双 2080ti 电脑跑深度学习,这个配置有没有槽点呢各位老哥们

2020-06-18 08:49:59 +08:00
 cowarder

CPU:英特尔( Intel ) i9-10900X 酷睿十核 盒装 CPU 处理器 GPU:技嘉(GIGABYTE)GeForce RTX 2080Ti GAMING OC 1665-1650MHz 14000MHz 352bit GDDR6 11G 电竞游戏显卡 X2 内存条:金士顿(Kingston) DDR4 2666 16GB 台式机内存条 X4 水冷:九州风神( DEEPCOOL ) 水元素 240RGB CPU 水冷散热器(泄压冷排 /RGB 风扇 /支持 I9 2066 、AM4/静音) 固态:三星( SAMSUNG ) 1TB SSD 固态硬盘 M.2 接口(NVMe 协议) 970 PRO ( MZ-V7P1T0BW ) 电源:美商海盗船 (USCORSAIR) AX1600i 1600W 电脑电源(全模组数字 /80PLUS 钛金认证 /十年质保) 硬盘:希捷(Seagate)6TB 256MB 5400RPM 台式机机械硬盘 SATA 接口 希捷酷鱼 BarraCuda 系列(ST6000DM003) 主板:华硕( ASUS ) PRIME X299-A 主板 ( Intel X299/LGA 2066 ) 机箱:美商海盗船 (USCORSAIR) 780T 黑色 全塔机箱(侧透 /支持 E-ATX 主板 /3 速风量调节 /4 组水冷位 /35CM 显卡)

6537 次点击
所在节点    硬件
62 条回复
murmur
2020-06-18 08:55:38 +08:00
看着真难受,水冷上个 360 的,这么牛逼的 u 散热器就不要吝啬了
malusama
2020-06-18 08:59:06 +08:00
老哥排一下格式啊, 要不然上图片
kop1989
2020-06-18 08:59:20 +08:00
这个硬盘是个叠瓦盘吧
cowarder
2020-06-18 09:04:49 +08:00
CPU:英特尔( Intel ) i9-10900X 酷睿十核 盒装 CPU 处理器

GPU:技嘉(GIGABYTE)GeForce RTX 2080Ti GAMING OC 1665-1650MHz 14000MHz 352bit GDDR6 11G 电竞游戏显卡 X2

内存条:金士顿(Kingston) DDR4 2666 16GB 台式机内存条 X4

水冷:九州风神( DEEPCOOL )水元素 360RGB CPU 水冷散热器(一体式水冷 /静音 /3 个 RGB 风扇 /稳压 I9/标配硅脂)

固态:三星( SAMSUNG ) 1TB SSD 固态硬盘 M.2 接口(NVMe 协议) 970 PRO ( MZ-V7P1T0BW )

电源:美商海盗船 (USCORSAIR) AX1600i 1600W 电脑电源(全模组数字 /80PLUS 钛金认证 /十年质保)

硬盘:希捷(Seagate)6TB 256MB 5400RPM 台式机机械硬盘 SATA 接口 希捷酷鱼 BarraCuda 系列(ST6000DM003)

主板:华硕( ASUS ) PRIME X299-A 主板 ( Intel X299/LGA 2066 )

机箱:美商海盗船 (USCORSAIR) 780T 黑色 全塔机箱(侧透 /支持 E-ATX 主板 /3 速风量调节 /4 组水冷位 /35CM 显卡)
cowarder
2020-06-18 09:05:22 +08:00
@murmur 感谢老哥意见,已经换了新的,看看这个行不行
cowarder
2020-06-18 09:05:45 +08:00
@malusama 重新排了,没注意不好意思,在下面的评论里
cowarder
2020-06-18 09:06:06 +08:00
@kop1989 怎么了老哥,这个不行吗硬盘
murmur
2020-06-18 09:08:33 +08:00
@cowarder 叠瓦盘便宜,但是读写并发的时候性能会很差,如果做仓库盘无所谓,做工作盘就很难受
cowarder
2020-06-18 09:09:19 +08:00
懂得老哥们,这一套配起来能不能用,有没有明显的两个配件不匹配的问题呢,就怕买回来组装不起来哈哈
Porphet
2020-06-18 09:13:46 +08:00
自用的服务器?还是实验室里的?

CPU 可以不用上这么好的,GPU 还是换显存大一些的吧,我觉得至少 24g 以上
niubee1
2020-06-18 09:14:28 +08:00
会不会最终大部分时间还是拿来游戏了?
cowarder
2020-06-18 09:15:47 +08:00
@Porphet 实验室里面用的,大约三四个人用吧
cowarder
2020-06-18 09:16:23 +08:00
@niubee1 哈哈,不会的, 我不玩游戏的老哥,实验室除了我也都是妹子
cowarder
2020-06-18 09:17:10 +08:00
老哥们,给个意见,这个能用着不,没啥硬性问题我今天就要买了,正好搞活动经费够
murmur
2020-06-18 09:18:59 +08:00
@Porphet testla v100,这卡一张四万到六万块,主要优化在(据说稳定性)、并行性能、功耗

如果不爆显存的话

在 FP 32 单精度训练上,Titan RTX 平均:

比 RTX 2080Ti 快 8%;
比 GTX 1080Ti 快 46.8%;
比 Titan Xp 快 31.4%;
比 Titan V 快 4%;
比 Tesla V100 ( 32 GB )慢 13.7%。

这是网上评测结果,所以说 2080ti 性价比是最高
Merlini
2020-06-18 09:20:42 +08:00
不建议在本地跑大模型。原因有几个:
1. 2080ti 本身也不是很强力,训练需要的时间很长。再比如说你要 fine tuning 一个 Bert,显存就要 12G,要求太高了。
2. 在训练的时候,gpu 负载很高,如果你要顺便干别的事情,不方便或者卡。
3. 现在 colab 的免费 gpu 都 k80 了,还是可以用一用的,弄个鼠标连点器,然后设置一下训练保存这些。
4. cloud computing 是未来。
cowarder
2020-06-18 09:23:52 +08:00
@murmur 老哥,你上眼看看我这一套能用吗,不存在型号不匹配的问题吧,能用我就先买了,后面升级再换,反正是经费
Porphet
2020-06-18 09:27:00 +08:00
@murmur 嗯,参数上看是最优选择。但是实际用起来,11g 的显存经常会爆的,尤其是用预训练模型( NLP 任务)。

任务都跑不起来,何谈其他。

用 pytorch 可以将一个模型分布在两个 gpu 上,但是写起来限制也挺多的。比如,需要人为把模型分开,强行分成两个模型。这样码代码的工作量就会很大,时间都浪费在改代码上,我现在的情况就是这样,很难受

我现在用 TitanV*2,但是肯定不够用,下一步实验室要换 RTX8000,哈哈
murmur
2020-06-18 09:28:05 +08:00
@cowarder 我大概看了一下没问题,不过这么高端的平台我没装过。。
Merlini
2020-06-18 09:28:16 +08:00
当然也不是说不能用,不过如果是比较专业的,以发论文打比赛为主的,还是不建议。
楼主说是多人用的,那么就会遇到其他人在跑模型的时候,另外一些人就得等了。况且很多时候不是跑一次就行,得调参吧。
还有一个情况是,现在的模型都被大公司带跑偏了,都是大的不行。比如说 NLP 领域最近新出的 GPT3,参数就有 175B 。如果以后这种模型越来越多的话,硬件会跟不上。
你说可以有模型压缩加速这些方法呀。这个领域目前还在研究阶段,做的比较成熟的就是 mobilenet,distillbert 那些。没有到大规模应用的时候。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/682532

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX