为什么没有平台,可以连接世界上任何电脑的显卡,整合算力进行训练

61 天前
 BingoW

为什么没有这样的平台,用户可以主动申请加入,加入后平台可以利用所有用户的显卡资源进行训练,如果训练出的大模型如果可商用,根据比例进行分成,用户从而获利。这样的话是不是老黄的显卡就卖不出去了,所以老黄说感觉明天公司快倒闭了。。。

6165 次点击
所在节点    程序员
65 条回复
FaiChou
61 天前
我举一个例子: https://devnet.inference.net/
7gugu
61 天前
这种平台就满足你的需要了吧: https://boinc.berkeley.edu/ 大家都会在上面贡献自己的算力,给科学任务计算用
LeonardSc
61 天前
有,但是效率太低
fcten
61 天前
因为大模型训练不仅要算力,还要考虑带宽和延迟。
即使是专门针对大模型训练优化的机房,算力利用率大概率都不到 60%。
通过互联网训练,算力利用率可能不到 1%。
YsHaNg
61 天前
有的 最简单你跑个 ollama 暴露默认端口到公网过两天看看
jerryrib
61 天前
BOINC
pweng286
61 天前
有个什么寻找外星人.
记不清了,类似.
zhanying
61 天前
NVLink 可是牢黄的护城河,就互联网那点上行带宽你还想分布式训练。。。。
gefranks
61 天前
SETI@home, 差不多有快 30 年前了.
ThirdPer
61 天前
最大问题还是网络带宽,你想想现在家用宽带那点速度,传个几十 G 的模型数据都要传半天,更别说实时通信了。而且显卡之间的延迟要求特别高,不像以前那种可以慢慢算的科学计算
币圈倒是有一堆这种概念的项目,但大多数都是割韭菜的... 真正能落地的很少。老黄也不用担心显卡卖不出去,毕竟现在 AI 训练对硬件要求越来越变态了,家用显卡根本扛不住那种规模
XnEnokq9vkvVq4
61 天前
https://chutes.ai/ 好像就是
zhwguest
61 天前
内存的带宽都嫌慢,还何况网络....
ambition117
61 天前
nvlink 1.8TB/s(大 B)都嫌慢,还指望互联网那小水管
HENQIGUAI
61 天前
先看有没有,再问为什么。
Masonn
61 天前
也是有的,深度学习里面“联邦学习”就是解决你说的这个问题,多中心训练
williamx
61 天前
这种几十年前就有了,不说挖矿,公益计算也很多。
cha0szhao
61 天前
CG 行业的渲染农场
LnTrx
61 天前
要区分两件事:
通过公众网络借用算力。这已经很成熟了,无论是 CPU 还是 GPU 。
通过公众网络联合训练一个大模型。这缺乏意义,因为大模型训练本来的重要瓶颈就在互联带宽,公众网络远远无法满足需求。
picone
61 天前
你说 io.net
COOOOOOde
61 天前
https://www.gongjiyun.com/

之前站里有人发过这个

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1146924

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX