一个本地运行的 DeepSeek 加上 Cursor,是不是目前一个程序员的终极解决方案?

220 天前
 windyboy

通过自己筛选过的文档强化一下本地模型,加上 Cursor 是不是就是目前最好的 AI 辅助方式?

8231 次点击
所在节点    程序员
41 条回复
9LCRwvU14033RHJo
218 天前
本地模型最终肯定会成功的。十年后可能 1T 显存也是白菜价。
windyboy
217 天前
@user8341 能力强的模型,体积会越来越小
sharpy
217 天前
希望再过半年,本地的 20~32b 模型能达现在 ds 的能力,那本地就足够了
crackidz
217 天前
哪怕是 R1 Zero ,比 API 的质量都差... 不如直接跑 API

只是有些狗逼天天 DDOS 服务器
MoTao
217 天前
本地笔记本 4060 试了 8b ,一天后劝退,还是充点元子用 API 吧 :(((
wsbqdyhm
217 天前
mac m1max 64g, 跑 32b 很轻松,跑 70b 速度我也能接受,强很多。就是叫写小 h 文不给力,审核很严格
wsbqdyhm
217 天前
@wsbqdyhm 跑 70b 风扇狂转,内存飙到 59g ,电量刷刷下降。得插电来
kjstart
217 天前
deepseek 怎么才能交上钱啊? 现在 https://platform.deepseek.com/都打不开...
fbqk2008
217 天前
我想给全硬盘做一个这种功能,有可能吗?
findex
216 天前
@windyboy #2 测试了本地 32B 模型,能运行。感觉速度不是很快,还是 API 好点。也许因为我用单卡测试的。
windyboy
216 天前
如果生成式的 AI 都掌握在巨头手里,运行在一般用户买不起的硬件上,这个世界不知道会堕落成什么样。
R1 无疑给了大家一只强心针,告诉我们大可不必,一场开源的胜利
相信以后会有本地可以运行切能力越来越强的模型出现
Tink
216 天前
开发环境无法连接互联网吗
whileFalse
216 天前
@sharpy 到时候你又看着新模型眼馋了。gpt3.5 刚出的时候多风光,现在还不是牛夫人
whileFalse
216 天前
@windyboy 大哥 R1 的硬件你也买不起啊人家原始模型 600 多 B
windyboy
216 天前
kennylam777
215 天前
@windyboy 可以是可以,但 4tps 只有實驗用途,驗證也做不到,更不能作為生產力
whileFalse
215 天前
@windyboy 如果是你链接里这种用 CPU 跑也叫能跑,那其实根本用不了 2000 刀,搞个洋垃圾插上 512G 内存都能跑,搞不好 2000 快都用不了
windyboy
214 天前
@whileFalse 512G 垃圾内存多少钱
whileFalse
214 天前
@windyboy ECC 的二手内存很便宜的,咸鱼上看看
windyboy
213 天前
@whileFalse 你是说闲鱼上 52G ECC 内存,价格小于 200 ?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1108172

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX