大模型现在能解析整个项目吗

200 天前
 exploretheworld
搞 C++还没招进来,只能我自己先看了
5583 次点击
所在节点    程序员
36 条回复
leverestfish
200 天前
@shadowyue 因为计算复杂度和长度平方成正比,而且显存一点也不便宜
jstony
200 天前
@shadowyue 应该不是存储的限制,是太长的上下文会使得推理时长飞涨到不可接受。
thinkm
200 天前
cursor 重构八九千行的项目好使不,我有个项目七八千行都在一个文件,变量 类什么的,看着就烦
zhmouV2
200 天前
应该说是 transformer 本身的限制,理论上确实处理一个 token 可以关注到全局信息,但是受限复杂度的限制,context 不可能无限长。。。而且也受训练数据的影响。比如说 diffusion 画图模型最早在 512 / 640 的分辨率图片做训练,结果画更大分辨率的图总会崩掉,llm 也是一个道理,现在模型的上下文长度一般都是 128K / 256K ,ds 的 r1 好像只有 64k ,读取整个项目当然不够用。
guts
200 天前
mohuani
200 天前
你想要的是不是这样的产品: https://gitseek.dev/
zhangfannn
200 天前
想问下, 如果代码会限制上下文, 那为啥豆包的 AI 阅读能上传 50 个 100M 文件呢?
R4rvZ6agNVWr56V0
200 天前
@zhangfannn RAG 而已
gjnevergo
200 天前
可以 上 rag
imokkkk
200 天前
我们内部工具 Aone Copilot ,好像可以总结整个仓库,具体没用过
ForkNMB
200 天前
字节的 https://www.trae.ai 用着还行,一个 C 的大型项目,完全看不懂(C 的水平就是大一学过一点谭浩强的水平)。直接用这个打开项目,慢慢分析起码能看懂了,它会联系一定的上下文,比如你选个函数它起码是会分析这个函数所在文件内容的,对话里跨文件也可以,还能直接选中代码添加到对话,用起来很方便。
fcten
200 天前
不能,上下文长度有限。即使按 1M 上下文长度算,估计也就 5w~10w 行代码的长度。稍微复杂一些的项目应该都不止这个代码量了。
但是其实解决绝大部分问题并不需要通读整个项目。
ianisme
199 天前
cursor 是不是也只能编写那种小 app ,对于公司接别的大 APP 无从下手
yippee0539
198 天前
C++投简历都不面,
大佬这是找不到
笑死
ningmengzhensuan
197 天前
看你项目的文件多少,小型的项目可以喂给 Claude project ,有代码数量的限制,这个目前是最强的,
unibrighter
196 天前
1. 目前 llm 对学新技术栈是有用的,小规模的 app 等也勉强 handle
2. 上下文变大了以后,你会明显感觉顾此失彼,变蠢了
3. 就像那种临时接手又不愿意看屎山代码,入行 1-2 年程序员的水平.

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1113198

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX