是否可以这么认为,目前码农能操控 llm agent 做的事情都可以由 llm agent 自己操作。

1 月 19 日
 YanSeven
人做的事情,无非也就是脑子里面的"plan"+工具链使用。

工具链反正都在计算机上,想办法接入就好了,大部分码农的工具链也就是“三板斧”,也没多复杂。

"plan"的生成,需要一些逻辑推理 + 一些“上下文”, 我看目前顶尖的基于 GptClaudeGemini 都做的很不错了。

如果不能,无非就是“上一个版本不行”,那就调优系统级 prompt ,发布下一个版本支持呗。
2638 次点击
所在节点    程序员
14 条回复
linbenyi
1 月 19 日
根据长尾。人类总要解决很长的。变化多样但是小概率的事件。
其实题主说的对。变相抑制了初级岗位的成长。
wuxi889
1 月 19 日
可以。看看周末的 Claude Cowork 新闻
iOCZS
1 月 19 日
人类是一台判决机器
dog82
1 月 19 日
看闫俊杰的访谈,他提了个:模型即交付 的概念,AI 领域普通程序员能做的很少,而且会越来越少
YanSeven
1 月 19 日
@dog82 感觉以后普通程序员的角色就是汽修店里面的维修师傅,虽然以前大部分码农也不是所谓白领,但是以后估计就是比较彻底的蓝领了。
KinBob
1 月 19 日
人要是自己不写代码,debugg 能力也会退化的,所以感觉 ai code + 人 debugg 售后的模式不是个好模式,大概率得等到 ai 更深度的应用才行
iorilu
1 月 19 日
那肯定阿

现在人成了打下手的, 人能发 prompt, 当然可以让 ai 自己发 prompt 指挥另一个 ai 干活
CH122
1 月 19 日
当人类不再有任何知识、思想产出的时候,ai 还能进步吗,或者说 ai 可以到能思考的程度吗
enrolls
1 月 19 日
还差一点东西,能立即 fine tune 最新的文档和代码;或者 这个代码组件的包 fine tune 一次入 llm ,让它了解上下文,基本不用干了。
midraos
1 月 19 日
我认为当前这种形态的 AI 是不行的,如果某天变成:用户提出需求 --> AI --不经过编码、编译--> AI 自身直接模拟出该应用时,才是码农失业的前夕
strobber16
1 月 19 日
得特化才行。再训练专门做项目设计的 ai ,和负责写实际代码的 ai 分开
sentinelK
1 月 19 日
从演进的流程上来讲,确实是这样。一开始的 AI Coding 主要体现在 Tab 提示,然后逐渐演进到 Chat ,然后再演进到 Agent 。
总体上来讲,一定是人的干预越来越远离实现本身。

但讨论这个没什么意义。

首先,因为提出需求的是人,这就导致人必须参与输入。你不输入你的需求无从表达。
其次,相同的需求,表达方式多种多样,总会有人掌握更优秀表达需求的能力。
最后,你要明白为何目前的统计学 AI 的解决方式是 Agent 。因为是基于目前的上下文能力,以及模型向量转换次数所限。最终的终局,AI 产出一定不是 Agent 的。

你看现在还有人讨论“提示词工程”么?还有人因为写提示词更好引以为傲么?

在我看来,Agent 就像是提示词工程一样,只是基于有限能力下的临时性解决方案。仅此而已。
OliverDD
1 月 19 日
它只是概率模型,你让概率去碰撞概率,就是无限猴子定理:“让一只猴子在打字机上随机地按键,当按键时间达到无穷时,几乎必然能够打出任何给定的文字,比如莎士比亚的全套著作”。
muam
1 月 19 日
@OliverDD
问题是大量的需求开发跟问题解决,实际上是趋同的,你看 stackoverflow 这几年的流量就知道,大量的重复性问题,都被 AI 给解决了,人不需要再去 stackoverflow 上提问了

你加一个功能,我跟着加一个功能,很多功能都是相似的

如果人类是完美的计划经济,大量的软件跟 APP 其实都没必要诞生在这个事情上

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1186685

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX