大伙有想过二次训练吗?

5 小时 18 分钟前
 archxm
263 次点击
所在节点    程序员
4 条回复
raycool
5 小时 10 分钟前
理论上是
只是微调的效果不可控,并且算力的需求比 RAG 大太多了。
HHHans
3 小时 27 分钟前
gpt3.5 刚出来的时候微调还很火热,现在已经没人提了。。
owt5008137
2 小时 42 分钟前
正常模型本就是分初始预训练和继续预训练的,你说的二次训练怕不就是继续预训练。然后后面才是微调和对齐训练。
gorvey
5 分钟前
cursor 的自研模型就是这么干的,底模是 kimi-k2.5 ,注入 cursor 中高质量的对话训练的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1208354

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX