同样的 prompt,切换使用不同的大模型会有多大的差异?

2024-02-28 19:17:42 +08:00
 keepRun

比如我自定义了一大堆内容,在 chatgpt 中调好了,放在 llama 、mistral 、文心一言等各大模型,究竟有多大差异?

这背后的问题是,每个大模型都得用其专有的 prompt 来使用吗?

如果我开发时使用某个模型,后来模型升级了,难道提示词又得变?我觉得未来大模型升级可能会是一个问题

1547 次点击
所在节点    OpenAI
4 条回复
mumbler
2024-02-28 19:20:03 +08:00
别说其他模型,gpt3.5 0613 和 1106,之前正常工作的 prompt 都会不兼容,很多结果就不一样了
yanyao233
2024-02-28 20:43:45 +08:00
最好针对不同的大模型微调,我原来写的一个视频总结 prompt ,gpt4 可以稳定使用,gpt3.5 就有概率返回的 json 格式不规范,星火也会出现各种奇怪的问题。最好能针对在各个模型上出现的 bad case 进行微调
keepRun
2024-02-28 21:46:22 +08:00
感觉目前除了 chatgpt 有良好的微调 prompt 指引,其它的就没有了
kneo
2024-03-02 23:39:16 +08:00
gpt4 基本上一次过。gpt3.5 需要写细一点,但是结果也比较稳定。

试过五六个国产模型。很多国产模型根本听不懂人话,需要费很大力气调 prompt 。国产模型里通义千问 MAX 的理解能力还比较好。

所以呢,你基本上是必须要根据每个支持的模型调整 prompt 的。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1019236

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX