secondwtq
253 天前
路径依赖,一开始 ChatGPT 就是这样的,后人做的时候肯定要“对标”ChatGPT ,“超越”ChatGPT ,“弯道超车”ChatGPT 。ChatGPT 一开始就有的特技你没有,岂不是面子很挂不住?没看现在连 API 都是统一的 OpenAI 格式。
你自己去写客户端的话就会发现还是直接输出简单,流式输出反而有额外的成本(我的做法是加了个转圈动画,因为这玩意甚至没法做进度条 ...)。
至于好不好看你怎么理解,现在的 chatbot ,比如我常用的 ChatGPT 和 DeepSeek ,是把用户的消息用气泡显示,LLM 的消息用无装饰的文本框显示。显然气泡是 IM 里面抄过来的,但是 LLM 消息没有用气泡说明这个 chat 的逻辑和一般 IM 的 chat 不一样,这个设计其实就隐含了用户的消息一般比较简短随意,LLM 的消息比较啰嗦全面的一个条件(有时候很麻烦,因为长 prompt 就很难处理,手机上连换行都打不了)。现实 IM 里面是不会给你随时显示对方打的字的,因为对方有可能会改,有可能有没来得及删的敏感信息,甚至有可能根本没在打字,所以你跟人网上聊天就不会想能不能像 LLM 一样流式输出,IM 中确实有“流式”,不过一般体现为连续发送多个简短消息,但是 LLM 现在不会这么干,至少直接推理做不到。让用户等的话就会出现 IM 经典场景:“?”——并不是,因为用户在此期间甚至不能发新消息 ...
反正现在这个状态是不符合 IM 图灵测试的标准的,当搜索引擎用吧 ...