不是调侃,有办法不让 chatgpt 胡说八道么?

2023-02-25 09:47:19 +08:00
 fengleiyidao
希望他不知道就是不知道,而不是胡说八道,给一个完全错误的回答。

比如

问:下面这篇文章的标题是什么? https://ieeexplore.ieee.org/document/9416834

回答:这篇文章的标题是 "Neural Networks-Based Multi-Objective Control for a Hybrid Renewable Energy System with Energy Storage",发表在 IEEE Transactions on Industrial Electronics 期刊上。

然而, 事实上并不是他说的这个标题, 而且他说的这篇文章并不存在。
5094 次点击
所在节点    问与答
38 条回复
ttgo
2023-02-25 09:54:16 +08:00
有没有人试一下 new bing 怎么回答同样的问题?
rimutuyuan
2023-02-25 09:56:01 +08:00
是的,它经常给出一些不存在的代码,后面搜索后是根据其他语言相似的实现“学习”出来的
oygh
2023-02-25 09:58:54 +08:00
ChatGPT 的优势并不在于知道得多,而是在于能“理解”人类的语言,并且能以人类能理解的方式与人类进行交流。
它的回答不可避免会存在一些事实错误,特别是当输入的信息存在故意误导时。就像你问他怎么做红烧钢丝球,它也能一本正经地告诉你具体步骤。
不过就算你提出了非常正经的问题,它也有可能胡说八道,毕竟它又没吞下整个互联网,无法了解这个世界上发生的一切。
registerrr
2023-02-25 09:59:14 +08:00
您好,这是 Bing 。根据搜索结果 1 ,这篇文章的标题是“图学习:一项调查”( Graph Learning: A Survey )。它是一篇关于图数据和图机器学习的综述文章,发表在 IEEE Journals & Magazine 上。
cmdOptionKana
2023-02-25 10:02:31 +08:00
你不会要求迈克尔乔丹去踢足球世界杯
你也不会要求奥斯卡影帝去证明数学猜想

那你为什么要要求一个专门为了胡说八道而设计出来的语言模型给你准确答案?

这个 chatGPT 总的来说只是一种 demo ,一种演示,需要定制的话要另外加钱的(商业合作)。
neteroster
2023-02-25 10:03:34 +08:00
New Bing:

> 你能告诉我这篇文章的标题和它的主要工作吗: https://ieeexplore.ieee.org/document/9416834

> 根据网上的搜索结果 1 ,这篇文章的标题是图学习:一项调查( Graph Learning: A Survey ),它是一篇综述性的文章,主要介绍了图学习的基本概念、方法、应用和挑战。它的主要工作有三个方面:

它为不同领域(如社会计算、信息检索、计算机视觉、生物信息学、经济学和电子商务)的研究人员和从业者提供了一个图学习的快速参考;
它展示了图学习领域中存在的一些开放性的研究问题;
它旨在激发新的研究思路和更多的跨学科合作。
希望这个回答能帮助你理解这篇文章。😊
haimall
2023-02-25 10:04:54 +08:00
外国人认真研究 openai 可用于其他行业的可行性,
我就发现中国人研究怎么让他变傻子
ttgo
2023-02-25 10:09:04 +08:00
@registerrr @neteroster
bing 靠谱啊!
zxCoder
2023-02-25 10:16:11 +08:00
你可以试试问他“美国 427 事件”啊,“中国 119 事件” 等等,他也能给你侃侃而谈
Chrisplus
2023-02-25 10:33:32 +08:00
chatGPT 没有网络检索的接口,New Bing 有。
aphorism
2023-02-25 10:35:07 +08:00
1. 有宣传部的地方就可以完美地做到不让 chatGPT 胡说八道。
2. 你需要做的只是先找到这样一个地方。
3. 然后根据当地的法律法规和政策去做。
zzm88104
2023-02-25 10:36:55 +08:00
现阶段他没有 [不知道] 这个 feature ,只能:

- 避免问他一定不知道的事情(例如楼主这个问题,99%不会得到好答案,因为他不能接外部网络)

- 尽量不问他可能不知道的事情(例如与最新的资讯相关的,因为他资料不没 update )。即使问了,就多留个心眼多方印证。

- 用英语,理论上既然他学习的资料都是英语,就用英语去使用他才能发挥最大价值。
holystrike
2023-02-25 10:38:05 +08:00
可以问问 bing ,有没有什么办法让 chatgpt 不要胡说八道
yzqtdu
2023-02-25 11:46:34 +08:00
不让 chatgpt 胡说八道约等于知道它知道,知道不知道,约等于接近完全的语义理解,目前来看还很难。现在在用人工反馈强迫模型对齐,但是错误回答的空间很大,更好的方式还在探索
fnmgzbv2
2023-02-25 11:58:04 +08:00
您好,這是 Bing 。根據我在網路上找到的資訊,這篇文章的標題是 Graph Learning: A Survey1 。這是一篇關於圖學習的綜述文章,作者是來自中國和美國的四位學者。
zictos
2023-02-25 12:13:44 +08:00
说明有时候他真的不知道,但是即便是答案有一点错误也会有点参考性,如果经常遇到回复不知道,用户也会很失望的
yangzhezjgs
2023-02-25 12:16:24 +08:00
这是生成式 AI 的必然毛病,因为他只是根据大量现存的数据进行模仿,并不是真的理解,而且深度学习本来就是黑箱,可解释性差,无法像正常软件一样调整控制
ryd994
2023-02-25 12:33:16 +08:00
其实就算说对了的那些,它也不知道不明白
它作为语言模型,任务就是一本正经地胡说八道
至于说出来的内容是什么意思,它并没有逻辑能力,无法判断
dcsuibian
2023-02-25 12:52:38 +08:00
就算你给他错误的论点,他也能给你像模像样解释出来。
这东西没有判断正误的能力的,只是在仿。
不让他胡说八道的办法只能提前找到相关的资料喂给它。
Ericcccccccc
2023-02-25 14:35:26 +08:00
你用搜索引擎的时候会不会有同样的疑问.

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/919068

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX