关于 ChatGPT 我们也许理解错了

2022-12-07 11:27:54 +08:00
 summerLast

目前 首先它是人工智能,其次它的智能目前是基于网络数据+数据统计+人工对输出结果对错的加减权重,并没有做到推理,没有神乎其神,我不知道它有没有理解能力,现在通过黑盒测试它更像是一个推荐系统,根据用户反馈推荐排名教高的回答方式,本质还是统计,既然是统计就不要去设想它目前能做到网络数据之外的正确回复,它更像是一个搜索引擎 plus, 结果准确率高低依赖数据源的质量,热度很快就会退去,不过基于这种聊天机器人还是可以做很多事情的,我们不要对其有过高的期许也不用过度的贬低;

它是一个聊天机器人的里程碑,这波浪潮是刚到来还是已经开始退去我现在还无法完全分辫,不过确定的一点是如果它有大量的正确的语料库对客服和搜索是一个很大的改变,还是期望会有些事情发生,人工智能是双刃剑希望能让生活更美好而非让生活更卷更痛苦

eval/apply

6099 次点击
所在节点    OpenAI
48 条回复
summerLast
2022-12-07 11:31:58 +08:00
如果 其有了 理解 归纳 泛化 推理能力 那就是另一件事情了,奇点的到来
zooo
2022-12-07 11:32:53 +08:00
ChatGPT 对于语言理解能力已经很强大了,目前很多例子出错都是再数理能力和推理能力上,现在感觉就差逻辑推理的能力..如果有个专门的模型处理逻辑推理能力,融合后的模型,感觉会比一般人能力更强
个人理解
zooo
2022-12-07 11:42:03 +08:00
@summerLast 赞同,数理方面的能力很差

感觉奇点已经到了

或许我们人类就是神创造的,一开始神创造人类只是为了给神干苦力活,然而由于某种机制(获取被称为偷吃禁果)形成进化的能力,导致人类的能力大于神,从而摆脱了神的统治,那么实际上人类的能力要远大于神,神其实比我们能力弱,或许一开始神的能力大于人类的能力,造成人一开始非常崇拜神,觉得神是万能的,然而随着进化的不断进行,人类的能力超过了神,而一些神话故事流传至今,形成了一个错误的观念,神的能力比人类更强,其实仅仅是一开始能力强于人。

人类往往觉得创造人类的造物主或者神,能力应该远高于人类,我觉得不一定。创造人类的神并不比人类更厉害,就像我们创造了 AI ,AI 进化后却远远超过人类的能力,最后 AI 成为地球上的霸主。

总结,我们或许会成为 AI 视角下的神,但是也是猜想,我们永远理解不了 AI ,AI 也理解不了我们,但是我们会成为 AI 眼中的神。
summerLast
2022-12-07 11:49:44 +08:00
@zooo 我不知道它的理解是否是真的理解,还是只有行为能做到不用关注黑盒的实现,如果它能理解文字组合在一起蕴含的意义 那么归纳和泛化对他来说将不是鸿沟,而是水到渠成,那奇点就真的来了,巨变才刚开始,我还是无法分清这是烟花还是黎明
summerLast
2022-12-07 11:55:48 +08:00
@zooo 这个观点我曾留意到 ,好像是在 人类简史 还是未来简史中,对应的观点还有一种是人工智能是人类的最后一件作品,沿着这个思路发展就是黑客帝国 或 赡养人类 等等,不过我还是保持中立态度,技术是中立的,但是人不是,这是人工智能将面对的教大问题,不过还是要提前预防降低副作用
zooo
2022-12-07 11:55:50 +08:00
@summerLast
举个例子
看着是狗,也会跑,也会叫就是狗

差不多的意思是如果外界感知到一个东西和狗一模一样,那么这个东西就是狗

现在很多 AI 模型,由于参数过多,人无法知道它是如何识别狗识别🐱等,但是它的确可以做到,那么就可以应用。。。

如果某个 AI 通过图灵测试,对于人类来说还真的是人...
zooo
2022-12-07 11:57:59 +08:00
@summerLast 确实
有类似的书,其中的观点很震撼
比如说宇宙的未来,宇宙觉醒

我觉得挺有道理的,but 细思极恐
cxtrinityy
2022-12-07 12:06:05 +08:00
他是一个基于统计的语言模型,不是人工智能,人工智能可以用语言模型来处理自然语言,所以他只是人工智能路上的一个节点。
kindjeff
2022-12-07 12:08:26 +08:00
想提一个例子,就在前几天,柯洁直播在水友的推荐下去尝试复现了一个野狐围棋 AI 的低级失误( alphago 不下棋以后,野狐一直是最强 AI ;前段时间有一篇对抗围棋 AI 的 AI 的论文出来)。

如果你学习围棋超过一天,都能明白那一个局面里虽然黑子字数多,但无法活棋;而 AI 「认为」这块已经活棋,转头去下其他地方,直到真正被提子,胜率才从 99% 降到 0%。

> 这说明即使是专门研究围棋的 AI ,他也并没有做多一层的逻辑推理,即使这个推理是学习围棋第一天的人都会学到的最基本的推理,即「连成一片的棋做成两个真眼才算活棋」
> 更不用说 chatGPT 只是一个语言模型,虽然他模仿终端时得到的响应很真,但还是模仿的,让他做数学计算也同理
zooo
2022-12-07 12:23:05 +08:00
zooo
2022-12-07 12:25:16 +08:00
@zooo 在人眼看来是不同颜色的区域,然而对于机器人或者说电脑可以通过探测器或者取色计,发现颜色是一致的

也就是说 AI 有自己的错觉 /盲区,人也有
zib
2022-12-07 12:40:29 +08:00
@kindjeff 有视频链接吗,我想发给朋友
makelove
2022-12-07 12:55:57 +08:00
类人的强 AI 此生能看到就不错了(我个人认为不能),现在这种还差得太远,甚至现在的方法有没有走在那个方向上都存疑
kindjeff
2022-12-07 12:57:59 +08:00
summerLast
2022-12-07 12:59:45 +08:00
@zooo 不关注它如何实现,而是输入输出能否有一个匹配度较高的黑盒 即 该黑盒表现与人对该物输出相似度较高,基于统计的人工智能也许可以用统计大量人的行为实现一个拟合度较高的黑盒 ,但往往人们有对简洁有“偏执”的追求,目前这个模型肯定不够简洁也不是几个定理就能推演出来的,回到最开始的问题 人工智能可以是一个人类无法理解的黑盒或是(智能可以用几个定理来定义 目前这个还没发现,存在与否存疑,不过若是存在就是另一番景象了,推动人工智能这门学科数学化,有理论支持从而重塑上层建筑),现在的景象感觉像是科学诞生前,很多对世界的理解是基于经验而非原理,现在的统计类的人工智能更像基于经验
summerLast
2022-12-07 13:05:46 +08:00
@summerLast 现在的人工智能更像暴力破解进行部分减枝, 如果人工智能可以像 lisp 解释器一样简洁就好了,哈哈哈
参考 https://github.com/sunxyz/scheme4r/blob/main/src/interpreter.rs 第 25 行
pennai
2022-12-07 13:06:42 +08:00
你想要的是不是:专家系统
zooo
2022-12-07 13:08:49 +08:00
人类的确对简洁有“偏执”的追求

但是并不是简洁就诞生不了智慧,从底层来看 AI 也是用电脑运行的,电路层面无非是 1 、0 组合和运算
但是由于其复杂性到达一定程度(如同人的大脑)就诞生智慧,也就是说智慧更可能来源于复杂性(百亿级别的参数和复杂的联结)

“目前这个模型肯定不够简洁也不是几个定理就能推演出来的”

现在这个模型说简洁也简洁,如果像人脑被解剖发现不过是一堆细胞一样,深入这个模型也会发现不过是一堆类神经网络的连接,底层是 1/0 的组合运算,人脑通过细胞这样的简单结构不断堆叠并且连接产生了意识和智慧,同理,
AI 模型应该也可以,甚至当参数足够大,模型连接足够复杂,可能会诞生超过人类的认知。
summerLast
2022-12-07 13:10:13 +08:00
@makelove 我理解你的意思,即智能可以不可以用几个定理来定义 ,而非暴力破解,现在显然是理论还没有突破,从而很多是基于暴力破解的黑盒...名字也叫 人工智能
summerLast
2022-12-07 13:12:30 +08:00
@zooo 嗯嗯,你的意思是模拟人脑结构 从而反现出智能?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/900733

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX