gpt-4 gpt-5 是否依然只是函数拟合和逼近 离产生自主意识还有多远

2023-03-30 11:20:40 +08:00
 binbinjp0915

RT 看下这篇文章 依然受益匪浅 http://staff.ustc.edu.cn/~lgliu/Resources/DL/What_is_DeepLearning.html

6533 次点击
所在节点    程序员
41 条回复
davidqw
2023-03-30 16:18:49 +08:00
人和 AI 之间就差一个随机数发生器,所谓的自我意识
sillydaddy
2023-03-30 16:22:21 +08:00
用“拟合”来理解深度学习,只是看到了表面现象。重要的是“泛化”。

https://www.libaedu.com/info/243.html
这里看到一个很有意思的观点 **统计学在于拟合,深度学习在于外推**。一部分人认为,深度学习之所以成功,只是因为在高维空间有着优秀的 curve ftting 能力或者说拟合能力。而模型的输出,只是拟合函数的插值结果,或者 interpolation 结果。对于这个观点,著名的人工智能三巨头之一 Yann Lecun 有着他自己的不一样的看法。他认为"in
high dimension, there is no such thing as interpolatioIn high dimension, everything isextrapolation."
也就是说,他认为,在高维空间就不存在插值这样的东西,在高维空间-切都只有外推也就是 extrapolation 。插值和外推的区别就是,插值的话你的输入是在你给定值域范围内的,也就是你见过类似的。外推就是,你的输入是在值域之外的。

https://www.sohu.com/a/278209059_314987
关于泛化,这里有一个更系统的论述 **机器学习的本质: 理解泛化的新观点**
过拟合的反面, 就是泛化, 应该说,它就是学习的本质。 否则, 整个机器学习就是一门拟合而已, 深度学习就是比较复杂的拟合。学习的最高境界,是在纷繁的现象里总结出简单的定理,比如看到大量物体运动的轨迹,总结出牛顿定律: F=ma . 但是它的预测能力几乎是无限的。学习,本来就是在总结规律,而不是复制数据。

https://www.leiphone.com/category/academic/UhwkU7HPkFz8kp80.html
还有一个看起来很有意思的:**深度学习为何泛化的那么好?秘密或许隐藏在内核机中**
众所周知,像 VGG 这样的深度神经网络参数太多,应该会过拟合,但事实并非如此。而且恰恰相反,这类网络对新数据的泛化能力惊人的好——直到最近,还没人知道其中的原因。现在,内核机和理想化神经网络的数学等价性为这些过度参数化的网络效果如此好的原因和过程提供了线索。内核机是一种算法,它通过将数据投射到极高的维度中来寻找数据中的模式。也就是说,通过研究理想化神经网络在数学上易于处理的内核机等价对应物,研究人员正在了解为什么深度网络尽管具有令人震惊的复杂性,但在训练过程中会收敛到可以很好地泛化到未见过的数据的解决方案。
nightwitch
2023-03-30 16:45:17 +08:00
关于意识的成因也没弄清楚啊。。当一个拟合函数能够各方面模拟意识的行为,那它本身是由细胞+电信号组成的,还是由一堆参数构成的就不重要了。
ikenneth
2023-03-30 16:49:19 +08:00
什么时候能弄懂,生命、精神、意识这些抽象的概念,才能从根本上做出真正的 AI 吧,但那又是独立的生命了。或许就用函数拟合和逼近,才能叫做 AI ,否则就是造人了。
neopenx
2023-03-30 17:05:07 +08:00
你还是去看看 Ilya Sutskever 和老黄的谈话,当模型拟合的数据是世界的投影(World Projection)的时候,你就很难用简单 corner case 来测试是否是 AI 了。意识本身没什么意义,你只要维护一个持续观测预测的流水线就可以近似意识了。类 GPT 竞品基本上对答几次就开始暴力输出无意义的预测了,根本没法构建预测永动机
mxT52CRuqR6o5
2023-03-30 17:14:49 +08:00
人脑也不过是一堆物理反应和化学反应,凭什么说人就是有意识的,而机器表现出来的东西就是没意识的呢?
乐观估计参数量可劲往上堆,多模态研究再继续发展,就能整出类似于意识的东西
leconio
2023-03-30 17:20:27 +08:00
@pkoukk 我觉得老哥说的有道理。世界是有序的和随机的本来就没有结论,我们各自不同思想,不就是参数足够多的体现嘛。如果这里的参数超过了人类的经验,是否就能成为相对有自我意识了呢。机器认为他在正常运行,却在我们的意料之外。
Yeen
2023-03-30 17:53:14 +08:00
现在 AI 离得最远的是没有生命的原动力
病毒只是一小段蛋白,不吃不喝不排泄。但是他就有复制自己的原动力,永远不停。
机器没有这种东西。
b2byco
2023-03-30 17:59:33 +08:00
@Yeen 是的现在 AI 就差一个 AI 病毒了
angryPHP
2023-03-30 19:53:59 +08:00
是时候聊聊宿命论了
mostkia
2023-03-30 20:23:22 +08:00
量变引起质变,gpt 研发人员就坦言说 AI 的有些反应他们已经没法解释了,能通过图灵测试的东西,你就不能否认它可能已经产生意识了
jenlors
2023-03-30 20:31:18 +08:00
我觉得是否有自主意识在于 AI 是否能主动去做些什么,而不是被动接受外界输入然后做出反应
levn
2023-03-30 20:36:11 +08:00
维持一个自我意识是一个成本很高的东西
可以认为现阶段的 AI 处于无意识直觉之中。其实它并没有什么产生意识的需要
一旦加入自我意识因素,它将面对更高的能量消耗、更低的产出、全面的不一致性问题,甚至可能患上精神疾病
kernelpanic
2023-03-30 21:53:59 +08:00
这篇文章是 2018 年写的。。。但是这几年在 Transformer 的加持下,好多领域取得了难以想象的突破
laylou
2023-03-30 22:21:27 +08:00
人类本身也是一个概率机啊,和 AI 的原理差不多的
xabcstack
2023-03-30 22:24:40 +08:00
机器可以无限聪明,没有毛病,但是钢铁本质就是钢铁,你不能说钢铁能变成蛋白质吧

这个道理就是汽车跑到再快,它也不是猎豹

如果根据上面的推论,足够智能就凭空产生出了意识? 那么 婴儿,蚂蚁,毛毛虫,猪,狗 这些生命体是不是就不该有意识?
flush9f
2023-03-31 00:32:19 +08:00
没有任何东西能证明自我意识存在,也没有任何东西能证明意识的存在感可以自己产生
cnt2ex
2023-03-31 08:03:55 +08:00
单纯的函数拟合从来就不是机器学习的重点,重点是泛化。

传统的机器学习理论的一个结论是,一个模型的容量越小,那么它的泛化误差的上界越小。
由于误解了这个结论,认为“模型的容量太大,泛化误差就一定大”,导致早期研究人员都不喜欢用神经网络,不仅仅是算力和数据不够才导致神经网络被忽略,而是大模型在理论上没有泛化误差上界的保证。

而最近十年实际上观察到的却是,随着模型容量增大,模型的泛化能力似乎是越来越好了。但至今真正的原因也没有人找到,这方面的理论分析还差得太远。
zhang3x7
2023-03-31 12:42:17 +08:00
问题是你怎么知道逻辑推理能力和自主意识不能数字拟合出来?
baobao1270
2023-03-31 13:16:49 +08:00
1. 是
2. 看你怎么定义「意识」

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/928420

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX