iPhone 的神经网络引擎是如何学习的?

2020-11-13 13:21:01 +08:00
 Themyth
我昨天使用了辅助功能---旁白--里面的屏幕识别。
据说这是利用到了 A12 芯片之后的神经网络引擎做到的。
它可以识别出图像中的物体是什么,文字是什么,甚至打开摄像头就能识别前方物体 人类 杯子 道路等等。
但是看介绍说这个识别率会随着自己学习慢慢变的更厉害。
这我就不理解了,它又没联网,它是如何自己学习的?普通用户是不是多多使用就能训练他的学习能力了呢?
4972 次点击
所在节点    iPhone
1 条回复
learningman
2020-11-13 14:15:37 +08:00
预训练模型
能不能本地训练不知道,猜不能

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/724808

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX