为什么 live text 需要 A12 以上

2022-05-22 07:22:59 +08:00
 horizonl

近期大致了解了下机器学习,想到 live text 这个功能其实就是个 ocr ,直接调用训练好的模型就行,为什么会对芯片有要求。 想听听各位大佬看法。

2336 次点击
所在节点    Apple
12 条回复
kmvvv
2022-05-22 07:27:06 +08:00
我不懂是不是算力不足,厨子不是白当的,4G 内存几年了,杀后台很严重
jjxtrotter
2022-05-22 07:37:23 +08:00
因为这个是本地识别不联网,依赖处理器本身的 NPU ,A12 在这方面比 A11 提升了不少。如果可以联网调用服务器的模型,那还要什么 A12 。
horizonl
2022-05-22 07:50:50 +08:00
@jjxtrotter 不能把模型下载本地使用吗?像熊猫吃短信一样定期更新模型
wwqgtxx
2022-05-22 07:59:42 +08:00
@horizonl 本来就是下载下来在本地调用模型呀,只不过图像 ocr 需要的算力比短信的文本分类大多了罢了
noahhhh
2022-05-22 08:14:28 +08:00
能跑但是体验差呗,像显卡 10 系没光追单元也能跑,无非效率低
Lin0936
2022-05-22 09:07:12 +08:00
“苹果宁愿阉割掉不完美的功能,也不愿意给用户不好的体验”
Leonard
2022-05-22 09:30:24 +08:00
我用的 A12 ,现在有时识别慢的时候会卡住,A12 的 NE 性能差距有 8 倍之多,A11 怕是会卡很久,体验太差所以不支持吧。
Leonard
2022-05-22 09:31:03 +08:00
* A12 和 A11 的 NE 性能差距有 8 倍之多
longbye0
2022-05-22 11:16:25 +08:00
就是很简单的算力不足,同样还有很多拍照摄像的功能依赖 npu 。

这个算力不足可能是纯粹的单精度浮点算力不足,或者老架构的 npu 没有原生的半浮点或者其他指令支持。比如放在 n 卡就是 turing 之前没有半浮点加速。

另外就是没必要或者没价值花成本再训练 /压缩一个模型。
autoxbc
2022-05-22 14:39:14 +08:00
-龙虾 4 斤的有吗?
--没有,3 斤的行吗?
-不用了,来碗卤面
horizonl
2022-05-22 15:54:37 +08:00
@Leonard 哇,难怪不让之前的再用了,想必时间会更长吧
Rockroll
2022-05-22 20:08:20 +08:00
@autoxbc 形象了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/854419

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX