早上看到影视飓风发了个视频,说字节最新的视频生成模型用了他们大量的素材训练,给一张 tim 的照片,模型就能自动匹配他的声音和公司的真实环境。
然后我试了一下,找了个爱发朋友圈的前同事,把很多朋友圈截图丢 gemini 了,最后 gemini 确实给出了比较准确的猜测信息,这还只是朋友圈一个数据源的情况下。
所以我觉得,以前的人肉搜索是一个复杂的过程,现在大模型工具可能会加快信息滥用和身份挖掘。 如果有一个模型,喂足够多的人脸照片,然后输出性能也够强,是不是完全可以实现针对现在各类 app 的活体认证了?要求摇头 点头 张嘴 眨眼,他都能做到,颜色光也可以摄像头采集颜色 然后模拟打光。
我一直秉承,不把个人照片传互联网网,不带个人姓名等等信息,密码用公式法,每家不一样但有一定规律,但感觉完全不够。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.