2012 年 Google I/O 大会发布的 Google Glass,被称为 Google 史上最失败的产品,却也在科技史上留下浓墨重彩的一笔。   它失败的原因有很多,隐私风险是其中一个。   让 Google Glass 拍照很简单,用语音命令,或者按住顶部的按钮,但没有 LED 等亮眼的标志,提示他人正处在拍摄状态。   所以,从路人的角度看,Google Glass 就是个不讲武德的「偷拍神器」,甚至曾有用户在电影院被保安赶出来。   如今,相似的事情仍在发生,甚至变本加厉——只是因为在人群中多看了你一眼,AI 眼镜就可以识别出你的个人信息。   你叫 Lee 吗?你从伯根县学院毕业吗?你的韩国名字是 Joo-oon 吗?你住在亚特兰大吗?我们是不是在剑桥社区基金会见过?你的父母是 John 和 Susan 吗?   如果在路上被人搭讪,你没见过他们,但他们好像认识你,热情地叫你的名字,说出你的一两条个人信息,你会是什么反应?   两位哈佛大学生,AnhPhu Nguyen 和 Caine Ardayfio,就做了这样一个实验。管家婆一码一肖100准 ,最佳精选解释落实_尊享版6.896   他们戴着 Meta 的智能眼镜 Meta Ray-Ban,在校园、地铁等随机识别了数十个陌生人。拍下某人的一张照片,几秒之后,这个人的信息就会出现在手机上。   只是智能眼镜本身,还不能达到这样的节目效果,他们做了一些技术上的改动,但原理也并不复杂。   先通过 Meta 智能眼镜的直播功能,将视频实时传输到 Instagram,然后用一个计算机程序监控这个视频流,并使用 AI 进行人脸识别。   接着,在互联网上搜索到某个人的更多照片,以及基于公共数据库,查找这个人的姓名、住址、电话号码,甚至亲属信息。   最后,这些信息会传送到他们编写的一个手机 app,方便查看。万事俱备,就差随机吓到一个路人。   往细了说,两位学生是把各种现有的、成熟的技术组合在了一起,连生成式 AI 也参与了。 智能眼镜:配备摄像头的智能眼镜,在公共场合捕捉人脸图像。反向面部识别:通过 PimEyes 等人脸搜索引擎,将人脸图像与互联网的公开图像进行匹配,并返回这些图像的网页链接。爬虫工具:使用 FireCrawl 爬虫工具,从这些网页链接中抓取所需的数据。大语言模型:大语言模型从抓取的、杂乱的数据中推断出姓名、职业等细节。数据库:在 FastPeopleSearch 等网站输入姓名,从公开记录、社交媒体中查找家庭住址、电话号码和亲属姓名等个人信息。   其中,大语言模型起到的作用很微妙,它可以理解、处理、汇编不同来源的大量信息,比如,将不同文章中的同一个名字关联起来,通过上下文逻辑推理出某人的身份,让数据提取的过程自动化了。   关于大语言模型的推理能力,我们之前也报道过一项很有意思的研究,感兴趣的朋友可以回看这篇文章:《和 GPT-4 聊天,一种很新的隐私泄露方式》。   隐私泄露老生常谈,面部识别并不新鲜,偷拍问题也不是出现一天两天,大模型在两年间已经成了很多人离不开的生产力工具。   但彼此之间强强联合的化学反应,还是导致了一个细思极恐的结果——仅凭大街上偶然的相遇,我们的个人信息就可能被有心人提取。   两位学生没有对外公开技术细节,做这个实验的目的,是为了提醒人们保持警惕。 澳门管家婆一肖一码一特,科技成语分析落实_ios6.098   那我们可以怎么保护自己?他们提出的应对方法是,从人脸搜索引擎等数据源中删除自己的数据,但这很难说彻不彻底2024天天彩资料大全免费,重要性解释落实方法_钻石版5.781。   当年有人开玩笑,Google Glass 的最大用处,是让英国王室的查尔斯王子记住每个人的名字。   或许,通过支持人脸识别的智能眼镜,我们会迎来一个没有陌生人的世界,最高兴的可能是夜神月。   你可能会问,有了数据库、面部识别,用手机偷拍应该也行,为什么他们选择了智能眼镜 Meta Ray-Ban?   理由很简单,它长得像普通墨镜,不如 Google Glass 赛博朋克,偷拍更加方便,而且眼镜本就适合记录,免提,见你所见。   Meta Ray-Ban 并不是没有提醒,它有一个 LED 指示灯,当用户录制视频,它就会自动打开,提醒旁边的路人。但是,聊胜于无。   之前 The Verge 测评发现,在明亮的室外,Meta Ray-Ban 的 LED 和快门声都不明显,在拥挤嘈杂的公共场所,很多人往往不会注意到这种细节。   LED 在右眼的上面,你注意到了吗   当你的手放在镜腿的按钮上,别人可能觉得你就是在扶眼镜而已。   所以也不难理解,隐私一直是智能眼镜的关注点,前段时间 Meta 首款 AR 眼镜 Orion 发布时,也有人担心,会不会重蹈 Google Glass 的覆辙。   Meta 还在 Meta Ray-Ban 的隐私政策里强调了「如何负责任地佩戴智能眼镜」,写了很多条温馨提醒。   然而,每一条都是非强制的,尊重别人也好,在拍摄或直播前用声音或手势提醒他人也罢,全凭自觉。   别说眼镜的形态更方便偷拍了,甚至,科技公司可以直接设计出支持面部识别的智能眼镜,障碍并不是技术本身。   2021 年,外媒报道,Meta 考虑过,在智能眼镜内置面部识别功能。当时 Meta 首席技术官 Andrew Bosworth 还举例,这样的智能眼镜,可以帮脸盲或者记不住名字的用户,在晚宴时认出某人。   另外,人脸识别初创公司 Clearview AI,已经开发了自己的 AR 眼镜和应用程序,据称可以连接到包含 300 亿张面孔的数据库,只是没有对外公开销售。   某种程度上,怎么使用面部识别,怎么防止偷拍,是被法律和道德约束的。   比如,Facebook 的面部识别技术,曾经让用户在照片中标记朋友,对隐私的质疑自然是绕不过去的,在 2015 年的一次集体诉讼中,Facebook 赔偿了 6.5 亿美元。   2021 年,Facebook 宣布,停用面部识别技术识别照片和视频中的人物,并删除超过 10 亿人的相关数据。   面部识别,多么老生常谈啊。但最面目平凡的技术,却也因其应用的成熟、普及和广泛,让人如临大敌。   在哈佛学生的实验中,大语言模型的作用是帮忙处理数据,但现在使用各种生成式 AI 的产品,我们往往是主动给出自己的数据。   因为很多时候,付出隐私是使用服务的必选项,比如向 AI 换脸 P 图软件交出自己的脸。   更进一步说,不只是脸,AI 硬件和软件们,都越来越强调个人数据的概念。   比如,用 AI 录音产品无缝记录你的一天,向 AI 日记透露你的日常和爱好,或者只是通过记忆功能让 ChatGPT 记住我们是谁。   可穿戴 AI 录音设备 Limitless   AI 会慢慢地更了解你,分析你,整理你周围的信息,提供给你更多的情绪价值,弥补个人有限的脑容量。   同时,这些产品也会强调隐私安全,要么说你的数据就是你的,不会拿你的数据训练模型,要么说用的是在本地运行的端侧模型,或者私有云,隐私泄露的风险更低。   隐私和便利,很难既要又要,当我们享受各种 AI 产品的趣味和个性化时,风险也如影随形。   就像《攻壳机动队》里的电子脑,人们直接将大脑连接上网络或者是进行大脑的互连,彼此可以快速沟通,但大脑也就有了被入侵的风险,连记忆也可以被伪造。   当然,隐私泄露可能就像面部识别一样,是个无趣的、没有新意的话题,你泄露,我泄露,他也泄露。好像,没关系的,都一样2024新澳资料免费精准 ,确保成语解释落实的问题_优选版0.692。   但如果有人戴着「墨镜」走到你面前,叫出你的名字,那一幕还是很有冲击力的,对吗?   或许更让人担心的,是无形的、支配信息的权力,先拥有技术和工具的人,对其他不知情的个人行使这种权力。   智能手机兴起之后,竖屏短视频、直播也发展起来,我们越来越习惯于拍摄和被拍摄,是无辜的背景板,或者说,不在乎,也无从察觉。   这时候我们是汪洋大海里的一滴水,但未来,这滴水,或许会因为镜头背后的 AI 被聚焦,然后折射出更具象的模样。   张成晨   利若秋霜,辟除凶殃。 工作邮箱:[email protected]   邮箱8   #欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上2024新澳门正版免费资料车 ,收益成语分析落实_钱包版5.842。   爱范儿|原文链接· ·新浪微博