几天前,一则关于“人脸识别一定要穿上衣服”的微博话题登上热搜。无独有偶,一则有关于腾讯游戏将对夜间游戏玩家做重点筛查,凡是拒绝或未通过人脸验证将被当成未成年人踢下线的消息,也于近期出现在大众视野。
人工智能技术如同一柄双刃剑,在带来便利的同时,也正不断的引发着担忧。在进行人脸识别时,到底需不需要穿衣?以后大家还能不能光着膀子打游戏了?一系列的问题,正在引发着业界思考。
事件的起因源于某条微博。该博主表示,自己发现了人脸识别后台的工作秘密,同时惊呼“人脸审核的后台居然是这样的”,劝诫大家以后一定要谨慎点。该则消息发布后,瞬间引来大量自媒体及消费者群体讨论。
评论区有人指出,当人们使用 App 进行人脸识别功能时,摄像头拍到的区域会全部被上传,并可能被后台的工作人员看到。而很多用户误以为人脸识别系统只会将人脸的部分上传,于是,他们可能在趴在被子里时、洗澡、和另一半拥抱时做人脸识别,殊不知,人脸以外的部分也被摄像头记录下来,被别人看到。
几经舆论讨论升温之后,原本一则看似只是出于“好意”的微博提醒内容,最终被渲染成为超两亿人次阅读评论的群体性社会事件。评论区,大多数人员均表示自己被戏弄了,并且扬言要跟系统说拜拜;也有用户因为自己隐私泄露了,表示想要换一个星球,该则评论在网上收获了 1.1 万个赞。
事实上,针对于人脸识别一定要穿上衣服一事,某头部人工智能独角兽企业技术专家李梁对新浪科技分析称,“上述人脸识别系统的界面不像是头部技术厂家产品,比较简陋,不排除是个人制作以换取流量。”其还指出,微博中的两张图片明显背景色和被拍照主体均不一致,存在很大成分的蓄意炒作性质。
李梁介绍称,一个成熟的人脸识别系统通常由人脸检测、关键点检测、人脸规整、特征提取、特征比对几个模块组成。在整个人脸识别系统工作的过程中,人脸识别算法首先会通过深度学习技术对海量人脸图片进行学习,借助输入图像提取出对区分不同人脸的特征向量,让每张人脸在算法中都有一组对应的特征值,以便于后续的人脸查找比对。
他强调,目前,为了节约带宽,除了银行等特殊场景需要上传视频辅助进行人工验证之外,大部分智能视频摄像机不会上传视频,只会返回特征数据,这种数据经过脱敏无法还原为图像。因此,对于用户隐私视频泄露一事,大家其实没必要过度担忧。
然而,即便如此,有关于人脸识别是否要穿上衣服一事,依然引发了众网友的高度关注,甚至于群情激奋。
“本质上,人工智能技术作为一门中立的效率工具,其本身是不具备好坏善恶立场的,但如果被不合理的使用了,其也极有可能引发社会轰动甚至构成利益侵害。”在与新浪科技沟通过程中,隐私计算企业富数科技公司副总裁卞阳如此表示。
卞阳认为,消费者要想享受到更为便捷的信息科技服务,在一定层面上会面临着选择性放弃掉一部分数据占有权的两难,不过庆幸的是,目前的隐私保护技术已经越来越为成熟多样,用户的个人信息正逐渐被保护起来。
据介绍,目前,包括人大、全国信标委以及央行、公安部等在内的多个部委,已经牵头制定多项规范和法规,国内中大型技术企业大部分,都参与了包括《个人信息保护法》、《人工智能标准化白皮书》、《基于互联网的人脸识别认证系统技术要求》等法律法规的制定,在行动上已经开始重视起用户的数据隐私保护。
此外,包括多方安全计算、联邦学习、匿踪查询等多项技术在内的隐私计算技术的发展,也已经开始被广泛的采用,以技术手段让数据“可用不可见”,正在成为事实。
“数字技术已经融入了我们生活的方方面面,大家应该学会与数字技术共生,学会拥抱数字化发展带来的改变。”卞阳说道。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户