摘要:人脸识别作为AI领域最为广泛的应用,早已如影随形般深入我们的日常生活。手机解锁、打卡上班,“刷脸”成了日常操作;在公共安全领域,它更是化身特殊法宝,承担着从茫茫人海中精准识别特定个人的重任。
人脸识别作为AI领域最为广泛的应用,早已如影随形般深入我们的日常生活。手机解锁、打卡上班,“刷脸”成了日常操作;在公共安全领域,它更是化身特殊法宝,承担着从茫茫人海中精准识别特定个人的重任。
可现实却颇具讽刺意味,AI人脸识别远非普通民众想象中那般“靠谱”,甚至一度差点酿成冤假错案,让人大跌眼镜。这项本应带来便捷与高效的技术,缘何状况百出,成了让人头疼的“闹心”存在?
在多数人的印象里,人脸识别技术崭露头角也就是近十年的事儿。实际上,它的历史可要悠久得多。追溯到上个世纪60年代,美国的计算机专家就开启了探索之旅,尝试借助电磁脉冲测量人脸特征,并将这些特征转化为数据录入电脑系统。
但遗憾的是,这些颇具前瞻性的“黑科技”未能顺利转化为商业产品。
一方面,该技术由CIA赞助,服务内容高度保密,难以走向大众市场;另一方面,受限于当时的技术条件,电脑运行速度极为缓慢,根本无法满足人脸识别对运算速度的需求。就这样,人脸识别技术在低调中默默发展了几十年。
尽管发展历程颇为低调,但人脸技术的核心环节——人脸数据点得以传承。早期的人脸识别技术,流程相对简单,录入特征数据后,主要通过对照已知图片的数据点来进行识别。
此后,为提升识别的准确性与可靠性,增加数据点数量成了关键。从70年代的21个特征点,逐步发展到80年代的100多个,量变引发质变,人脸识别技术迎来了新的发展契机。此时,结合算法对海量人脸数据进行分析处理,成为必然趋势,这也让AI与人脸识别紧密相连。
上世纪90年代,美国国防高级研究计划局携手美国国家标准技术研究院,共同开展了FIRST项目。该项目旨在研发人脸识别算法和数据库,推动人脸识别技术向自动化大步迈进。
再往后,各路技术巨头纷纷投身其中,深度学习、神经网络等前沿技术不断涌现,AI和算法逐步发展出一套自主逻辑,能够主动且高效地进行人脸识别。
这些企业在发展人脸识别技术时,主要采取两手策略:技术推广与“人海战术”。
技术推广方面,谷歌和苹果堪称积极践行者。安卓系统在智能手机发展前期,便大胆开展人脸识别试验,最终成功推出Trusted Face这种安全功能;苹果也不甘示弱,在自家终端推出Face ID功能,让用户的脸直接化身账号密码,极大提升了手机使用的便捷性与安全性。
而提到“人海战术”,就不得不提Facebook和它的创始人扎克伯格。Facebook平台每天新增的图片数量高达上百万,如此庞大的基础数据,为AI的训练提供了丰富“养料”,即便起初技术并不成熟,在海量数据的“喂养”下,AI也能逐步掌握人脸识别的“窍门”。
在AI技术的加持下,人脸识别取得了显著进展。根据Nest在2019年发布的报告,人脸识别的准确性有了质的飞跃,这很大程度上得益于卷积神经网络的诞生。
简单来说,如今先进的算法和AI模型,已能够将户外拍摄的复杂照片与数据库中的正面人像进行精准对比;而在10年前,人脸识别还局限于用正脸图片相互对照,应用场景极为有限。
然而,技术的先进性并不能直接等同于实际应用的可靠性。在现实生活中,AI人脸识别面临着诸多挑战。其理想状态是实现一对一的精准匹配,可实际应用却常常事与愿违,甚至闹出不少乌龙事件。
2019年,家住底特律的Robert Williams就遭遇了一场无妄之灾。他莫名其妙地被警察指控盗窃,在家人面前被强行带走。但事实上,案发时他有着充分的不在场证明。满心疑惑的他交完保释金后,向警察询问被抓原因,得到的答复竟是“电脑说你是,你就是”。
原来,警方依据的监控录像画面质量极差,甚至比模糊的表情包还不堪,小偷在作案过程中全程未抬头看监控。在如此糟糕的图像条件下,警方仅凭AI判定就贸然抓人,结果自然是错得离谱。
如果说Robert Williams的经历还不够离奇,那么新泽西州的Nigel Park的遭遇则堪称“魔幻”。警方依靠人脸识别指控他盗窃酒店糖果并驾车逃逸,直接将他关押了10天。
可尴尬的是,Nigel Park根本不会开车,连驾照都没有,去警局还是在奶奶要求下,由表哥开车送去的。
更让人哭笑不得的是,当地警方在整个过程中,始终以AI识别技术作为“铁证”向他施压,直到真相大白,才发现这一切不过是AI识别失误导致的闹剧,而警方手中竟只有这一漏洞百出的AI证据。
AI人脸识别缘何会出现如此离谱的失误?
从技术原理来看,AI进行人脸识别时,需要将现场留下的照片与数据库中的高清照片进行比对。
但现实情况是,监控摄像头受使用条件限制,往往会对视频图像进行压缩,这一过程中,许多关键的面部特征就被无情抹除。
例如,人脸上的一颗痦子,在压缩后的图片中可能仅仅呈现为一个小像素点,可别小看这微小的像素点,在AI人脸识别的复杂运算中,它极有可能成为导致误判的“罪魁祸首”,最终致使警察抓错人。
这也凸显出AI人脸识别面临的一个重大难题:即便经过大量数据训练,AI也难以完美适应复杂多变的现实环境。从技术本身而言,AI并无主观恶意;但从技术应用的实际效果来看,这样的失误却实实在在地给人们带来了困扰与伤害。
进一步深入分析,AI人脸识别在少数族裔群体中,误判问题尤为突出。由于少数族裔人群样本数量相对较少,难以提供足够丰富的数据用于AI训练,这就导致AI对这些群体的识别准确率大打折扣。
据前谷歌AI伦理科学家Timnit Gebru在2018年发表的论文显示,人脸识别针对黑人女性的错误率高达21% - 35%,而针对白人男性的错误率则低于1%;亚裔群体的误判率同样不容乐观,达到白人的10倍之多。
这些数据均来源于现实生活中AI实际应用的误判案例,真实性和代表性极强,几乎不存在数据选择偏差的可能。
原本旨在服务社会、促进公平的AI技术,却在实际应用中出现如此严重的偏差,演变成一种“技术压迫”,着实令人感到讽刺。
那么,AI人脸识别为何会陷入这般尴尬境地?这要从AI识别的运行模式说起。
AI的应用,无论是机器学习、深度学习还是神经网络,本质上都高度依赖对大量案例特征的总结归纳。这种运行模式带来一个致命问题:AI对某些数据和特征的分析,过度依赖数据量的堆积。
一旦遇到特殊情况,而相关数据储备不足时,AI对这些数据的识别分析误差就会急剧增大。
在现实世界中,AI技术所面临的群体情况复杂多样,特殊情况时有发生。若训练数据的比例不均衡,AI就如同挑食的孩子,在进行识别判断时,极易给出有偏向性的结果。
以训练AI模型为例,若提供的数据集中,某一类特征占据主导地位,AI在学习过程中就会过度关注这类特征,而忽视其他重要信息,从而导致对不同群体的识别出现偏差。
AI本身虽不会主动制造社会问题,但在其运行过程中,却可能无意间放大了社会中已存在的一些问题,如数据分布不均导致的对特定群体的不公平对待。
此外,机器学习的思维模式与传统人类学习思维大相径庭,这也给我们理解和解决AI存在的问题带来了困难。
澳大利亚的一篇医学论文曾指出,当向AI投喂大量特征相近的X光片用于病例识别时,经过长时间的对照分析,AI并不会依据医学逻辑,按照疾病特征来筛选可疑患者;相反,它会倾向于选择那些X光片图像较为特殊的样本,完全背离了正常的医学诊断思路。
这种看似“投机取巧”的学习方式,实则是由于AI独特的思维模式所致,它更擅长识别数据中的模式和差异,而非真正理解数据背后的含义。
在这个过程中,一些与常规图像接近但实际存在病变的X光片,就极有可能被AI遗漏,从而造成诊断失误。
尽管AI的思维模式复杂且难以捉摸,但如何让AI达到人类的判断标准,使其在实际应用中更加可靠、准确,已成为当下亟待解决的关键问题。
AI人脸识别技术凭借其便捷性和潜在的商业价值,已成为AI商业化领域的“宠儿”,广泛应用于各个行业。然而,在其光鲜外表之下,频频出现的错误却让人们逐渐认识到,这项技术远没有想象中那么完美无缺。
AI人脸识别的高速发展,依赖于大量社会数据的支撑,而这些数据背后隐藏的社会问题,如数据分布不均、数据质量参差不齐等,却反过来制约了AI识别的准确性和可靠性,让其在实际应用中“栽了跟头”。
AI技术仍处于持续发展阶段,未来充满无限可能,我们也有足够的时间去探索和完善。
但在真正摸清AI的运行模式之前,如何合理、安全地运用AI技术,尤其是在人脸识别这种与人们生活息息相关、对准确性和安全性要求极高的领域,还需要社会各界共同探讨,制定出科学合理的规范和准则。
毕竟,只有让技术在正确的轨道上运行,才能真正发挥其优势,为人类社会带来福祉,而不是成为制造混乱和不公的源头。
AI人脸识别技术在给我们带来便利的同时,也引发了诸多关于隐私保护的担忧。以上海部分小区为例,推行人脸识别门禁系统后,居民进出确实更加便捷。但随之而来的问题是,对于租房群体而言,当更换小区后,原本录入物业的人脸数据去向成谜。
有人认为数据应保存在政府机构,可更换物业后又需重新录入,这无疑让人对数据的安全性和隐私性产生质疑。在享受技术带来的便利时,如何保障个人隐私不被侵犯,已成为刻不容缓的社会问题。
这不仅需要技术层面的不断完善,更需要相关法律法规的健全和监管力度的加强,从源头上杜绝隐私泄露的风险,让人们能够安心地使用AI人脸识别技术。
文本素材来源@科工力量
来源:波波百谈