摘要:日本警察厅最近放出一个计划:他们打算花4950万日元,也就是差不多33.8万美元,用AI来监控社交媒体的发帖,筛查出可能对政治人物或社会构成威胁的“潜在嫌疑人”。
日本警察厅最近放出一个计划:他们打算花4950万日元,也就是差不多33.8万美元,用AI来监控社交媒体的发帖,筛查出可能对政治人物或社会构成威胁的“潜在嫌疑人”。
听上去很前沿吧?AI反恐、科技守护安全,仿佛未来社会的安全感触手可及。可转念一想,这事儿真有那么美好吗?
大家都记得2022年的奈良街头,前首相安倍晋三被山上彻也当街枪击,场面震撼了全世界。2023年,岸田文雄又在竞选活动中险些被管状炸弹波及,幸好没造成重大伤害。
这些袭击者不是国际恐怖组织,而是心怀不满的年轻人,带点“独狼”特征,没人能提前预测。
警方自然紧张了,东京警视厅还专门设立了一个部门,目标就是抓这种“独狼”式袭击者。于是现在,有了AI计划:通过扫描社交媒体上的言论,把潜在危险分子提前标注出来。
这是社会治理的必然趋势。毕竟人工智能的扫描效率和精准度,比人工盯帖强太多了。举个例子,警方今年7月选举前就监测到889条可能是袭击信号的发帖,靠人力几乎不可能在短时间内逐条甄别。
而且别忘了,威胁言论并非纸上谈兵。这种留言显然有恐吓性质。从这个角度看,AI的介入或许能让潜在的袭击者在动手前就被发现,哪怕只是多一层保险,也能避免悲剧重演。
批评者的声音同样不能忽视。东京的智库学者石塚真一就指出,日本根本没有什么恐怖主义温床,倒是黑社会组织、学生激进团体依然存在。
如果反恐威胁被过度渲染,那么AI的使用可能会滑向另一条轨道:监控范围越来越宽,最后变成无差别的数据采集。
问题在于,AI标记往往依赖关键词。可语言环境复杂,一个人可能只是说“政客活该被骂”,AI就可能误判成暴力倾向。结果呢?本来只是参与政治讨论的普通人,也可能被列入“重点观察名单”。
想象一下,你在网上吐槽一句“某政策烂到爆,真想砸掉”,结果AI当真了,把你推送到警方的数据库。到时候敲门的是外卖小哥还是警察,就不好说了。
芝加哥的模型被质疑“强化了偏见”,因为它更多地把资源倾斜到某些社区,从而造成“越查越多”的循环;韩国的CCTV分析系统则被批评侵犯了公共场所的隐私权。换句话说,技术虽然能发挥作用,但社会的接受度、法律的边界才是真正的考验。
如果把这事儿说得轻松点,日本警方搞的这个AI,简直像个“社交媒体班主任”。平时盯着你写的作文,一旦发现不对劲,就在后面画个圈。
更搞笑的是,独狼式袭击者本来就很少在网上公开说计划。真要有人蓄谋大事,他可能一句话都不说。
于是AI最后盯到的,可能是那些没什么攻击力的“键盘侠”。结果呢?真正危险的人没抓到,普通网友的牢骚反而被无限放大。
这就引出了一个核心问题:在安全与自由之间,社会要把天平倾向哪边?支持者认为,哪怕牺牲一点自由,也能换来公共安全;批评者则提醒,一旦监控机制合法化,就很难再收回,最终可能走向“反乌托邦”。
这种担忧并不是杞人忧天。人类历史上,凡是以安全为名扩张权力的做法,往往会被不断复制和强化。
今天是监控社交媒体上的恐吓言论,明天会不会就扩大到电子邮件、私人聊天?到时候,哪怕只是和朋友开个玩笑,也可能被系统误判。
想象一下,地铁站的屏幕不停播放反恐宣传,警察随时可能因为一句不合时宜的话找上门,街头的摄像头越来越多。
表面上社会好像更安全了,但人心未必更安定。因为安全感,不仅仅来自“有人在盯着”,更来自“我被尊重,我有表达的自由”。
如果一个社会所有人都开始自我审查,连正常的政治讨论都不敢参与,那表面上的安稳,其实是另一种不安。
AI当然能在一定程度上帮助警方提高效率,比如提前过滤掉明显的威胁信息,节省人力。但它绝不该成为替代常识与法律的工具。真正的公共安全,离不开社会信任与制度透明,而不是无限制的监控。
技术是中性的,关键在于使用它的人怎么设定边界。如果AI只是一个放大器,那它放大的究竟是秩序,还是恐惧?是安全感,还是压迫感?答案恐怕要靠日本社会未来的实践来回答。
日本警方的AI计划,其实就像一面镜子,映照出所有现代社会都在纠结的问题:我们究竟要一个怎样的安全?是用无数摄像头和算法换来的表面稳定,还是允许一定的不确定性,但保留自由讨论的空间?
也许没有完美答案,但至少要时刻提醒自己:当技术以“安全”为名走进我们的生活时,别忘了追问一句,它究竟守护的,是社会的安全,还是权力的舒适?
来源:暮时史分