摘要:“家里进陌生人了!” 当家人发来这句带着恐慌的消息,再附上一个衣衫褴褛的流浪汉正走入家中卧室的照片,你会不会瞬间心跳加速?
“家里进陌生人了!” 当家人发来这句带着恐慌的消息,再附上一个衣衫褴褛的流浪汉正走入家中卧室的照片,你会不会瞬间心跳加速?
近日,用AI制作
“流浪汉闯入家中”图片
来整蛊家人的帖子
在社交平台走红
女子“用AI流浪汉骗老公”,结果丈夫信以为真,当即报警求助。图源:都市快报
有人将这类AI图片
发送给配偶或家人
通过观察对方的反应
以此来测试
自己在对方心中的重要性
女子整蛊丈夫
警察出警后发现是虚惊一场
据《安徽商报》报道,10月17日晚,安徽一市民李女士(化名)用AI工具生成了高度逼真的“流浪汉卧坐餐厅”等图片,发给在外聚餐的丈夫想测试其反应,没想到丈夫信以为真,当即报警求助。
李女士发送给丈夫的“流浪汉”闯入家中的照片(系AI生成)。图源:央视新闻
接到报警后,辖区派出所立即启动应急响应,民警火速赶往现场。
民警现场核实情况,确认是一场虚惊后,对李女士的行为进行了提醒:“AI技术生成的内容虽逼真,但以此制造恐慌并引发警方出警,已属于浪费公共资源的行为。”
李女士通过某AI软件生成“流浪汉”闯入家中图片的记录。图源:央视新闻
最终
李女士深刻认识到错误
并在朋友圈写下了保证书
↓↓
图源:央视新闻
“AI整蛊”成流行游戏?
在各大社交平台上
类似AI整蛊引起的闹剧
在全国多地已出现
由于照片太真实的缘故
导致不少被整蛊的家属信以为真
有人脑子一热立刻冲回家
有人从外地半夜驱车往家里赶
也有人在小区群质问物业闹出矛盾
更有人直接拨打了110……
而在这些视频的评论区里
竟有部分网友表示
“觉得好玩、好笑”
“求好心人帮我P一张”
当然也有不少网友表示不解
《狼来了》的故事
有人到现在还没学会......
还有网友提醒
以玩梗的名义做“情感测试”
是一种关系的消耗
民警提醒
↓↓
此类行为若造成严重后果,可能触犯法律红线,面临拘留罚款甚至刑事责任。
别让AI毁了信任
AI可以用于娱乐
但不应破坏亲人之间
最基本的信任
也绝不能损害公共利益
对于此事
社会上也出现了很多声音
央视网 >> 应对AI带来的信任危机,不能只依赖于监督执法的“事后追责”,要把功课做在前面。
《人工智能安全治理框架》2.0版已明确的“示伪水印”要求,这一规定需尽快落地执行,让用户能一眼识别内容是否为AI生成;同时,平台要履行好“守门人”的责任,从源头压缩虚假信息的生存空间。
尽管目前《中华人民共和国治安管理处罚法》《中华人民共和国刑法》已对“编造虚假信息”作出规定,但在实操层面仍然面临取证难、定性难的问题。AI使用标准应当进一步明晰——比如要求AI 工具提供者严格执行“实名登记”与“用途审核”,若明知用户用于造假仍提供服务,需承担连带责任;要求平台对传播量达到一定数量级的AI谣言“快速追责”,让制度真正“长出牙齿”“落到实处”。
公众在面对“热点事件”的时候,有必要多观察细节、谨慎核实求证,在不确定真实性时不盲目扩散,避免成为谣言“帮凶”。
羊城晚报 丁慧 >>别让公共资源被“AI恶作剧”透支。
类似的荒诞事件,一而再、再而三上演。从“AI合成女儿失踪引发大规模搜救”到“AI伪造明星赌博消息被警方调查”,一次次验证了一些人利用AI造假可以轻易占用公共资源,甚至挑动社会情绪。虽然最终均查明为AI合成的假消息,但警力、舆论资源早已被严重消耗。
必须强调,每一次“闹剧”,都是一次公共资源浪费的过程。若假事件频发,久而久之会造成“狼来了”效应,影响舆论和警方的判断。比如,未来当AI视频伪造一场“老人被殴打”或“孩子走失”的事件,又有多少人能第一时间分辨真假,警方是否还能像今天一样迅速出警、全面响应?
制度之所以能运转,依靠的是人人守规;所有应急响应的前提,是信息真实与判断精准。一旦虚假信息被大量制造并反复传播,社会秩序的正常运行就会承受无法预估的成本。
当然,除了个体的道德边界,平台必须承担起技术责任。目前不少AI图像、视频合成工具,对用户资质、内容用途毫无门槛,甚至鼓励“分享恶搞效果”。缺乏技术审查、缺乏伦理提示,才是此类事件屡发不止的温床。而平台不能只做甩手掌柜,应当在合成前加入明确提醒,也更应建立追责机制,一旦涉及公共危机,应协助警方溯源、追查责任人。
新京报评论 流水 >> 相应的制度规范要“长出牙齿”。
遏制AI滥用乱象,需要多维度的协同发力。此前,中央网信办部署开展“清朗·整治AI技术滥用”专项行动取得显著成效,但技术治理的长效机制仍需持续完善。
相应的制度规范要“长出牙齿”,对滥用技术造成危害的行为依法严惩。平台层面也需加强对AI生成内容的标识管理,一旦这种AI整蛊的图片、视频在平台出现,就得及时予以核实规制,防止其扩散后产生示范效应。
AI的价值不在于制造虚假,而在于赋能真实。而让AI真正服务于生活,而非成为破坏信任、伤害感情的工具,或许是AI时代每个人都须具备的“媒介素养”。
红辣椒评论 杨甜甜 >> 这场AI整蛊跟风潮的蔓延,背后有着多重深层原因。
一方面是情感慰藉方式的偏差,部分人过度依赖“极端测试”获取情感安全感,误以为“对方越慌乱,证明越在乎”,却忽视了这种方式会不断消耗对方的耐心与信任,让亲密关系在一次次“玩笑”中逐渐磨损。
另一方面是法律意识的普遍淡薄,许多网友存在侥幸心理,认为“及时说明真相就没事”,未认识到警方出警即意味着公共资源已被占用,法律不会因“玩笑”而豁免责任。
除此之外,平台审核的监管缺位也助推了乱象扩散——AI生成内容传播迅速,部分社交平台未及时对“AI整蛊教程”“虚假危险场景图片”进行审核拦截,导致不良行为从个体事件演变为群体跟风。
微信公众号 小椰子专栏 >> 每次情感测试、骗局、考验,都在把真正关心自己的爱人推得更远。
为什么有那么多人,明知道撒这种谎、开这类玩笑,很可能会酿成大祸,却还要孜孜不倦地挑战、欺骗?
究其本质,因为他们想要看到自己在面临危险时,另一半的紧张、惊恐反应,来作为亲密关系的验证;证明自己是被爱着的、被无条件呵护的、发生紧急情况有人可以奋不顾身来到身边保护自己的。
但是,每次情感测试、骗局、考验,都在把真正关心自己的爱人推得更远。越是渴望通过被爱来确认自身存在,往往越会丧失爱的能力,并亲手破坏关系。
律师周兆成 >> 如果被警方认定是报假警,将面临5天至10天拘留的处罚,同时需缴纳500元罚款。
从法律层面看,并不是仅本人打电话才算报假警,明知家人可能会误判报警,还故意制作AI图片、视频,属于“间接故意”,可能算共犯。此前,某地曾有人利用AI制作假寻人启事,说女儿被拐,家人信了报警,最后被行政拘留。
周兆成表示,因这一行为报警,占用的不仅是警力,还可能是别人的救命机会。如果被警方认定是报假警,按《中华人民共和国治安管理处罚法》,将面临5天至10天拘留的处罚,同时需缴纳500元罚款。如果视频被转发从而引发社会恐慌,可能触犯《中华人民共和国刑法》的“编造虚假信息罪”,最高能判5年以上有期徒刑。
AI技术是一把双刃剑
用好了,可以造福人类社会
用不好,则可能给社会造成混乱
而技术滥用的代价
从来不是一句“开个玩笑”
就能抹平的
对此
大家有什么想说的
快来留言区聊聊吧~
来源:幸福福田