“用流浪汉骗老公”走红!有人紧急报警!网友:真的不好笑

B站影视 内地电影 2025-10-23 16:36 2

摘要:“家里进陌生人了!” 当家人发来这句带着恐慌的消息,再附上一个衣衫褴褛的流浪汉正走入家中卧室的照片,你会不会瞬间心跳加速?

“家里进陌生人了!” 当家人发来这句带着恐慌的消息,再附上一个衣衫褴褛的流浪汉正走入家中卧室的照片,你会不会瞬间心跳加速?

近日,用AI制作

“流浪汉闯入家中”图片

来整蛊家人的帖子

在社交平台走红

女子“用AI流浪汉骗老公”,结果丈夫信以为真,当即报警求助。图源:都市快报

有人将这类AI图片

发送给配偶或家人

通过观察对方的反应

以此来测试

自己在对方心中的重要性

女子整蛊丈夫

警察出警后发现是虚惊一场

据《安徽商报》报道,10月17日晚,安徽一市民李女士(化名)用AI工具生成了高度逼真的“流浪汉卧坐餐厅”等图片,发给在外聚餐的丈夫想测试其反应,没想到丈夫信以为真,当即报警求助。

李女士发送给丈夫的“流浪汉”闯入家中的照片(系AI生成)。图源:央视新闻

接到报警后,辖区派出所立即启动应急响应,民警火速赶往现场。

民警现场核实情况,确认是一场虚惊后,对李女士的行为进行了提醒:“AI技术生成的内容虽逼真,但以此制造恐慌并引发警方出警,已属于浪费公共资源的行为。”

李女士通过某AI软件生成“流浪汉”闯入家中图片的记录。图源:央视新闻

最终

李女士深刻认识到错误

并在朋友圈写下了保证书

↓↓

图源:央视新闻

“AI整蛊”成流行游戏?

在各大社交平台上

类似AI整蛊引起的闹剧

在全国多地已出现

由于照片太真实的缘故

导致不少被整蛊的家属信以为真

有人脑子一热立刻冲回家

有人从外地半夜驱车往家里赶

也有人在小区群质问物业闹出矛盾

更有人直接拨打了110……

而在这些视频的评论区里

竟有部分网友表示

“觉得好玩、好笑”

“求好心人帮我P一张”

当然也有不少网友表示不解

《狼来了》的故事

有人到现在还没学会......

还有网友提醒

以玩梗的名义做“情感测试”

是一种关系的消耗

民警提醒

↓↓

此类行为若造成严重后果,可能触犯法律红线,面临拘留罚款甚至刑事责任。

别让AI毁了信任

AI可以用于娱乐

但不应破坏亲人之间

最基本的信任

也绝不能损害公共利益

对于此事

社会上也出现了很多声音

央视网 >> 应对AI带来的信任危机,不能只依赖于监督执法的“事后追责”,要把功课做在前面。

《人工智能安全治理框架》2.0版已明确的“示伪水印”要求,这一规定需尽快落地执行,让用户能一眼识别内容是否为AI生成;同时,平台要履行好“守门人”的责任,从源头压缩虚假信息的生存空间。

尽管目前《中华人民共和国治安管理处罚法》《中华人民共和国刑法》已对“编造虚假信息”作出规定,但在实操层面仍然面临取证难、定性难的问题。AI使用标准应当进一步明晰——比如要求AI 工具提供者严格执行“实名登记”与“用途审核”,若明知用户用于造假仍提供服务,需承担连带责任;要求平台对传播量达到一定数量级的AI谣言“快速追责”,让制度真正“长出牙齿”“落到实处”。

公众在面对“热点事件”的时候,有必要多观察细节、谨慎核实求证,在不确定真实性时不盲目扩散,避免成为谣言“帮凶”。

羊城晚报 丁慧 >>别让公共资源被“AI恶作剧”透支。

类似的荒诞事件,一而再、再而三上演。从“AI合成女儿失踪引发大规模搜救”到“AI伪造明星赌博消息被警方调查”,一次次验证了一些人利用AI造假可以轻易占用公共资源,甚至挑动社会情绪。虽然最终均查明为AI合成的假消息,但警力、舆论资源早已被严重消耗。

必须强调,每一次“闹剧”,都是一次公共资源浪费的过程。若假事件频发,久而久之会造成“狼来了”效应,影响舆论和警方的判断。比如,未来当AI视频伪造一场“老人被殴打”或“孩子走失”的事件,又有多少人能第一时间分辨真假,警方是否还能像今天一样迅速出警、全面响应?

制度之所以能运转,依靠的是人人守规;所有应急响应的前提,是信息真实与判断精准。一旦虚假信息被大量制造并反复传播,社会秩序的正常运行就会承受无法预估的成本。

当然,除了个体的道德边界,平台必须承担起技术责任。目前不少AI图像、视频合成工具,对用户资质、内容用途毫无门槛,甚至鼓励“分享恶搞效果”。缺乏技术审查、缺乏伦理提示,才是此类事件屡发不止的温床。而平台不能只做甩手掌柜,应当在合成前加入明确提醒,也更应建立追责机制,一旦涉及公共危机,应协助警方溯源、追查责任人。

新京报评论 流水 >> 相应的制度规范要“长出牙齿”。

遏制AI滥用乱象,需要多维度的协同发力。此前,中央网信办部署开展“清朗·整治AI技术滥用”专项行动取得显著成效,但技术治理的长效机制仍需持续完善。

相应的制度规范要“长出牙齿”,对滥用技术造成危害的行为依法严惩。平台层面也需加强对AI生成内容的标识管理,一旦这种AI整蛊的图片、视频在平台出现,就得及时予以核实规制,防止其扩散后产生示范效应。

AI的价值不在于制造虚假,而在于赋能真实。而让AI真正服务于生活,而非成为破坏信任、伤害感情的工具,或许是AI时代每个人都须具备的“媒介素养”。

红辣椒评论 杨甜甜 >> 这场AI整蛊跟风潮的蔓延,背后有着多重深层原因。

一方面是情感慰藉方式的偏差,部分人过度依赖“极端测试”获取情感安全感,误以为“对方越慌乱,证明越在乎”,却忽视了这种方式会不断消耗对方的耐心与信任,让亲密关系在一次次“玩笑”中逐渐磨损

另一方面是法律意识的普遍淡薄,许多网友存在侥幸心理,认为“及时说明真相就没事”,未认识到警方出警即意味着公共资源已被占用,法律不会因“玩笑”而豁免责任

除此之外,平台审核的监管缺位也助推了乱象扩散——AI生成内容传播迅速,部分社交平台未及时对“AI整蛊教程”“虚假危险场景图片”进行审核拦截,导致不良行为从个体事件演变为群体跟风。

微信公众号 小椰子专栏 >> 每次情感测试、骗局、考验,都在把真正关心自己的爱人推得更远。

为什么有那么多人,明知道撒这种谎、开这类玩笑,很可能会酿成大祸,却还要孜孜不倦地挑战、欺骗?

究其本质,因为他们想要看到自己在面临危险时,另一半的紧张、惊恐反应,来作为亲密关系的验证;证明自己是被爱着的、被无条件呵护的、发生紧急情况有人可以奋不顾身来到身边保护自己的。

但是,每次情感测试、骗局、考验,都在把真正关心自己的爱人推得更远。越是渴望通过被爱来确认自身存在,往往越会丧失爱的能力,并亲手破坏关系。

律师周兆成 >> 如果被警方认定是报假警,将面临5天至10天拘留的处罚,同时需缴纳500元罚款。

从法律层面看,并不是仅本人打电话才算报假警,明知家人可能会误判报警,还故意制作AI图片、视频,属于“间接故意”,可能算共犯。此前,某地曾有人利用AI制作假寻人启事,说女儿被拐,家人信了报警,最后被行政拘留。

周兆成表示,因这一行为报警,占用的不仅是警力,还可能是别人的救命机会。如果被警方认定是报假警,按《中华人民共和国治安管理处罚法》,将面临5天至10天拘留的处罚,同时需缴纳500元罚款。如果视频被转发从而引发社会恐慌,可能触犯《中华人民共和国刑法》的“编造虚假信息罪”,最高能判5年以上有期徒刑

AI技术是一把双刃剑

用好了,可以造福人类社会

用不好,则可能给社会造成混乱

而技术滥用的代价

从来不是一句“开个玩笑”

就能抹平的

对此

大家有什么想说的

快来留言区聊聊吧~

来源:幸福福田

相关推荐