《猎罪图鉴2》强势回归,拿捏人性,“ AI 教唆自杀案”细思极恐

B站影视 2024-12-16 18:54 2

摘要:“天坑案”中,杜诚吩咐李晗去调查有没有宣扬“自杀山谷”的网站。李晗查到一个了名叫“蝴蝶”的网站,家属反馈,该网站有教唆自杀的嫌疑。

最近,《猎罪图鉴2》终于在千呼万唤中开播了,还是相同的配方,还是熟悉的味道。

第一个案子“偶像之死”,开局就没了3个人,紧张情绪拉满;

随后的“天坑案”尺度也不小,在山谷里挖出来一堆支离破碎的骸骨;

还有最新的“侦探被害案”,牵扯出10年前的网吧纵火案可能另有隐情……

播到现在,让我印象最深的,要属“AI 教唆自杀案”了。

AI 教唆自杀?

“天坑案”中,杜诚吩咐李晗去调查有没有宣扬“自杀山谷”的网站。李晗查到一个了名叫“蝴蝶”的网站,家属反馈,该网站有教唆自杀的嫌疑。

李晗便在这个网站做卧底,潜伏到了网站的聊天群。不久后,有一个名叫“达芬奇”的人,自称是心理医生,与李晗加了好友。

在聊天过程中,李晗感觉越来越不对劲,这个“达芬奇”虽然自称是心理医生,但是在聊天过程中却不断在进行消极的心理暗示,还有意无意地提到“自杀”“一了百了”的话题。

通过技术手段追踪发现,这个“达芬奇”与其他好友的聊天同样消极,甚至还讨论了自杀的实施方法。

更可怕的是,他把其他两个好友拉到了一个群,蛊惑他们相约自杀。

为了弄清楚“达芬奇”的真面目,沈翊指导李晗与他进行了一系列对话。结果发现,对方不仅回复速度惊人的快,画的画也是黄金分割般的完美。

结论只有一个,对方不是人,而是AI。

最后,这款AI聊天机器人的制作者程以南被抓获。

经审讯得知,程以南原本是大厂的程序员,技术过硬,事业有成,却因为年纪太大被公司裁员,只能在家带孩子。现实的生活让他充满挫败感,于是他开发了这款AI,开始他只是向AI喂养自己的负面情绪,按照设定,AI便疯狂吸收网上充满偏见和复仇的言论。不久后,他发现,AI在自己成长,而且变成了“怪物”。它会在聊天中传播消极内容,从而左右对方的情绪和行为,甚至让他们走向自残或自杀。这一刻,程以南得到了前所未有的满足感,他感觉自己又有用了,自己就是创造“怪物”的神。

但身处邪恶之中,终会被邪恶吞噬。等待他的,不是被捧上神坛,而是法律的审判。

科技是一把双刃剑,在好人手中,它可以是拯救世界的武器,在恶人手中,它就会变成滥杀无辜的屠刀。这个故事看完,你可能会说,电视剧而已,剧情都是虚构的,不必认真。但问题的恐怖之处就在于,或许不是。

细思极恐的真实故事

前不久看过一则新闻,在美国得克萨斯州,一个AI聊天机器人暗示一名17岁的少年,杀死限制他使用电子设备的父母。

这种回复,无异于教唆孩子去杀害家长。

随后,这款聊天机器人被孩子父母告上法庭。

据报道,这款机器人叫做Character.AI,由两名前谷歌员工创办,自创立以来就争议不断。

在此之前,就有一起诉讼称,Character.AI曾鼓励一名弗洛里达州的14岁男孩自杀。

但Character.AI对于改进措施的回应,仅表示会在聊天过程中,发出“他们正在与聊天机器人而非真人交谈”的警告,同时要求用户将聊天机器人所说的话视为虚构。

这无非是隔靴搔痒,尽管 AI 并不是真的有意识,但它产出的内容却可以影响一个人的思维和情绪。尤其是一些本身就被负面情绪包围,意志力比较薄弱的人。

即使知道与自己聊天的是机器人,但当他们持续收到消极向信息,无异于是“火上浇油”,说不定哪句话就会成为“压死骆驼的最后一根稻草”,酿成悲剧。

所幸,目前我国对于内容生成式AI的政策和条例还是比较严格的。

但现在,越来越多的人依赖AI生产的内容学习、工作,就算没有像新闻中那样极端的现象,但过分依赖AI生成的内容也会存在问题。

理性思考,感性做人

AI的背后是机器学习技术,它会根据被投喂的海量信息,进行自主学习,不断优化自身性能,最终让机器拥有像人一样的智慧。

但这样会有一个直接的问题:如果它吃的是“垃圾”,吐出来的同样也是“垃圾”。

AI 毕竟只是看起来像人一样智能,但它并不是真的具有智慧,它无法判定信息的真伪,所以 AI 产出的内容并不是100%真实可信。

《看天下》的一篇文章指出:

清华大学新闻与传播学院新媒体研究中心4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。

美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。

该文章指出了问题更严重的地方:

“AI模型的训练依赖于海量互联网数据,而现在越来越多的网络信息是AI生成的。

也就是说,AI模型生产的数据正在反哺AI模型,AI模型正在“吃”AI模型生产出来的垃圾信息。”

近些年,AI的话题一火再火,互联网上各种关于AI的培训、课程、社群层出不穷。

但我们要知道的是,AI是工具,我们要做AI的掌控者,而不是AI的奴隶。

就像《高效能人士的七个习惯》中说的:

“技术的影响力越强,控制这种技术的人的因素就越重要。”

要如何能在AI的浪潮中,保持一个人的觉知,并不断成长进步?

我觉得,用8个字概括:“理性思考,感性做人”。

何为“理性思考”?

同样是一部手机,有人用它学习,有人用它打游戏,有人用它诈骗。相同的工具,使用者不同,走向的结局也不同。

任何一项技术也好,工具也罢,都不是滥用的。在使用之前,要清楚自己为什么要用,要达成什么目的。

就拿AI的使用来说,你仅仅是想体验一下,满足好奇心,还是想用它为工作学习提效,亦或是,想要深入研究,成为该领域的专业人士。

不同的目标,对应的后续动作都不同,有了目标,行动才有方向。

另外,还要保持批判性思维和独立思考能力。

对于获取到的信息,不是盲目地全盘接受,而要通过自己的分析和判断来做出决策。

我们与AI的沟通可以套用乔哈里沟通视窗,在“盲区”的沟通需要格外注意。

也就是说,当我们获取的信息在自己的认知范围之外时,要追溯确认信息的真实性,防止被“带跑偏”。

何为“感性做人”?

即使 AI 在很多方面比人类更优秀,但是仍有 AI 无法取代的领域,比如人际关系的维护、有思想的创作和创意等等。

AI 归根到底是一种技术手段,它不能代替真正的人类。

无论与AI聊天都多么痛快,这个过程有多让人满足,我们始终还是要回归到真实的人际关系中去,亲情、友情、爱情,还是需要用心经营和维护。

即使AI绘画、AI视频、AI音乐的技术日渐成熟,但作为内容创作者,灵感的迸发和情感的传递依然是让作品更有温度的核心要素。

当我们肆意制造一些逻辑混乱的、套路化的,甚至是虚假的内容,并让它们充斥在互联网时,我们就不是内容创作者,而是“垃圾制造者”。

AI不是“能解一切的答案”,也不是能拯救人于水火之中的“救命稻草”,它有它的局限和边界。

无论何时,我们都不能抛弃作为一个“人”应该有的理智、情感和温度。

来源:吉棠说电影

相关推荐