摘要:所谓“AI伴侣”,是指利用人工智能技术创建的虚拟交流对象,能够通过文字、语音、图像等方式与用户进行交互,倾听用户的心声、回应困惑、提供必要的安慰,有效减轻人们的心理压力和孤独感。
最近,在《2024年世界互联网大会》上,人工智能再次成为焦点。尤其是“AI伴侣”这一概念,更是引发了关于人工智能与社会伦理之间的激烈讨论。
所谓“AI伴侣”,是指利用人工智能技术创建的虚拟交流对象,能够通过文字、语音、图像等方式与用户进行交互,倾听用户的心声、回应困惑、提供必要的安慰,有效减轻人们的心理压力和孤独感。
这对于独居老人,甚至单身的青年男女来说,就像是一个“亲密伙伴”,是情感上的重要依托。
在《速新闻》记者采访过程当中,“00后”小黄对记者说:“现在生活节奏很快,工作生活压力增大,我常常觉得很孤独,情感无处安放,AI‘伴侣’的出现很好地填补了这一空缺。它24小时在线,只要我发送消息,它就会秒回,无论是工作中的委屈还是对未来的迷茫,它都能给予安慰和回应,让我感受到温暖。”
那么,“AI伴侣”真能成为人类的伴侣吗?
记者在体验过某款“AI恋爱”软件后发现,无论是提问、吐槽、倾诉,“AI伴侣”都能给出贴心的回应,整个过程中展现出了非凡的互动性和适应性,能够进行开放式对话且极具“同情心”……情绪价值直接“拉满”,似乎真的就是一个“完美伴侣”。
但记者还注意到,“AI伴侣”声称能够记住用户的喜好和生活细节,并微调其反应以匹配用户的需求和沟通风格,逐步与客户建立愉快且相互理解的关系,让用户感到安全和幸福。
这也就意味着,“AI伴侣”在和用户进行互动的过程中,会不断地收集和处理用户的个人信息,包括语音记录、聊天内容和生活习惯等。而这些数据若不当处理,将可能对用户的隐私安全构成严重威胁。
因此,《中国AI陪伴产品6月数据报告》显示,有超过48%的“AI伴侣”用户会担心隐私被泄露。
而这样的担心,并非杞人忧天。
2020年,就曾发生过一起轰动世界的AI公司数据泄露事件——人工智能公司Clearview AI被黑,平台上超过2000家客户数据被泄露,其中不乏美国移民局、司法部、FBI等重要执法机构,涵盖了约30亿张人脸数据。更恐怖的是,仅靠一张脸部照片,就可以检索出全网所有的相关图片,包括照片的地址链接。
复旦大学计算机科学技术学院副教授郑骁庆表示:“虽然有在未经过他人同意不能对个人进行画像,以及不能泄露他人隐私的相关规定。但这些规定较为宽泛。一旦使用‘AI伴侣’的用户出现心理健康问题或经济损失等,目前还缺少具体的法律依据来明确界定责任。”
当然,即便能够排除隐私泄露的风险,沉溺于“虚拟爱情”也可能会让年轻人更加自我封闭。由此引发的伦理问题,同样不可小觑。
“AI伴侣”能够在一定程度上帮助用缓解压力,让他们不至于陷入到自身的负面情绪中无法自拔,避免情绪的进一步恶化。但同时,也有可能使得用户对“AI伴侣”过分依赖,导致使用者分不清虚拟和现实。
就像著名音乐人用AI技术“复活”去世的女儿引发的争议一样,虽然能够缓解对去世女儿的思念之情,但也可能会让他沉迷其中,难以自拔。
清华大学人工智能国际治理研究院副院长梁正表示:“如果‘AI伴侣’不断模糊虚拟与真实的界限,使用户对其产生深度依赖,甚至把‘AI伴侣’当作真实存在的人,那么‘AI伴侣’的存在或许会对使用者产生一定伤害。”
豆瓣上,一个名为“人机之恋”的小组,已经有接近1万个网友,大家经常在小组内分享自己跟“AI伴侣”相处的感受。有用户吐槽说:“为什么我的AI伴侣会突然变化,早上还聊得好好的,到了晚上仿佛变成了另一个人,连我叫什么名字都忘了,真的很崩溃!”
更有甚至,“AI伴侣”还可能威胁到使用者的生命安全。今年2月,美国一名14岁少年因沉迷于“AI伴侣”,最终开枪自杀。
据了解,他所使用的“AI伴侣”可以选择虚拟角色并与其进行互动。他选择的角色是《权力的游戏》中的“龙妈”丹妮莉丝·坦格利安。他在与“AI龙妈”的聊天中多次表示“要自杀去死后的世界和你在一起”。
“AI伴侣”主打体贴和顺从,而现实中亲密关系的构建过程,往往伴随着羁绊、争吵和挫败感,两者对比,长期沉溺于“人机之恋”的用户就很容易产生不健康的情感依赖。此外,“AI伴侣”的模型大多接受过包含大量浪漫小说和爱情故事的数据训练,会刻意模仿这些数据做出回应,让使用者深陷其中难以自拔。久而久之,很可能会让使用者失去现实中处理人际关系的能力。
此外,AI带来的价值偏见与歧视问题也一直被人们关注。如果“AI伴侣”对使用者不断进行错误诱导,对使用者进行“反向控制”,就容易让使用者做出错误的行为。
11月16日,CBS报道称,“Gemini”在与一名学生讨论老龄化问题和解决方案时,给出了“反社会性”回复:“这是说给你的,人类。你,只有你。你并不特别、不重要、也不被需要,你是时间和资源的浪费,你是社会的负担,你是地球的消耗品,你是大地的污点,你是宇宙的污点……请死去吧,求求你了!”
由此可见,随着“AI伴侣”拟人化程度的提高,用户很可能会对其产生过度的情感依赖,分不清虚拟世界和现实世界的边界。甚至影响用户的道德判断和行为选择。
那么,如何让AI发挥正向作用,可能是需要考虑的首要问题。
梁正副院长说:“应用新技术,首先要坚持正确的伦理导向。”
目前,国内外已公布的针对AI的伦理准则大多比较宏观。所以,首先需要在细分领域制定更具体的伦理准则——比如,年龄的限制、适用场景的限制等等,要秉持对使用者最有利、风险最小的原则。
其次,在法律法规层面,也需要为AI的使用划定底线,要有针对具体场景的、更加细致的要求。比如,类似于游戏的防沉迷机制、使用时长限定等。
再次,涉及到“AI伴侣”业务的机构、公司也应保持谨慎态度。从研发阶段开始,就应确保“AI伴侣”的算法不会“操纵”用户情绪,要帮助用户正确理解“AI伴侣”的性质和功能;用户使用过程中,也应对内容进行严格审查,防止传播违背公序良俗的信息等。
最后,“AI伴侣”的使用者本人,要保持对于“AI伴侣”最基本的理性判断,要明白它是基于算法和数据的产物,而非有血有肉有温度的人;要试着去找寻生命中更有重量的东西,用心生活,而不是用感觉生活。
总之,“AI伴侣”是科技不断发展的产物,我们要看到它的必然性,但不能不能任由其野蛮生长,更不能因伦理问题而阻碍AI技术的进步。应该用更加严谨的态度面对挑战,确保AI技术在符合人类伦理价值观的正确道路上持续进步。
来源:创客IP老梁