摘要:社交媒体已成为传统边缘群体获取信息与建立联结的关键工具。年轻人得以接触现实生活中难以企及的重要社群。正如一位青少年所言:“我一生都遭受着无休止的欺凌。但当我在线上时,发现交朋友变得容易了……若没有网络,我今天就不会存在。”
本文为深度编译,仅供交流学习,不代表智子说观点
社交媒体已成为传统边缘群体获取信息与建立联结的关键工具。年轻人得以接触现实生活中难以企及的重要社群。正如一位青少年所言:“我一生都遭受着无休止的欺凌。但当我在线上时,发现交朋友变得容易了……若没有网络,我今天就不会存在。”
但专家指出,社交媒体对群体而言“既是最好的礼物,也是最糟的噩梦”——仇恨言论与言语攻击已酿成现实悲剧。“现有研究表明,社交媒体体验对LGBTQ+青少年犹如双刃剑,既能守护心理健康,也可能加剧心理健康问题与药物滥用风险。”
2025年1月,美国科技巨头Meta公司的首席执行官马克·扎克伯格宣布,将终止第三方事实核查项目,转而采用X平台(的“社区注释”模式。该决定同时包含终止保护LGBTQ+用户的政策。
虚假信息在社交媒体平台持续泛滥,应用程序的设计机制更助长了这一现象——无论关注度还是金钱回报,点击率和点赞量最高的帖子总能获得最大奖励。研究发现,“15%的重度Facebook用户贡献了研究中37%的虚假标题,表明相对少数人群对信息生态系统具有不成比例的巨大影响力。”
Meta宣布终止第三方事实核查计划的决定,已引发新闻从业者、人权组织及研究人员的警觉。联合国人权事务高级专员沃尔克·图尔克(Volker Türk)回应称:“放任网络仇恨言论和有害内容存在,将引发现实世界后果。” Meta已被指控或涉嫌助长缅甸罗兴亚种族灭绝,并煽动肯尼亚、埃塞俄比亚和尼日利亚的种族暴力,其平台上泛滥的虚假信息至少部分助长了这些暴力行为。
一份2019年泄露的Facebook内部报告指出:“我们掌握多方证据表明,Facebook上的仇恨言论、分裂性政治言论及虚假信息正影响全球社会。更有确凿证据显示,我们核心产品机制——如病毒式传播、内容推荐及互动优化功能——正是此类言论在平台滋生的重要推手。” 扎克伯格宣布2025年终止合作后不久,国际事实核查网络(IFCN)发表公开信,回应了这项持续九年的核查项目终止决定,称“终止Meta第三方事实核查项目的决定,对那些希望互联网优先传播准确可信信息的人而言,是一种倒退”。
社交媒体平台背后的算法决定着哪些信息会被优先展示、反复推送并推荐给用户。但即便面对多份报告、研究及用户行为的转变,这些公司自身并未在用户界面设计上做出实质调整,以适应更现代的交互方式并促进有意义的事实核查。
即便媒体机构发布更正声明,纠正其传播的虚假信息与未经证实的论断,也难以挽回损害。正如国际非营利组织“第一稿新闻”(First Draft News)所描述:“要从大脑中清除[错误信息]极其困难。” 当虚假信息在线上或新闻中发布并开始传播时,即便在数分钟或数小时内被删除,其“危害已然造成”。更正声明和澄清说明很少能获得与原始虚假信息同等的关注度,即使被看到,也可能不会被用户真正理解。
算法如此普遍,乍看之下似乎微不足道,实则影响深远。诸如父亲通过算法得知女儿怀孕、另一位父亲的Facebook年度回顾竟“庆祝”女儿死亡等知名案例,都警示着算法内容的创作者、开发者和设计师必须预见最坏情况。边缘案例虽罕见却影响深远,值得深入审查并采取缓解措施。
众多报告与研究揭示,社交媒体推荐算法通过优先推送特定内容,正将受众推入信息茧房深渊。“道德义愤或许是网络世界最具传播力的内容形态。”2021年一项研究发现,字节跳动旗下的TikTok算法会引导用户从反跨性别视频转向极端右翼暴力内容,其中包含种族主义、厌女症及残障歧视信息。“我们的研究表明,反跨性别偏见可能成为偏见的入口,进而引发更深的极右翼激进化。”美国的YouTube也曾被称为“激进化引擎”,至今似乎仍在其推荐算法问题上挣扎——近期就有报道称YouTube Kids将年轻观众引向饮食失调的深渊。在2025年德国大选前夕,研究人员发现跨平台社交媒体信息流存在向右翼倾斜的现象。
人们正越来越多地通过传统新闻媒体之外的渠道获取信息。2019年一份报告显示,青少年主要从社交媒体获取新闻。2022年有文章阐释了大量青少年使用TikTok而非谷歌搜索信息的现象。同年研究发现,30岁以下成年人对社交媒体信息的信任度几乎与国家级新闻媒体相当。2023年多国联合报告显示,仅不到半数(40%)受访者表示“多数时候信任新闻”。研究人员警告,信息混乱的趋势可能导致政府逐步加强对信息的管控,并指出“获取高度集中的技术栈将成为大国巩固影响力的关键软实力组成部分”。
在2024年印尼大选中,人工智能生成的数字化身成为焦点,尤其在吸引年轻选民方面成效显著。前候选人、现任总统普拉博沃·苏比安托(Prabowo Subianto)通过生成式人工智能打造的可爱数字化身登陆TikTok等社交平台,成功重塑公众形象并赢得总统选举,从而转移了对其严重侵犯人权指控的舆论关注。生成式人工智能(包括美国OpenAI公司的ChatGPT等聊天机器人)因其生成的文本和图像逼真可信,已成为信息混乱的关键推手。
即便看似无害的垃圾页面内容,也可能引发现实后果:侵蚀信任、诱发诈骗、导致数据被信息中介窃取并回馈至系统,从而助长数字影响力。此外,生成式AI的输出内容可能受到高度控制。2023年美国“自由之家”(Freedom House)报告指出:“自动化系统使政府能够实施更精准、更隐蔽的网络审查。虚假信息传播者正利用AI生成的图像、音频和文本,使真相更易被扭曲、更难辨别。”
正如本系列反复强调的,技术本身并无善恶之分,关键在于其使用目的。“技术承袭其创造者的政治立场,但几乎所有技术都能被用于超越这些框架的领域。”这些应用案例和比较,在讨论具体工具方法时(例如本文提及的数字化身)或许有用,但仅限于表面。
委内瑞拉的案例堪称典型:当地媒体充斥着人工智能生成的亲政府信息,新闻从业者更面临监禁威胁。为应对危机,记者们开始运用数字化身保护身份隐私。这固然是韧性的典范,却植根于一个更庞大而险恶的权力惩罚体系。
单一工具的应用案例固然能展现其利弊,但当我们拉开视野审视全局,便会发现那些将民众置于险境的权力结构——技术带来的权衡代价绝非对等。
两种真相可以并存:技术既能被用于凝聚力量,亦可沦为伤害与压迫的工具。这或许才是“信息混乱”时代最关键的议题。当算法的设计者选择用“道德义愤”换取流量,当AI的训练者默认了“偏见的入口”,当平台的所有者终止了事实核查,技术便不再是中立的工具。它成为了一个放大器,让那些本已边缘的群体,在“最好的礼物”和“最糟的噩梦”之间,再也找不到中间地带。
在这个算法主导的时代,你是否也感受到了“信息茧房”的影响?欢迎在评论区聊聊你获取可信信息的独特方法。
作者:萨法
来源:无敌浩克一点号