摘要:“国际学术观点”栏目每月摘编来自国际权威学术期刊的最新观点。本期摘编的6篇文章包含人工智能鸿沟、建设性新闻、真相三明治、数字时代的新闻监督、AI中介的社交支持、儿童隐私权等多主题。
编译者:田香凝(中国传媒大学电视学院副教授、中国特色新闻传播学研究中心研究员);刘沫潇(北京外国语大学国际新闻与传播学院副教授、北京中外文化交流研究基地特聘研究员)
导 读:
“国际学术观点”栏目每月摘编来自国际权威学术期刊的最新观点。本期摘编的6篇文章包含人工智能鸿沟、建设性新闻、真相三明治、数字时代的新闻监督、AI中介的社交支持、儿童隐私权等多主题。
1.人工智能鸿沟:不同用户的AI能力差异研究
随着人工智能的迅猛发展,传播学者亟待探究用户如何理解由人工智能主导的在线传播环境。尽管既往研究已在零星的个案中考察了用户与特定AI系统的互动机制,但鲜有研究通过实证方法检验用户之间是否存在系统性的AI能力差异。发表在2025年第7期《新媒体与社会》(New Media & Society)的一篇文章基于对荷兰1088名16岁以上公民的调查,考察了“人工智能鸿沟”的问题。
研究首先提出了“AI能力”(AI Competence)的概念。“AI能力”包含三个关键方面,分别为:AI知识(用户对推荐系统中AI运作机制及其底层逻辑的认知性理解)、AI技能(用户识别AI系统并与之交互的能力)、AI态度(对AI技术的信任度与接受意愿)。
随后,通过潜在类别分析(LCA),研究识别出五类典型的用户群体,按其在调研样本中的占比,从高到低排序,分别为“普通用户”(average users)、“专家拥护者”(expert advocates)、“专家怀疑者”(expert skeptics)、“无技能怀疑者”(unskilled skeptics)、“中立无技能者”(neutral unskilled)。普通用户拥有中等AI知识与技能,对AI的态度中立,多为高学历的女性群体。专家拥护者具有高AI知识和技能,对AI态度积极,多为年轻高学历男性。专家怀疑者与专家拥护者相比,具有低一些的AI知识和技能,对AI持极端消极态度,多为高龄群体。无技能怀疑者具有最低的AI知识和技能,对AI持极端消极态度,具有高龄、低学历等特点。中立无技能者具有较低的AI知识和技能,持中立态度,同样具有高龄、低学历的特点。
研究发现,具有低AI知识和技能的人在AI发展浪潮中是最脆弱的,比如上述无技能怀疑者与中立无技能者,他们面临着被AI边缘化的风险,其人口学特征主要表现为高龄、低教育程度及薄弱的隐私保护能力。
该研究在实践领域的重要启示在于,AI研发人员、教育人员和政策制定者要关注用户因AI相关能力差异而产生的不平等问题,为低技能群体提供相关的教育项目,提升其AI知识与技能,并推广“可解释AI”(Explainable AI),用通俗语言揭示AI决策逻辑,增强透明度。
文献来源:WANG C, BOERMAN S C, KROON A C, et al. The Artificial Intelligence Divide: Who Is the Most Vulnerable? [J]. New Media & Society,2025, 27(7): 3867-3889.
2.建设性新闻如何吸引年轻受众
当前,新闻机构正面临着与年轻受众脱节的困境,年轻人普遍对传统新闻内容感到消极、焦虑,甚至会主动回避新闻。针对这一现象,有学者认为,建设性新闻(Constructive Journalism)是一种可能的应对策略,其强调希望、解决方案、对话与多元视角,有助于提升受众信任与参与度。2025年7月的《新闻实践》(Journalism Practice)发表了一篇论文,以挪威公共广播机构NRK为例,研究了新闻机构如何具体调整实践策略以吸引年轻人。
作者采取了民族志研究的方法,在NRK进行了为期3个月的沉浸式观察,并对16名员工进行访谈。在此基础上,作者使用实践理论,从新闻实践的活动、反思性和物质性三个维度进行分析。
研究发现,NRK主要通过3种新闻实践来落实建设性新闻:一是“解释性实践”,即推出竖屏短视频栏目,用简单语言和丰富视觉手段来拆解复杂议题,使年轻人无需背景知识就可以理解新闻;二是“对话性实践”,即推出互动新闻栏目,通过直接回应年轻人提出的问题来增强公众参与;三是“视觉性实践”,即借助动画、插图、竖屏适配等视觉设计在数秒内抓住年轻人注意力,并辅助解释抽象议题。
论文初步验证了建设性新闻在一定程度上可以提升年轻受众的参与度,但同时也指出,当前学界和业界对于建设性新闻的精准定义和执行方式还存在争议,需要进行持续的反思与调适。论文建议,未来可以进一步研究不同国家的建设性新闻实践,以及建设性新闻与新闻规范(如客观性、中立性)之间的张力。
文献来源:RØSOK-DAHL, H. Unpacking the Practices of Constructive Journalism to Reach Young People with News. Journalism Practice, 2025(07): 1–20.
3.真相三明治:危机性虚假信息的纠正策略
危机性虚假信息(crisis misinformation)是指在危机事件背景下传播的虚假或不准确的信息,这些信息可能直接加剧危机、误导公众判断。通常,危机性虚假信息的应对策略包括“预辟谣”(prebunking)和“后辟谣”(debunking)两种,前者旨在提前告知公众可能遭遇的虚假信息,后者则旨在核查或反驳已经发生的虚假信息。此外还有研究表明,“叙事式辟谣”(用讲故事的方式澄清事实)和“抢雷式辟谣”(组织主动披露危机信息)在危机沟通中也发挥着一定作用。尽管已有研究分别探讨了不同策略的沟通效果,但对多种策略联合使用却缺乏系统的实证研究。在2025年7月的《大众传播与社会》(Mass Communication and Society)中,有论文尝试进行了整合性研究。
论文采取了实验法,虚构了一家银行即将破产的谣言,并设计了不同组合的辟谣帖文,对483名Facebook用户进行测试。研究发现,当组织采用抢雷式辟谣率先披露危机信息的时候,无论是否使用叙事手法,都能显著提升组织声誉和公众支持行为。而当组织将预辟谣和抢雷式辟谣结合使用时,产生了显著的交互效应。基于此,论文提出了危机沟通的“真相三明治(truth sandwich)”策略:先用一条预辟谣内容提醒公众可能出现虚假消息,接着呈现虚假内容,最后立即进行抢雷式辟谣,由组织主动发布澄清声明,通过两次重复真相来削弱并纠正危机性虚假信息。
论文尝试为危机传播领域提供可直接落地的“组合拳”范式,并建议将实验场景扩展到真实品牌、多源信息竞争、用户评论互动和跨文化语境中,以检验“真相三明治”策略的边界条件与长期效果。
文献来源:KIM, Y., & LIM, H. D. “Truth Sandwich” To Dispel Crisis Misinformation: Exploring the Separate and Combined Impacts of Inoculation, Narratives, and Stealing Thunder on Correcting Crisis Misinformation on Social Media. Mass Communication and Society, 2025(07):1–21.
4.数字时代公众对于新闻监督的角色期待
在数字时代,新闻业对科技巨头尤其是大型科技公司的监督角色引发了广泛关注。在此背景下,发表在2025年第5期《数字新闻学》(Digital Journalism)的一篇文章从受众视角出发,探讨新闻业监督角色的演变,审视受众对新闻媒体在监督科技巨头方面的期待与实际表现。
文章通过对荷兰、德国、法国、英国、美国、波兰和印度七国进行的跨国在线调查发现,相较于媒体对政商权力监督的传统“看门狗”角色,公众对媒体监督科技巨头的角色期待更高。但核心问题在于公众普遍认为目前媒体对科技巨头的监督还未达到预期,且这一缺口比传统监督角色更严峻。
研究还发现这一监督落差影响着媒体信任与问责效力评价。具体而言,当媒体对科技巨头的监督表现符合或超过公众期待时,媒体信任度显著提升;公众对媒体监督表现的满意度越高,越倾向认为媒体是比政府、监管机构更有效的科技巨头问责方。
新闻消费模式也影响着公众对媒体监督角色的认知。传统媒体消费者更易感知监督落差,这可能是因为传统媒体在适应科技议题的复杂性和快速迭代方面存在困难。相比之下,社交媒体消费者对监督表现的满意度较高,这或因算法推送的内容更贴合其兴趣。但研究者提醒要警惕平台“既当裁判员又当运动员”的问题,比如Meta和X既是媒体的监督对象,又是新闻的发布渠道。
研究表明,在科技巨头权力扩张的背景下,公众对媒体监督角色的期待已转向数字领域,但媒体的表现尚未满足这一需求,亟待专业化革新以维系数字民主中的问责功能。这意味着,媒体需要发展更专业的调查性报道、算法问责报道和数据新闻报道,并与其他社会机构开展跨界合作,以缩小公众期待与媒体表现的差距,实现对科技巨头的有效监督问责。
文献来源:SCHWINGES A, VAN DER MEER T G L A, VLIEGENTHART R. Are News Media Biting Hard Enough? Public Watchdog Role Expectations and Performance Evaluations in the Era of Big Tech[J]. Digital Journalism, 2025, 13(5): 949-969.
5.AI中介的社交支持:人类与人工智能协作的前景
随着大语言模型等先进人工智能工具的兴起,人们开始利用AI撰写人际沟通信息。发表在2025年第4期《计算机中介传播期刊》(Journal of Computer-mediated Communication)的一篇文章探究了人们如何借助AI工具为在线求助者创作支持性消息,并提出了“AI中介的社交支持”(AI-mediated social support)的概念。
研究突破了传统的“人类生成”VS“AI生成”的二分法,通过“过程—采纳模型”(process-adoption model),揭示了人机协作的四种消息生成模式,反映了支持性消息创作中不同形式和不同程度的人类参与。这四种消息生成模式分别为:完全由人类自主创作的“纯人类生成”(Human-only)模式、直接复制AI生成内容的“纯AI生成”(AI-only)模式、 编辑AI生成内容的“修改型AI生成”(Modified-AI)模式、依据AI建议自主创作的“AI引导生成”(AI-guided)模式。
研究结果显示,人机协作模式显著形塑消息内容特征,进行影响受助者对消息的评价。比如,涉及AI协作的消息——尤其是复制或编辑AI生成的内容——更可能包含信息支持与情感支持,从而被读者视为更具帮助性且更真实可信的信息。此外,AI引导生成的消息更易融入个人经历叙述,提升内容的真实感。相较于人类基于AI指导撰写的消息,纯AI生成的消息的真实性评价更低。
本研究凸显了AI的咨询者角色而非单纯的内容生产者角色,即人类在生成最终消息前,会向AI寻求写作建议、词汇优化或表达框架调整等帮助。本研究也启示着未来的AI系统设计需要支持多样化的人机协作模式,如提供功能更强大的编辑工具、可定制的提示词,或增强型引导机制。AI开发者也不妨考虑对人工智能系统进行优化,以促进更具个性化的互动。例如,AI 不局限于响应用户的需求,还可主动引导用户补充个人经历,并将其融入内容生成环节,这样或许能促进更真实、有效的人机协作。
文献来源:MENG J, ZHANG R, QIN J, et al. AI-mediated Social Support: The Prospect of Human-AI Collaboration[J]. Journal of Computer-mediated Communication, 2025, 30(4):1-12.
6.儿童如何理解并践行隐私权
近年来很多研究关注到儿童的社交媒体使用与隐私安全,但多数研究都是从家长视角切入,鲜有研究真正从儿童的主体性出发。2025年7月的《信息,传播与社会》(Information, Communication & Society)发表的一篇论文,便探讨了儿童在社交媒体环境中如何理解并践行自身的隐私权。
作者通过焦点小组的方式,访谈了116名维也纳儿童,并将他们分为三个年龄组,访谈话题涵盖隐私概念、法律认知、数据分享行为、隐私管理策略、风险感知等内容。研究发现,儿童们的隐私认知随着年龄的增长而递进:8—9岁的儿童把隐私等同于私人用品或个人空间,11—12岁的儿童将隐私扩展到个人的感受与对话,14—16岁的儿童则将隐私与身份和社交圈紧密相连。研究还发现,儿童们对平台法规普遍采取“低认知—高绕行”的策略,他们大多不愿阅读也无法理解平台的复杂条款,只能选择“被迫同意”。此外,有少数儿童能够认识到互联网“永不遗忘”的特征,年龄较大的儿童开始察觉平台会长期留存并转售用户数据,这也让他们产生了被监视感。
论文指出,儿童不仅是权利客体,更是能主动理解、质疑并试图运用规则的能动主体,需要得到更多关注与重视。论文建议,社交媒体平台应推出儿童友好的条款语言,教育机构则要从儿童入学起就开展持续性的隐私教育,监管机构则应建立起以儿童为中心的平台问责机制,从而更好地保障儿童的隐私权。
文献来源:SARIKAKIS, K., WINTER, L., & CHATZIEFRAIMIDOU, A. Children’s legal consciousness: the thorny right to privacy in social media. Information, Communication & Society, 2025(07): 1–16.
来源:大众新闻-大众日报