摘要:人工智能技术在新闻推送领域的应用程度在逐渐加深,随之而来的用户粘性机制的设计与信息茧房的形成也成为学术界和产业界共同关注的议题。研究从用户粘性机制的技术逻辑出发,结合信息茧房的成因及社会影响,提出基于技术优化、用户行为引导、政策与平台责任协同的破局策略,探索在
摘要:人工智能技术在新闻推送领域的应用程度在逐渐加深,随之而来的用户粘性机制的设计与信息茧房的形成也成为学术界和产业界共同关注的议题。研究从用户粘性机制的技术逻辑出发,结合信息茧房的成因及社会影响,提出基于技术优化、用户行为引导、政策与平台责任协同的破局策略,探索在保障用户体验的同时打破认知壁垒的可行方案,为AI新闻的合理发展和正常运作提供学术参考。
关键词:AI新闻;用户粘性;信息茧房
AI新闻推送系统是使用协同过滤、深度学习等算法模型来实现个性化内容分发,显著提升用户粘性。但过度依赖兴趣标签的推荐逻辑,会让用户长期暴露于同质化信息中,形成信息茧房。这一现象将限制用户认知多样性,加剧社会群体极化。为此,研究从技术、用户、政策三重视角,提出兼具实践性与系统性的破局路径。
一、AI新闻推送的用户粘性机制分析
在数字化时代,信息呈指数级增长,AI新闻推送系统依托深度挖掘与分析海量用户行为数据,以实现新闻内容与用户个性化需求的精准对接。信息茧房的形成在技术层面与推荐系统的运行机制紧密相连[1]。推荐系统作为AI新闻推送的核心技术支撑,其初衷是提高信息传播效率与精准度,满足用户个性化信息需求,但在实际运行过程中,推荐系统过度依赖用户的历史偏好数据,优先匹配与用户历史兴趣高度相似的新闻内容,自动过滤掉与用户历史偏好差异较大的异质信息,认为这些信息不符合用户兴趣。长此以往,用户接触到的信息范围逐渐局限于自身熟悉和偏好的领域,置身于由算法编织的信息茧房中,难以接触到多元、广泛的信息内容[2]。心理学中提出过“确认偏见”(ConfirmationBias)的观点,认为人们在认知过程中,倾向于寻找、关注和接受支持自己既有观点和信念的信息,主动回避与自己观点相悖的挑战性观点。在AI新闻推送环境下,当用户持续接收到符合自身兴趣偏好的新闻内容时,会进一步强化其对自身观点的认同与自信。基于这种心理机制,用户在面对与自己既有观点不一致的信息时,会不自觉地产生抵触情绪,主动选择忽略或回避这些信息。这种用户主动的信息筛选行为,与推荐系统基于历史偏好的信息过滤机制相互作用,共同促使信息茧房不断加固,使用户越来越难以突破自身认知局限,接触到不同视角和领域的信息[3]。
二、信息茧房的破局策略
(一)打造“精准”到“多元”的推荐算法机制
传统推荐算法主要依赖用户的显性行为数据,如点击、点赞等,这些数据仅能反映用户部分表面兴趣。为突破信息茧房,应倡导整合用户的显性行为与隐性行为数据,如用户对长尾内容的浏览记录。长尾内容蕴含着用户潜在的、未被充分挖掘的兴趣点。通过引入“探索性推荐”机制,按一定比例(如10%)将用户熟悉内容与陌生领域信息混合推荐,能够拓宽用户信息视野,激发用户对新领域的兴趣。如搜狐推出的“简单AI工具,通过文生图、文生文功能,主动引入多样化信息源。其涵盖了丰富的AI功能,如AI工具箱、AI绘画生成、AI文案等,为用户提供了接触不同类型信息的机会,帮助用户突破单一兴趣限制,拓宽信息获取渠道。
此处以清华大学团队提出的“公平性约束”模型为代表,通过对抗训练(AdversarialTraining)技术,算法在训练过程中减少对极端标签的过度依赖。这意味着算法在推荐过程中,不会仅仅聚焦于具有强烈争议性或极端倾向的内容,而是更加注重内容的多样性和平衡性,避免用户陷入单一观点的信息漩涡。如在新闻推荐中,算法不再只推荐具有极端观点的热点争议新闻,而是综合考虑不同立场、不同角度的报道,让用户能够全面了解事件,促进信息的多元化传播。
(二)促进认知觉醒与主动选择的用户行为引导
开发用户侧工具,如“信息多样性评分”插件,以此来实时反馈用户内容消费的多样性水平。通过直观的数据展示,让用户清晰了解自己所接触信息的多元程度。同时,根据用户兴趣和当前信息消费情况,推荐跨领域阅读清单,引导用户主动拓展阅读范围,接触不同领域的知识和观点,逐步提升用户对信息多样性的重视和追求。如针对阅读类应用,可以推出“信息视野拓展”功能,会定期为用户生成信息多样性报告,展示用户近期阅读内容涵盖的领域范围,并推荐相关领域的优质书籍、文章,鼓励用户拓宽知识边界。并优化“不感兴趣”功能,使其不再是简单降低单条内容权重,而是能够促使算法快速、全面地调整推荐策略。当用户标记某类内容为“不感兴趣”时,算法能够深入分析用户的行为模式和偏好变化,避免再次向用户推送类似不符合其需求的内容,从而提升推荐的精准度和用户满意度。
(三)利用政策与平台构建多元共治生态
为强化AI新闻的多元性,可落实《互联网信息服务算法推荐管理规定》,要求平台设置“个性化推荐开关”,赋予用户自主选择是否接受个性化推荐的权利,让用户能够根据自身需求灵活调整信息获取方式。同时,对同质化内容推送比例设限,如规定不超过70%,从源头上限制信息茧房的形成,促使平台更加注重信息的多元化传播。如各大新闻平台按照规定纷纷在设置中添加了个性化推荐开关,用户可自行决定是否开启个性化推荐功能,同时平台也在不断优化算法,控制同质化内容的推送比例。
相关媒体平台还要互相联合,建立算法伦理委员会,定期评估推荐系统的社会影响,减少商业利益对算法干预。算法伦理委员会要从多个维度审视推荐算法的合理性,评估内容的多样性、公平性以及对社会价值观的引导等,发现推荐系统中存在的问题,并要求相关平台采取相应措施进行优化和改进,减少商业利益对算法的过度干预,确保推荐内容的质量和多元性。
此外,各媒体单位自身也可引入先进技术,如区块链技术对推荐算法进行公平性审计,在2024年“清朗·网络平台算法典型问题治理”专项行动中,政府联合企业整治信息茧房问题,强制要求平台优化推荐逻辑。独立机构能够从专业、客观的角度评估算法在信息传播过程中的公平性和合理性。利用区块链技术,使得推荐过程中的数据流动和算法决策能够被清晰追溯和监督,增强了整个推荐系统的透明度和可信度。通过政策法规、平台责任和第三方监督的协同作用,即可构建起多元共治的AI新闻环境,为打破信息茧房、实现信息的健康、多元传播提供坚实保障。
三、结语
信息茧房的破局需技术、用户、政策三方协同,使用技术优化解决算法偏狭性,采取用户教育提升认知自主性,借助政策规制平衡商业与社会价值,通过三者协同来打破“流量至上”的单一价值导向,才能实现人工智能技术与公共利益的良性互动。
参考文献:
[1]夏倩芳,仲野.中国网民的新闻消费习惯与信息茧房状况——不同教育人群的素描和比较[J].新闻记者
[2]吴志强.考虑信息茧房效应的新闻多样性推荐方法研究[D].湖北大学
[3]王来.浅析算法推荐新闻与信息茧房效应的关系——兼论算法与用户的互动问题[J].新闻世界
来源:天眼新闻