摘要:技术背后可能带来的算法偏向、虚假信息等诸多问题愈发为人们所重视。文章引入“图灵实验”的方法,让大语言模型模拟人类的态度和行为,将“新闻真实性判定”作为测量人类认知与大语言模型的特定任务,可以发现ChatGPT在判定新闻真实性这一复杂认知任务上有着明显的优势,同
技术背后可能带来的算法偏向、虚假信息等诸多问题愈发为人们所重视。文章引入“图灵实验”的方法,让大语言模型模拟人类的态度和行为,将“新闻真实性判定”作为测量人类认知与大语言模型的特定任务,可以发现ChatGPT在判定新闻真实性这一复杂认知任务上有着明显的优势,同时也存在薄弱环节,在政治新闻、真实新闻的判断上表现得比人类更准确,但在判别非政治新闻、虚假新闻上表现得不如人类。ChatGPT还存在着一定的代际偏见和语言偏见。就公众本身而言,政治新闻、虚假新闻仍是人们鉴别新闻的薄弱环节。
虞鑫、王金鹏《当代传播》2024年第5期
同见社会科学报文摘版
来源:贴近地面飞行一点号
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!