摘要:11 月 12 日这一天,巴基斯坦大报黎明报《Dawn》迎来了一个尴尬的瞬间——它在一篇关于汽车销量的常规商业报道末尾,意外印出了一句本不属于正文的文字:
报业已经进入 AI 时代,露出马脚,只是时间问题。
作者 杰罗姆
11 月 12 日这一天,巴基斯坦大报黎明报《Dawn》迎来了一个尴尬的瞬间——它在一篇关于汽车销量的常规商业报道末尾,意外印出了一句本不属于正文的文字:
“If you want I can also create an even snappier front-page style version…”
这句话不是编辑写的,不是记者留下的,更不是采访对象说的。
它来自编辑部正在使用的 AI 工具——本该被删掉的一句“内部提示词”。
既不惊天动地,又不触犯法律,甚至说不上“重大错误”。
但它引发的震动却远超事件本身。
因为它暴露的不只是一个操作失误,而是一个行业现实:
新闻业早已与 AI 共存,只是没有公开承认;
纸媒早已在 AI 的协助下生产新闻,只是未向读者说明;
而真正露馅的,不是句子,而是一个时代的底层结构。
这个失手显露的瞬间,让人感觉整个行业的掩体被风一吹,透出内部光亮。
一切本来有秩序地隐身运转的流程,都突然变得清晰起来。
如果回到 2010 年,新闻编辑部还是这样的:
记者写稿编辑改稿美编排版校对查误媒体发布现在呢?结构已经变成了:
AI 清洗资料AI 起草第一版AI 优化语气AI 给出标题方案AI 提供数据摘要编辑最终审读系统自动排版与多平台发布一个完整的“AI 前置流水线”已经建成。
它比人类更快、更稳定、无情绪、更熟悉产品语言。
Dawn 的事故,不过是把这条隐形的第二生产线以实体形式“印”出来了。
这不是孤例,而是全球新闻业的现实地图。
① CNET:AI 写新闻被拆穿,公开声明“我们需要更严格的审核”
2023 年,CNET 被发现 70 多篇 AI 写作的财经内容出现错误,包括错算利息、引用错误、逻辑混乱。
CNET 承认使用 AI,却强调“编辑有审核”。
这句话,听上去更像是“我们原本不想告诉你们”。
② Gannett:机器人写高校体育新闻,引发全网嘲讽
Gannett 用 AI 写高中体育报道。
语言生硬,失去细节,读者立刻识破。
公司不得不紧急叫停试验。
③ Bild:AI 被写入重组方案
德国最大的通俗报纸《Bild》在裁撤上百岗位的公告中罕见“把 AI 写进文件”,
象征着编辑工作被系统化、标准化、自动化。
④ 日本地方媒体:AI 写市政新闻的“虚构引用事件”
有地方媒体使用生成式工具撰写地方政策新闻,
最终出现“引用不存在的官员发言”。
每一次事故都有其本地化背景,但拼在一起,却呈现出同一个趋势:
AI 已经正式成为“第二编辑室”,并覆盖新闻价值链的绝大多数步骤。
而真正危险的不是“使用 AI”,
而是“使用得如此普遍,却谈论得如此节制”。
Dawn 不是普通报纸。
它的历史地位决定其象征性格外强烈。
它由真纳创建,是巴基斯坦的民族叙事、独立精神与知识阶层象征。
其地位类似:
印度的《The Hindu》新加坡的《Straits Times》土耳其的《Cumhuriyet》波兰的《Gazeta Wyborcza》这些报纸从来承载着“比新闻本身更大的意义”:
国家叙事、社会现代化、公共理性、读者信任。
而这次“露出的提示词”恰恰像一把小小的针,扎破了一层神圣性。
象征性转折来自那句话的内容:
snappier front-page version
punchy one-line stats
infographic-ready layout
这是什么语言?
不是新闻语言。
不是文学语言。
不是调查记者的语言。
不是政治记者的语言。
它是一种 平台语言 / 产品化语言 / 营销语言。
它是:
Silicon Valley 风格视觉传播逻辑KPI 驱动语言商业化内容工厂的语言而它出现在:
纸媒商业报道印刷版一个由国父创办的报纸上它代表着一种深刻的反转:
一个源自反殖民时代的舆论机构,
在无意识间开始说起了属于平台时代的机器语言。
你能感觉到一种奇异的隐喻:
报纸的头版不再是政治议程,而是视觉风格。报纸的商业新闻不再是经济叙事,而是消费产品。报纸的语言不再是编辑的语言,而是算法的语法。这不是“技术渗透新闻”,
而是“新闻开始遗忘自己的母语”。
我们再看那句 AI 提示词。
它真正透露的是现代新闻的“KPI 世界观”。
1. front-page style version
头版不再是议程设置,而是视觉模板。
新闻不再“登头版”,而是“长得像头版”。
2. punchy one-line stats
“一句话总结”成为最重要的传播单元。
数据被转化为“冲击句”,而不是“理解”。
3. infographic-ready
几乎所有新闻都要被预设为“可视化元素”。
图表优先,叙事其次。
也就是说:
AI 之所以能生成这类语言,是因为它训练于大量现实新闻产品的写作风格。
也就是说:
AI 只是最忠实地模仿了新闻业已经发生的转变。
不是 AI 改变新闻业,而是新闻业在“工具化自我”。
而提示词则像一封“无意寄出的自白信”。
这里我们要转向这件事最深刻的影响。
公众的反应不是:
“啊,你们在用 AI。”
而是:
“那你们以前到底做了多少我们不知道的?”
这标志着一个关键转折:
旧时代的信任问题:内容不可信
例如:
偏见失实标题党煽动新时代的信任问题:流程不可信
例如:
第一版是谁写的?AI 改了多少内容?编辑删了多少 AI 留下的痕迹?错误由谁负责?模板是谁设计的?算法是否影响了新闻角度?传统新闻业把信任建立在“职业身份”上:记者 → 编辑 → 报纸。
而 AI 时代,信任必须建立在“流程透明”上:
采集 → 加工 → 审核 → 责任链 → 可溯源性。
这是一场范式转移:
新闻的可信度,将不再来自“人”,
而来自“可把控的系统流程”。
而 Dawn 事故的象征意义就在于:
这是第一次,读者用肉眼看到“流程”的破洞。
以前的破洞被修补了,
这一次,它印在纸上。
纸张的象征,远大于屏幕。
纸张像一个时代的证据袋。
如果跳出个案,把它放在整个传媒史、平台史、技术史的框架里,我们可以看到新闻业正在经历四条深刻的断裂。
(一)叙事断裂:从“人类写作”到“系统协作”
新闻从来反对“代写”。
但今天的代写不是实习生,而是大模型。
以前:新闻由记者生产现在:新闻由人机系统共同生成(二)伦理断裂:谁来承担责任?
AI 写的“部分错误”,究竟是谁的错误?
编辑?系统?管理层?训练数据?
传统伦理框架无法处理这种复杂性。
(三)专业断裂:文字与判断正在被拆分
记者写作的核心能力,是判断与表达的结合。
AI 时代,两者被拆开:
判断:人书写:系统职业身份发生重构。
(四)权力断裂:工具不再是工具,而是流程节点
过去工具是“辅助”,现在工具是“环节”。
记者与编辑不再拥有完整的生产链条。
控制流程的,是平台、算法、系统集成商。
而 Dawn 事故之所以引发共鸣,是因为它让这四条断裂首次具象化——
被印进了一张纸。
新闻业第一次看到自己的影子不是在镜子里,而是在版面上。
回到最初的问题:
Dawn 的事故算不算大事?
有趣的是:
从新闻史看,它不算大事。从 AI 使用史看,它不算新鲜。从产业演化看,它只是又一个节点。但从象征意义看——它非常大。
因为它揭开了一种“公开的秘密”:
报业不再是人类写作的孤岛。
它已经被纳入一个由系统驱动、模板驱动、指标驱动的生产网络。
在这个网络里:
AI 是隐形编辑AI 是语言模板AI 是风格统一器AI 是视觉生成器AI 是排版助手AI 是 SEO 策略家AI 是版本管理系统而人类——逐渐成为“审核官”。
未来的新闻业必须回答三个根本问题:
1. 我们愿意在多大程度上“透明化流程”?
透明度会成为新的行业规范。
AI 必须被标注,流程必须可见。
2. 我们愿意重新定义“新闻生产”的边界吗?
新闻不再是“一篇文章”,
而是“一条流程”。
3. 新闻的信任,将如何在系统时代被重新占据?
以往的信任来自“职业荣誉”。
未来的信任来自:
可验证性可追溯性可审计性可复盘性新闻不再是“我说”,
而是“流程说”。
Dawn 的事故当然尴尬,但它不是“错误”,而是“预演”。
它预演了未来新闻的生产方式:
一个人机混合、流程半透明、语言模板化、风格产品化的世界。
它预演了未来新闻的危机形态:
不是内容危机,而是流程危机。
它预演了未来的公众审视:
我们不仅要知道“新闻说了什么”,
还要知道“新闻是怎么出来的”。
最关键的是,它预演了未来的行业真相:
报业已在 AI 时代深处,只是还没正式宣布。
真相不是被揭穿,而是自己走了出来。
来源:杰罗姆新新媒体观察
