我最近沉迷用豆包做图、用DeepSeek做规划。不过,一旦从AI那得到满意的结果,我也会在心里焦虑:不会过不了多久,AI就让我失业了吧?毕竟网上总说,文职最容易被AI取代…… 在《投喂AI》这本书中,3位牛津大学学者对“AI取代工作”的担忧做出了回应。实际上,目前的AI并不能思考,也不能理解文本的真正含义,而只是基于数据进行输出。诸多“可能被替代岗位”的预测信息也并不准确,更值得担忧的反倒是夸大AI的 功能和生产力 ,导致人们未经深思熟虑就将它们应用于众多行业。摘要:我最近沉迷用豆包做图、用DeepSeek做规划。不过,一旦从AI那得到满意的结果,我也会在心里焦虑:不会过不了多久,AI就让我失业了吧?毕竟网上总说,文职最容易被AI取代……
AI 技术 受到各种政治、经济和文化因素的影响,可能会 放大偏见,强化刻板印象。作者指出:“ 就像私立学校培养出的政治精英阶 层, 他们的话听起来似乎很有道理,细想下来却充 满了该阶层对社会的偏 见,体现了社会权力分配不均的事实。”
01.
ChatGPT并不聪明,
它不能理解句子的真正含义
人 们很早之前就发明了语言模型和聊天机器人,现如今,是 数据集和各 种算法的支撑让它们能够生成各种行文流畅、内 容精准的文本。
但 大语言模型不能进行思考,也不能理解句子的真正含义 。它 分 析的是语言,而不是语言背后的社会意义 。人类在回答问题时,调动 的是对语境和人类社会的理解。而模型在回答问题 时,调动的是各字 符之间的统计关系,它并不真正了解这些字 符在现实中的含义。
计算 机语言教授艾米丽 · 本德把 ChatGPT 这样的模型称作 “ 随机鹦鹉 ” ,她强调,这些系统只是基于数据进行输出 ,并未真正理解文本数据的含义,因此具有局限性。
问题不在于这些程序如何运作,而在于我们与这些机器交流时会忘记它们是机器 。 与 AI 聊天时,我们会错认为它具备一定的理解力 和意图 。由于输出的结果很复杂,所以它看起来好像真的理解了我们 的想法,但实际上这只是一种幻觉。
电影《超体》
大语言模型其实只是在根 据概率 猜词。这就解释了为什么给它明确指令的时候,它给出的答案很准 确;但在其他情况下,它的回答完全经不住考验 —— 只是听上去很合 理,但其实全是它自己编造的错误信息,根本原因就是 它 无法理解自 己说的是什么 。
被问到有唯一正确答案的问题时,大语言模型的表现往往不尽如 人意,但面对一些提炼总结的任务,它的表现可圈可点。
如果颠倒陈述逻辑,大语言模型也会出现故障。在一个叫作 “ 逆转诅咒 ” 的实验 中,研究人员发现,询问 ChatGPT-4 “ 汤姆 · 克鲁斯 的 妈妈是谁 ” ,在 79% 的情况下,它能给出正确答案 “ 玛丽 · 李 · 菲弗尔 ” ;但如果反过来问 “ 玛 丽 · 李 · 菲弗尔的儿子是 谁 ” ,它的正确率仅有 33% 。
大语言模型还会凭空编造法 律案例,引 用根本不存在的书籍,给出的答案看似无懈可击,与人类的无异,实则漏洞百出。但随着网络搜索和其他相关验证功能被整合到聊天机器 人中,这种情况会大大减少。
人类想要正确理解大语言模型,客观地评估其优缺 点,就不能把它当成人来看。 它没有智力,也没有创造力,自然也没有信念、精 神和情绪 。
在日常生活中,我们经常会从心灵属性的角度看待某种 行为,赋予其信念和想法,这就是哲学家丹尼尔 · 丹尼特 所说的 “ 意向立场 ” 。但我们不能这样对待大语言 模型, 因为它们没有情感和心智。
尽管如此,它们 还是可以在很多领域帮助 人类大幅提升工作能力,它们虽然不能像你有意识且有心智的同事一 样理解你,但它们用途广泛、功能强大。
02. 机器能否取代你的工作?
有预测称, AI 将导致大量工作岗位消失,投行高盛预计可能有 多达 3 亿个工作岗位被自动化或 AI 取代,麦肯锡咨询公司预测的数 量是 4 亿 ~8 亿。 埃森哲咨询公司调查 发现,人类工作中有大量 语言使用场景,因此 40% 左右的工作时间会受到大语言模型 的影响。
但我们也不能完全相信这些数据,因为咨询公司的工作就是炒作客户 所在行业的价值。通常这些数据都来自高度抽象的系统分析,系统会收集各行各业中可能被机器替代的岗位信息 ,然后进行计算。
计算的 前提是大语言模型能够被大规模地、广泛地应用于实际工作 中,但这 种情况并不常见。
21 世纪第 2 个 10 年也曾发生过一次技术失业 恐慌。
2013 年, 牛津大学的两位研究人员调查了不同岗位被计算机取代的可能性, 发现在未来 10~20 年,美国有 47% 的岗位将面临被计算机取代的 “ 高风险 ”。
这个研究让人们开始担忧。但 这么多年过去了,预测没 有成真 。实际情况没有预测的那么严重,研究人员对工作的分类方 式导致数字被夸大了。事实上,公司没必要让机器取代工人,而应让机器发挥更大的作用。
大语言模型虽然在某些写作或内 容创作领域表现很好,但 在教育、医疗保健、工程、法律、金融和文化产业领 域中, 取代人类的可能性很小 。大语言模型还不够客观和准确,不能 获得人类的完全信任,因此在一些重要岗位上,机器更多是辅助而非取代。
电视剧《人生切割术》
国际劳工组织 2023 年的一份报告显示,像 ChatGPT 这样的生 成式 AI 在工作场景中的主要作用是辅助而不是替代 。 文职 岗位更 容易被机器取代,有 24% 的文职岗位属于极易被替代的岗位。生成式 AI 对大多数职业的影响是改变工作岗位所需技 能、工作时间和劳动强度。
通过对大语言模型的分析,我们发现它更擅长处理有明确目标和 有较多文本数据支撑的标准化任务。据此,我们能判断出 它对哪些行 业的冲击最大。
虽然机器不可能完全取代人类工作,但有一些专门为 特定行业设计的生成式 AI 还是会彻底改变这些行业。
比如,跟代码 打交道的软件开发员和计算机程序员将受到极大影响。曾经一个程序 员团队才能完成的工作,现在一个人就能完成。
像 ChatGPT 这样的 聊天机器人还擅长广告、营销和新闻传播领域的文本创作。它们 能大 幅提升工作效率,原本需要几个小时才能完成的任务,现在只需几分钟。
此外,一些涉及大量文本数据整合和分析的 工作,如法律和金融 行业的部分工作、市场分析和交易方面的工作,也可以使用 AI 来提 高工作效率。但我们还是要提高警惕,不要 过度依赖 ChatGPT 。
使用大语言模型的最大风险,就是夸大其功能和生产力 ,导致人们未经深思熟虑,就将它们应用于众多行业 。这样一来,决 策权就从 可以充当责任主体的人类移交给了不受监控、无法追责的机器。
2 023 年, AI 初创企业吸引了全球近 500 亿美元的投资。 人们认为通过 在决策关键点引入大语言模型,能够提高工作效率,让行业彻底变革。 然而,在执法、银行贷款、简历筛选、福利发放和 教育等领域, 算法 决策实际上加剧了长期存在的偏见、歧视和错 误决策问题 。
模型不具备人类的理解能力、社会意识和同理心,因 此试图简单地用它替代 人类是不现实的。
AI 的发展并非完全由技术人员掌控。它受到市 场竞争压力的影响, 各家公司都在争抢这一新兴领域的头把交椅。更 重要的是, AI 技术 还受到各种政治、经济和文化因素的影响 ,它对特 定领域或职业的影 响取决于技术的应用趋势,而这种趋势很难预测。所以,如 果过度依 赖当前大语言模型的能力,给予机器过多的权力和责任,而没 有足够的人力监督,这过于鲁莽。
模型就像私立学校培养出的政治精英阶 层, 他们的话听起来似乎很有道理,细想下来却充 满了该阶层对社会的偏 见,体现了社会权力分配不均的事实 。
03. 末日恐惧大可不必,
AI的这些风险更令人担忧
有人认为,有关 AI 毁灭 世界的警 告其实就是在炒作 AI 产品。可要说完全不信,那也是 假话。因为如果完全不信未来的聊天机器人能够在我们修理它的电路时监视我们,我们也就没必要对这个现在还漏洞百出的东西如此上心。
尽管 有炒作嫌疑,但 AI 领域还是有人相信其会对人类未来生存构成威 胁。 2022 年的一项针对 AI 研究人员的调查显示,一半人认为 AI 有 10% 以上的概率会毁灭人类。 很多人担心,某种超级 AI 会比预想的更 早到来,它们最终会产生自我意识,给自己制定 目标,甚至想要消灭 人类。
但我们也要清醒一点,从目前形势来看, 在能够预见的 未来,人 类不会面临此类威胁 。现在的 AI 连仓鼠水平的自主意识都没有,更别提什么超级 AI 了。 大语言模型不会在早上醒来时思考要不要忠于 人类 。它只不过是标准的语言模型,根据人类输入的提示语 检索数据 集,然后输出结果。
它确实有潜在的风险,如协助黑 客攻击、编造虚 假信息和传播错误信息,但现实中我们离电影《终结者》和《机械 姬》里机器追杀人类的桥段还很远。媒体上针对这些风险的讨论既为 时过早,也脱离了当前 AI 的现实。
电影《终结者》
然而,这并不意味着人类不该认 真思考 AI 发展所带来的长期后果,也不意味着 AI 不会发展到电影中 的程度。我们要做的是从当前这代 AI 的现实情况出 发,分析它们正 在造成或可能造成的危害,并预判随其技术 演进可能滋生的风险。
讨论一些假想中的颠覆性技术威胁,反而会分散我 们的注意力,让我 们忽略真正应该关注的东西。就像我们会发现, 老派科 幻小说对未来 的瑰丽幻想与末日忧思与实际情况大相径庭 。
那么,我们现在正面临怎样的风险呢?
一些不法之徒可能会利用大语言模型危害社会,比如,传播虚假信息 、操纵选举和制造生物武 器。首先,生成式 AI 可以让用户 快速制造虚假信息 ,并在社交媒体 上进行传播。
以往,这类误导性内容的传播往往依赖 于人工操控的机 器人,仅搭载初级文本生成工具,但 AI 不仅极大地扩展了受众范围,还提升了信息的个性化程度和说服力。
先进的大语言模 型能够让聊天机器人与网络上数百万人进行互动交流,每一次互动都是量身 定制 的,针对用户需求进行一对一解答, 用户根 本意识不到自己正身处精 心设计的操控之中 。
大语言模型还让人们更容易接触到制作生物武器和其他可用于 恐怖袭击的化学品的信息。虽然商用的大语言模型都设有安全防 护,阻止聊天机器人向用户传播危险信息,但事实证明这 些措施都 可被绕过。开源模型的进一步传播将使更多 人有能力创造危害性物质。大语言模型具备专家级别的专业知识,理论上甚至能够指导用 户制造新型病毒。
除了以上风险,生成式 AI 还会 放大偏见,强化刻板印象 。这些 负面影响在金融、住房、社会福利、司法等关键领域尤为 显著,直接 影响人们的生活质量和基本权利。
为了进一步了解 这些问题,我们还 要深挖塑造 AI 发展的隐形价值观。
来源:小镇评论家
