中气以为和:如何应对AI挑战?

B站影视 内地电影 2025-09-06 10:14 4

摘要:​在前面两节的内容中,我们详细探讨了AI对于人类信息网络的改变,以及AI可能带来的挑战和风险。那么,在这一节中,我们来看看面对AI可能带来的挑战和风险,作者赫拉利都提出了哪些具有启发性的应对策略。

《智人之上》作者:尤瓦尔·赫拉利

​在前面两节的内容中,我们详细探讨了AI对于人类信息网络的改变,以及AI可能带来的挑战和风险。那么,在这一节中,我们来看看面对AI可能带来的挑战和风险,作者赫拉利都提出了哪些具有启发性的应对策略。

谁来承担责任

当前,人工智能的发展尚在人类的掌控之中,但技术迭代速度持续加快,这种可控局面随时可能被打破。因此,我们正处在一个关键时期——如果现在不加强对AI的监管,未来可能面临失控的风险。

那么,究竟谁应该为AI的发展承担责任呢?理论上,引领AI革命的科技巨头最应当承担主要责任,它们掌握着核心技术和数据,最了解AI的运作机制。

然而,这些行业巨头由于利益相关,往往更倾向于强调AI的积极影响,对潜在风险避而不谈,甚至抵制监管措施。

在欧美,AI巨头每年花费大量资金游说政客,试图削弱可能影响其商业利益的法规;在我国,部分平台滥用AI技术,导致大数据杀熟、隐私泄露等问题频发。

毋庸置疑,政府在AI监管中扮演着核心角色,但仅靠政府监管是远远不够的。公众监督同样重要,它能够推动政府采取更严格的监管措施。

然而,AI技术的复杂性和快速演变使得我们难以理解其运作逻辑,更不用说有效监督。

为了说明这一点,赫拉利举了个AI时代收税的例子:可口可乐通过推特在乌拉圭投放广告,带动销量增长,按照传统的做法,广告公司的收入也该收税,但推特在乌拉圭连实体机构都没有,该如何收税呢?此外,AI公司利用全球数据训练模型,再以高价出售人工智能服务,是否应向数据来源国支付费用?数据来源国能否就此征税呢?

仅仅弄清楚这一问题就很困难了,更不用说应对其他大量类似的问题。

那么,如何在一定程度上改善这种状况呢?答案是,除了我们自身要主动学习、掌握相关知识外,还需争取一项重要权利,那就是“得到解释的权利”。

得到解释的权利

得到解释的权利之所以重要,除了上述理由以外,还有一个重要原因,当AI系统越来越多地决定着我们的信用评分、医疗方案甚至司法判决时,这种解释权就应该成为我们每个人的基本权利。就像法官撰写判决书时,必须说明理由一样,AI系统也应当为每一个影响我们生活的决策提供合理的解释。

但问题在于,AI的决策过程往往复杂得超出常人的理解范围。即便将AI决策的细节全部公开,我们也看不懂。不过,我们虽然看不懂,但是专家团队看得懂,赫拉利认为,可以组建由专家团队构成的监管机构,在AI辅助下对关键算法进行评估和审查。

另外,监管机构不能仅做技术审查,还必须将审查结论转化为我们能听得懂的故事。历史一再证明,晦涩难懂的技术报告永远比不过煽动人心的阴谋论。如果我们不能用引人入胜的方式讲述算法监管的故事,公众的注意力很快就会被各种极端观点所俘获。

在这方面,科幻作品《黑镜》提供了不错的示范。这部剧通过一个个扣人心弦的故事,将抽象的技术伦理问题具象化,让观众能够直观地感受到技术发展可能带来的影响和挑战。比如《急转直下》用社交评分制探讨极端化的社会信用体系。《黑函之舞》则揭示了数据监控被坏人利用的可怕后果。

限制AI的权力

当然,一方面,我们需要得到解释的权利,以此增强人类对于AI的认知和控制能力,另一方面,我们必须加强对AI的约束和规范。

首先必须明确,AI的本质是机器人程序,而非权利主体,它不应享有任何形式的“权利”,更不应伪装成人类发表言论。

不过,这并不意味着我们要排斥AI参与所有讨论。在金融分析、医疗诊断、法律咨询等专业领域,AI的见解也有重要参考意义。但所有AI参与的对话都必须基于一个前提:明确标注其非人身份,不得以欺骗方式介入人类对话。

同时,要对算法的决策权进行限制。特别是要限制AI在公共对话领域进行筛选和管理的权力。

为什么这个决策权如此重要呢?这是因为其他决策权大多聚焦于具体事务,而公共对话的决策权则关乎公共事务。在现代社会,一切权力都来源于民意,保护公共对话不受污染,本质上就是保护真正的民意,确保公众能够在真实、客观的信息环境中表达诉求、参与决策。

当然,不可能完全禁止算法推荐内容,毕竟,在信息爆炸的时代,面对海量的数据和内容,人类自身的处理能力有限,难以胜任筛选和推荐的工作。

但是,算法究竟依据什么原则来决定屏蔽哪些声音、放大哪些声音,必须经过人类的严格审查。特别要警惕的是,不能让算法成为刻意散播愤怒、对立情绪的工具。

在这方面,科技企业有不可推卸的义务,他们应当公开算法运作的基本逻辑,切实保障公众的知情权与监督权,让算法在阳光下运行,接受社会各界的监督。

最后,还要限制AI对我们的监控。之前我们提到大数据监控在一定程度上是有好处的,比如提高生活便利程度、保障公共安全等,但必须明确,AI对人类的监控应当以不侵犯公民隐私与自主权为前提。

为此,赫拉利提出了几个原则来加以节制。第一个原则是“为善”。意思是如果AI要收集我们的信息,必须出于帮助我们的目的,而不能违背我们的个人意愿。

第二个原则是“去中心化”,也就是不能让所有信息集中在一处,否则如果一个组织对个人无所不知,个人就毫无隐私可言,完全处于被掌控的状态。

第三个原则是“相互性”。如果要加强对个人的监控,就必须加强对收集个人信息的企业的监管,防止他们利用个人信息谋取私利、胡作非为。

第四个原则是保留让人改变与休息的空间。上一节提到的极端的社会信用体系就是个反例。在这个体系中,要求人们随时随地保持紧绷状态,而一旦扣分就会对个人生活产生严重后果,这都是不合理的。人既需要放松,也需要能够改变的机会,不能将人束缚在固定的模式中。

硅幕之下的全球合作

以上设想的应对方案虽然不错,但是如果我们人类不能团结起来共同应对AI带来的挑战,这些办法都会难以实现。

然而,从历史上来看,人类很难真正团结一心,历史上更多的是激烈的斗争对立和互相伤害。在AI时代,这一问题不仅存在,还可能变本加厉,赫拉利称之为“硅幕”。

所谓“硅幕”,与“铁幕”对应,意在表明,AI时代所引发的全球分裂态势,在很多方面与“冷战”时期有着很多的相似性。

首先,AI的发展加剧了大国与小国之间的对立。以前,将全世界信息都集中起来根本不现实,现在AI却将此变成了现实。与此同时,这也意味着全球权力会向掌握AI技术的国家集中。

比如,在政治上,网络安全问题直接关乎国家安全,现在AI智能的发展,使得利用网络煽动群体对立,影响政治局势变得更加容易。

在经济上,小国则可能会沦为“数据殖民地”,它们产生的原始数据源源不断流向中心国家,经过算法加工后,又以AI产品的形式返销,加剧了全球发展的不平衡。

更严重的是AI强国间的对峙。当前,全球主要大国都深刻认识到AI的重要性,纷纷将其作为科技竞争的核心领域。为了确保自身在这一领域的领先地位,各国在数字网络建设、数字代码使用等方面逐渐形成各自的标准和规范,相互之间的差异日益扩大。

这不会只是科技之间的差异,AI不是单纯的工具,它还会影响人类的行为。因此,“硅幕”两侧的国家在科技、文化价值观、社会规范以及政治结构等方面差异可能会越来越大,这会进一步加剧全球社会的分裂态势。

那么,在这样的背景下,究竟如何才能让人类选择“合作”这个选项呢?

赫拉利指出,正确的做法应当是在尊重各国各民族差异的基础上,明确并遵守某些全球规则,同时,要将全人类的长期利益置于少数人的短期利益之上。

AI兴衰,匹夫有责

明末思想家顾炎武曾经提出,政权的更迭是上层精英的责任,但是天下兴亡,也就是天下道义和文化的存续,则是全体社会成员共同的责任。

当下,AI所引发的挑战已然成为人类文明面临的深层次危机。我们每个人都是这场大变革的参与者和见证者。我们的选择就是历史的选择,是任由AI科技的浪潮将我们裹挟,还是自觉主动地参与对AI发展的讨论和监督,塑造数字文明的进程?我们的选择或许会成为决定人类文明命运的关键因素,影响人类历史的走向。

来源:鹰哥19

相关推荐