摘要:日前,斯坦福大学人类中心人工智能研究所发布的《2025 AI指数报告》指出,2024年全球AI投资总额高达2523亿美元,较上一年增长超过25%。
日前,斯坦福大学人类中心人工智能研究所发布的《2025 AI指数报告》指出,2024年全球AI投资总额高达2523亿美元,较上一年增长超过25%。
AI渗透率也从2023年的55%提升至78%。
技术的迅猛发展推动了产业结构的变化,但也引发了社会治理层面的深层挑战。
2024年2月,香港警方披露了一起涉及深度伪造技术的重大诈骗案。
诈骗分子通过AI合成视频,伪装成公司高管,指挥下属汇出约2500万美元资金。
视频中的“高管”不仅看起来毫无破绽,连声音也几乎无法分辨真假。
这类基于生成式AI的诈骗,已不再是小范围实验,而是实实在在地渗入到了商业运作和公共安全中。
这不是个案。
美国国家公路交通安全管理局(NHTSA)2023年底公布的报告显示:在过去12个月内,涉及自动驾驶系统的交通事故呈上升趋势。
尽管自动驾驶技术不断迭代,但在复杂场景下的误判、传感器失灵等问题依然未能彻底解决。
同样,AI在就业领域的影响也在持续扩大。
国际货币基金组织(IMF)2024年发布的报告指出,在发达国家,有多达60%的岗位将受到AI的影响。
这种结构性变化不仅影响收入,还会削弱职业认同感和社会稳定性。
如果没有有效的政策干预,“AI无产者”阶层的形成将成为潜在的社会风险源。
面对这些风险,有人提出要“暂停”AI的研发。
这一观点在2023年由部分科技领袖公开提出,并在2024年多次被媒体放大。
支持者认为,暂停可以为政策制定和治理机制赢得时间,避免技术“失控”。
但从实际情况看,这种做法并不可行。
AI技术的扩散已经具备高度的“可迁移性”和“低门槛性”。
即便主流机构暂停研发,技术仍可能通过开源社区或灰色市场继续传播。
此外,人工智能的风险不是“发展之后的副产物”,而是与其发展过程同步演化的“内生性问题”。
正是因为AI发展迅速、部署广泛、结构复杂,才导致其安全问题难以预测、难以控制。
因此,治理不能靠一刀切的暂停,而必须在发展中同步构建治理能力。
另一个主流观点是“发展万能论”——即相信随着技术迭代,AI自身会变得更安全,带来的风险也会逐步被消解。
但实际情况远非如此简单。
美国非营利新闻媒体ProPublica曾在2016年对司法领域的AI算法“COMPAS”进行调查。
该算法被用于评估被告的再犯风险,结果显示,它对黑人被告的“高风险”误判率是白人的两倍。
这种误判不是技术错误,而是源于训练数据中的结构性偏见。
社会似乎陷入了一个两难境地:要么限制AI发展以求安全,要么冒险推动技术以图增长。
但很多国家和机构已在尝试以“中道”的方式进行治理。
欧盟于2024年正式通过的《人工智能法案》采取了“风险分级”治理模式。
它并不限制AI本身的研发,而是根据具体应用场景施加不同程度的约束。
例如,AI用于公共评分、操控性决策等“不可接受风险”场景将被禁止,而用于就业筛选、执法监控等“高风险”场景则需强制合规。
这种基于场景分类的动态治理方式,既保留了技术发展的活力,又强化了对公众利益的保护。
因此,真正有效的AI治理体系,必须同时具备韧性、敏捷性和协同性:
韧性:要有长期稳定的价值底线。我国提出的“人工智能治理八原则”强调安全可控、责任明确、以人为本,和OECD的国际原则相契合。
敏捷性:应建立快速响应机制,实现对新兴风险的及时识别与应对。
协同性:必须打破部门壁垒,推动政府、企业、科研机构共同参与治理。同时,加强全球合作,才能应对跨国技术扩散带来的挑战。
只有在发展中同步构建治理能力,才有可能真正驯服这头“技术巨兽”。
人工智能是一种力量,也是一种风险。真正值得我们关注的,不是是否要发展AI,而是能否在发展过程中同步构建起足够的安全机制。
我们不是在对抗人工智能,而是在与它共处的过程中,学会如何更好地驾驭它。
来源:小芳医学科普