特色专题 | 生成式人工智能与全球网络安全——战略竞争视角下的风险与治理

B站影视 2024-11-21 18:00 2

摘要:本文深入剖析了生成式人工智能对全球数据安全与网络安全构成的复杂威胁,从战略竞争的高度,特别是中美两大经济体之间的激烈角逐中,揭示了这一技术背后隐藏的地缘政治博弈。通过精细的政策分析与对比研究,我们得以窥见主要大国在人工智能与网络安全治理上的不同策略与考量。

编者荐语

本文深入剖析了生成式人工智能对全球数据安全与网络安全构成的复杂威胁,从战略竞争的高度,特别是中美两大经济体之间的激烈角逐中,揭示了这一技术背后隐藏的地缘政治博弈。通过精细的政策分析与对比研究,我们得以窥见主要大国在人工智能与网络安全治理上的不同策略与考量。

摘要

随着生成式人工智能技术的飞速发展,数据安全和网络安全问题日益凸显。在大国竞争的背景下,生成式人工智能技术的发展和治理不仅关乎一个国家的技术领先地位,更深刻影响着国家安全和国际话语权的分配。从战略竞争,特别是中美竞争的视角,分析了生成式人工智能对全球数据安全和网络安全构成的风险和挑战。通过政策分析和对比分析的方法,剖析了主要大国在人工智能与网络安全问题上的治理策略,并探讨了中美欧三方在该领域合作的可行路径,旨在帮助其共同应对生成式人工智能带来的全球性挑战。

论文结构

0引言

1研究背景

2生成式人工智能概念解析

2.1 技术原理和特点

2.2 生成式人工智能的发展阶段

3生成式人工智能与全球网络安全风险

3.1 生成式人工智能与数据安全风险

3.2 生成式人工智能与舆论安全风险

3.3生成式人工智能与竞争性选举操纵

4生成式人工智能与网络安全治理的挑战

4.1治理策略的政治化、泛安全化与意识形态化

4.2不同的治理理念及价值观的影响

4.3技术垄断对主权国家的挑战

4.4生成式人工智能与地缘政治竞争

5 国际治理现状及展望

5.1生成式人工智能与网络安全治理现状

5.2国际合作展望

6结语

0引言

随着人工智能(Artificial Intelligence,AI)技术的快速发展,生成式人工智能已经成为全球技术竞争的前沿领域。生成式人工智能的快速发展不仅极大地推动了网络技术的发展,同时也带来了诸多网络安全方面的风险和挑战,使得网络安全成为更具公共性的全球性议题。如今,网络安全的概念已经上升到了综合性的网络空间安全问题,包括大数据和国家安全、网络意识形态安全、网络军事战争、个人信息安全等方面。网络安全概念的拓展和大国战略博弈的加剧给国际网络空间安全治理带来了更加严峻、复杂和全面的挑战。中美两国作为全球AI领域的领导者,其在生成式人工智能领域的竞争与合作对全球数据安全和网络安全格局产生深远影响。

1研究背景

为了追求全球科技主导地位、相对提升自身国际地位,包括美国、中国和俄罗斯在内的大国及欧盟正在进行一场“全球AI竞赛”。这些国家和地区的AI战略进一步反映了其希望通过AI(包括技术本身和其治理规则)来提升自己在国际体系中的权力地位。

在美国对华战略竞争全面深化的背景下,AI等新兴技术领域成为中美战略竞争核心,美国持续在这一领域实行“脱钩断链”政策,AI正在成为双边关系的“角斗场”而非“合作点”。根据学者的追踪评估,美国情报界自2013年起连续7年将网络安全视为全球首要安全威胁,取代了此前长期关注的恐怖主义。然而,自 2021年起,随着美国国家安全战略转向大国竞争,中国开始被其视为主要安全威胁。值得注意的是,大国竞争始终紧密围绕着网络安全这一核心议题展开。

中美在生成式人工智能为核心的网络安全治理上存在技术竞争、监管竞争和国际话语权竞争。这些竞争不仅反映了两国在AI领域的发展策略和利益诉求,也共同塑造了生成式人工智能时代的网络安全治理格局,并影响着全球AI技术的未来发展方向。

本文采用大国竞争的视角,旨在深入分析生成式人工智能对数据安全和网络安全所构成的风险与挑战,并考察中美两国在此领域的竞争动态以及探索潜在的合作机遇与策略。

首先,本文对生成式人工智能进行了详尽的概念解析,阐述了其技术原理及当前发展状况;

其次,综合分析了生成式人工智能技术在数据安全、舆论安全、全球选举公正性、地缘竞争等方面对全球网络安全的影响,并在此基础上,运用对比分析和政策分析方法,深入探讨了中美欧三方在AI领域的政策法规框架,比较了其不同的AI战略和治理策略,并揭示了在网络安全治理过程中存在的核心争议与分歧;

最后,本文着力于探索中美在以AI为核心的网络安全治理中的合作前景,实施包括制定跨国数据安全标准、共享网络安全情报、联合研发更为安全的AI技术模型等策略,以期促进中美两国在AI领域的健康竞争与协作,共同应对全球数据安全和网络安全的挑战。通过这一研究,本文旨在为国际社会在AI时代的网络安全治理提供理论支持和实践指导。

2生成式人工智能概念解析

2.1技术原理和特点

生成式人工智能是一种基于机器学习和自然语言处理技术,通过训练大量数据生成包括文本、图像、音频和视频等内容的AI应用,例如ChatGPT、Sora 等。生成式人工智能包括数据、算法(大语言模型)和算力3个核心因素。其中,数据是燃料,算法是引擎,算力是驱动力。也就是说,数据提供了大语言模型学习的基础,大语言模型算法决定了学习的方式和效率,而算力则确保了算法能够快速运行并处理复杂的任务。

2.2生成式人工智能的发展阶段

学术界和科技领域一般将AI分为弱人工智能(Narrow AI)或狭义人工智能、通用人工智 能(Artificial General Intelligence,AGI) 或 强人工智能,以及超级人工智能(Super ArtificialIntelligence,Super AI)。其中,Narrow AI是致力于完成特定任务的AI系统,如机器翻译系统、智能语音系统和智能驾驶系统等,已经具有广泛的应用场景。AGI是指能够完成与人类相同水平或更高级别任务的AI系统,其核心特点在于其具有通用性,即能够像人类一样理解和处理各种不同类型任务的AI形式。而 Super AI则超越了人类智能水平,是指比人类智能更高级的AI系统。

生成式人工智能作为AGI研究的一部分,专注于利用机器学习技术生成如文本、图像、音频等内容,主要针对特定的生成任务设计,目前已在多个应用领域取得实际进展。AGI和Super AI目前仍然处于理论性研究阶段,并没有真正落地。在2024年1月16日的世界经济论坛上,OpenAI首席执行官Sam Altman表示,AGI可能会在“相当接近的未来”得到开发。

目前生成式人工智能在技术层面的实现上已相对成熟,科技界和学术界的AI 研究人员一直在努力推动AGI的研究和创新,但目前 AGI实现时间尚不明确。然而,随着OpenAI发布ChatGPT-4这一基于大模型的AI技术,人们开始意识到AGI时代的即将来临。AGI的实现将标志着AI领域的重大突破。与此同时,社会各界的AI研究人员正在积极探索生成式人工智能所面临的技术挑战、潜在影响及风险,以期为AGI的发展奠定坚实的科学基础。

3生成式人工智能与全球网络安全风险

生成式人工智能技术的快速发展已在全球范围内引发了对网络安全治理机制的深层次反思。AI技术特有的风险与挑战,如“深度伪造”技术的潜在滥用以及由算法驱动的网络攻击等问题,已经成为学术界、产业界和政府部门共同关注的焦点。本节将重点从大国竞争的角度出发,探讨生成式人工智能在网络安全领域的风险与挑战,尤其是对数据安全、舆论安全及国家安全、国际关系等方面的影响。

3.1生成式人工智能与数据安全风险

在AI和大数据时代,数据作为21世纪的“石油”,已成为推动各行业发展的关键资产。随着数据量的激增和数据类型的日益多样化,数据安全和网络安全问题变得尤为突出,对国家安全和发展构成了前所未有的挑战。生成式人工智能在数据的输入与输出、用户侧和平台侧均面临潜在的数据安全风险。这包括在数据收集和训练过程中可能导致的个人隐私泄露,以及对国家安全构成的威胁和挑战。

数据安全作为网络安全的关键组成部分,也是构成国家安全的重要内容。生成式人工智能技术在大国竞争及现代冲突中通常以多种方式被间接使用,包括但不限于情报分析、监视、自动化指挥控制系统、网络战和信息战等。这些使用方式已经在俄乌冲突中得到了验证,并再次引发了国际社会关于 AI武器化、社交媒体武器化和数据武器化的思考。在这些应用中,数据安全成为关键问题,因为AI系统的性能和准确性依赖于大量高质量的数据。数据泄露、数据污染或数据滥用均可能引发战略劣势、误导决策,进而严重威胁国家安全。

3.2生成式人工智能与舆论安全风险

在大国竞争的背景下,舆论安全将是生成式人工智能给网络安全领域带来的重大风险和挑战之一。舆论安全作为网络安全领域日益重要的议题,是国家安全和政治安全在网络领域的重要体现。生成式人工智能被广泛认为可能被滥用于操纵舆论、传播虚假信息、影响公众舆论和政治决策。此外,AI技术作为一种操纵舆论的工具,能够自动化地识别和回应公众观点,从而扭曲信息的真实性和客观性。深度伪造技术所生成的图像、音频和视频已经达到了以假乱真的程度。对其恶意利用将会导致虚假舆论传播和政治操纵,即通过生成内容传播虚假信息制造社会恐慌,同时可能操纵输出传播政治谣言以煽动民族仇恨、影响政治稳定。例如,随着“水军机器人”在网上的言行越来越接近人类(AGI的出现),其对于流言和舆论的引导将变得更具有隐蔽性和破坏性,给国家形象带来巨大挑战,进而威胁国家安全和政治稳定。

在国际层面上,生成式人工智能技术因其具有快速生成和传播大量文本、图片和视频等信息的能力,已成为舆论塑造和信息战的关键工具。生成式人工智能技术能够通过操控信息内容来影响公众舆论和构建特定叙事,从而使舆论战的手段更加多样化和隐蔽。在国际话语权的竞争中,各国通过话语叙事来影响公众观念并控制信息流动。尤其是利用AI生成内容进行宣传、传播虚假信息和控制叙事,已成为各国舆论战、信息战和认知战的重要组成部分。

AI生成内容的广泛应用正在重塑国际舆论安全格局。例如,在俄乌冲突中,俄罗斯与西方国家的信息战展示了AI生成内容如何迅速影响国际舆论安全。各方通过散布虚假信息和在社交媒体上操纵舆论,试图塑造国际社会对冲突的认知,并争夺舆论主导权。在这场冲突中,各国利用 AI深度伪造技术,不仅加剧了国际紧张关系,还破坏了全球信息生态系统的信任基础。这种信任缺失削弱了国际社会的战略互信,并冲击了脆弱的和平环境。

3.3生成式人工智能与竞争性选举操纵

随着AI时代的到来,数据和算法已成为新型权力的象征,同时也引入了前所未有的政治风险。2018年3月,英国伦敦的政治咨询公司“剑桥分析”(Cambridge Analytica)被曝光不当利用了8700万Facebook用户的数据,以支持2016年美国时任总统特朗普的竞选活动 。这一事件突显了技术企业如何利用大数据和精确算法对竞争性选举施加定向影响,从而揭示了AI 在政治领域应用的潜在风险。

2024年作为全球选举的关键年份,将见证几十个国家和地区的重大选举活动,包括美国总统大选、俄罗斯总统大选、欧洲议会选举、印度总理大选和乌克兰大选等。特别是在美国总统选举期间,民主党初选投票过程中有选民接到了利用AI深度伪造技术模拟的“拜登电话”。该事件被视作世界已知AI深度伪造技术首次应用于总统竞选,并触发多项调查 。此外,AGI的潜在应用可能通过干预他国选举,对国际关系产生深远影响,从而引发国际紧张甚至冲突,破坏国际社会的信任和合作基础。

鉴于此,全球科技企业在第60届慕尼黑安全会议(慕安会)上签署了《打击在2024年选举中欺骗性使用人工智能的技术协议》,承诺共同打击旨在干扰选举的AI滥用行为。签署方包括OpenAI、亚马逊、谷歌、微软、TikTok、“元”公司(Facebook 的母公司)、社交平台X(原推特)等,这一行动标志着全球对AI技术滥用的高度关注和协作意愿。

4生成式人工智能与网络安全治理的挑战

4.1治理策略的政治化、泛安全化与意识形态化

在当前地缘政治竞争加剧的背景下,网络安全和AI已经上升为大国间战略竞争的核心。生成式人工智能的网络安全治理正面临政治化、泛安全化和意识形态化等复杂挑战,这些挑战主要源自不同国家在政策导向和战略目标上的根本性分歧。

在探讨AI治理的过程中,政治化、泛安全化和意识形态化这3个关键因素经常交织在一起,影响着AI与网络安全相关政策和法规的制定与执行。政治化体现在AI治理决策过程中,政治议程和利益集团的影响往往超越技术或客观标准,导致政策的选择可能出现偏见和效率问题。泛安全化则将AI技术置于安全框架之下,强调国家安全等优先考虑 ,这可能会牺牲公平贸易、创新、隐私和伦理的考量。而意识形态化则是指政策和法规的制定深受特定意识形态、价值观或信仰体系的影响,这在数据隐私、算法偏见和AI伦理使用等方面表现得尤为明显。意识形态的差异可能导致治理路径的分歧,对社会价值观和规范产生深远影响。

以俄乌冲突为背景,AI在安全和军事领域的应用显著加剧了国家间的不信任感。此外,泛安全化和政治化的趋势进一步增加了在这些敏感领域达成国际治理共识的难度。美国政府及部分西方学者将我国的网络治理模式视为对西方自由民主价值观的挑战,这反映了美国在治理模式上与我国的竞争呈现出意识形态化的倾向。中美两国在AI和网络空间的竞争不仅是技术层面的较量,更是两国在政治、经济、军事、外交以及社会文化等更广泛领域地缘政治竞争的体现。

4.2不同的治理理念及价值观的影响

在生成式人工智能的网络安全治理中,各国在治理理念和价值观上的差异构成了一项重要挑战。美国的政策制定者和公众普遍倡导自由市场原则和互联网的开放性原则,而我国的治理理念则着重于国家安全和社会稳定,将网络安全视为国家治理的基石。在治理实践中,美国倾向于强调市场机制和私营部门的主导作用,而我国则偏好政府主导和集中管理的方式,以确保技术发展与国家利益及社会稳定相一致。这些治理理念的差异导致了两国在AI伦理、道德标准、数据保护、算法透明度和用户权益保护等方面的治理标准和措施存在显著差异。例如,美国可能更侧重于对个人隐私的保护,而我国则可能更注重对国家利益和社会秩序的维护。

此外,逆全球化趋势和保护主义倾向促使一些国家在AI治理上采取更为保守的立场。经济发展水平和AI技术发展的差异也导致各国对AI技术的依赖程度和应用场景存在较大差异,进而影响对AI治理统一性的追求。在跨境数据治理方面,这些差异尤为明显。欧盟由于缺乏本土的大型互联网平台且AI产业发展相对落后,更倾向于实施“数据本土化”政策,并强调个人隐私和数据保护的重要性。相比之下,美国更注重数据的自由流动和使用。这些治理理念和价值观的差异可能导致欧盟和美国在治理路径和政策制定上的分歧,从而影响网络安全治理领域的国际合作关系。

4.3技术垄断对主权国家的挑战

中美两国在以生成式人工智能为主的网络安全治理上还面临着技术垄断对主权国家的挑战。随着大型科技公司在数据资源和人工智能技术方面逐步占据领先地位,它们在数字领域形成了实质性的垄断,这不仅对市场竞争和消费者权益构成了挑战,也给国家主权和网络安全带来了前所未有的风险。大型科技公司利用其在数字行业和经济中的主导地位,正逐渐占据安全政策领域的核心地位。这些公司利用其影响力,积极参与安全治理网络和地缘政治竞争,以抵御反垄断法规的挑战,并在此过程中对国家主权构成潜在挑战 。

举例来说,谷歌、微软和亚马逊等大型科技公司在全球范围内拥有强大的技术优势和市场影响力。这些公司的技术垄断可能对主权国家的网络安全和数据主权构成威胁。以中美为例,美国的大型科技公司可能通过数据收集和分析来获取他国的情报信息,而我国的大型科技公司则可能受到美国的技术封锁和限制,这种技术垄断可能影响两国在生成式人工智能和网络安全治理上的合作,并加剧国际竞争。

4.4生成式人工智能与地缘政治竞争

随着 AI技术的不断进步,AI技术已经渗透到了社会的各个方面,使得世界各国越来越认识到AI在其地缘政治地位塑造中的战略重要性。中美两国正进入以AI为基础的新型地缘政治竞争阶段(也被称为AI地缘政治)。AI地缘政治的一个关键方面是世界主要大国之间为AI主导地位而进行的竞争,特别是美国和我国之间的竞争 。中美两国都在AI研究和开发上投入了巨资,旨在确立自己作为这一关键技术的领导者地位 。这场竞争引发了关于技术脱钩、数据主权以及潜在的AI军备竞赛的担忧,对国际关系和合作产生了影响 。AI地缘政治的发展促使传统的地缘政治竞争焦点从地理位置、资源争夺转向数据、技术、标准的竞争。

大国基于AI的竞争不仅体现在AI技术的发展上,也反映在AI治理的政策和标准的制定上。随着不同国家和地区根据自身利益和战略考量制定出差异化的 AI治理框架和法规,全球AI治理体系趋向碎片化。这种分化不仅妨碍了国际的合作与协调,还增加了地缘政治的风险,使得全球网络安全治理面临更多挑战。

AI的地缘政治是一个复杂且迅速演变的概念,它对全球力量结构、经济竞争力以及国家安全构成了重大影响 。例如,AI地缘政治正在以AI战略优势形成国家间的联盟和伙伴关系。中美竞争视角下的AI地缘政治正在导致AI治理出现碎片化、地域化和阵营化的特点 ,这加剧了全球网络安全治理的复杂性和不确定性。

5国际治理现状及展望

5.1生成式人工智能与网络安全治理现状

在生成式人工智能及其大模型技术飞速发展的当下,全球网络安全治理模式正面临一场深刻的变革。为了应对AI领域中的网络安全和数据主权的挑战,不同国家和地区采取了多样化的网络治理策略,其中以美国、中国和欧盟的模式最为显著。这些策略不仅反映了各方在技术发展、企业监管、国家安全及国际竞争之间的战略平衡,还对人工智能时代的国际合作与全球治理产生了深远影响。

美国的AI治理策略以非干预性软监管为主,尚未制定全面的AI立法框架,而是通过行政指令和政策指南来引导AI发展。尽管这种模式有助于保持行业的开放性和创新性,但也可能导致监管滞后和其他潜在风险。

欧盟的AI治理策略则是规则导向、兼顾发展的硬监管模式,以人权和价值观为核心。欧盟通过《通用数据保护条例》等法规,建立了全球数据监管和隐私保护的标准,并在 2024年推出了全球第一个 AI领域的全面监管法案——《人工智能法案》。面对中美的技术和产业挑战,欧盟通过制定规则和标准来维持其在全球AI治理中的领导力。

我国则采取了有限开放、全面监管的模式,更倾向于将安全视为首要任务。我国已颁布了《网络安全法》《数据安全法》和《个人信息保护法》等法律法规,加强对AI和算法相关产业的监管。尽管这种监管模式可能限制了企业的创新空间和国际竞争力,但我国正努力平衡发展与安全的关系,确保技术创新和发展的空间。

不同国家和地区采取了不同的AI治理策略,从美国的市场驱动和软监管,到我国的全面监管和安全优先,再到欧盟的规则导向和伦理标准。这些不同的策略不仅反映了各方独特的发展路径和所面临的挑战,也揭示了全球AI治理中的分歧。因此,为了有效推进全球AI治理,需要加强国际合作,共同构建以 AI为核心的网络空间治理体系。

5.2国际合作展望

当前,国际社会在建立AI安全的全球治理规则和机制方面尚未达成广泛共识。这一现状反映了各国在技术进步、安全监管、国家安全与国际竞争之间寻求战略平衡,以及由此产生的政策差异。AI的全球规范和标准的制定已成为国际治理体系中的紧迫议题。尽管中美欧三方在AI治理和网络安全领域存在分歧并面临挑战,但在推动 AI安全治理方面有广泛共同利益,合作潜力巨大。

AI安全治理的全球性挑战关乎人类共同命运,继气候变化之后,成为大国潜在的合作新领域。确保AI技术的安全性、透明性、可解释性和公平性,以及其与人类价值观的一致性,这对于预防AI可能对人类文化和文明造成的风险至关重要。具体来说,中美欧可以从以下3个方面加强国际合作与信息共享。

(1)建立全球网络安全与数据安全标准,并促进国际合作与信息共享。中美欧应共同推动制定国际数据安全标准和规范,建立跨国数据安全框架,以应对跨国数据安全和网络安全威胁。通过共享网络安全情报和联合打击网络犯罪,可以构建一个全球性的网络安全防护体系,提高对网络安全威胁的应对能力。

(2)联合研发和推广安全AI模型,并加强技术监管合作。中美欧应共同投资安全AI模型的研究与开发,并推动大模型源代码的开放,以促进算法的透明度和可信度。开源大模型不仅有助于研究人员和开发者共同改进和审查AI系统,还能确保AI技术的广泛应用不会加剧国际社会的不平等。同时,中美欧还应该加强技术监管合作,确保AI技术的安全性和可控性,防止其被滥用,以促进AI技术的健康、可持续发展。

(3)共同倡导AI人类命运共同体理念,平衡安全、发展与文明。在人类社会向数字文明的转型过程中,维护文明的连续性是必要的。文明的核心永远在于人,而非技术本身。在AI的发展中,我们需平衡安全、发展和文明3个方面。虽然安全问题已获得全球共识,但文明的考量往往被边缘化,但它对于实现AI安全治理至关重要。技术的快速发展必须与文明的进步相匹配,否则可能导致严重的社会问题,尤其在AI这一关键领域。因此,在AI治理中,重视文明的发展是解决发展与安全问题的关键一环。

6结语

本文探讨了AI技术的发展对网络安全治理带来的深远影响。AI技术的不断进步不仅加剧了网络安全问题的动态性、复杂性,也增添了其战略性。网络安全治理已超越单纯的技术层面,成为大国间利益与冲突的博弈场。地缘政治因素的介入,使得全球网络空间治理机制的落实变得更加困难。当前,全球网络空间治理呈现出碎片化、阵营化、意识形态化、政治化以及泛安全化等多重特征,这些特征对构建有效的全球治理体系构成了挑战。

为了应对这些挑战,中美两国作为全球 AI技术发展的引领者,需要在相互尊重和理解的基础上,寻求共识,共同推动构建一个符合人类命运共同体理念的网络安全治理体系。这不仅需要中美双方技术层面的合作,还需要在政策、法律、伦理等多个维度进行深入的国际对话与协作。

引用格式

魏媛媛 . 生成式人工智能与全球网络安全——战略竞争视角下的风险与治理 [J]. 信息安全与通信保密 ,2024(8):2-10.

作者简介

魏媛媛(1989—),女,博士,助理研究员,主要研究方向为网络安全与治理、人工智能与国家安全,以及大国关系。

来源:信息安全与通信保密

相关推荐