摘要:量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息、运行的是量子算法时,它就是量子计算机。现在或许还无法准确预测“量子计算机时代”何时到来,但在科学家看来,已经没有什么原理性的困难可以阻挡这种
引子
*个人以为2050年将会是人类发展的里程碑M/S,其标志性事件就是人工智能AGI、核聚变NF、量子计算QC三大技术的成熟与应用。
在此节点之后,人类社会将以几何级加速发展。
正文
近日谷歌官宣“Willow”量子芯片“可成倍减少错误,解决了量子纠错的关键挑战,并在不到五分钟内完成了一项需超算10的25次方年才能完成的计算。”
那么是否可以预见量子计算机很快可以投入实际应用?个人猜测实用化量子计算机恐怕至少还要以十年计。
另外两项影响人类社会发展走向的重大技术无疑应该就是高阶人工智能AI——AGI与ASI、核聚变NF。
量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息、运行的是量子算法时,它就是量子计算机。现在或许还无法准确预测“量子计算机时代”何时到来,但在科学家看来,已经没有什么原理性的困难可以阻挡这种革命性、颠覆性产品的诞生。
当现代计算机芯片在经典物理领域内无法进一步提升结构性能时,可以研究探索有别于当前计算机架构的新型结构和多核芯片,或者研究量子力学规律开发量子计算。新型结构需要抛弃当前计算机所遵循的冯·诺依曼架构,而量子计算则需要改变现有半导体芯片的基本结构,利用量子叠加和量子纠缠来实现逻辑运算。国际半导体技术发展路线图认为多核芯片等技术只能短期延续摩尔定律,中长期必然要发展以量子物理为基础的量子计算等颠覆性、革命性新型器件来超越摩尔定律,信息的量子化趋势将不可避免。量子计算是芯片尺寸突破经典物理极限的必然产物,是后摩尔时代具有标志性的技术。
对于现代计算机而言,通过控制晶体管电压的高低电平,从而决定一个数据到底是“1”还是“0”,采用“1”或“0”的二进制数据模式,俗称经典比特,其在工作时将所有数据排列为一个比特序列,对其进行串行处理。而量子计算机使用的是量子比特,量子计算机能秒杀传统计算机得益于两个独特的量子效应:量子叠加和量子纠缠。量子叠加能够让一个量子比特同时具备0和1的两种状态,量子纠缠能让一个量子比特与空间上独立的其他量子比特共享自身状态,创造出一种超级叠加,实现量子并行计算,其计算能力可随着量子比特位数的增加呈指数增长。理论上,拥有50个量子比特的量子计算机性能就能超过目前世界上最先进的超级计算机“天河二号”,拥有300个量子比特的量子计算机就能支持比宇宙中原子数量更多的并行计算,量子计算机能够将某些经典计算机需要数万年来处理的复杂问题的运行时间缩短至几秒钟。这一特性让量子计算机拥有超强的计算能力,为密码分析、气象预报、石油勘探、药物设计等所需的大规模计算难题提供了解决方案,并可揭示高温超导、量子霍尔效应等复杂物理机制,为先进材料制造和新能源开发等奠定科学基础。
此外,量子计算的信息处理过程是幺正变换,幺正变换的可逆性使得量子信息处理过程中的能耗较低,能够从原理上解决现代信息处理的另一个关键技术——高能耗的问题。因此,量子计算技术是后摩尔时代的必然产物。
量子计算技术不仅能克服现代半导体工艺因为尺寸减小而引起的热耗效应,还能利用量子效应实现功能强大的并行计算,极大地提高计算速度和信息处理能力。规模化通用量子计算机的诞生将极大地满足现代信息的需求,在海量信息处理、重大科学问题研究等方面产生巨大影响,甚至对国家的国际地位、经济发展、科技进步、国防军事和信息安全等领域发挥关键性作用。
量子计算机纵然有无比强大的颠覆性功能,然而通用量子计算机的研制过程是相当复杂的。研制量子计算机的关键在于量子比特的制备。量子比特非常脆弱,外界任何微弱的环境变化都可能对其造成破坏性影响。因此,量子计算机的核心部件通常处于比太空更加寒冷的密封极低温环境中,防止受到其他环境因素的干扰。量子比特的制备方式存在多种方案,经过近二十年的发展,国际主流研究集中到了超导量子比特、半导体量子点、囚禁离子、钻石空位和拓扑量子比特等。
量子计算机的研制需要物理、材料、信息和计算机科学等多学科的紧密协调和结合,从而实现从大规模器件的制备向微电子工程方面迈进。通用量子计算机的研制还有很长的路需要走,量子计算机的研制将伴随着经典计算的发展一起前进,相信随着量子比特的保真度达到容错量子计算的阈值,量子计算机的研究已经从实验室阶段向工程技术化阶段迈进,越来越多的研究单位和大型公司企业将进入,从而加速可实用化通用量子计算机研制的进程。
可控核聚变(Controlled nuclear fusion)是可控的,能够持续进行的核聚变反应。在地球上建造的像太阳那样进行可控核反应的装置,称为“人造太阳”。可控核聚变的目标是实现安全、持续、平稳的能量输出,其潜在优势使其成为最理想的终极能源形式之一。与核裂变相比,可控核聚变释放能量大,原料来源丰富,产生的放射性废物少,且具有更高的安全性。
可控核聚变是目前人类认识到的,可以最终解决人类社会能源与环境问题、推动人类社会可持续发展的重要途径之一。
从必要性来说,化石能源不可再生且有污染,风能、水能不稳定,核裂变能原料有限、核废料有放射性污染,因此,需要寻找资源丰富、清洁高效的新能源——目前,最有可能担当这一角色的只有可控核聚变能。而且,可控核聚变不排放有害气体,有利于解决当前的环境污染问题。从可行性来说,核聚变的原料是氢的同位素(氘和氚),地球上含量极为丰富。氘在海水中储量极大,1公升海水里提取出的氘,在完全聚变反应后,可释放相当于燃烧300公升汽油的能量。
从核裂变到核聚变,从不可控到可控——仅一字之差,但技术难度差别太大了。世界上首颗原子弹爆炸后不到10年,核裂变技术就实现了和平利用,建成了核电站。因此,许多人曾乐观地认为,用不了多久就能实现核聚变的和平利用——然而,经过全世界科学家超过半个世纪的努力,至今仍未成功。
国际热核聚变实验堆(ITER)
“国际热核聚变实验堆(ITER)计划”是全球规模最大、影响最深远的国际科研合作项目之一,建造约需10年,耗资50亿美元(1998年值)。ITER装置是一个能产生大规模核聚变反应的超导托卡马克,俗称“人造太阳”。
作为聚变能实验堆,ITER要把上亿度、由氘氚组成的高温等离子体约束在体积达837立方米的"磁笼"中,产生50万千瓦的聚变功率,持续时间达500秒。50万千瓦热功率已经相当于一个小型热电站的水平。这将是人类第一次在地球上获得持续的、有大量核聚变反应的高温等离子体,产生接近电站规模的受控聚变能。
2024年,ITER宣布新项目计划,即新基线(baseline)。根据新计划,ITER将于2034年首次运行,比此前的计划晚了9年,而产生能量的聚变反应要到2039年才会实现。项目成本将会在此前的200亿欧元基础上再增加50亿欧元。
超级人工智能(Artificial Super Intelligence, ASI),顾名思义,是人工智能领域中的巅峰之作。与当前我们所熟知的AI相比,ASI不仅在智力水平上远超人类,更在自主学习、创新能力和问题解决能力上展现出前所未有的优势。ASI不仅能够完成各种复杂任务,如医疗诊断、金融风险评估等,还能在未知的领域中探索新的可能,推动科技的飞速发展。
ASI的概念并非空穴来风,而是基于对当前AI技术发展趋势的深刻洞察。随着计算能力的不断提升、算法的不断优化以及大数据的广泛应用,AI的边界正在不断被拓宽。然而,ASI的真正实现仍然需要跨越诸多技术障碍,包括更强的计算能力、更高效的算法以及更丰富的数据资源。
超级人工智能(ASI)的到来时间是一个复杂且难以准确预测的问题,因为它涉及到技术、伦理、法律、社会等多个层面的因素。目前,对于ASI的具体实现时间,存在多种预测和观点,但都没有确凿的证据来支持某一个特定的时间点。
从技术角度来看,超级人工智能的实现需要解决一系列的技术难题,包括但不限于深度学习、强化学习、自然语言处理、计算机视觉等领域的进一步突破。此外,还需要考虑如何构建更加复杂和智能的算法和系统,以及如何确保这些系统的安全性和可靠性。根据一些研究和预测,超级人工智能的实现可能需要数十年甚至更长的时间。然而,这些预测往往基于当前的技术水平和发展趋势,并不能完全准确地反映未来的情况。随着技术的不断进步和新的突破,超级人工智能的实现时间可能会提前或推迟。
近年来,人工智能(AI)的崛起引起了广泛的讨论和担忧,很多人担心 AI 会造成失业率飙升,而有些乐观的朋友则戏称“只要电费贵过馒头,AI 就永远不能完全代替人”。
虽然这是句玩笑话,但背后则是实实在在的AI能耗问题,越来越多的人担忧高能耗将成为制约 AI 发展的瓶颈。
集成电路技术发展到今天,芯片中的晶体管已经变得极为微小。所以,单个晶体管所产生的热量并不会太高。但问题是,芯片上的晶体管实在是已经多到了常人无法想象的程度——比如,在IBM前几年发布的等效2纳米制程芯片中,每平方毫米面积上,平均有3.3亿个晶体管。再小的热量,乘上这个规模,结果一定相当可观。
一个可能让人大跌眼镜的有趣事实是,今天芯片单位体积的功率,比太阳核心多出好几个数量级。典型的CPU芯片功率大概是每立方厘米100瓦,即每立方米1亿瓦;而太阳核心的功率只有每立方米不到300瓦。
在OpenAI训练大语言模型GPT-4时,完成一次训练需要约三个月时间,使用大约25000块英伟达A100 GPU。每块A100 GPU都拥有540亿个晶体管,功耗400瓦,每秒钟可以进行19.5万亿次单精度浮点数的运算,每次运算又涉及到许多个晶体管的开关。
容易算出,仅仅是这些 GPU,一次训练就用了2.4亿度电。这些电能几乎全部转化成了热能,这些能量可以将大约200万立方米冰水——大概是1000个奥运会标准游泳池的水量——加热到沸腾。
为什么AI需要用这么多的强大GPU来训练?因为大语言模型的规模实在太大。GPT-3模型拥有1750亿参数,而据推测,GPT-4拥有1.8万亿参数,是GPT-3的十倍。要训练这种规模的模型,需要在大规模数据集上反复迭代,每一次迭代都需要计算和调整其中数十亿、数百亿乃至数千亿个参数的值,这些计算最终会表现为晶体管的开开关关,和集成电路中细细的电流——以及热量。
根据媒体报道估算,ChatGPT 每日耗电量或超过 50 万千瓦时。(参见:ChatGPT 日耗电超 50 万度,卡死AI发展的竟然是能源?)实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。
国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。
2050三圣合体一旦可控核聚变NF与与量子计算QC取得实用工程化重大突破,人工智能将获得几乎无限制的能源与算力,超人工智能ASI将在肉眼可见的十年内得以实现,当然这是以前二者实现为前提的。
可以大略推测,2035年—2040年,可控核聚变NF发电厂实现工程化应用,大约在这期间量子计算机QC实现通用化。
2050年会不会机器人遍地走?可能性很大。
资料来源:
闲扯淡
来源:自然与社会一点号