科学与艺术能给彼此带来什么?

B站影视 韩国电影 2025-09-26 17:17 1

摘要:设想一下,如果将科学数据转化为音乐,使我们能够听见地球板块运动的节奏,听见宇宙的脉动,甚至听见基因的旋律,会是怎样的场景?

设想一下,如果将科学数据转化为音乐,使我们能够听见地球板块运动的节奏,听见宇宙的脉动,甚至听见基因的旋律,会是怎样的场景?

科学与艺术,看似南辕北辙,却常在意想不到的地方互相呼应,这不仅关乎知识与美学,更为我们认识、理解和探索世界开辟了全新的维度。

数据声化(Sonification)就是一个生动的例子,这是一种将数据转换为声音的技术,它把冰冷的数字变成可以聆听的旋律,以听觉方式呈现复杂的数据,让我们用耳朵去发现图表里难以捕捉的节奏与异常。它将数据与音乐相结合,创造出一种交互式、身临其境的数据探索体验 [1] 。

科学研究通常是枯燥的图表,与音乐有什么关系?

可听化技术:让数据歌唱

声音化的一大独特优势在于声音的多维性,音量、音高、音色等属性均可精确调节,适合表达复杂数据及其内在关联。

听觉与视觉不同,它天生具备多维度表达的优势。听觉系统可以更有效地高度关注到一些信息,这可能是包括人类在内很多动物与生俱来的生存本领。人耳具有极高的时间分辨率,能处理每秒数万次的声音信号,远超人眼每秒几十帧的视觉处理能力,因此可敏锐识别图表中不易察觉模式、趋势或异常 [2] 然而,传统科学交流形式侧重使用视觉图形、情节和文本,并没有充分利用听觉系统的能力。通过将数据映射到声音参数(例如音高、音量、节奏),Sonification技术赋予了数据一种音乐维度 [3] 。

因此,用声音呈现数据,为科学家理解数据提供了超越传统图表的新维度。

听见地球板块的节奏

随着地球科学数据集的急速增长,研究对象从板块运动、火山喷发到气候变化,涵盖了多维度的时空变量。这些复杂的信息往往难以通过传统的图表被直观捕捉,而「可听化」提供了一种全新的思路:让数据发声。

例如,在探索地球板块分裂与过去 2.4 亿年来的金伯利岩火山活动之间的关系时,研究人员为每一次火山喷发配上一枚音符。音高对应喷发时的古纬度,经度则通过立体声位置呈现,而板块的断裂速率则用不同调式来体现:小调意味着板块的聚合,明亮的大调则代表分裂 [4] 。

这种设计让听众可以一边观察大陆漂移,一边「听见」火山喷发在地质历史中的节奏。

过去2.4亿年金伯利岩喷发的声音化https://www.zhihu.com/video/1953959711721394852

更具直觉性的是「生态声音化」。

它并非抽象的音乐化处理,而是直接用真实声音作为比拟。比如,板块分裂过程可以用岩石碎裂声来表达:裂得越快,声音就越密集、越刺耳。观众无需任何背景知识,也能立刻理解大陆正在分裂的科学含义。

有些作品甚至通过调节音乐的节奏与和弦,来营造不同的氛围,从而触发观众的情感共鸣。

一个展示冰川消融的科学艺术展览中,伴随气温升高,音调越来越尖锐,节奏越来越急促。比起任何折线图,这种紧张感更能让人切身感受到气候危机的迫近。

科学的冷数据在声音的加持下,突然具备了直击人心的力量。

超越视觉,推动科学突破

「可听化」不仅在科普传播上具有独特价值,也能直接推动科研突破。

气候数据通过声音呈现,可以帮助科学家捕捉极端天气打断自然节律的细微征兆;野火的蔓延过程转化为声音后,其与风速、湿度的复杂互动也变得更易被识别。

进一步设想,如果建立起会发声的环境监测系统,让空气质量或水质指标以实时音频反馈的方式呈现,公众将更容易意识到环境变化,而科学家也可能从中发现传统方法难以捕捉的新规律。

在冰川研究中,声音更是成为破解难题的关键工具。

当巨大的冰块从冰川末端崩解坠入海洋时,会发出轰鸣与溅落声。研究人员正利用这些声学信号来计算冰块的体积和质量 [5] 。利用被动低温声学技术,研究人员能够计算出冰崩事件中有多少冰坠入海洋,例如阿拉斯加基奈峡湾国家公园的艾亚利克冰川。图片来源: NPS Photo/Jim Pfeiffenberger与卫星影像或相机相比,声学监测不仅能在极夜和恶劣天气下工作,还能提供更直接的量化信息 [6] 。要知道,冰川崩解事件对预测未来海平面上升至关重要,而现场观测往往因风暴、碎冰和巨浪而危险重重。声音,恰好成为突破这一观测瓶颈的安全且高效的方式。

由此可见,「可听化」不仅是一种科学传播的艺术化表达,更是一种科学方法的延伸。它帮助我们用另一种感官去理解地球,用耳朵捕捉地质与气候系统的脉动。

宇宙的脉动基因的旋律

更广泛和宏大的例子来自天文学,这也是科学声音化最早的源头。

古希腊人曾提出「天体音乐」的概念,认为行星之间的运动比例宛如和声。

开普勒曾撰写《世界的和谐》 [7] ,书中详细论述了天体运行的和谐法则,并将其与音乐之和谐的数学原理联系起来,充分展现了「天体音乐」的概念。开普勒《世界的和谐》进入二十一世纪,科学家与艺术家重新激活了这个古老的想象。他们将行星磁场的震荡转译为声音,把黑洞合并的引力波频率转化为低沉的嗡鸣,把恒星的脉动和日震学数据加工成节奏与旋律 [9] 。声音化效果所使用的星系中心图像,叠加了一幅描绘声波的艺术图示。该图像是由三种望远镜的X射线数据、红外数据和光学数据合成而成 | Credit: X-ray: NASA/CXC/SAO; Optical: NASA/STScI; IR: Spitzer NASA/JPL-Caltech.

通过这样的转译,普通人也可以用耳朵「听见」宇宙。

除此以外,科研数据的可视化技术,还应用于生命科学领域。

德国癌症研究中心的科学家开发了一种独特方法:把DNA的表观遗传模式转化为旋律,使他能够听到癌细胞和健康细胞之间的表观遗传差异 [10] 。

他们将DNA甲基化序列映射为音符与和弦。由于这些化学标记决定了基因能否被激活,它们在癌症发生中至关重要。研究团队他们挑选出基因组中的七个位点,将可能的128种组合映射到不同的和弦与音符。健康细胞和癌细胞在这种音乐转换下,呈现出截然不同的「声纹」 [11] 。

这不仅仅是一种别出心裁的展示方式,还可能为研究者提供一种新的直观感知差异的工具——科学家不仅能在显微镜下“看”,还可以用耳朵“听”出细胞的差异。

这种奇妙的跨界,既是科学的新尝试,也是艺术的新灵感。

看见海底的声音

上述都是「听见无声」,再插一个「看见有声」的例子。

有很多本属于自然界的声音,我们却无法听到,那么,可否将声音转化为图像呢?

以海洋为例,幽暗的海洋并不寂静,其中既有来自海洋生物、水流、风、地震等自然的声音,也包含人类活动带来的声音,如船舶航行、潜水器等,这些声音的综合被称为海洋声景。

海洋音景与人类未来密切相关 | Duarte et al., 2021, Science

声景一词,其实我们并不陌生,它是相对视觉风景而言的概念,传统景观中的「柳浪闻莺」、「晨钟暮鼓」、「南屏晚钟」等,这些都是声景。

海洋声景是海洋中一种独特的环境,反映了海洋生态系统的状态,同时也能够为人类提供各种信息和体验。但这些声音大多是听不见的,只有海底地震仪接受的数据,如何更直观地呈现这一数据呢?

有几位搞艺术的朋友,做了一些声音可视化的尝试。

第一步是提取和处理数据,基于实际的海洋观测数据,利用人工智能技术对海底观测数据进行挖掘,提取出深海世界的各种动态过程,恢复出深海声景。

人工智能技术对海底观测数据进行挖掘 | Seisbench

第二步是声音可视化处理,结合可视化编程和交互艺术设计,把声音数据映射到图像中,由图像的rgb三个通道信息驱动实例化出的粒子进行xyz空间变换,完成对海洋声景的可视化处理。

最终,通过动态粒子成像技术,把鲸鱼的声音转化为图像。随着鲸鱼能量场的动态变化,眼前散乱的粒子,逐渐聚合为一只体态优雅的长须鲸。

这个交互艺术作品最终定名为——19赫兹。

人耳可听范围是20000到20赫兹,作品之所以取名19赫兹,是因为把目光聚焦在人不可听不可看的深海世界。

利用同样的方法,冰川消融、船舶航行、海底地震、科考爆破等等声音,都通过海底地震仪采集的数据,转化为了影像。

这个作品最终在济南国际艺术双年展展出。

展厅现场内,沿着这只被识别出来的鲸鱼的路径,串联起上述海洋声景。

观众可在现场感受这场鲸鱼循声之旅,体验和反观人类与自然的关系。

济南国际艺术双年展最受观众喜爱作品《19赫兹》现场

这次展览广受现场观众的喜爱,展现了科学与艺术结合的巨大潜力。

我认为最重要的是,它们让彼此都变得更「可感知」。

奥本海默也曾说过,感知(Perception)是科学、艺术的基础。

许多科学现象超出了人类的感官范围——太微小、太庞大、或过于抽象。但一旦经过艺术的转译,就获得了直观的体验维度。

比如可听化技术为数据探索开辟了新的可能性,它将抽象数据转化为音乐,让我们能够以感官丰富的方式与数据互动。数据不再是冰冷的数字,而是充满活力的声音景观,讲述着有待我们发现的故事。

艺术的介入大大降低了科学传播的门槛。相比抽象方程和枯燥论文,音乐与影像更容易激发大众兴趣,让科学不仅好看,还能听懂、能感受。

反过来,科学也为艺术开辟了新的语言。

基因的旋律、冰川的轰鸣、宇宙的低吟,都能成为创作的素材。科学的真实与艺术的美感之间确实存在张力:科学家强调准确,艺术家追求体验。但正是这种拉扯,才让跨界合作有价值。

科学让艺术更深邃,艺术让科学更有温度。理性与感性,本就是一枚硬币的两面。

正因为有科学的求真与艺术的求美,我们才能在浩瀚宇宙中既看清规律,也听见心跳。

来源:智慧芯片一点号

相关推荐