生成式人工智能与科研伦理:变革、挑战与展望

B站影视 2025-01-12 17:52 2

摘要:生成式人工智能的强势发展带来了科学研究范式的新变革,同时也引发了学界对于科研伦理问题的广泛担忧。[方法/过程]通过梳理生成式人工智能与科研伦理问题的已有讨论,阐释生成式人工智能应用于科学研究中带来的伦理挑战。[结果/结论]提出需要格外警惕知识生产变革过程中对科

作者:刘瑶瑶 梁永霞 李正风

编辑:寂谷

审校:流景

摘要:

[目的/意义]生成式人工智能的强势发展带来了科学研究范式的新变革,同时也引发了学界对于科研伦理问题的广泛担忧。[方法/过程]通过梳理生成式人工智能与科研伦理问题的已有讨论,阐释生成式人工智能应用于科学研究中带来的伦理挑战。[结果/结论]提出需要格外警惕知识生产变革过程中对科学家的学术诚信、职业伦理、学术创造力所带来的冲击,并加强对可能扩大科研不平等效应的重视。针对此,从如何在科学研究中合乎规范地使用生成式人工智能、如何更有效地识别与治理生成式人工智能带来的科研不端、如何反思既有的科研规范并实现人机价值对齐三个层面就未来提升科研伦理治理效能提出建议。

1 研究背景

随着大数据时代的到来与算法能力的飙升,人工智能(Artificial Intelligence, AI)对日常生产与社会生活的影响愈发深刻,也为科学研究范式带来了一系列新的变革和挑战。2022年11月,以Chat GPT为代表的生成式人工智能(Artificial Intelligence Generated Content, AIGC)应运而生,引发社会各界热切关注。遵循学界对生成式人工智能的通用释义,生成式人工智能是一种基于人工智能技术,通过数据寻找规则并自动生成内容的生产方式,其通过大量数据的广泛训练表现出强大的综合能力和生成能力,能够有效地提供高质量、连贯且语法准确的自然语言响应,亦能够针对用户特定需求量身定制个性化答案,从而增强其交互性。近两年来,得益于机器学习、计算机视觉和自然语言处理等技术的发展,人工智能生成的内容越来越具有真实性,其语言理解和生成能力越来越趋于人性化,相继推出了备受推崇的模型,如ChatGPT-4、Stable Diffusion、Sora等。在这种背景下,人工智能驱动的科学研究——AI for Science模式在拓宽科学发现的边界、提高科学研究的效率以及提升数值模拟速度和准确度方面取得了前所未有的突破,ChatGPT亦被视作有可能彻底改变研究人员进行科学写作和数据分析的方式,人工智能和科学之间的双向赋能正在不断推动着科学研究范式的革新。

与此同时,生成式人工智能在科学研究中的强势应用也使得科学界重新思考如何在教学、研究和评估中保持诚实、尊重、责任、公平和可信。ChatGPT上线两个月后,顶级学术期刊Science主编即宣告其已成为一种文化轰动,且对科学界和学术界造成严重影响,并与Nature一同禁止将其列为论文作者。随后国内外众多教育机构如悉尼大学、纽约教育部门等陆续发表声明,以在不同程度上禁止使用ChatGPT进行科学写作。2023年下半年至今,哈佛大学、斯坦福大学、剑桥大学等知名学府相继发布了全新的生成式人工智能使用指南,探索如何在高等教育与研究中利用ChatGPT等开展负责任的研究行为以保持学术严谨性。与此同时,顶级学术期刊Science等对ChatGPT的立场也从严格禁止转向规范采用。由此可见,学术界对生成式人工智能的科学研究应用经历了由全面禁止到审慎探索的转变,然而目前就其对科学研究带来了何种程度的伦理挑战及其应对策略尚未有定论。针对此,本研究在前沿学术观点的基础上,针对生成式人工智能引发科研伦理问题的变革、挑战与对策展开反思性阐释。

2 生成式人工智能与科研伦理的研究综述

生成式人工智能的迅速迭代为面向未来的教育发展带来了新契机,同时也持续影响着科学研究中的学术诚信与伦理道德。近期,国内外学术界针对生成式人工智能在科学研究不同过程中的应用表现,聚焦生成式人工智能对学术规范、职业伦理、学术创造力以及科研不平等问题的伦理挑战展开了相关阐释。

2.1 科学研究使用生成式人工智能是否带来学术不端?

第一,如何确保智能生成内容的准确性?ChatGPT是一种语言模型,通过学习庞大的在线文本数据库中语言的统计模式来工作——包括任何不实内容、偏见或过时的知识,它依赖于已有的历时性数据集合,无法实时访问与传输信息。受制于此,学界已经认识到ChatGPT容易产生错误和不连贯的回应,有时会编造事实或参考文献,从而增加了在学术文献中传播不准确信息的可能性。有研究团队通过对比ChatGPT-4与SAS、SPSS和R统计在分析流行病学研究数据方面的能力,指出ChatGPT-4是统计分析的有力辅助工具,但在结果一致性和应用更高级的统计方法方面表现出局限性。需要格外指出的是,ChatGPT可能不具备高等数学等高度专业化或高级学科的必要专业知识,因此它无法提供精确的答案,会根据不完整的数据生成预测或结论,从而导致研究结果被歪曲。另有医学研究认为,ChatGPT的还原论方法过于简单,可能无法分析或理解面临复杂健康挑战的客户,也无法根据个案制定应对措施,因此其生成的响应无法完全捕捉解决个人健康挑战的复杂背景和细微差别。

第二,使用生成式人工智能代写科研论文、项目申请等行为是否构成学术抄袭?虽然论文代写并不是一个新概念,但随着生成式人工智能的技术进步,将学术评估外包给第三方以收取费用的做法变得更加普遍,甚至可能更加高效。2023年以来,“随机生成内容”在学术论文撤稿原因中的比重显著增加。ChatGPT可以帮助研究人员进行论文写作和项目申请过程中的代写工作,根据关键词或主题生成代码、提纲、摘要甚至完整段落,在几秒钟内扫描和总结数千篇文章、摘要和出版物,帮助研究人员进行全面的文献综述,生成很难区分人类撰写和机器生成的非原创研究性论文。例如伪造的摘要经常被专业会议的审查程序接受,大量人工智能生成的伪造期刊文章已经通过同行评审并发表,使得科学界的学术诚信受到更加严峻的挑战。

第三,生成式人工智能的数据与图像造假行为是否应判定为学术欺诈?生成式人工智能算法可用于生成虚构的数据、图像,虽然作者可以简单地用真实的医学图像替换他们想要传达的信息或结果,但已有研究表明,生成的图像比替换真实图像更难检测为假图像,这也导致国际期刊如Medline上伪科学出版物激增。由以上分析可见,如何界定生成式人工智能在多大程度上只是辅助作者提高科学研究效率,而不是促进学术失范仍然不明确。

2.2 生成式人工智能赋能科学研究对科学家的职业伦理带来了何种影响?

第一,在“人-机”合作的知识生产模式中谁来为研究负责?科学家需要对其研究创新过程及其产品应用的伦理可接受性、可持续性和社会可取性负责,而ChatGPT等生成式人工智能在科学写作中的应用模糊了负责任创新与研究的主体责任界限,对人类践行科研诚信的学术责任带来了一系列伦理挑战。在已有的科学实践活动中,ChatGPT被列为已发表的论文的合著者,这种做法引发了对人工智能是否拥有作为作者的合理性的严重质疑,因为后者不承担作为独立知识生产者的责任。有观点认为,使用ChatGPT生成内容的做法破坏了科研诚信的道德价值。针对此,许多期刊迅速做出反应,以抄袭、不准确、错误信息和不正确信息为由实施了针对ChatGPT作者身份的政策,如Science禁止使用任何由人工智能生成的文本或图形;而JAMA则不鼓励使用;Nature坚决禁止大型语言模型署名,理由是不符合既定的作者标准;Wiley和Elsevier等则要求人工智能生成的内容要保持透明,并对其准确性负责。

第二,生成式人工智能应用于科学研究是否有利于培养科学家的职业伦理素养?人工智能和机器学习技术在医疗保健领域的应用具有巨大的潜力,随着ChatGPT在医疗保健领域的应用越来越普遍,批判性地反思将AI数据与护理等人文学科相结合的潜力和挑战非常重要。有研究指出,尽管ChatGPT可能旨在学习、推理和解决模仿人类认知的问题,但它无法识别或解决需要智慧、批判性思维、直觉和个人判断的护理问题。来自数字健康技术和人工智能的护理研究人员对ChatGPT能否捕捉到支撑护理这一独特学科的道德价值观和核心原则表示担忧,一些护理期刊讨论了在护理教育和实践中使用ChatGPT的伦理风险,护理强调对患者的同情、同理心、关怀、尊重和尊严,这些情感是护理学科的核心,ChatGPT辅助研究并不能够增强这一情感支持。另一方面,OpenAI优先考虑计算的实用性,过度依赖ChatGPT意味着逐渐脱离批判性思维、智慧、直觉、隐性知识和道德判断,而这些被认为是定义专业护理实践、教育和研究的属性。

2.3 生成式人工智能对人类学术创造力有什么影响?

科学研究作为重要的科学知识生产方式,愈发成为社会生产体系和国家创新系统中的关键部分,其中创新性作为科学研究的最高规范是推动人类知识进步的核心所在。智能生成能够有效提高科学研究的效率,但对于人类主体的学术创造力带来何种长期影响目前尚存争议。2023年3月29日,人工智能行业领导者签署了一份请愿书,要求暂停研究比ChatGPT-4更强大的人工智能,因为这一行动是对不受控制的“竞相开发和部署更强大的数字思维的回应,没有人——甚至它们的创造者——能够理解、预测或可靠地控制这些思维”,认为其对人类智能的独特地位带来了冲击。另有研究指出,生成式人工智能技术的发展很大程度上得益于大语言模型(Large Language Model, LLM)的不断优化,而基于二十世纪源文本的LLM必然产生具有二十世纪风格的文学文本,从而抑制了真正的创造性产出。

事实上,随着科学建制化程度的不断加深,越来越多的学者面临着量化学术出版物以确保就业竞争力的境况,他们可能希望开发如何更充分地利用这些生成式的写作工具或服务,以帮助他们达到学术生产力标准的愿望。值得注意的是,ChatGPT的高阶认知能力相对较低,尤其是在与创造力、批判性思维、推理和解决问题相关的领域,而这种特点会降低科研人员独立探索主题、自主性思考和解决问题的积极性,因此尽管人工智能在基础领域取得了重大进展,但相关学者的研究却提示我们科研人员在基本技能方面的表现似乎正在下降。有研究认为,从长期发展来看,由于下一代人将拥有“现成的”研究结论,他们可能无法验证从这些技术中获得信息的准确性,从而导致批判性思维能力与整合能力较弱,难以完成复杂的任务,对生成式的路径依赖反而限制了学术创新能力的增长。甚至有研究基于此提出预测,指出应该区分具有呈现技巧的信息(ChatGPT)和具有应用能力的知识(有能力的人),认为未来将会逐渐弱化论文作为一种评估形式以评判科学研究能力的地位。

2.4 生成式人工智能是否导致科学研究中新的不平等?

人机协作的知识共建能够一定程度上降低获取知识的成本,并弱化社会分工对于专业知识的隔离。与此同时,亦有学者就ChatGPT赋能科学研究的过程中是否制造出了新的且更为复杂的不平等困境开展相关研究。

第一,作为一项新兴技术的生成式人工智能在赋能科学研究时是否公平共享?根据Cotton等人的研究,ChatGPT用户比非用户具有竞争优势,并且可以在课程作业中获得更高的分数。市场调研机构Gartner预测,到2025年通过生成式人工智能技术生成的数据将占全部数据的10%。根据ChatGPT支持的区域列表显示,它能够支持多个国家与地区语言的自然语言处理和生成任务,但并不是所有国家都列属在其中,这意味着尽管ChatGPT有潜力为全球用户提供服务,但其技术的实际可得性可能受到地区限制或法律法规的影响,兼之ChatGPT-4提供付费使用服务,某种意义而言,这构成了生成式人工智能在一定层级上的“知识垄断”地位。此外,生成式人工智能的大语言模型被发现不是在准确代表整个群体的数据集上训练的,而这很大程度上造成教育与研究机会方面的不平等。

第二,ChatGPT赋能科学研究是否具有社会伦理可接受性?数字技术的发展需要格外警惕数字殖民主义抬头。生成式人工智能的生成语言会渗透到社会发展的每一个重要领域,已有研究发现在佛教哲学或自由主义的本质等复杂话题上,ChatGPT经常将英美观点当作真理,不知不觉地忽视了其他观点。同时,如果模型没有得到充分保护,它可能会在没有明确知情或授权的情况下擅自收集用户机密数据,会加剧对特定群体的歧视带来更为严峻的伦理问题。对此,学界表达了ChatGPT等生成式人工智能会从训练数据中植入历史偏见的担忧,例如特定文化的优越性,由于设计开发大语言模型的公司大多来自这些文化族群,因此基于生成式人工智能所从事的科学研究也难以剥离开这种系统性且难以纠正的偏见。除此以外,健康数据的去识别化、数据的二次使用、数据集的链接、群体层面伤害的可能性将会带来更普遍的伦理挑战。如何应对数据收集最小化、技术黑箱的挑战,以及呼吁将社会正义和公平、共享的理想融入技术中介决策中将成为生成式人工智能科研伦理治理的关键步骤。

3 科学问题与展望

新发明和新工具的出现往往会导致一定时期的迷失、空白与争议。对新技术的接纳既要充分开发其应用潜能,也要理性认识技术进步过程中所可能引发的伦理风险,实现技术体系与价值结构的互惠。面对生成式人工智能带来的一系列全方位、深层次伦理挑战,我们必须警惕“技术全能论”或“技术无能论”的极化主张,要承认生成式人工智能在文献收集、论文写作、同行评议等环节中出色的“增强”能力,积极探索通过安全、可靠、规范的方式将生成式人工智能融合到科学研究与教育体系中,以实践智慧构建多元主体参与的前瞻性治理框架,引领AI赋能科学研究与社会进步。

3.1 如何在科学研究中合乎规范地使用生成式人工智能?

科学的建制化建立了与科学知识生产、传播、应用有关的社会秩序,这一社会秩序需要科研人员的行为规范来保证。生成式人工智能正在重新定义学术诚信,在科学研究中如何合乎规范的使用生成式人工智能成为保障科学事业健康发展的关键步骤。

第一,要正视生成式人工智能技术的有限性,并充分认识到其在科学研究应用过程中的伦理风险。在使用生成式人工智能过程中,学界应当摒弃“技术至上”的立场,构建对于ChatGPT技术能力的全面认识。首先要充分意识到“人-机”协作的知识生产变革中生成式人工智能对人类的思维替代所可能引发的颠覆性后果。囿于ChatGPT自身尚有限的解释能力,长期使用ChatGPT进行快速和肤浅的学习,创新思维的学术训练难以获得普遍效力。其次,针对ChatGPT技术限制可能存在的编造、偏见、过时引用、不透明等影响研究准确性所可能引发的科研伦理问题,应主动采取措施加以验证与核实,避免过度依赖ChatGPT的内容生成,以保证研究的准确性与学术创新性。

第二,要加强生成式人工智能的风险研究,不断明确行为边界以推动形成共识。生成式人工智能在提高学术研究效率的同时,也引发了如何界定剽窃界限的复杂问题。例如,如果作者使用ChatGPT来提高现有文章的可读性或收集信息来支持某个观点,这应该被视为剽窃吗?ChatGPT本身生成“知识”是否准确且此过程中是否遵循适当引用规范?当学生使用了ChatGPT的生成语言而没有恰当引用时,是否构成了抄袭?在使用ChatGPT本身的过程中,如果未经授权粘贴其回复构成抄袭,那么根据其来创新则是否不构成抄袭?实际上,对于使用ChatGPT等辅助学术研究的主体而言这种区别可能并不明确,从而容易构成学术不端甚至造成技术滥用,这些复杂的、界限不清的学术规范问题为引导开展负责任的科学研究带来了新的伦理挑战。针对生成式人工智能使用的披露程度、疑似度的数据指标等,都需要高校、科研院所、期刊等学术共同体不断加强研究与探索,从行业标准、团体标准、出版伦理等不同层面推动形成广泛共识,以防范其不当使用。

第三,重新制定生成式人工智能的科研规范,引导科研人员开展负责任研究。目前,学术界已经做出了系列有益探索,如联合国教科文组织2023年出台的《在教育和研究中使用生成式人工智能的指南》(Guidance for generative AI in education and research)、中国科技部发布的《负责任研究行为规范指引(2023)》以及中国科学技术信息研究所公布的《学术出版中AIGC使用边界指南》,对于科学研究中的不同环节如何恰当的使用生成式人工智能提出了道德要求与学术规范。需要格外指出的是,生成式人工智能的应用潜力与风险边界仍处于不断探索当中,应当加强动态风险评估,坚持平衡包容、敏捷治理原则,以不断识别其伦理问题的新形式与新特点,引领科学人员守住底线、提高基线、追求卓越。

3.2 如何更有效地识别与治理生成式人工智能带来的学术不端?

鉴于生成式人工智能技术的强拟人性与算法不透明,如何识别学术不端成为新难题。当前,生成式人工智能造成的科研不端主要呈现为如何界定其作为作者还是研究参与者,以及虚假引用、数据与图片造假、机器代写所带来的学术造假鉴定,其中Sora生成式视频的真实性更为社会科学研究的经验事实收集带来了严峻考验。生成式人工智能的机器语言足以“以假乱真”,虚假引用易逃脱专业检测工具的鉴定,以上问题都加大了界定科研不端的可操作性与标准可核查性的难度。有效识别与应对生成式人工智能的科研不端行为,关键还在于推动构建多主体协同参与的治理体系,实现“自律”与“他律”有机结合。

第一,加快开发生成式人工智能的检测技术,防止科学研究中的技术滥用。2024年伊始,中国传媒大学等高校陆续发布了毕业论文(设计)AIGC检测的通知,已发行的生成式文本检测器的识别算法实现了“用AI核查AI”,能够为识别科学写作中的自然生成语言提供有力途径,但以Sora为代表的文生视频大模型提升了可扩展监督的困难程度,且不同检测器之间存在较大的结果差异,影响了学术测评的可信度。未来生成式人工智能检测的技术开发与优化需要着重提高检测的准确性及其在不同应用场景的适应性,同时要坚持开放合作原则,共同制定生成式人工智能检测技术的行业标准和规范,加强法律、伦理学、社会学等领域的多学科合作,确保检测技术符合社会规范和伦理标准。

第二,坚持精准治理,完善生成式人工智能代写、AI数据造假等科研不端的监管与惩治效路。当前国内高校针对学位论文开展AIGC检测,其规范方式大致可分为影响考评、自主披露与限定占比三种,但如何限定AIGC的论文占比,以及在何种性质的科学写作中允许使用AIGC仍需要进一步细化规定。2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》(以下简称《意见》),明确提出了高等院校等机构落实压实科技伦理管理主体责任,未来高校、科研院所、期刊等知识生产与传播重镇应对照《意见》与《负责任研究行为规范指引(2023)》等规范进一步落实科研伦理治理的主体责任,针对生成式人工智能可能引发学术不端行为的伦理风险开展全范围、多形式的教育宣传,加快制定对生成式人工智能代写学位论文、课程论文等细则条文,完善审查、监督与惩治体系,对于查实的AIGC代写和数据造假行为,应依法依规进行惩治,严守科研诚信与伦理底线。

第三,加快培育科技素养与人文素养兼具的人工智能素养,鼓励以负责任的方式开展科学研究。一方面,要更加公平的使研究人员享有新技术与新工具,将在科学研究中使用生成式人工智能的课程纳入教育体系之中,提高学术共同体的技术素养。科技本身并不具有公平性,因此开辟科技惠及公众的通道尤为重要,积极开发并普及“生成式人工智能与科学研究”的教育课程能够有效消弭技术扩散过程中引发的不平等与代际差异效应。另一方面,要重视培育生成式人工智能的研究伦理素养。《生成式人工智能教育与研究应用指南》提出要向研究人员、教师和学习者提供有关通用工具的指导和培训,以确保他们了解数据标签和算法中的偏见等道德问题。下一步,要加快开发独立课程或开展嵌入式教育,引导使用者认识到技术中潜在的风险与不足,并在使用过程中验证其提供信息的准确性和可靠性,主动维护学术研究的完整性和可信度,降低人工智能生成内容相关的科研失范风险,推动构建科研伦理教育体系,为更好地践行负责任研究与创新行为、营造风清气正的学术环境提供有效路径。

3.3 如何反思既有的科研规范并实现人机价值对齐?

人机价值对齐(AI Alignment)旨在使人工智能系统的行为与人类的意图与价值观保持一致,是确保生成式人工智能发展符合人类期望与社会规范的基础通道。开展科学研究必须遵循对科研诚信具有重要意义的行为准则和职业责任,包括诚实、可信赖、合理引用、公正、尊重、关怀、共享、负责任等伦理意蕴。在前述分析中,生成式人工智能已经显露出对于学术诚信与科研规范的一系列伦理挑战,如何反思既有的科研规范以保障在使用生成式人工智能过程中既符合专业技术规范又满足社会伦理期望,是实现人机交互与价值协同的关键。

第一,提升价值敏感设计,重点关注生成式人工智能应用于科学研究是否能保障其准确性、透明性、公平性、可解释性与创新性等原则。保持科学研究的平等性需要注意在发展中国家或资源匮乏地区进行研究时对研究所在地的国家和社区的社会、文化、政治和经济情景具备敏感性,并且研究设计应该避免剥削此地区人群,应该尽可能使研究有助于扩展这些国家研究体系的能力以及减少不平等。ChatGPT、Sora和很大一部分人工智能一样,由于其系统训练经常基于有偏见的数据,造成易被操纵、曲解的特点,带来社会刻板印象、不公平歧视、排斥性规范效应。当前,大模型训练数据的包容性与多样性受到了学术界诟病,认为当前智能模型数据的收集来源,对于缺乏数据的地区而言存在进一步被边缘化的隐性风险。这些对于既有的科研规范造成了不同程度的冲击,必须重新反思制度约束体系,不断提升价值敏感设计,拓宽规则边界,以适应生成式人工智能带来的科研范式变革与挑战。伦理审查与期刊出版应针对生成式人工智能的此类技术限制制定适应性的科研规范,关注生成式人工智能的著作权争议,着重要求对使用生成式人工智能的科学研究进行自查与纠察,就是否已经核查排除或者尽量减少排斥性规范效应进行补充性研究作出专门声明,警惕由于概念化设计阶段的参与性缺失而引发的“直升机”(Helicopter Research)现象,谨防科学研究中的“伦理倾销”的发生。

第二,面向加速迭代的人工智能技术发展,如何前瞻式与动态式地重塑科研规范并作为价值选择注入技术发展的过程当中,是调和生成式大型语言模型的伦理问题需要不断诉诸努力的方向。价值对齐关涉AI尖端技术、伦理学、社会政策、国家战略等方面,全球范围内对于该问题的探究远远无法充分回应生成式人工智能在不同应用场景中的伦理困境。其中,人工智能企业作为技治主义的践行者,同时也是引导技术向善的重要源头,需要参与技术设计、研发与治理的全过程。OpenAI通过基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,以下简称RLHF)已成为AI治理的显学,企业应积极践行前瞻性的治理理念,逐步建立通用人工智能时代“伦理即服务”价值尺度,研判生成式人工智能潜在的伦理风险,推动实现“技术-社会”互构互惠。此外,要积极引导多元主体如社会科学家、社会公众共同参与到大语言模型框架设计的过程,构建更加包容的技术价值体系,以防止生成式人工智能成为隐形的知识牢笼。

4 结语

通过对生成式人工智能与科研伦理挑战的梳理,可以发现智能生成系统在科学研究的广泛嵌入会影响基本的科研道德与学术规范,并对人类知识生产的垄断地位带来根本性冲击,传统的规范框架已不足以在人工智能迅速跃迁的环境中保障科学研究的真实性、准确性与创新性。要实现生成式人工智能赋能科学研究仍然需要进一步整合多元主体协同参与的治理模式,对技术进步的潜在影响保持警觉,不断反思既有规范,直面生成式人工智能在科研应用中的全领域、深层次伦理挑战。要确保生成式人工智能在科学研究中“增强”学习而非“替代”学习,未来仍需要政策制定者、企业设计者、教育与科研机构、期刊出版、监督监管部门以及社会公众等各界的合作治理,动态审查和评估科学研究及其实践,以不断提高生成式人工智能的伦理可接受性,推动实现科技向善的技术愿景。

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问进入。

截止到12月25日 ”未来知识库”精选的100部前沿科技趋势报告

2024 美国众议院人工智能报告:指导原则、前瞻性建议和政策提案

未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

Deepmind:AI 加速科学创新发现的黄金时代报告

Continental 大陆集团:2024 未来出行趋势调研报告

埃森哲:未来生活趋势 2025

国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

哈尔滨工业大学:2024 具身大模型关键技术与应用报告

爱思唯尔(Elsevier):洞察 2024:科研人员对人工智能的态度报告

李飞飞、谢赛宁新作「空间智能」 等探索多模态大模型性能

欧洲议会:2024 欧盟人工智能伦理指南:背景和实施

通往人工超智能的道路:超级对齐的全面综述

清华大学:理解世界还是预测未来?世界模型综合综述

Transformer 发明人最新论文:利用基础模型自动搜索人工生命

兰德公司:新兴技术监督框架发展的现状和未来趋势的技术监督报告

麦肯锡全球研究院:2024 年全球前沿动态图表呈现

兰德公司:新兴技术领域的全球态势综述

前瞻:2025 年人形机器人产业发展蓝皮书 - 人形机器人量产及商业化关键挑战

美国国家标准技术研究院(NIST):2024 年度美国制造业统计数据报告(英文版)

罗戈研究:2024 决策智能:值得关注的决策革命研究报告

美国航空航天专家委员会:2024 十字路口的 NASA 研究报告

中国电子技术标准化研究院 2024 扩展现实 XR 产业和标准化研究报告

GenAI 引领全球科技变革关注 AI 应用的持续探索

国家低空经济融创中心中国上市及新三板挂牌公司低空经济发展报告

2025 年计算机行业年度策略从 Infra 到 AgentAI 创新的无尽前沿

多模态可解释人工智能综述:过去、现在与未来

【斯坦福博士论文】探索自监督学习中对比学习的理论基础

《机器智能体的混合认知模型》最新 128 页

Open AI 管理 AI 智能体的实践

未来生命研究院 FLI2024 年 AI 安全指数报告 英文版

兰德公司 2024 人工智能项目失败的五大根本原因及其成功之道 - 避免 AI 的反模式 英文版

Linux 基金会 2024 去中心化与人工智能报告 英文版

脑机接口报告脑机接口机器人中的人机交换

联合国贸发会议 2024 年全球科技创新合作促发展研究报告 英文版

Linux 基金会 2024 年世界开源大会报告塑造人工智能安全和数字公共产品合作的未来 英文版

Gartner2025 年重要战略技术趋势报告 英文版

Fastdata 极数 2024 全球人工智能简史

中电科:低空航行系统白皮书,拥抱低空经济

迈向科学发现的生成式人工智能研究报告:进展、机遇与挑战

哈佛博士论文:构建深度学习的理论基础:实证研究方法

Science 论文:面对 “镜像生物” 的风险

镜面细菌技术报告:可行性和风险

Neurocomputing 不受限制地超越人类智能的人工智能可能性

166 页 - 麦肯锡:中国与世界 - 理解变化中的经济联系(完整版)

未来生命研究所:《2024 人工智能安全指数报告》

德勤:2025 技术趋势报告 空间计算、人工智能、IT 升级。

2024 世界智能产业大脑演化趋势报告(12 月上)公开版

联邦学习中的成员推断攻击与防御:综述

兰德公司 2024 人工智能和机器学习在太空领域感知中的应用 - 基于两项人工智能案例英文版

Wavestone2024 年法国工业 4.0 晴雨表市场趋势与经验反馈 英文版

Salesforce2024 年制造业趋势报告 - 来自全球 800 多位行业决策者对运营和数字化转型的洞察 英文版

MicrosoftAzure2024 推动应用创新的九大 AI 趋势报告

DeepMind:Gemini,一个高性能多模态模型家族分析报告

模仿、探索和自我提升:慢思维推理系统的复现报告

自我发现:大型语言模型自我组成推理结构

2025 年 101 项将 (或不会) 塑造未来的技术趋势白皮书

《自然杂志》2024 年 10 大科学人物推荐报告

量子位智库:2024 年度 AI 十大趋势报告

华为:鸿蒙 2030 愿景白皮书(更新版)

电子行业专题报告:2025 年万物 AI 面临的十大待解难题 - 241209

中国信通院《人工智能发展报告(2024 年)》

美国安全与新兴技术中心:《追踪美国人工智能并购案》报告

Nature 研究报告:AI 革命的数据正在枯竭,研究人员该怎么办?

NeurIPS 2024 论文:智能体不够聪明怎么办?让它像学徒一样持续学习

LangChain 人工智能代理(AI agent)现状报告

普华永道:2024 半导体行业状况报告发展趋势与驱动因素

觅途咨询:2024 全球人形机器人企业画像与能力评估报告

美国化学会 (ACS):2024 年纳米材料领域新兴趋势与研发进展报告

GWEC:2024 年全球风能报告英文版

Chainalysis:2024 年加密货币地理报告加密货币采用的区域趋势分析

2024 光刻机产业竞争格局国产替代空间及产业链相关公司分析报告

世界经济论坛:智能时代,各国对未来制造业和供应链的准备程度

兰德:《保护人工智能模型权重:防止盗窃和滥用前沿模型》-128 页报告

经合组织 成年人是否具备在不断变化的世界中生存所需的技能 199 页报告

医学应用中的可解释人工智能:综述

复旦最新《智能体模拟社会》综述

《全球导航卫星系统(GNSS)软件定义无线电:历史、当前发展和标准化工作》最新综述

《基础研究,致命影响:军事人工智能研究资助》报告

欧洲科学的未来 - 100 亿地平线研究计划

Nature:欧盟正在形成一项科学大型计划

Nature 欧洲科学的未来

欧盟科学 —— 下一个 1000 亿欧元

欧盟向世界呼吁 加入我们价值 1000 亿欧元的研究计划

DARPA 主动社会工程防御计划(ASED)《防止删除信息和捕捉有害行为者(PIRANHA)》技术报告

兰德《人工智能和机器学习用于太空域感知》72 页报告

构建通用机器人生成范式:基础设施、扩展性与策略学习(CMU 博士论文)

世界贸易组织 2024 智能贸易报告 AI 和贸易活动如何双向塑造 英文版

人工智能行业应用建设发展参考架构

波士顿咨询 2024 年欧洲天使投资状况报告 英文版

2024 美国制造业计划战略规划

【新书】大规模语言模型的隐私与安全

人工智能行业海外市场寻找 2025 爆款 AI 应用 - 241204

美国环保署 EPA2024 年版汽车趋势报告英文版

经济学人智库 EIU2025 年行业展望报告 6 大行业的挑战机遇与发展趋势 英文版

华为 2024 迈向智能世界系列工业网络全连接研究报告

华为迈向智能世界白皮书 2024 - 计算

华为迈向智能世界白皮书 2024 - 全光网络

华为迈向智能世界白皮书 2024 - 数据通信

华为迈向智能世界白皮书 2024 - 无线网络

安全牛 AI 时代深度伪造和合成媒体的安全威胁与对策 2024 版

2024 人形机器人在工业领域发展机遇行业壁垒及国产替代空间分析报告

《2024 年 AI 现状分析报告》2-1-3 页.zip

万物智能演化理论,智能科学基础理论的新探索 - newv2

世界经济论坛 智能时代的食物和水系统研究报告

生成式 AI 时代的深伪媒体生成与检测:综述与展望

科尔尼 2024 年全球人工智能评估 AIA 报告追求更高层次的成熟度规模化和影响力英文版

计算机行业专题报告 AI 操作系统时代已至 - 241201

Nature 人工智能距离人类水平智能有多近?

Nature 开放的人工智能系统实际上是封闭的

斯坦福《统计学与信息论》讲义,668 页 pdf

国家信息中心华为城市一张网 2.0 研究报告 2024 年

国际清算银行 2024 生成式 AI 的崛起对美国劳动力市场的影响分析报告 渗透度替代效应及对不平等状况英文版

大模型如何判决?从生成到判决:大型语言模型作为裁判的机遇与挑战

毕马威 2024 年全球半导体行业展望报告

MR 行业专题报告 AIMR 空间计算定义新一代超级个人终端 - 241119

DeepMind 36 页 AI4Science 报告:全球实验室被「AI 科学家」指数级接管

《人工智能和机器学习对网络安全的影响》最新 273 页

2024 量子计算与人工智能无声的革命报告

未来今日研究所:2024 技术趋势报告 - 广义计算篇

科睿唯安中国科学院 2024 研究前沿热度指数报告

文本到图像合成:十年回顾

《以人为中心的大型语言模型(LLM)研究综述》

经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告 英文版

理解世界还是预测未来?世界模型的综合综述

GoogleCloudCSA2024AI 与安全状况调研报告 英文版

英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

国际可再生能源署 IRENA2024 年全球气候行动报告

Cell: 物理学和化学 、人工智能知识领域的融合

智次方 2025 中国 5G 产业全景图谱报告

上下滑动查看更多

来源:人工智能学家

相关推荐