突破强化学习天花板的关键钥匙
2025年5月27日,一篇尚未正式发表的arXiv预印本论文悄然上线,标题直指强化学习领域的核心痛点——《Breaking the Performance Ceiling in Complex Reinforcement Learning requires I
2025年5月27日,一篇尚未正式发表的arXiv预印本论文悄然上线,标题直指强化学习领域的核心痛点——《Breaking the Performance Ceiling in Complex Reinforcement Learning requires I
2025年5月27日,一篇尚未正式发表的arXiv预印本悄悄刷新了人们对大语言模型(LLM)的认知。标题直白得近乎挑衅——《预训练大模型习得多重不确定性》,却藏着让人坐不住的发现:这些看似一本正经编故事的AI,暗地里竟在默默计算自己"胡说的概率"。
2025年5月,一篇尚未正式发表的arXiv预印本悄然掀起波澜。研究者们像拆解精密钟表般剖开大语言模型(LLM)的黑箱,在神经元与专家模块的丛林里,他们发现了专属于不同指令的“开关”。这项研究或许将改变我们理解AI思考方式的角度——原来模型执行指令时,并非全脑
实验室里的灯光在午夜依然亮着。研究员小王盯着屏幕上跳动的代码,突然发现一个奇怪现象——当他让十个AI模型同时回答同一个问题时,最先输出的答案会像野火般蔓延,后续模型纷纷放弃自己的判断,转而复制前者的答案。这场景让他想起大学食堂里排队买奶茶的队伍:明明有五个窗口
数学试卷最后一道大题旁边,总会有个"解"字。可谁能想到,这个字正在成为AI时代最微妙的隐喻——当大语言模型写下"解"字时,人类需要更聪明的办法来验证它是否真的"解"对了。
2025年5月28日,arXiv平台发布了一篇题为《Network Generating Processes With Self Exciting Arrival Times》的预印本研究,为动态网络建模提供了突破性解决方案。这项研究通过创新的标记点过程框架,
2025年5月28日,arXiv平台一篇题为《On Learning Verifiers for ChAIn-of-Thought Reasoning》的预印本论文引发学界关注。这项研究直击当前大语言模型(LLM)在复杂推理中的核心痛点——思维链(Chain-
2025年5月28日,arXiv平台发布的最新预印本研究《Counting big Ramsey degrees of the homogeneous and universal K₄-free graph》引发组合数学界关注。这项由多国学者合作的研究,首次完
在2025年5月28日发布的arXiv预印本论文《RICO: Improving Accuracy and Completeness in Image Recaptioning via Visual Reconstruction》中,研究者提出了一种突破性的图
2025年5月28日,一篇题为《One Rank at a Time: Cascading Error Dynamics in Sequential Learning》的arXiv预印本研究揭示了人工智能领域序列学习的关键瓶颈——误差的级联传播现象。这项研究通
构建中国自主知识体系,离不开良好的学术生态。学术期刊、艺术媒体和高校学报,不仅是中国现当代美术的见证者、参与者和推动者,也是促进学术生产和铸就学术生态的重要力量。那么,期刊和媒体如何让最新的学术成果在传播过程中获取更开放、包容、快捷、高效的社会转化,真正参与到
2025年5月27日arXiv预印本披露的《Policy Optimized Text-to-Image Pipeline Design》研究,为文本生成图像领域带来了突破性进展。这项研究直面当前多组件工作流设计的两大痛点:传统方法需要消耗数百次完整图像生成的
在人工智能领域,多任务学习(MTL)因其能够同时学习多个相关任务而备受关注。如何准确衡量任务间的关联度并避免负迁移,一直是困扰研究者的难题。2025年5月27日发布在arXiv上的一篇预印本论文《Measuring Fine-Grained Relatedne
十年前,我在复旦大学任副校长时,就有一个梦想:打造一个大型的综合性学术服务平台,汇聚各个学术期刊,形成一个网刊矩阵,为广大学者尤其是青年学者提供更多展示学术成果的机会;同时,精选各学科最优质的论著,形成一个主文献数据库,为学生提供以最少时间阅读最经典文献的渠道
十年前,我在复旦大学任副校长时,就有一个梦想:打造一个大型的综合性学术服务平台,汇聚各个学术期刊,形成一个网刊矩阵,为广大学者尤其是青年学者提供更多展示学术成果的机会;同时,精选各学科最优质的论著,形成一个主文献数据库,为学生提供以最少时间阅读最经典文献的渠道