视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练
视频作为包含大量时空信息和语义的媒介,对于 AI 理解、模拟现实世界至关重要。视频生成作为生成式 AI 的一个重要方向,其性能目前主要通过增大基础模型的参数量和预训练数据实现提升,更大的模型是更好表现的基础,但同时也意味着更苛刻的计算资源需求。
视频作为包含大量时空信息和语义的媒介,对于 AI 理解、模拟现实世界至关重要。视频生成作为生成式 AI 的一个重要方向,其性能目前主要通过增大基础模型的参数量和预训练数据实现提升,更大的模型是更好表现的基础,但同时也意味着更苛刻的计算资源需求。
自然界中,为何萤火虫会同步闪烁?为何不同材料的表面生长遵循相似规律?2025年玻尔兹曼奖授予Mehran Kardar和Yoshiki Kuramoto,表彰他们分别通过KPZ方程和Kuramoto模型解答了这些难题。这两个看似简单的模型揭示了非平衡系统从无序
玻尔兹曼 scaling scalinglaw 自然界 ku 2025-03-19 03:14 2
自然界中,为何萤火虫会同步闪烁?为何不同材料的表面生长遵循相似规律?2025年玻尔兹曼奖授予Mehran Kardar和Yoshiki Kuramoto,表彰他们分别通过KPZ方程和Kuramoto模型解答了这些难题。这两个看似简单的模型揭示了非平衡系统从无序
玻尔兹曼 scaling scalinglaw yo 自然界 2025-03-18 17:10 3
Scaling Law 由 OpenAI 团队于 2020 年正式提出,并在其论文《神经语言模型的扩展定律》(Scaling Laws for Neural Language Models)中进行了详细阐述。Scaling Law 揭示了模型性能与模型规模、数
训练 谷歌 scaling scalinglaw 通信量 2025-03-18 03:12 3
谷歌发布了1000亿文本-图像对数据集,是此前类似数据集的10倍,创下新纪录!基于新数据集,发现预训练Scaling Law,虽然对模型性能提升不明显,但对于小语种等其他指标提升明显。让ViT大佬翟晓华直呼新发现让人兴奋!
在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。特别是在数学推理这一被视为 AI 终极挑战的领域,业界普遍认为需要海量数据和复杂的强化学习才能获得突破。然而,来自上海交通大学的最新研究却给出了一个令人震惊的答案:仅需 817 条精心设计的样本,就能
大模型推理性能的提升,真的只能靠堆数据、加算力吗?李飞飞等用仅1000个样本微调模型,并提出预算强制(Budget forcing)技术,成功让推理能力随测试计算量增加而提升。他们的s1-32B模型在多个基准测试中超越闭源模型OpenAI o1-preview
Scaling Law 撞墙了吗?这算得上是近段时间 AI 领域最热门的话题之一。近日,资深机器学习研究科学家 Cameron R. Wolfe 更新了一篇超长的博客文章,详细介绍了 LLM scaling 的当前状况,并分享了他对 AI 研究未来的看法。
llm scaling scalinglaw 2025-02-02 15:59 5
从人型机器人、AI眼镜,从推理模型到AI Coding……分别从产品侧和技术侧,把今年最有料的8个大热门趋势一网打尽,干货过年。
我们正身处一场技术革命的历史开端,以ChatGPT为标志的这轮AI科技浪潮是算法和软件诞生以来人类科技最重要的技术变革,由此开启了以智能为核心的第四次工业革命。这次AI变革是由以Scaling law为底层逻辑的基础模型驱动,其整体的发展脉络由基础模型的技术逻
scaling scalinglaw 德丽 2025-01-21 18:55 9
对于 LLM,推理时 scaling 是有效的!这一点已经被近期的许多推理大模型证明:o1、o3、DeepSeek R1、QwQ、Step Reasoner mini……但这个说法也适用于扩散模型吗?近日,纽约大学谢赛宁领导的一个团队对这一方向进行了探索。具体
1月6日,黄仁勋以一场震撼人心的发布会拉开了CES2025的序幕。他身着标志性的皮夹克,发布了多个让全场兴奋的产品,包括搭载了Blackwell架构的RTX 50系列显卡,拥有2万多个CUDA核心的RTX 5090芯片等等。
黄仁勋 scaling scalinglaw 2025-01-10 07:42 7
从20世纪50年代起,AI技术经历了70多年的发展。其间多种技术曾占据不同时代的高位,而当时间来到21世纪20年代,抵达我们今天正在经历的新一轮AI崛起,预训练大模型毫无疑问就是这个时代的主角。
scaling scalinglaw law发现者 2025-01-01 08:41 7
知名媒体《南华早报》在其报道《百度在OpenAI之前就发现了Scaling Law?AI领域的辩论重新燃起》中指出,尽管美国在AI模型创新方面一直被视为领先者,但最新的讨论显示,中国在探索这些概念上可能更为超前。
百度 scaling scalinglaw 2024-12-30 16:35 10
Ilya 表示,深度学习之所以成功,要归功于「规模假设」,即利用非常大的数据集来训练一个足够大的神经网络,只需要大力出奇迹,成功就“几乎可以预见”,这一暴力法则也被称为“Scaling law”。
agi scaling scalinglaw 2024-12-26 17:56 9
12 月 2-6 日,亚马逊云科技在美国拉斯维加斯举办了今年度的 re:Invent 大会。会上,亚马逊云科技发布了相当多东西,其中之一便是新的大模型系列 Nova。说实话,这确实出乎了相当多人的意料 —— 毕竟亚马逊已经重金押注 Anthropic,似乎没有
亚马逊 scaling scalinglaw 2024-12-18 14:57 8
在最新研讨会上,OpenAI大神,o1核心成员Noam Brown表示,o1代表的是一种全新的,以推理计算为代表的Scaling。
scaling scalinglaw ilya 2024-12-16 10:46 12
在近期的一次科技讨论热潮中,关于人工智能领域中的Scaling Law再次成为焦点。这一讨论紧随Ilya关于“预训练时代或将落幕”的言论之后,引起了业界的广泛关注。
openai scaling scalinglaw 2024-12-15 21:07 9
11月27日早晨,Meta研究员Jack Morris在社交媒体发文称:“大多数人不知道,关于Scaling Law的原始研究来自2017年的百度,而不是2020年的OpenAI。”
anthropic scaling scalinglaw 2024-11-28 14:40 8
大多数人可能不知道,Scaling law原始研究来自2017年的百度,而非三年后(2020年)的OpenAI。
claude scaling scalinglaw 2024-11-28 08:52 7