摘要:百度在人工智能领域的一项重大发现,可能比OpenAI更早地揭示了“Scaling Law”这一重要原则。这一消息引起了科技界的广泛关注。
近日,有外媒报道称,百度在人工智能领域的一项重大发现,可能比OpenAI更早地揭示了“Scaling Law”这一重要原则。这一消息引起了科技界的广泛关注。
所谓“Scaling Law”,简而言之,即模型的智能能力会随着训练数据和模型参数的增加而增强。长久以来,这一思想被广泛认为是OpenAI在2020年发布的论文《Scaling Laws for Neural Language Models》中首次提出的。
然而,在最近的一期播客节目中,前OpenAI研究副总裁、Anthropic创始人Dario Amodei透露了一个令人惊讶的信息。他表示,早在2014年,当他在百度与吴恩达共同研究AI时,就已经观察到了模型发展中的“Scaling Law”现象。这一说法,无疑对“Scaling Law”的起源提出了新的见解。
不仅如此,还有行业专家通过发文指出,关于“Scaling Law”的原始研究,实际上可以追溯到2017年的百度公司。这一发现,进一步加剧了关于“Scaling Law”起源的争议。
百度在人工智能领域的深耕细作,以及其在“Scaling Law”方面的早期发现,无疑展示了其在该领域的深厚底蕴和前瞻视野。尽管关于“Scaling Law”起源的争议仍在持续,但百度在这一领域的贡献和影响力,已经得到了业界的广泛认可。
来源:ITBear科技资讯
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!