摘要:转载此文目的在于传递更多信息,不代表本平台的观点和立场。市场有风险,选择需谨慎!此文仅供参考,不构成购买及投资建议,不作买卖依据。投资者据此操作,风险自担!
转载此文目的在于传递更多信息,不代表本平台的观点和立场。市场有风险,选择需谨慎!此文仅供参考,不构成购买及投资建议,不作买卖依据。投资者据此操作,风险自担!
在科技飞速发展的当下,AI与各行各业的融合正成为行业变革的新趋势。前不久,IEEE国际计算机视觉与模式识别会议CVPR 2025公布论文录用结果,新型社交平台Soul凭借实时人像视频生成研究成果,成功闯入大家视野,被CVPR 2025录用,为AI社交领域注入了新的活力。
CVPR是人工智能领域最具学术影响力的顶级会议之一,是中国计算机学会(CCF)推荐的A类国际学术会议。在谷歌学术指标2024年列出的全球最有影响力的科学期刊/会议中,CVPR位列总榜第2,仅次于Nature。根据会议官方统计,本次CVPR 2025会议总投稿13008篇,录用2878篇,录用率仅为22.1%。相较2023年(25.8%)、2024年(23.6%),录用率的持续下降也凸显了CVPR不断严格的审核标准,以及论文入选竞争的逐年激烈。Soul App能在这样的竞争环境中崭露头角,充分展现了其强大的技术研发实力。
Soul 作为较早思考将AI应用于社交领域的平台,早在2016年就推出灵犀引擎,借助AI算法重构社交关系网络。此后,在AI技术研发的道路上持续深耕,2020年开启AIGC技术研发,聚焦多模态领域,并于2023年推出自研语言大模型Soul X。目前,Soul已陆续上线了语音生成大模型、语音通话大模型、音乐生成大模型等语音大模型能力。Soul AI大模型能力已整体升级为了多模态端到端大模型,支持文字对话、语音通话、多语种、多模态理解、真实拟人等特性,能够实现更接近生活日常的交互对话和“类真人”的情感陪伴体验。
在Soul看来,AI融入社交场景,除了需要AI介入内容表达以及关系的发现、建立、沉淀等环节,提高社交效率和社交体验,同时也需要AI作为交互对象向个体提供情绪价值。而这要求团队必须加快提升AI的感知能力和交互能力,即需要在语音、视觉、NLP的融合上下功夫,让用户能实时与具备形象、表情、记忆的 AI 多模态交互,而这也是更接近真实社交互动的方式。
在近期接受媒体采访中,Soul App CTO陶明这样解释团队关注视觉交互的逻辑,“从交互的信息复杂度来讲,人和人面对面的沟通是信息传播方式最快的,也是最有效的一种。所以我们认为在线上人机交互的过程当中,需要有这样的表达方式。”
此次论文的研究成果正是Soul在融合视觉的多模态交互方向的积极探索。在论文中核心介绍了Soul团队为提高视频生成效率以及生成效果的拟人性、自然度所提出的创新方法。
在未来,Soul将在AI技术上持续创新,致力于打造出更具沉浸感和趣味性的社交体验,为用户带来更多惊喜。
来源:国声智库一点号