Gemini 2.0的“用嘴改图”终于上线了,这是AI绘图的新范

B站影视 欧美电影 2025-03-13 21:02 1

摘要:Google这两天动作蛮多。昨天刚开源Gemma3,然后今天夜里,鸽了N久的Gemini 2.0的原生多模态生图功能,也终于开放了。

Google这两天动作蛮多。昨天刚开源Gemma3,然后今天夜里,鸽了N久的Gemini 2.0的原生多模态生图功能,也终于开放了。

这也是我对Gemini 2.0最期待的功能。在出门回来,玩了一下午后,我觉得终于可以给你们分享一下,这玩意的有趣之处了。先给你们直观的感受一下,它能干啥。比如我现在有一张图,是一个很酷的小姐姐。

我想让这个小姐姐,变成长头发。你无需PS,无需局部重绘,只需要一句话就行。

Gemini 2.0,就会瞬间保证所有的其他细节不变的情况下,把小姐姐变成长发。我们还可以,一句话,让她把眼睛闭上。

再把她的脸,换成特朗普。。。

这个效果,emmmm,我无法评价。。。又或者,这是一套扑克牌的图。

我想把把最右边的红桃A扑克牌,变成梅花2。一句话,就成。

不过这个得roll,我roll了3次才roll出来。你也可以改文字。

甚至,可以扔一个草图进去,然后说:

请你根据这张手绘线稿图,生成对应的一张真实房屋渲染图。

对这个屋子材质不满意,你还可以,改成木质的。

这,就是言出法随的力量。、得益于Gemini 2.0的多模态能力,类似于之前的GPT4o,GPT4o是语音端到端,而Gemini 2.0,则是图片端到端。集图片理解和生成为一身。而且,画出的图,审美也还凑合,虽然还远远达不到类似MJ、Flux那种质量,泛化能力也差点意思,但,能用了。在多模态大模型上,能用的言出法随,是非常关键的一点。说下怎么用。打开https://aistudio.google.com/正常你登录后会看到这个界面(需要魔法)。

然后,在右侧把模型,切换成Gemini 2.0 Flash Experimental。

目前限免,可以随意白嫖。同时记得output这块,一定是Images and text,千万别只选Text,那你就生成不了图了。

接下来,直接在对话框里,传你图片,加上文字描述就OK。

比如我把我的头像,变成3D实物。

而且你不止可以传一张图,你也可以,传两张图,然后,融图。

虽然它换logo换的还有点贴片感,比较这个太难了,但是产品图,就会好很多了。比如1和2结合。

光影还是有一些不匹配,有一些贴图感,但不妨碍很准确。再给半年时间迭代,我觉得,一切都不是问题。甚至你还可以,不只是图+文字进去,你还可以,直接让它给你生成图文混排的教程。比如这个做番茄炒蛋的case。

你现在,是真的拥有一个图文混排的教程了。。。甚至,你还可以,给一个平面图,直接做每个房间的渲染图。我随手生成了一个两室一厅的平面图。

然后,扔给了Gemini。

怎一个离谱了得。。。这种一致性,做故事、做分镜,真的就是手到擒来。两年多了,生成式AI在图像编辑领域的进步,真的也就像悄悄进行的大革命。从最初需要苦学多年Photoshop和图像处理技术,到如今只需一句话就能实现你的所有创意。我们不再受限于专业技能的掌握程度,就算是从来没用过PS的小白,也可以轻松地用嘴,将脑海中的创意转化为现实。言出法随,从这一刻,成真了。这或许。就是AI时代。它们给予我们最珍贵的礼物。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@gmail.com

来源:新浪财经

相关推荐