昨晚迫不及待地试了Gen2的【文字转视频】功能,结果真的让我大吃一惊!🐎黑马一开始就给我一种很强烈的现实感,但当它转身的时候,效果就有点崩坏了(还没测试过人形,之前看内测反馈说人形和动物形还不太稳定)。🌊🚢这个prompt我生成了三次,只有一次符合我要的“俯视/远景”,虽然【暴风雨中的海浪】完成得不...
提示词:Futuristic machine who is a kind robot who wants to save his planet from his human friends, cinematic, digital illustration,stylized, deep depth of field, high definition, --ar 16:9 --v 5.2 然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生...
X@IXITimmyIXI 比如在文本生成视频页面中输入prompt: A girl is shown in a fantasy fashion with giant horns standing on a cliffside of a fantasy world, in the style of photorealistic detailing, porcelain, soft-focus, topcor 58mm f/1.4, dark white and light pink, pink sky, detailed facial feat...
比如在文本生成视频页面中输入prompt: A girl is shown in a fantasy fashion with giant horns standing on a cliffside of a fantasy world, in the style of photorealistic detailing, porcelain, soft-focus, topcor 58mm f/1.4, dark whit...
但是如果未来Gen-2能够将prompt和图片完全结合起来,让图片能够跟着prompt的描述动起来,效果就会有一个巨大的飞跃。 其他的Midjourney+Gen-2的效果 大神歸藏,用Gen-2做了几个《奥本海默》中的场景,足以以假乱真。 同时,他还比较了相似的场景和Pika Lab生...
但是如果未来Gen-2能够将prompt和图片完全结合起来,让图片能够跟着prompt的描述动起来,效果就会有一个巨大的飞跃。 其他的Midjourney+Gen-2的效果 大神歸藏,用Gen-2做了几个《奥本海默》中的场景,足以以假乱真。 同时,他还比较了相似的场景和Pika Lab生成的区别。
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。图中的机器人瞬间就动了起来!小编用最近比较火的妙鸭相机生成了一张地球网红马老板的「美颜证件照」,再用Gen-2的图生视频模式给他来一段视频。再来看看女装马老板的动态效果 而且小编在使用过程中发现,如果...
Gen2和Sore类似,也是文本生成视频AI工具,不过Gen2是由Runway开发的Sora VS Gen2我之前也用过Gen2,但是生成的视频并不是很好前几天Sora出来了下面给大家对比下,两者生成的视频的效果Prompt1一部以新年庆祝的视频很明显Sore会更真实一些Prompt2一个24岁女子眨眼的极端特写镜头,站在马拉喀什,在魔幻时刻,用70毫米胶片...
目前来看runway已经能够按照指令生成相应的视频,但是精细程度和对prompt的理解程度相对图片生成平台Midjourney还是明显要弱一些的。但是随着用户大规模的使用改进,相信Runway的Gen2很快可以风靡小视频创作领域。见智点评:随着多模态模型的发展,从文字-图片-视频之间的相互生成将改变整个用户生态。对于产业界来说,只成为...
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。 图中的机器人瞬间就动了起来! 小编用最近比较火的妙鸭相机生成了一张地球网红马老板的「美颜证件照」,再用Gen-2的图生视频模式给他来一段视频。