Midjourney+Gen2,7步完成「芭本海默」,引Karpathy惊呼|附实测经验
【新智元导读】7步完成「芭本海默」,电影工业2.0真的要来了吗?
在前两天芭比海默全网爆火之后,不断有网友“复现”用MidJourney Gen-2制作电影的神技!
而一位网友更新了一个自己的教程,制作芭本海默只需7步,被Karpathy盛赞为“电影制作工业2.0”。
一部20秒钟,有完整剧情,包含6个分镜头的动画短片,7步完成,曹植看了都要直呼内行!
7步完成芭比海默,效果惊人
下面就给大家具体演示一下:
1.ChatGPT帮你写分镜头剧本,顺便再帮你把字幕也写好
2.根据分镜头脚本,用Midjourney生成每个镜头的开始的一张图片。
这里可能是7步成片中唯一一步稍微有点门槛的操作,每张图片的提示词要自己创作。
但是点击图片放大之后可以看到提示词也不是很长,有一点英语基础的朋友稍微试一下就能做到。
这是短片中另外几个场景的起始图片,也全都是用Midjourney生成。
3. 为了保证短片中的场景色调一致,需要用修图软件调整一下每张图片的色调。
比如短片里的色调是比较复古的风格,Midjourney生成的原图可能不符合。
用任意一款修图软件调整过后,就能让所有场景的风格比较一致了。
4. 使用Gen-2让每一张照片动起来,把6张照片变为6个分镜头。
5.然后用ElevenLabs生成字幕的语音。
6. 然后用FinalCut Pro把动画,声音,和特效结合起来,短片就基本完成了。
7. 再用Capcut添加好字幕,大功告成!
实测之后发现的经验
虽然看着简单,但是亲手实测了一波后发现,没有一个清晰的规划,要想做出自己效果满意的电影,还是很不容易的。
最大的障碍在于,因为Gen-2的动画只能以某一张图随机生成,所以在涉及人脸画面的时候,畸变会比较多。
本来想做一个马老板手搓星舰的视频,但是发现人物面部的畸变太严重了,以至于每段视频只有第一帧图片是马老板本人,一秒钟之后就不知道会变成谁了。
所以如果想要用Gen-2做一个明星相关的视频,现在为止还几乎不可能。
而且这些面部畸变和人物动作时完全随机的,完全不受用户控制。
有一位网友做了一段视频,把每4秒的最后一帧截图下来让Gen-2继续生成新动画。
大概40秒之后,画面中的人物,从一开始的美漫风格的动画角色,最后几乎畸变成了雕塑。
即便图片中有一些比较明显的动态提示的效果,但是Gen-2还不能理解,所以生成的效果也不一定符合你的预期。
人物的动作也没有办法太好的控制,可能为了要生成一段自己满意的动画需要用同一张图尝试好长时间。
所以就目前Gen-2能实现的效果来看,还不太可能随意适应比较复杂的剧本。
所以就要求写剧本时要尽量避免近景人脸特写等场景。
但是如果未来Gen-2能够将prompt和图片完全结合起来,让图片能够跟着prompt的描述动起来,效果就会有一个巨大的飞跃。
其他的Midjourney Gen-2的效果
大神歸藏,用Gen-2做了几个《奥本海默》中的场景,足以以假乱真。
同时,他还比较了相似的场景和Pika Lab生成的区别。
下图是Pika Lab的效果。
除了开头这段「芭比海默」之外,很多网友也用Gen-2和Midjouney这对黄金搭档做起了动画开发的副业。
让我们来欣赏几组效果不错的动画效果演示。
可以看出,在演示之中人脸的效果变形不是很大,这与实测的差异很大,很有可能是因为作者试了很多次之后找到的脸部畸变不大的效果。
有网友生成了一部名人漫威角色的预告片,效果非常逼真,配上一点动画特效和光影,感觉真的像是漫威官方的作品。
这是网友生成的一段恐怖电影的预告片,反而很好的利用了Gen-2人物画面畸变,增加了恐怖片的氛围感。
这一段也是网友用MJ Gen-2做的艺术感很强的视频,加上后期跟新的导演运镜特效。
这是一幅用油画的静图生成的动画,虽然有一点畸变,但是效果确实不错。
参考资料:
https://twitter.com/karpathy/status/1684608881920802816
https://twitter.com/kalsonkalu/status/1684534663472087042
- 0000
- 0000
- 0002
- 0000
- 0000