刷到过那种看着特牛的AI视频吧?一张照片里的人会动了,或者打几个字就冒出一段不存在的电影。想学,又觉得麻烦。其实这事没那么玄乎,根本用不着懂代码,几杯咖啡的工夫就能入门。
这篇文章就是个大白话教程,不扯那些虚的。我会把从头到尾的步骤掰开揉碎了讲,你应该用什么工具,具体怎么点,还有新手最容易在哪摔跤,都给你说明白。

01 先搞懂AI视频到底是个啥
说白了,AI视频就是你动动嘴,AI跑断腿帮你干活。你只需要告诉它你想要什么,它可以帮你把脑子里的想法变成视频。
A 它是怎么干活的?主要就这三种路子
一) 文生视频 (Text-to-Video)
这是最常见的一种。你写一句“一只猫在太空骑滑板”,AI就会给你生成这么一段视频。效果好坏全看你这句“咒语”写得怎么样,还有你用的是什么工具。
* 代表工具: Runway, Pika
二) 图生视频 (Image-to-Video)
这个也直接。你给AI一张图,不管是你自己拍的还是AI画的,然后告诉它怎么动。比如让一张蒙娜丽莎的画像对你眨眼睛,或者让一张风景照片里的云飘起来。
* 代表工具: Pika, Runway
三) 数字人播报 (Avatar Video)
这个主要是做“人”的视频。你给它一段稿子,它就能生成一个数字人,嘴型对得上,表情还挺自然地帮你念出来。你自己不用出镜,省了录视频和背稿的麻烦。
* 代表工具: HeyGen, D-ID
B 现在学这个有用吗
用处很明显。如果你是做短视频的,这玩意就是个效率外挂,以前一个团队才能搞定的特效,现在你一个人几分钟就做出来了。要是做营销或者电商,可以快速生成一堆不同的广告素材去测试效果,成本低得吓人。
就算你啥也不为,就是玩儿,也能把自己那些乱七八糟的想法变成现实,还挺有意思的。
02 挑顺手的工具,别贪多
市面上工具一堆,名字都奇奇怪怪的。新手别犯晕,你就从下面这几个里挑着用,足够了。
① Pika 和 Runway,新手二选一
这两个是现在玩文生视频和图生视频最主流的。我把它们俩的区别说明白,你好选。
- Pika
操作最简单,界面跟聊天软件似的,特别适合新手上来就体验“无中生有”的快感。它生成速度快,免费额度也还行,做出来的东西有点卡通和艺术感,发发抖音朋友圈完全够用。- 难度: 基本没有。
- 选它: 如果你就想快速玩一下,做点有创意的小短片。
- Runway
这个更专业,功能多得跟个万花筒一样。它有个“动态笔刷”,你想让画面的哪个部分动,就拿笔刷涂一下,控制更准。生成的视频质感更接近电影,写实感强一些。而且它不止能生成视频,还带了些AI剪辑功能,比如一键抠像啥的。- 难度: 比Pika复杂点,要花点时间熟悉。
- 选它: 如果你对视频质感有要求,希望搞出电影感那种效果。
我的建议是,先去玩Pika。等你知道AI视频是怎么回事了,还想玩得更花哨,再去研究Runway。
② 做口播视频的利器:HeyGen
如果你想做那种知识分享、产品介绍的视频,但又不想自己天天录,用HeyGen。这玩意做数字人播报是一绝。
你传一张自己的正面照,或者干脆录几分钟视频做个“数字克隆人”,以后只需要给稿子,它就能替你出镜。它最牛的功能是视频翻译,你明明说的是中文,它能生成一个英文版,口型都给你对上,这太猛了。
③ 让视频画面质量起飞的源头:Midjourney / Leonardo.AI
很多时候你直接用“文生视频”,画面里的人或东西可能会有点奇怪。有个让质量翻倍的技巧:先用AI绘画工具做出一张完美的图片,再让视频工具把它变活。
- Midjourney 是目前公认的AI绘画画质天花板,出的图有种艺术感。但它得在Discord里用,对新手不太友好。
- Leonardo.AI 有网页版,更方便。它内置了很多别人训练好的模型,尤其适合做游戏、奇幻风格的图。
这个“先图再生视频”的流程,能让你对画面的控制力强非常多。因为画一张好图比生成一段完美的视频要容易控制。
④ 别忘了声音和剪辑:剪映
AI吐出来的都是几秒钟的视频小片段。你需要一个剪辑软件把它们串起来,加上音乐和字幕。
用剪映就行。它不光能剪辑,还自带一堆AI功能。比如你把文案打进去,它就能生成各种音色的AI配音;视频里有人说话,它能一键生成字幕。你的AI视频工作流里,剪映是最后一站。
03 实战:5步做出你的第一个AI视频
光说不练假把式。我们现在就做一个。
目标案例:做一个“宇航员在火星上看日落”的10秒视频。
咱们走“先图再生视频”的高质量路线。
(1) 第一步:想好画面,写好“咒语”
我们先要用AI绘画工具生成一张宇tronaut的图片。提示词(Prompt)得写清楚。
不用想得太复杂,直接描述你想要的:
A lonely astronaut standing on the red rocky surface of Mars, watching a distant blue sunset, sci-fi movie scene, cinematic lighting, wide angle shot, photorealistic
(一个孤独的宇航员站在火星的红色岩石表面,观看远处的蓝色日落,科幻电影场景,电影级光照,广角镜头,照片般真实)
把这段英文丢给Midjourney或者Leonardo.AI。
(2) 第二步:生成图片
AI会给你几张图,挑一张你最喜欢的。假如我们选了一张宇航员背对着我们、面朝远方日落的图。
(3) 第三步:让图片动起来
现在,打开Pika(或者Runway)。
- 找到“图生视频”(Image to Video)功能,把你刚生成的宇航员图片传上去。
- 在提示词框里,告诉AI怎么动。我们想要一种很安静、镜头慢慢推近的感觉。可以这样写:
Subtle movement, stars twinkling, camera slowly pushes in
(轻微的动态,星星在闪烁,镜头缓慢推近) - 点生成。几十秒后,你就得到了一段4秒钟的视频。视频里,宇航员静静站着,天上的星星在微弱闪烁,镜头还在一点点靠近他。
(4) 第四步:配上音乐和音效
没有声音的视频是没有灵魂的。
- 打开剪映,把你刚才生成的视频片段倒进去。
- 在剪映的“音频”库里搜“宇宙”“孤独”“科幻”之类的关键词,找一段合适的背景音乐。
- 再加点细节:找个“太空环境”的白噪音或者微弱的“呼吸声”音效叠加上去。感觉立马就来了。
(5) 第五步:剪辑,输出
AI生成一次是4秒,如果想做个10秒视频,可以重复刚才第三步,换个动态描述(比如camera slowly pans right 镜头缓慢右移),再生成一两个片段。
- 把这几个片段在剪映里拼起来。
- 用剪映的“滤镜”功能统一一下色调,让它们看起来像是在一个场景拍的。
- 在视频结尾可以加上一行字,比如“And we are all alone”。
- 最后,点导出,你的第一个AI大片就完成了。
04 进阶:常见问题和解决方法
你上手之后,肯定会碰到各种问题。
a 视频一闪一闪的,怎么办
这是AI的通病,因为它没法完美预测下一帧该长什么样。解决方法是让你的动态描述缓和一点。你让它“疯狂地跑”,肯定比“缓慢地走”更容易崩。多生成几次,挑个最稳定的版本。
b 视频里的人脸或手变形了
AI对人体的结构理解还不完美,特别是手。硬要“文生视频”去生成一个正在说话的人,脸崩的概率很高。这就是为什么我们推荐“图生视频”,你先弄出一张完美的人脸图,再让AI只动动嘴巴或者眼睛,出错的概率就小多了。
c 怎么让同一个角色出现在不同场景里
这是现在AI视频最大的难题,叫“角色一致性”。你很难让AI在第一个镜头里生成一个叫“小明”的角色,在第二个镜头里还能认出他。专业的玩法比较复杂,涉及到“seed”和“cref”这些参数,新手阶段可以先不管。一个笨办法是,用同一个AI绘画提示词生成大量不同姿Ttai的角色图,挑出最像的几张,再分别拿去做视频。
d 这玩意做的视频,版权归谁?我能拿去卖钱吗
这事比较模糊。简单点说:如果你只是打了一句话,AI全自动生成的视频,基本不能算你的版权。但如果你像我们实战案例里一样,自己构思画面、生成图片、设计动态、剪辑、配音……搞了一大堆创作,那这个最终的“作品”,版权就倾向于你。
用之前,最好看一眼工具的使用条款,上面会写生成的内内容能不能商用。想靠它挣钱,就别偷懒,多加入你自己的创意和劳动,让它变成你个人风格的作品。
好了,去看,去学,去做
这篇文章你看完了。道理你都懂了。接下来别光收藏,这没用。
你现在就打开一个工具,不用管那么多,先试着做一个3秒的视频,目标可以很简单:“一条狗在开会”。看看AI会给你什么东西。当你看到那个离谱又好笑的画面时,你就真正入门了。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-video/1262.html