脑子里有过一些画面吧?特别酷、特别美的,但就是画不出来。大部分人都这样。以前这事儿没办法,现在不一样了。有个叫AI绘画的东西,能把你脑子里的想法直接变成画。
这东西不是什么未来科技,就是现在能用的工具。它不要求你会画画,只要你会打字、会说话,就能搞出自己的作品。

AI画画跟你想的不一样
它不是PS那样的修图软件。你不用动笔,也不用拉什么曲线。
整个过程更像是“点菜”。你告诉AI你要什么,它给你“炒”出来。你就是那个写菜单的人,AI就是那个厨子,一个懂艺术史、见过几十亿张图的厨子。
这背后的技术叫“扩散模型”。
可以这么理解它的工作原理:
(1) 拿一张清楚的图片,往上疯狂加马赛克,直到变成一堆纯粹的雪花点。
(2) AI就学这个过程的逆向操作,学着怎么把一堆雪花点,一步步变回一张清楚的图片。
(3) 最关键的一步来了。在AI把雪花点往回变的时候,你给它一段文字,比如“一只猫在太空里”。AI就会一边去马赛克,一边朝着“太空猫”这个方向去组合那些像素点。最后,出来的就是一张全新的、它自己“想”出来的太空猫。
目前,这东西主要有两种玩法。
① 文生图
这是最基本的。你写字,它出图。纯粹靠文字描述创造一个新画面。
② 图生图
这个玩法是你先给AI一张图,可以是你自己的草稿,也可以是一张照片,然后再配上文字要求。AI会参考你的图,按照你的文字去修改或重新创作。比如上传一张狗的照片,然后写“把它变成赛博朋克风格的机器人”,它就能给你改出来。
主流的三个工具,挑个上手的
市面上工具很多,但闹得最凶、最有代表性的就三个:Midjourney,Stable Diffusion,DALL-E 3。它们脾气性格完全不一样。
一 Midjourney
这家伙是个“艺术家”,天生就有审美。
- 特点是啥:出图质量很稳,而且自带一种高级感,光影、构图都调教得很好。就算你给的指令很随便,它也能给你优化得挺漂亮。用起来也简单,全程在一个叫Discord的聊天软件里打字就行,不用装什么东西。
- 怎么用:在Discord频道里,输入 /imagine prompt: 然后在后面跟上你的英文描述。比如 /imagine prompt: a panda drinking bubble tea, pop art style (一只熊猫在喝珍珠奶茶,波普艺术风格)。
- 谁会喜欢:想快速出高质量图,又不想折腾技术的设计师、艺术爱好者。或者就是普通人想弄个好看的头像壁纸。
- 说白了:Midjourney就像个审美很好的艺术总监。你提个大概方向,它就能给你整出一套视觉效果很棒的方案。但你要是想改画里某个巨细靡遗的地方,它就不太听话了。
二 Stable Diffusion
这是个彻头彻尾的“技术宅”,免费、开源、什么都能改。
- 特点是啥:它不要钱。你可以把模型整个下到自己电脑上,只要显卡顶得住,就能无限出图。最关键的是,它的控制力最强。社区里有无数大神做的特定模型,有专门画二次元的,有专门画写实照片的,还有能固定人物脸型、甚至姿势的插件。
- 怎么用:这个麻烦点。需要在自己电脑上部署环境,通过一个叫WebUI的网页界面来操作,里面的参数设置有一大堆。对电脑配置有要求,尤其是显卡。
- 谁会喜欢:喜欢自己动手,啥都想控制到位的技术爱好者。或者是需要大量出图,而且对风格有特定要求的专业创作者。
- 说白了:Stable Diffusion就是给了你一整个工作室的工具和材料。最后能造出什么东西,全看你自己的手艺。门槛高,但玩明白了,上限也高得没谱。
三 DALL-E 3
这个工具最大的本事,就是特别会“阅读理解”。
- 特点是啥:它跟ChatGPT是绑定的。所以你不用学那些复杂的指令结构,就用平时聊天的大白话跟它说就行。它能精准理解很长、很复杂的句子。而且还能跟它对话修改,比如“让左边那个人笑一下”,“背景换成海滩”,它能听懂并照做。
- 怎么用:在ChatGPT Plus会员里,直接选DALL-E 3模式,然后用中文或英文跟它对话就行。
- 谁会喜欢:不想学任何复杂指令,就想通过聊天把画搞出来的普通人。或者本身就是ChatGPT重度用户,顺手就把图给生成了。
- 说白了:DALL-E 3像个沟通能力满分的助理。它最擅长精确执行你的文字命令,尤其是在画面里需要出现特定文字,或者逻辑关系复杂的时候,它干得最好。
所以选哪个?一句话的事:要好看省心找Midjourney。要自由免费能折腾用Stable Diffusion。要动动嘴皮子就出图,用DALL-E 3。
怎么跟AI说话才能画好
你跟AI沟通用的那些文字,行话叫“提示词”(Prompt)。这东西写得好不好,直接决定了出图的质量。它不是念咒,就是把指令说清楚。
你可以把AI想成一个超级天才,但又是个白痴。它懂所有画派,但你不说,它就不知道你想要哪个。所以,指令得细。
这里有个写指令的思路,可以当成搭积木。
(A) 先说画面的主角:一只猫。
(B) 再加细节和动作:一只穿着宇航服的肥猫,在喝可乐。
(C) 然后是环境背景:它坐在月球表面的一个沙发上,背后是地球。
(D) 接着定义风格:宫崎骏动画的风格,色彩温暖。
(E) 最后是技术性要求:电影感光效,特写镜头,画面要精细。
把这些积木合起来,就成了一句不错的指令:
A fat cat in a spacesuit, drinking coke, sitting on a sofa on the moon’s surface, with the Earth in the background, style of Hayao Miyazaki, warm colors, cinematic lighting, close-up shot, ultra-detailed.
看看差别。如果你只说“一只猫”,出来的图可能什么样都有。但你把上面那段复杂的描述给它,出来的图就离你脑子里的画面八九不离十了。
这里有一些好用的“作弊码”,加到你的指令里,画质能提升一块。
- 画质词:masterpiece (杰作), best quality (最高质量), ultra-detailed (超多细节), 8k
- 光线词:cinematic lighting (电影光), rim light (轮廓光), god rays (上帝光)
- 风格词:cyberpunk (赛博朋克), watercolor (水彩), pencil sketch (铅笔素描)
- 艺术家名:直接说 in the style of [艺术家名字],比如 style of Van Gogh (梵高风格),AI能直接模仿他的笔触和色彩。
这东西能拿来干嘛
AI绘画不光是好玩,已经有很多人用它在干正事了。
(1) 给工作加个速
- 设计师不用再花半天时间画好几个草稿给客户看了。用AI几分钟就能生成十几个不同方向的方案,直接拿去开会,效率高太多。做个海报缺配图,也不用再去图库网站找了,自己生成一个独一无二的。
- 做游戏或电影的,在项目最开始,可以用AI快速把角色、场景的样子画出来,让整个团队对要做的东西有个直观感受。这个过程以前叫“概念设计”,是慢活儿,现在快多了。
- 写公众号或者做市场营销的,最头疼的就是配图。AI能帮你无限量产原创配图,还不用担心版权问题。
(2) 给生活找点乐
- 给自己做一个独一无二的社交头像,想什么样就什么样。
- 晚上给孩子讲故事,可以一边讲一边把故事里的场景和人物画出来,做成一本专属的电子绘本。
- 自己写的小说,可以给里面的角色画出人设图。
- 就是单纯的瞎玩,把脑子里稀奇古怪的想法变成画,也挺有意思的。
一些问题和未来的事
这东西火了,吵架的声音也来了。
01艺术家会不会丢饭碗
这事儿得分两头看。
一种看法是,肯定会。那些画产品素材、给线稿上色之类的基础工作,AI干得又快又好又便宜,这部分人的工作机会确实会变少。
另一种看法是,它只是个工具。相机发明的时候,也有人喊着画家要失业了,结果多出来一个叫“摄影”的行业。AI也一样,它会淘汰掉一部分重复性的绘画劳动,但也会让顶尖的艺术家和创意人如虎添翼。艺术家会从“画画的人”变成“用AI画画的人”,更专注于想法和创意本身。
我自己的感觉是,变化已经在发生了。它不会完全替代人,但会逼着这个行业升级。以后,创意和审美会比绘画技巧本身更值钱。
02画的版权算谁的
这个最头疼,现在全世界的法律都还在掰扯。
主要吵两点:一是AI的学习素材库里,有很多网上扒下来的、有版权的画,这算不算“偷”?二是你用AI生成的画,版权算你的,还是算AI的?
目前的趋势是,如果一张图纯粹是AI自己生成的,你只说了一句很简单的话,那这张图可能没有版权。但如果你通过很复杂的指令设计、后期修改,在创作过程中付出了足够的“智力劳动”,那这张图就可能被认定是你的作品。
所以,想拿AI的图去商用,目前风险不小,最好先搞清楚你用的那个平台是怎么规定的。
03以后会变成什么样
AI画画只是开了个头。现在,能根据文字直接生成视频的AI(比如Sora)已经出来了。你写一个剧本,它直接给你拍成短片。还有能生成3D模型的AI,以后做游戏、做动画,可能就像搭积木一样简单。
我们正处在一个“生成万物”的时代入口。
所以,别再觉得“我不会画画”是个多大的事了。工具就摆在这里,它把创作的门槛踩到了地板上。
找个工具,试试输入你脑子里的第一个画面。别管好坏,先玩起来。那个只存在于你想象里的世界,现在有机会被看见了。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/1272.html