对着电脑屏幕打了一行字:“一只橘猫,穿着宇航服,坐在火星上弹吉他,背后能看见地球,要那种电影大片的感觉。”没一会,图就出来了。其中一张,猫的面罩上反射着星星,眼神里居然有点孤独的味道。这玩意儿,真神了。
现在这种AI画图的工具,很多,Midjourney,Stable Diffusion,DALL-E 3,个个听起来都挺玄乎。它们到底有啥区别?哪个好用?
下面是我花时间一个个玩过来,踩了不少坑之后,整理出来的大白话使用指南,请查收!

那三巨头,脾气都不一样
现在最火的就这三个,我感觉它们就像三个人,性格完全不同。
①Midjourney
这位是个艺术家,而且是品味很好的那种。
你不用说得太细,它交出来的作业总能超出预期。画出来的东西光影、构图、色彩都挺讲究,自带一种高级感。
现在最新的V6版,更厉害了。它更能听懂人话,你不用再像以前一样念咒语拼关键词。而且画真实照片的感觉也上来了,用 –style raw 这个指令,就能去掉它那层标志性的“油画味”,变得更像相机拍的。要是想画二次元,用 –niji 就行了,画动漫这块儿,没谁比得过。
但这个艺术家有脾气。
第一,用起来别扭,得在一个叫Discord的聊天软件里画图,对新人不太友好。
第二,贵。现在没免费试用了,得按月掏钱。
第三,它有自己的审美洁癖。你想画点猎奇的、丑的东西,它可能会自作主张给你美化了。
谁适合用Midjourney
搞设计的,画画的,做广告的,或者就是单纯对画面质感有要求的人。
②Stable Diffusion
这个是个纯粹的理工男,一个巨大的DIY工具箱。
它的口号就是“自由”。你可以把整套工具搬到自己电脑上跑,只要你显卡顶得住。这就意味着,完全免费,想画多少画多少,画什么也只有你的硬盘知道。
它的核心是折腾。
你可以换“大模型”,等于给相机换不同风格的镜头。社区里有几万个模型,写实的、卡通的、水墨的,天天换着用都行。
你还可以装“LoRA”,这是一种微调模型,很小。比如你想画某个特定的游戏角色,或者模仿某种独特的画风,找个对应的LoRA文件就行。
它还有个叫“ControlNet”的神器。这个东西能让你用一张草图,甚至火柴人,去精准控制生成人物的姿势。以前画图看运气,现在能做到指哪打哪。
当然,自由的代价就是麻烦。
安装部署就能劝退一堆人。它的操作界面密密麻麻全是参数,新手一看就蒙了。对电脑显卡也有要求,没张好显卡跑起来很慢,甚至跑不动。而且,因为没人帮你兜底,参数没调好,画出四不像、六指儿的怪物是家常便饭。
谁适合用Stable Diffusion
喜欢钻研技术的人,想完全控制画面细节的专业画师,或者就是单纯享受自己动手创造过程的玩家。
③DALL-E 3
它像一个特别会聊天的朋友,最懂你的意思。
DALL-E 3最牛的地方,是它和ChatGPT的结合。你不用学任何专业的指令,就像跟人聊天一样,把你的想法告诉它。
比如我试过这样对它说:“帮我画一张图,一个老侦探和一个机器人正在下棋,背景是赛博朋克风格的城市,但屋里要有壁炉的暖光。”
它不仅能准确画出这个复杂的场景,我还能继续提要求:“让机器人身上多点战斗的划痕。”“把棋盘换成全息的。” 这种一来一回的修改方式,特别顺手。而且它在图里生成英文字母的准确率,比前两个高不少。
它的缺点也明显。
得花钱订阅ChatGPT Plus才能用上最好的版本。画风有点“标准”,工整好看,但缺少惊喜。而且它管得特别严,很多东西都不让画,比如名人、有点争议性的话题。
谁适合用DALL-E 3
刚入门的小白,做市场和新媒体运营需要快速配图的人,或者产品经理这种需要把想法快速变成图的人。
不想花钱?这几个也能玩
A.Leonardo.Ai
这个平台很大方,每天都送免费点数,够你画一阵子的。里面有很多别人训练好的模型,你可以直接用,出图效果也不错。功能很全,算是个对新手友好的小“Stable Diffusion”。
B.Bing Image Creator
微软官方的工具,背后就是DALL-E 3。每天有免费的快速生成次数,用完了会变慢,但还能用。这是白嫖顶级AI最好的地方。
C.文心一格 / 通义万相
国产的AI,画中国风的东西是它们的强项。比如你要画个水墨丹青、或者穿汉服的人物,它们对那种韵味的理解,比国外的工具地道。用起来也方便,不用翻墙。
怎么跟AI说话,它才能画出你要的图
出图效果不好,多半是没跟AI说清楚。
(1)把关键词变成一幅画
别只丢“男人,汽车,夜晚”这种词。试着像描述电影镜头一样说话。
比如:“一个穿着风衣的男人,靠在一辆湿漉漉的老式跑车上,夜晚的城市街道,霓虹灯光反射在积水的地面上。”
你看,这样AI脑子里的画面就清晰多了。
(2)学几个好用的词
有些词一加上去,画面质感立马不一样。
想真实点,就加hyperrealistic(超写实)、Unreal Engine 5(虚幻引擎5)。
想细节多,就加highly detailed(高细节)。
想模仿大师,就直接说in the style of Hayao Miyazaki(宫崎骏风格)。
想有镜头感,就用wide-angle shot(广角镜头)、close-up(特写)。
(3)告诉它不画什么
这叫“负面提示词”。能帮你避免画出崩坏的玩意儿。
直接把这段话复制进去就行:(worst quality, low quality:1.4), ugly, deformed, blurry, watermark, text, extra fingers, mutated hands。
它的作用就是告诉AI,这些乱七八糟的东西都别画。
(4s)拿图给AI当参考
有些画面用嘴说不清,直接丢一张参考图给AI就行。这个功能叫“以图生图”。AI会参照你的图来画,对控制构图和风格特别有用。
这玩意儿除了好玩,还能干啥
这东西不是玩具,是正经的效率工具。
对上班族来说,做运营的要写公众号,半夜找配图找到头秃。用AI几分钟就能生成一堆,还不用担心版权问题。做设计的,可以用它在项目初期快速出几十个方案找灵感。做PPT的,别再用那些丑得要死的模板图了,根据每页内容用AI画一张,整个PPT的档次都不一样了。
对自己来说,给自己做个独一无二的头像、壁纸。把你家宠物P成各种好玩的形象,比如让你的猫穿上龙袍。这些都是动动嘴就能实现的小乐趣。
AI画图的工具,就是把画画的能力,从少数人手里,交给了我们每一个普通人。
别光看了,挑一个顺眼的,现在就去试试。这篇东西你先存着,什么时候没灵感了,或者忘了怎么用了,再翻出来看看。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/1085.html