社交媒体上那些AI画,你应该看烦了吧?一会是猫在太空弹吉他,一会又是赛博朋克风格的古风建筑,花样多得不行。很多人看着眼馋,也想自己动手搞一张。
结果一搜,发现最有名的Midjourney要收钱,而且还不便宜。这就把一堆人挡在了门外。
难道想玩AI绘画,就非得掏钱吗?
当然不是。
有些好东西,不仅免费,功能还猛得一塌糊涂,甚至比付费的还自由。它们不要你的钱,只要你花点时间,动动脑子。
这篇文章就是给你扒一扒这些宝贝。我挑了三款,都是亲身体验过、觉得真的牛的。我会说明白它们好在哪、怎么免费用、适合谁。顺便,还会教你怎么写出能让AI听懂话的“咒语”。
看完这个,你也能做出那些刷屏的图了。

01.Stable Diffusion,给爱折腾的人
一句话概括:如果你就喜欢自己动手,啥都要能自己改,想要独一无二的效果,那Stable Diffusion就是你的菜。
很多人觉得它复杂。确实复杂,但也正因为复杂,它才几乎无所不能。它不像Midjourney那样,你给句话,它给你张图,中间过程你啥也管不了。Stable Diffusion把所有东西都摊开给你看,代码、模型全是公开的。全世界的技术爱好者都能给它添砖加瓦。
这就让它有了一大堆别人比不了的好处。
它到底强在哪
①.真免费,还安全
Stable Diffusion的代码是免费的。你在自己电脑上装好后,想一天24小时不停地出图都行,没谁管你要钱,也没点数限制。而且,你画的所有东西、用的所有模型,都在你的硬盘里。不用担心哪天服务商跑路了,或者拿你的图去干别的。这份安全感,是任何在线网站都给不了的。
②.模型多到用不完
这是Stable Diffusion最厉害的地方。因为公开,全世界的玩家训练了成千上万种不同风格的模型,都扔在一个叫Civitai(我们叫C站)的网站上分享。
- 大模型:这玩意决定了画画的基础风格。你想画写实的亚洲姑娘,就去找“Chilloutmix”这类模型。你想画二次元,就去下“Anything”系列。就像给相机换镜头,想换风格就换个大模型。
- LoRA模型:这个东西是Stable Diffusion的精髓,你可以把它理解成一个“风格补丁”或者“角色插件”。比如,你可以下载一个“水墨画”风格的LoRA,加载后,不管你用什么大模型,画出来的图都会带上水墨风。你也可以找一个特定游戏角色的LoRA,这样就能一直画同一个人,姿势和衣服随便换。甚至,你能自己拿照片训练一个LoRA,把你家猫变成一个AI模型。
- ControlNet插件:这东西能让你精准控制画面的构图和姿势。你可以自己先画个火柴人,然后让AI按照这个火柴人的姿势重新画出一张细节完整的图。这直接解决了以前AI画画姿势随机、跟开盲盒一样的问题。你想让角色摆什么姿势,它就得摆什么姿势。
怎么才能免费用上
想用Stable Diffusion,你要么出电脑硬件,要么出点时间。
(1) 在自己电脑上装
这是最主流的玩法。你需要一台配置还不错的电脑,最关键的是显卡,得是NVIDIA的卡。显存越大越好,6GB算刚入门,8GB能跑得动多数任务,12GB以上你就可以随便玩了。
对新手最友好的方式是去找“整合包”。国内有开发者已经把所有复杂的安装步骤都打包好了,你下下来,解压,点一下“一键启动”,它就会在你的浏览器里打开一个操作界面。你就在这个网页里输入指令、调整参数就行,很方便。
当然,你需要花时间学学界面上那些参数都是啥意思,比如“迭代步数”、“采样方法”这些。去B站搜几个教程看看,一旦学会了,你就能完全控制出图的每一个细节。
(2) 用云端平台
如果电脑配置不行,也可以“借”别人的电脑用。Google Colab就提供免费的GPU资源,网上有现成的脚本,点几下就能在云端跑起Stable Diffusion。缺点是免费版有时间限制,而且对网络有要求。
国内也有一些网站提供了在线的Stable Diffusion服务,它们通常会给免费用户一些每日额度。这适合那些想先体验一下,再决定要不要自己配电脑的人。
什么人适合它
- 喜欢自己动手研究的技术爱好者。
- 对画面有严格要求的专业设计师。
- 想稳定生成同一风格或同一角色的内容创作者。
这东西刚上手确实有点难,可能开头就会劝退一批人。但你只要钻进去了,它能给你的创作自由度是其他工具比不了的。
A.Leonardo.Ai,质量高还好上手的“法拉利”
一句话概括:想要Midjourney级别的好图,但又不想花钱,还嫌Stable Diffusion太麻烦,那就选Leonardo.Ai。
这个工具很多地方都像是在对标Midjourney。它是一个在线网站,不是完全开源的,但它很大方,每天都给免费用户送一堆“代币”。就靠这个机制,它在免费和好用之间找到了一个舒服的平衡点。
好用在哪几个地方
①.出图质量非常能打
Leo最厉害的是它自己训练的那些模型。这些模型的审美很好,尤其是在画游戏装备、盔甲武器、奇幻角色、动物、卡通贴纸这些方面,效果一点不比Midjourney差。它生成的图片质感、光影都处理得很到位,你根本感觉不出来这是免费工具画的。
②.操作简单,功能又多
它的网站界面很清楚,左边是工具栏,中间输指令,右边是别人的作品。基本不用看教程你就会用。
而且,它首页上全是别人画的好图,每张图下面都公开了用的什么模型、什么Prompt。你看到哪张图喜欢,直接点“Remix”,就能把所有设置一键复制过来,自己再改改就行。这让学习变得效率很高,简直就是开卷考试。
它还不只是个打字出图的工具。它还有个“AI画布”功能,你可以把画好的图放上去,用橡皮擦掉一块让AI重画,或者把画框往外拖,让AI帮你补全画面之外的景物。这个功能对构图帮助巨大。
③.免费点数给得足
Leo每天给免费用户150个代币。北京时间早上8点自动刷新。画一张图大概消耗1-5个代币。算下来,你每天能免费画几十张甚至上百张图。对多数人来说,这完全够用了。
想省点数就这么干
用邮箱注册一个账号就能玩。想让每天150个代币用得更久一点,有几个小技巧。
- 先关掉Alchemy功能。这个功能能提升画质,但会消耗双倍代币。你可以在反复测试想法的时候先关掉,成本低。等确定好画面了,再打开它出最终的高清图。
- 先用低分辨率出图。找到满意的构图后,再用它的高清修复功能把图放大。这比一开始就生成大图要省代币。
- 多逛社区“抄作业”。自己想半天,不如直接Remix别人的成功作品来得快。
谁会喜欢它
- 需要快速出设计稿和找灵感的设计师。
- 之前用Midjourney,现在想找个免费替代品的人。
- 想正经学AI绘画,但不想一开始就折腾硬件的新手。
当然,它的免费额度不能存着,当天不用就浪费了。如果是公司级别的高强度使用,那可能还是得花钱。
(一) Bing Image Creator,懒人福音
一句话概括:微软家的东西,用的是OpenAI最顶级的DALL-E 3模型。它最大的优点是能听懂人话,特别是中文,操作简单到不能再简单。
如果说Stable Diffusion是专业单反,Leonardo是微单,那Bing Image Creator就是一台装了AI芯片的旗舰手机。你不用去学摄影技巧,只要告诉它你想拍啥,它就能给你一张好照片。
它牛就牛在这一点
①.能精准理解你的话
DALL-E 3这个模型,最厉害的就是它对自然语言的理解力。以前的AI绘画工具,你得用关键词去凑一个“咒语”给它。但用Bing,你可以像跟人聊天一样,用一个完整的、细节很多的句子去描述。
举个例子。你想画:“一只戴着墨镜的狐狸,坐在咖啡馆里,用笔记本电脑工作,窗外是下着雨的东京夜景”。
要是用别的工具,它可能会把“笔记本电脑”忘了,或者把窗外的景色画错。但DALL-E 3能把这里面的每个元素都准确画出来。
②.画出来的图里可以带字
这也是DALL-E 3的强项。大部分AI都画不明白字,你让它写个“Hello”,它可能会画出一串鬼画符。但DALL-E 3可以比较准地在图里加上英文短句。这在做海报、表情包的时候就很有用了。
③.完全免费,用起来也方便
它是用“点数”来加速的。新用户会送一些点数,画一张消耗1点。这个点数是用完了,你还是能继续免费画图,只不过速度会慢一点,需要排队。这等于就是无限免费。
而且,你不用专门下什么软件。直接用Bing搜索的聊天模式(Copilot),或者Edge浏览器的侧边栏,就能找到它。直接在聊天框里打字“帮我画一个…”,它就开始画了。
怎么用
你只要有个微软账号就行。
跟它说话的时候,别用关键词,就用平时说话的方式,描述得越详细越好,甚至可以给它讲个小故事。
你还可以对画出来的图提修改意见。比如画完之后,你接着说“不错,给它头上加顶红帽子”,它就会在上一张图的基础上改,很聪明。
什么人用着最爽
- 没接触过AI绘画,想体验一下的纯新手。
- 写文案、写故事的人,需要快速把文字想法变成图。
- 普通人做个头像、壁纸、PPT插图。
不过,它的自由度比较低。你不能换模型,也不能像Leonardo那样精修。生成的图基本都是1:1的正方形,风格也比较固定。
我该选哪个
看到这里,你可能有点晕。这里给你个直接的建议。
- 就想快点出图,不想学 -> 直接去用 Bing Image Creator。它最简单,而且最能听懂中文。
- 想要图的质量好,又不想太麻烦 -> 那就去玩 Leonardo.Ai。它每天送的点数够你画很久,出图效果也好,还能抄别人的作业。
- 就想彻底搞明白AI绘画,想完全控制画面,不缺时间 -> 那就去折腾 Stable Diffusion。虽然开头麻烦,但学会了就是最强的。
写好Prompt,图就好一半
不管你用哪个工具,最终出图好坏,一半都取决于你输入的那段话,也就是Prompt写得好不好。
有个基本的写法公式,你按这个框架去写,一般不会太差。一张好图的Prompt,基本都包含这几块:
主体 + 细节/动作 + 场景/环境 + 风格 + 构图/光线 + 画面质量词
我们拿“一个在森林里的女孩”这个简单的想法,看看一步步优化Prompt,效果差多少。
- 第1步,最基础的写法:a girl in a forest
- 这样出来的图,基本就是张废图,构图、人物、背景全都很随意。
- 第2步,加点细节和风格:a beautiful elf girl with long silver hair, wearing a green dress, standing in an ancient, magical forest. fantasy art.
- 这下就好多了,画面有了明确的内容和奇幻风格。
- 第3步,套上完整公式:masterpiece, best quality, a beautiful elf princess with glowing silver hair and intricate silver armor, holding a luminous crystal staff, standing in an ancient, magical forest at night, with giant luminous mushrooms and fireflies, in the style of Final Fantasy, detailed concept art, cinematic lighting, epic wide shot.
- 你看,这么一写,出来的图就像电影截图或游戏原画了。因为你把画面的每个细节都安排得明明白白。
还有一个技巧,是告诉AI不画什么。这叫Negative Prompt(反向提示词)。AI画画经常会犯一些错误,比如手画不明白,画面质量低。你可以用反向提示词来避免这些。
下面这段可以直接复制着用,能帮你过滤掉很多垃圾图片:
(low quality, worst quality:1.4), (bad hands, extra fingers, fused fingers), (ugly, deformed, distorted), blurry, watermark, signature, text, jpeg artifacts.
意思就是告诉AI,别给我画质量差的、手画崩的、长得丑的、模糊的、带水印的东西。
别再光看了,自己动手试试吧。
AI绘画这东西,说白了就是个工具,一个帮你把想法画出来的工具。它再厉害,也变不出你脑子里没有的东西。你的审美、你的想法,才是最重要的。
从这三款免费的工具里挑一个你顺眼的,现在就去试试。把你脑子里那些奇奇怪怪的想法,变成一张真正的图片。
这事没那么难。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/1359.html