朋友,别再到处找那些花里胡哨的AI绘画工具了,也别再被那些听起来很牛但实际上手就懵的教程给骗了。我敢说,对我们大多数只想在朋友圈发发图,偶尔满足一下自己创作欲的普通人来说,工具真的不用多。你只需要知道三个,并且把它们玩明白,就足够了。

1. Midjourney:效果最惊艳,但需要一点耐心
咱先说Midjourney,这东西就是AI绘画界的“扛把子”。 你在网上看到的那些特别逼真、充满艺术感、细节多到吓人的AI图片,有很大一部分都来自它。
它到底牛在哪?
简单说,就是出图质量高,而且风格多变。 无论你想要一张跟照片一样的真实图片,还是赛博朋克风格的科幻大片,甚至是梵高风格的油画,它都能给你做出来。而且它对自然语言的理解能力很强,就算你的描述词很简单,它也能猜出个大概,给你一个不错的结果。
怎么上手?
这个稍微麻烦一点,也是很多人望而却步的原因。Midjourney主要是通过一个叫Discord的聊天软件来使用的。
- 第一步:注册。 你需要先有一个Discord账号,这个是免费注册的。 然后,去Midjourney的官网,用你的Discord账号登录并授权。
- 第二步:加入服务器。 登录后,你会收到一个邀请,接受它,你就会被拉进Midjourney在Discord上的官方服务器。
- 第三步:开始画图。 在服务器里,找到任何一个以“newbies”开头的频道(新手频道)。 在聊天框里输入
/imagine,然后敲一下空格,后面就会出现一个“prompt”的框框。 你想画什么,就在这个框里用文字描述出来,然后回车。
举个例子,你想画一只戴着帽子的猫,你可以输入:/imagine prompt: a cat with a hat
等个几十秒,机器人就会发出四张图片供你选择。 图片下面会有U1、U2、U3、U4和V1、V2、V3、V4这些按钮。 “U”是Upscale的缩写,意思是放大图片,如果你喜欢第一张,就点U1,机器人会把这张图变得更清晰、细节更多。“V”是Variation,意思是基于某张图再创作,如果你觉得第二张的大感觉不错,但还想看看别的可能,就点V2,它会再给你生成四张和第二张风格类似的图。还有一个是“重新生成”按钮,点了之后它会根据你原来的描述词再画四张全新的。
给个实在的建议:
- 描述词尽量具体。不要只说“一个女孩”,可以说“一个穿着红色连衣裙、黑色长发、在雨中巴黎街头微笑的女孩”。细节越多,它画得越准。
- 多用“风格词”。比如你想让图片有电影感,可以加上“cinematic lighting”(电影感灯光);想要真实,就加“photorealistic”(照片般真实)。
- 去看看别人怎么写。在频道里能看到很多人发的图和他们的描述词,这是最好的学习材料。看到喜欢的图,就研究一下别人用了哪些关键词。
Midjourney现在是收费的,最便宜的套餐一个月10美元左右,对于想认真玩玩的朋友来说,是值得的。 它的效果绝对能让你在朋友圈收获一堆“哇塞”。
2. Leonardo.Ai:免费还好用,游戏玩家和设计师的最爱
如果说Midjourney是那个高高在上的艺术家,那Leonardo.Ai就是更亲民、更接地气的多面手。它最开始是为游戏开发者设计的,用来快速生成游戏里的角色、道具、场景这些东西。 所以,它在生成特定风格,比如奇幻、科幻、卡通角色方面特别强。
它好在哪?
- 免费额度够用。 这是最关键的一点。每天它会给你一些免费的“代币”,用来生成图片。 对于我们这种偶尔玩一下的用户来说,完全够用了。
- 有自己的网站,操作简单。 不用像Midjourney那样必须通过Discord,Leonardo有自己的网页界面,进去之后一目了然。 左边是工具栏,中间是输入框,右边是各种模型和风格设置,对新手非常友好。
- 社区和模型是宝藏。 Leonardo有一个庞大的社区,用户会分享他们训练好的“模型”。 比如,有人专门训练了一个生成3D卡通头像的模型,你直接用这个模型,哪怕描述词很简单,出来的图也会是那种特定的风格。这大大降低了我们调校风格的难度。
怎么上手?
- 第一步:注册。 去Leonardo.Ai官网,用谷歌或者苹果账号就能直接注册登录。
- 第二步:开始创作。 登录后,在主页左侧菜单找到“AI Image Generation”(AI图像生成)。
- 第三步:写描述词。 在页面上方的输入框里写下你想画的内容。
- 第四步:选模型和风格。 这是Leonardo的精髓。你可以在左侧的设置栏里选择“Finetuned Model”(精调模型)。这里有官方提供的各种模型,比如“Leonardo Diffusion”是通用写实模型,“3D Animation Style”就是做3D动画风格的。你也可以去社区模型(Community Models)里找别人分享的模型来用。选好模型后,再点一下“Add Elements”,还能叠加一些比如“水彩”、“素描”这样的风格效果。
- 第五步:生成和调整。 点击“Generate”按钮,稍等片刻图片就出来了。和Midjourney一样,你也可以选择放大某一张或者基于某一张进行再创作。
给个实在的建议:
- 多逛社区模型。这是快速出好图的捷径。看到喜欢的风格,直接点击“Generate with this Model”,然后换上你自己的描述词就行。
- 试试“Image to Image”(图生图)功能。 你可以上传一张自己的照片或者草稿,然后让AI基于这张图进行重新绘制,非常有意思。
- 别忘了每天签到领免费代币。虽然它免费,但代币用完了就要等第二天了。
对于想免费体验,又希望对图片风格有更多控制的人来说,Leonardo.Ai是最好的选择。
3. Stable Diffusion:最自由也最复杂,技术宅的最爱
最后说说Stable Diffusion。这个工具跟前面两个完全不是一个路子。它不是一个网站或一个公司,而是一个开源的模型。 “开源”的意思就是,源代码是公开的,任何人都可以免费下载、使用、甚至修改它。
它有什么不同?
- 完全免费,没有限制。 因为是开源的,你只要有一台配置还不错的电脑(主要是显卡要好),就可以在本地部署它,然后想生成多少张图片就生成多少张,完全免费。
- 自由度最高。 你可以给它加载各种各样的模型(Models)和LoRA(一种微调模型)。比如,你想生成某个特定动漫角色的图片,网上就有人专门训练了那个角色的LoRA,你下载下来加载上,就能画出非常像的同人图。这是Midjourney和Leonardo做不到的。
- 控制力最强。 通过一些叫做ControlNet的插件,你甚至可以控制生成人物的姿势。你可以上传一张火柴人摆着某个姿势的图片,AI就能生成一个和你指定的姿势一模一样的人物,细节还特别丰富。
怎么上手?
这是最难的一步。在自己电脑上部署Stable Diffusion需要一点技术知识,包括安装Python、Git,然后通过命令行下载和运行程序。对普通人来说,这个门槛有点高。
但是,有好消息!
现在有很多国内外的网站和服务,已经把Stable Diffusion集成好了,做成了网页版,让你不用自己部署就能直接用。比如国内的一些设计网站就集成了类似的功能。 虽然这些网站可能会有一些付费项目或者生成数量的限制,但比起自己从零开始折腾要简单太多了。
给个实在的建议:
- 如果你只是想尝鲜,去找那些提供在线Stable Diffusion服务的网站。搜索“Stable Diffusion 在线”就能找到不少。
- 如果你真的对技术感兴趣,并且电脑配置不错(建议至少有8G显存的英伟达显卡),可以去B站或者知乎上搜“Stable Diffusion本地部署教程”,有很多保姆级的视频和文章,跟着一步步做也能成功。
- C站(Civitai)是你必须知道的网站。 这是全球最大的Stable Diffusion模型和资源分享社区,上面有无数的模型、LoRA和画廊,是所有玩家的宝库。
总的来说,Stable Diffusion适合那些爱折腾、喜欢完全掌控创作过程的人。它可能一开始会让你头大,但一旦你掌握了它,能实现的效果也是最惊人的。
原创文章,作者:MakeAI,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/2432.html