第一个是Midjourney。这家伙是搞艺术的料,出的图都自带一股高级感。 很多人觉得它是目前AI绘画的品质天花板,特别是V6版本之后,对光影的控制简直像个摄影大师。 如果你想要那种能直接拿去当海报、插画或者概念设计的图,选它没错。它很擅长奇幻、插画类的风格,生成的画面细节和构图都很讲究。

Midjourney最适合两种人。第一种是设计师、艺术家或者任何对图片美感有要求的人。 因为它生成的图片质量确实高,审美在线,能帮你快速实现脑子里的创意画面。第二种是想快速出图,又不怎么懂复杂技术的普通人或营销人员。 它的操作相对直接,不用你装软件、配环境。
优点很明显,就是出图质量高,艺术感强。 你用很简单的指令,也能得到一张看起来很厉害的图。 它在社区这块也做得很好,你能看到别人的作品和指令,对自己是个启发。 另外,付费生成的图片可以商用,这对做设计或者商业项目的人来说很重要。
但是,它的缺点也很烦人。首先,它要花钱,最低的一个月10美元。 其次,你必须通过一个叫Discord的聊天软件来用它,整个操作界面都在一个聊天频道里,刚开始会觉得有点乱,需要时间适应。 最后就是修改不方便,自由度比较低。 你想对一张生成的图片做局部修改,操作起来比较麻烦,不像Photoshop那么随心所欲。
想用Midjourney的话,步骤很简单:
1. 注册Discord账号。这是个聊天软件,Midjourney的所有操作都在它上面完成。 你得先有这个软件的账号。建议用国外邮箱注册,国内邮箱可能会收不到验证邮件。
2. 加入Midjourney的服务器。去Midjourney官网,点击“Join the Beta”或“Sign In”,它会引导你授权并加入它在Discord上的官方频道。
3. 找到一个新手频道。在服务器里,左边会有一列频道列表,找到名字类似“#newbies”的频道点进去。
4. 开始写指令。在聊天框里,输入 /imagine ,然后会弹出一个 prompt 框,你就在这个框里用英文单词或短句描述你想要的画面,然后按回车发送。
5. 等待出图并选择。机器人会很快给你4张图,下面有U1-U4和V1-V4的按钮。U是放大图片(Upscale),V是基于这张图的风格再生成4张新的(Variations)。你觉得哪张不错,就点对应的按钮。
第二个是Stable Diffusion。这家伙是技术宅的最爱,因为它是开源的。开源意味着你可以把它整个软件免费下载到自己电脑上,想怎么玩就怎么玩。 它最大的特点就是自由度极高,你可以换用别人训练好的模型(Model),也可以自己训练专属的模型,来生成特定风格或者特定角色的图片。
Stable Diffusion最适合爱折腾、有一定技术基础,并且追求高度自定义的人。如果你是AI爱好者,或者需要生成大量特定风格、特定内容的图片,比如某个游戏角色的不同姿势,或者某个产品的不同场景图,那Stable Diffusion是最好的选择。因为它不限制你生成多少张图,只要你的电脑撑得住。
它的优点就是两个字:免费和自由。 你可以完全在本地电脑上运行它,不用担心隐私问题,也不用花一分钱。 网上有无数的开发者和爱好者社区,分享各种各样的模型和插件,比如有个叫ControlNet的插件就很有用,能让你精准控制生成图片的构图和人物姿势。只要你愿意学,它能实现非常多样的效果。
缺点也非常突出。首先,安装部署很麻烦。 你需要在电脑上先安装Python和Git这些东西,然后通过命令行下载代码,再下载几十个G的模型文件。 这个过程对新手很不友好,很容易出错。 其次,它对电脑配置要求很高,特别是显卡。 最好是英伟达(NVIDIA)的显卡,而且显存不能太低,不然跑起来会非常慢或者直接报错。 最后,想要出好图的学习成本很高。你得学会挑选和使用不同的模型,还得懂怎么写好提示词,怎么调整各种复杂的参数。
如果你想挑战一下Stable Diffusion,可以这么做:
1. 准备环境。确保你的电脑有一张不错的NVIDIA显卡。然后去官网下载并安装Python(建议3.10.6版本)和Git。 安装Python时,记得勾选“Add Python to PATH”这个选项。
2. 下载主程序。最流行的是一个叫“AUTOMATIC1111/stable-diffusion-webui”的版本。你可以去GitHub上找到它,用Git把它克隆(下载)到你的电脑硬盘里。
3. 下载模型文件。你需要一个基础模型(Checkpoint)才能开始画图。可以去Civitai这类网站上找,下载那些后缀是.ckpt或.safetensors的文件,然后把它们放到程序文件夹里的 models/Stable-diffusion 目录下面。
4. 运行程序。找到程序文件夹里的 webui-user.bat 文件,双击运行它。 第一次运行时,它会自动下载很多依赖文件,会非常慢,需要耐心等待。等它跑完,会给你一个网址,像 http://127.0.0.1:7860/ 这样。
5. 开始使用。把上面那个网址复制到浏览器里打开,你就能看到一个网页界面。在左上角选好你下载的模型,然后在上面的输入框里写提示词,点击“Generate”按钮就行了。
第三个是DALL-E 3。这是开发ChatGPT的公司OpenAI搞出来的东西,现在已经直接集成到ChatGPT Plus里面了。 它最大的本事,就是对自然语言的理解能力超强。你不用像玩Midjourney或Stable Diffusion那样去凑关键词,就像跟人聊天一样,用一个完整的句子去描述画面,它基本都能听懂。
DALL-E 3最适合ChatGPT的付费用户,以及那些不想花时间学习复杂指令,只想快速把想法变成图片的人。 特别是当你的画面里需要包含准确的文字时,比如做个海报或者Logo,DALL-E 3是目前唯一能比较稳定生成可读文字的工具。
优点是简单易用,理解能力强。 因为它结合了GPT-4,你可以直接用对话的方式来调整图片。 比如你让它生成一只猫,然后可以说“让这只猫戴上帽子”,它就能在原来的基础上修改,这个过程很自然。 另外就是前面说的,它在图片里生成文字的效果比其他两家好得多。
缺点嘛,首先它也需要付费订阅ChatGPT Plus,每个月20美元。 其次,它的艺术性和图片细节的精致程度,普遍认为还是比不上Midjourney。有时候生成的图片会感觉有点“塑料感”或者太“AI感”。最后,它的自定义选项很少,你没法像Stable Diffusion那样换模型或者装插件,创作的风格比较受限。
用DALL-E 3的步骤最简单:
1. 订阅ChatGPT Plus。你必须是付费会员才能用这个功能。
2. 选择DALL-E 3模型。打开ChatGPT,在选择模型的地方,从GPT-4的下拉菜单里选“DALL-E 3”。
3. 直接描述你想要的图片。在对话框里,用中文或英文写一句话,详细描述你想要的场景、人物、风格等等。
4. 对话式修改。图片生成后,如果你不满意,可以直接在下面继续输入你的修改意见,比如“把背景换成夜晚”或者“让人物笑起来”,它会根据你的要求重新生成。
原创文章,作者:MakeAI,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/2565.html