过去我们说“P图”,脑子里出现的画面是打开Photoshop,用各种工具,比如图章、画笔、蒙版,去修改一张已经存在的照片。核心是“修改”,基础是一张照片。这个过程需要技巧,很多人学了好几年也未必能把Photoshop玩明白。但是现在,情况完全变了。我们开始说“创图”,直接从零开始,靠一句话就凭空创造出一张图片。
这背后的东西就是AI制图软件。你可能听过Midjourney、Stable Diffusion或者DALL-E这些名字。它们干的事情很简单:你给它一段文字描述,它就给你生成一张图片。比如,你输入“一只穿着宇航服的猫在月球上弹吉他,风格是梵高的星空”,几秒钟后,一张这样的图片就真的出现在你眼前了。这在以前是无法想象的。传统的作图方式是“人去寻找和组合素材”,而AI作图是“机器根据人的想法直接生成内容”。

这个转变的关键在于AI的学习方式。这些模型被投喂了互联网上数以亿计的图片和对应的文字描述。通过深度学习,它逐渐理解了“猫”、“宇航服”、“月球”、“梵高风格”这些概念分别对应什么样的视觉元素。当你把这些词组合在一起时,它就能把这些元素拼接起来,创造出一个全新的、符合你描述的画面。它不是在搜索一张现成的图片,而是在自己的“理解”里,重新“画”了一张。
刚开始接触AI制图,最直接的感受就是快。以前一个设计师要根据甲方的需求,可能要花半天时间去找素材、构思草图,然后再花几天时间去完成。现在,有了初步想法,直接输入几十个字的描述,一分钟内就能生成四张不同风格的备选方案。这极大地压缩了从想法到视觉呈现的时间。比如,一个电商公司需要为一款新上市的咖啡设计一张广告图。传统做法是请摄影师、租场地、找模特,成本高、周期长。现在,市场部的人可以直接写一段提示词:“一杯热气腾腾的拿铁,放在一个木质桌子上,旁边有一本打开的书和一副眼镜,窗外是下雨的街景,整体色调温暖,照片级真实感。”AI能快速生成几十张效果图,从中挑选一张最合适的,或者在此基础上进行微调。
想要上手AI制图,其实并不复杂。以目前比较流行的Midjourney为例,它的使用过程非常直观。
第一步,你需要一个叫Discord的聊天软件账号,因为Midjourney是运行在Discord上的一个机器人。
第二步,加入Midjourney的官方服务器,在里面找到一个叫“newbies”的频道,这里是给新手用的。
第三步,在输入框里打出/imagine,然后会弹出一个prompt的框,你就在这个框里输入你想要的画面描述。这段描述就是“提示词”(Prompt)。
写提示词是有技巧的。AI听不懂很模糊的话,比如“给我一张好看的图片”,它不知道“好看”是什么标准。你需要描述得非常具体。一个好的提示词通常包含几个部分:
1. 主体:你画面的核心是什么?是一只猫,一辆车,还是一个人?
2. 细节描述:主体长什么样?穿着什么?在做什么?
3. 环境:主体在什么地方?是森林里,还是城市里?白天还是晚上?
4. 风格:你希望这张图是什么风格?是照片、油画、水彩、动漫,还是某个特定艺术家的风格?
5. 构图和光照:你希望是特写镜头还是远景?光线从哪个方向来?是柔和的光还是强烈的光?
举个例子,一个简单的提示词可能是:“一只猫”。这太模糊了,AI可能会给你任何一种猫。一个更好的提示词是:“一只穿着蓝色毛衣的英国短毛猫,坐在窗台上,看着窗外的雪景,阳光从右边照进来,风格是宫崎骏动画。”这个描述就具体得多,AI生成的图片也会更接近你的想象。
而且,AI生成图片后,通常会给你几个选项。比如Midjourney一次会生成四张图,编号1到4。图片下面会有几排按钮。U1、U2、U3、U4代表“Upscale”,意思是如果你喜欢某一张,就点击对应的按钮,AI会生成这张图的高清放大版。V1、V2、V3、V4代表“Variation”,意思是如果你觉得某一张图的大方向对了,但想看看类似的其他可能性,就点击对应的按钮,AI会在这张图的基础上再生成四张相似的。这个反复修改、迭代的过程,就像在和AI对话,不断引导它接近你最终想要的效果。
但是,AI制图也远非完美,它有很多现实的问题需要面对。
首先是版权问题。你用AI生成的图片,版权到底属于谁?是属于你这个提出想法的人,还是属于开发AI模型的公司,还是属于被AI用来学习的那些原创作品的作者?目前全球的法律在这方面还是一个灰色地带。美国版权局已经明确表示,完全由AI生成的作品不受版权保护,因为缺少“人类作者”这一要素。 这意味着,你用AI生成的图片,别人也可以随便用,你很难用法律来保护它。这对于想把AI作品用于商业用途的设计师和公司来说,是一个很大的风险。
其次是AI的偏见和局限性。AI模型是用现实世界的数据训练的,所以它也会学习到现实世界中的偏见。比如,如果你输入“一个CEO”的提示词,AI生成的图片很可能是一个白人男性。如果你输入“一个护士”,则很可能是一个女性。这是因为训练数据中存在着大量这样的刻板印象。此外,AI在处理一些逻辑复杂的细节时也常常会出错。最常见的就是画手,AI生成的图片里的人经常会有六根手指或者手指长得奇形怪状。这是因为它不理解“手”的生理结构,只是在模仿它看过的无数张图片里手的样子。
还有一个问题是真实性的混淆。AI现在已经能生成以假乱真的照片了。前段时间网上流传的一张“教皇方济各穿着时髦的白色羽绒服”的图片,就是由Midjourney生成的,但很多人第一眼看到时都以为是真的。 这种技术的滥用可能会导致假新闻和虚假信息的泛滥,这是一个需要整个社会警惕的问题。
尽管有这些问题,AI制图技术仍在飞速发展。它正在被整合到我们熟悉的各种软件里。比如Adobe就在Photoshop里加入了名为“生成式填充”的功能。 你可以框选图片里的任何一个区域,然后用文字告诉它你想在这里添加什么,或者删除什么。比如,一张风景照里,你觉得天空太单调了,可以框选天空,然后输入“加上一抹晚霞和几只飞鸟”,Photoshop就会自动帮你无缝地生成出来。 这意味着,P图和创图的界限正在变得模糊。未来的设计师可能不再需要从零开始画画,而是更多地扮演一个“导演”的角色,通过精准的语言去指导AI完成创意。
这项技术不会完全取代人类设计师,但它正在改变设计师的工作方式。以前,技术和执行力是很大的门槛,很多人有想法但画不出来。现在,创意的价值被前所未有地放大了。只要你有好的想法,并学会如何用语言把它准确地描述出来,你就能成为一个创作者。工作的重点,从“怎么做”转向了“想什么”。那些能够提出独特视角、拥有良好审美、并且善于用语言引导AI的人,会在这个新时代里找到自己的位置。而那些只会执行重复性P图工作的技能,价值会慢慢降低。这对于整个创意行业来说,是一次彻底的结构调整。
原创文章,作者:MakeAI,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/3031.html