你是不是也想把自己的照片搞成现在很火的那种AI图,特别是赛博朋克风格,看着特酷。但网上的教程看得人头大。
这篇不来虚的。
直接告诉你用手机App怎么一键生成,想玩得深一点的,用电脑怎么操作,怎么让AI完全听你的话,连你拍照的姿势都给你原样复刻出来。

看完就能上手。
一.没技术含量,手机App点几下就行
这个最简单,就是给懒人准备的。你什么都不用学,传照片就行。
现在一堆手机修图App都有这功能。
①美图秀秀
国内最常用的,操作最符合咱们习惯。它里面有个“AI绘画”功能,点进去,传照片,选风格,里面就有“赛博朋克”或者“科幻”之类的。等个半分钟一分钟,图就出来了。
优点是快,方便,弄完还能直接用它的其他功能再P一下。
缺点是做出来的图都一个样,没啥新意,而且好看的风格可能要你充钱。
②Lensa AI
这玩意在国外很火,搞“AI头像”就是它带起来的。
它要你一次性上传10-20张你的自拍,各个角度的都要。然后它会拿这些照片“认识”你,给你生成一大堆不同风格的头像。
效果确实好,比美图秀秀变得更像你本人。
缺点是费劲,要传一堆照片,而且基本都要花钱。
③Remini / Epik
Remini以前是修老照片的,现在AI画图也很强,特别是对人脸的处理,皮肤质感弄得挺好。
Epik就偏潮流、韩范儿一点,花样多。
操作步骤都差不多,拿美图秀秀举个例子
(1)打开App,首页找“AI绘画”。
(2)相册里选张照片,脸清楚、光线好的那种。
(3)进去后一堆风格让你选,找到“赛博朋克”这种字眼的,点一下。
(4)等着,它在云上算。
(5)图出来了,直接保存,或者分享朋友圈。
这办法适合尝个鲜,发个朋友圈就完事了。你要是想做得跟别人不一样,就得看下面的。
二.稍微学点东西,能自己设计了
手机App玩腻了,你会发现那些预设的风格没意思。你想让AI画的更具体点,比如“一个戴着VR眼镜的女孩,站在下雨的东京街头”,App就做不到了。
这时候就要用专业点的平台,主要是Midjourney和Stable Diffusion。
你不用自己装,现在网上有很多别人搭好的网页版,搜一下“Stable Diffusion在线”就一堆。Midjourney在Discord里用。
它们的核心玩法就两个东西:
A.图生图 (img2img):给AI一张你的照片当参考。
B.提示词 (Prompt):用文字告诉AI你要画什么,这就是所谓的“念咒语”。
AI会看着你给的照片,再听着你的文字描述,把两者结合起来画画。
怎么写“赛博朋恩克”的咒语
没那么玄乎,就是用一堆关键词描述画面。你照着这个结构和词库抄就行。
结构:主体 + 风格 + 场景光线 + 画质
词库(直接复制粘贴用):
- 主体:a man (男), a woman (女), cyborg (半机械人), glowing eyes (发光的眼睛), cybernetic implants (机械植入体)
- 风格:cyberpunk style (赛博朋克风格), Blade Runner style (银翼杀手风格), neon-noir (霓虹黑色电影)
- 场景光线:futuristic city (未来城市), rainy night street (雨夜街道), holographic ads (全息广告), neon lights (霓虹灯), cinematic lighting (电影光)
- 画质:photorealistic (写实照片), hyperrealistic (超写实), 8K, masterpiece (杰作), best quality (最高质量), RAW photo
拼起来就是一段咒语,比如:
photorealistic portrait of a handsome man, cyborg, in a rainy cyberpunk city street, neon lights, cinematic lighting, 8K, masterpiece
有个参数你必须知道
在图生图模式下,有个叫“Denoising strength (重绘幅度)”的东西。
你可以把它想象成AI“自由发挥”的程度,数值在0到1之间。
- 数值低(比如0.3),AI就只敢在你的原图上稍微改改,加点风格,但样子基本不变。
- 数值高(比如0.8),AI就撒欢了,会根据你的描述大改特改,画出来的东西可能跟你原图长得完全不一样了。
想在“像你”和“好看”之间找个平衡,一般这个数值调到0.5-0.75之间反复试。
这阶段能做的图已经很不错了。但是AI还是有点笨,你给它一张你摆剪刀手的照片,它画出来的可能就是个握拳的姿
势。想让它百分百听话,得用下面的东西。
三.ControlNet,让AI听你话
这东西是Stable Diffusion的一个插件,也是目前照片转AI图最好用的技术。
它的作用就是:让AI严格按照你原图的构图和姿态来画画。
这是它的工作原理:
AI原来是凭感觉临摹你的照片,现在ControlNet能把照片里的“骨架”抽出来。比如你照片里人物的姿势、物体的轮廓线、画面的远近关系。
AI画画的时候,会死死地盯着这张“骨架图”来画,保证姿势、构图不变形。然后,再把你用文字描述的“赛博朋克”风格给画上去。
等于说,你负责搭骨架,AI负责上色加特效。
几个最常用的ControlNet模型
ControlNet里面有很多小模型,各有各的用。照片转绘最常用的是这几个。
(1) OpenPose
专门识别人体姿势的。它会把你的照片里的人变成一个“火柴人骨架”。AI就照着这个火柴人的姿势画,一模一样,不会出错。
什么时候用:你想让AI画的人物和你照片里的姿势完全一致时。比如你拍了张跳舞的照片,想让AI画一个穿着机甲跳舞的机器人,姿势跟你一样。
(2) Canny
把照片里所有的轮廓线都描出来,变成一张黑底白线的“线稿”。AI会按照这张线稿的轮廓来画东西,保证所有东西的位置和形状都在原来的地方。
什么时候用:你想保持整张照片的构图,包括人物和背景的轮廓。
(3) Depth
分析照片的远近关系,生成一张“深度图”。近的东西是黑色,远的东西是白色。这能让AI画出来的画更有空间感,不会把远处的楼画到人脸前面来。
什么时候用:你的照片里有明显的前景和远景,比如风景照或者有景深的街拍。
一套完整的操作流程
No.1-打开带ControlNet的Stable Diffusion WebUI界面。
No.2-写好你的咒语,正面负面都要写。比如:cyberpunk style, a man, neon lights…
No.3-把你的照片,拖到下面ControlNet的框里。
No.4-勾上“Enable (启用)”。
No.5-关键步骤:选择ControlNet的模型。
- 如果你最看重姿势,预处理器(Preprocessor)就选openpose, 模型(Model)也选openpose。
- 如果你最看重构图轮廓,就选canny。
- 高手玩法:可以同时开两个ControlNet。一个用openpose管姿势,另一个用canny管轮廓,AI就会被双重锁定,想不听话都不行。
No.6-点“生成”按钮,等图出来。
用了ControlNet,你会发现AI绘画进入了新世界。你的照片变成了可以随意替换风格的“画布”,但“灵魂”还在。
四.几个别人不说的招,让图更好看
工具都会用了,为啥别人做的图就是比你的高级?细节都在这些地方。
一原片质量很重要
你给AI一张模糊不清、黑乎乎的照片,指望它出神图,那是在做梦。
选照片的时候,找那种对焦清晰、光线清楚、主体突出的。照片本身越好,AI发挥的底子就越好。
二负面词比正面词还关键
正面咒语告诉AI要画什么,负面咒喁(Negative Prompt)告诉AI不要画什么。AI画画经常会画崩,比如多根手指、五官扭曲。把这些不想要的东西都写进负面咒语里,出图质量能高一大截。
网上有一大堆现成的负面咒语,你直接搜“AI绘画 负面提示词” ,找一长串的复制过来就行。
常用的一些:(worst quality, low quality, normal quality), bad hands, extra fingers, blurry, ugly, deformed。
记住,这个比你花心思写正面词还有用。
三换“模型”比换咒语提升更大
在Stable Diffusion里,“模型(Model)”等于AI的大脑和画风。你用一个专门画动漫的模型,就很难画出写实的人。
Checkpoint (大模型):决定了画风的基础,是写实、是二次元还是3D的。
LoRA (小模型):像个风格补丁,可以给大模型增加特定的画风或者人物。比如你可以下一个“赛博朋克光影”的LoRA,再下一个“特定人物”的LoRA。
去哪找模型?
Civitai,外号“C站”,是最大的模型分享网站。上面有全世界玩家做的各种模型,大部分都是免费的。你想画什么风格,直接上去搜关键词就行。
对新手来说,学会去C站找合适的Checkpoint大模型和LoRA小模型,是让出图效果飞跃的关键一步。
四别指望一次成功,要批量出图
别一张一张地生成。把批次数(Batch count)调到4或者8,让AI一次给你生成一堆图。然后从里面挑一张你最满意的,再锁定它的种子(Seed)值进行微调。
没有一张好图是一次就成功的,都是“大力出奇迹”,靠数量堆出来的。
好了,就这些。
从App到专业工具,从咒语到ControlNet,全在这了。
现在别光看着,自己动手去试。你的第一张赛博朋克大片,就从现在开始。
原创文章,作者:七点互动,如若转载,请注明出处:https://www.qidianhudong.com/aiyy/ai-pic/1231.html