sd文生图怎么用

sd文生图怎么用
3 人浏览|1 人回答

“SD文生图怎么用”这个问题,通常是指使用Stable Diffusion这款开源的文生图模型进行创作。Stable Diffusion相比于一些在线服务,提供了更强的灵活性、可定制性,但也需要一定的安装和配置过程。

这里我们主要介绍使用Stable Diffusion Web UI (AUTOMATIC1111) 这个最流行、功能最全面的图形用户界面来使用SD文生图。

一、 安装Stable Diffusion Web UI (AUTOMATIC1111)

这是一个关键的步骤,如果你还没有安装,需要先完成。

大致步骤(详细请参考官方文档或教程):

安装Python: 确保你安装了Python 3.10.x 版本(推荐)。

安装Git: 用于管理代码。

下载Web UI: 从GitHub克隆Stable Diffusion Web UI的仓库。

下载模型文件 (Checkpoint Models): 这是SD的核心。你需要下载.ckpt或.safetensors格式的模型文件。

官方模型: 如v1-5-pruned-emaonly.safetensors。

社区模型: 在Civitai.com等网站可以找到大量不同风格的模型(写实、动漫、插画等)。将下载的模型文件放到stable-diffusion-webui/models/Stable-diffusion目录下。

运行启动脚本: 运行webui-user.bat (Windows) 或 webui-user.sh (Linux/macOS)。首次运行时,它会自动下载一些依赖库。

访问Web UI: 启动脚本运行成功后,它会给你一个本地网址(通常是 http://127.0.0.1:7860),在浏览器中打开即可。

二、 Stable Diffusion Web UI 界面概览(以txt2img标签为例)

当你打开Web UI后,会看到很多选项。我们主要关注“txt2img”(Text-to-Image,文本到图像)这个标签页,这是最基本的文生图功能。

主要区域:

Prompt (提示词):

Positive prompt (正向提示词): 输入你想要的画面描述。

Negative prompt (负向提示词): 输入你不希望出现在画面中的元素。

生成参数区域:

Sampling method (采样方法): 影响生成速度和图像质量。常见的有Euler a, DPM++ 2M Karras, DDIM等。初学者可以先用Euler a或DPM++ 2M Karras。

Sampling steps (采样步数): 一般设置在20-50之间。步数越多,细节可能越多,但生成时间也越长。

Restore faces (恢复面部): 勾选可以尝试修复生成图像中人脸的细节,使其更自然。

Tiling (平铺): 用于生成可无缝拼接的纹理。

Hires. fix (高分辨率修复): 用于生成更高分辨率的图像,避免低分辨率下生成的大图出现重复感或细节丢失。

Width (宽度) / Height (高度): 生成图像的尺寸。注意:基础模型通常在512x512或768x768下训练,超出太多可能效果不佳。Hires. fix可以帮助解决这个问题。

Batch count (批次数量): 一次生成多少张图像。

Batch size (批次大小): 每批生成多少张图像(受显存限制)。

CFG Scale (Guidance Scale, 引导强度): 控制AI对Prompt的遵循程度。一般设在7-12。数值越高,越贴近Prompt,但可能失去创造性;数值越低,AI越自由,可能偏离Prompt。

Seed (种子): 一个随机数,用于固定生成结果。相同的Prompt、参数和Seed会生成相同的图像。设置为-1表示随机生成。

Script (脚本) / Upscaler (放大器) / Checkpoint (模型选择):

Checkpoint (模型选择): 在这个下拉菜单中选择你想要使用的模型文件(即你下载的.ckpt或.safetensors文件)。

Script: 可以选择一些预设的脚本来辅助生成,如XYZ plot(用于测试不同参数的效果)。

Upscaler: 用于生成后对图像进行放大。

生成按钮 (Generate): 点击开始生成图像。

图像输出区域: 生成的图像会显示在这里。你可以右键点击图像进行保存。

三、 SD文生图的基本使用流程

选择并加载模型:

在界面上方选择一个你下载的模型文件。不同模型擅长的风格不同。

编写Prompt (正向提示词):

描述主体: 例如 a girl, a cat, a futuristic city。

添加细节: 例如 a young girl with blue eyes and long blonde hair, a fluffy white cat wearing a crown。

设定环境/背景: 例如 in a magical forest, on a neon-lit street at night。

指定光照和氛围: 例如 golden hour light, dramatic lighting, cinematic atmosphere。

定义艺术风格/媒介: 例如 oil painting, digital art, photorealistic, anime style, concept art, by Greg Rutkowski (模仿特定艺术家)。

加入质量词: 例如 masterpiece, best quality, highly detailed, 8k, ultra realistic。

组合起来: a beautiful young woman, intricate dress, standing in a misty forest, moonlight, digital painting, fantasy art, masterpiece, best quality

编写Negative Prompt (负向提示词):

写下你不希望出现的东西。

通用负面提示词: low quality, worst quality, normal quality, blurry, jpeg artifacts, watermark, signature, text, username, ugly, deformed, bad anatomy, disfigured, missing limbs, extra limbs, mutated hands, poorly drawn hands, poorly drawn face, mutation, cloned face

特定负面提示词: 如果生成了不想要的元素,可以加入,如cartoon, sketch(如果你想要写实风格)。

设置生成参数:

Width/Height: 对于大多数基础模型,先从512x512或512x768开始。

Sampling method/steps: 初学者可以用 Euler a 或 DPM++ 2M Karras,步数20-30。

CFG Scale: 7-10。

Batch count: 1-4。

Restore faces: 勾选(如果生成人物)。

Hires. fix: 初次尝试时可以不勾选,等有了满意的低分辨率图像后再使用。

点击Generate:

等待图像生成。

评估与迭代:

查看生成的图像。

如果满意: 右键保存。

如果不满意:

调整Prompt: 增加、修改、删除关键词。

调整Negative Prompt: 排除新发现的问题。

调整CFG Scale: 试试提高或降低。

尝试Hires. fix: 如果低分辨率图像不错,但细节不够,开启Hires. fix,并选择一个Upscaler(如Latent (nearest-exact), R-ESRGAN 4x+)。

更换模型: 如果当前模型风格不合适,换一个模型试试。

固定Seed: 如果发现一张接近满意的图,记录下它的Seed,然后围绕这个Seed微调Prompt和参数,以达到最佳效果。

四、 进阶玩法(在Web UI中)

图生图 (img2img):

切换到img2img标签页。

上传一张基础图像。

编写Prompt和Negative Prompt,描述你希望这张图变成什么样子。

调整Denoising strength(去噪强度):数值越低,越接近原图;数值越高,越接近Prompt描述,但可能完全改变原图。

点击Generate。

局部重绘 (Inpainting):

在img2img标签页,上传图像后,使用左上角的“画笔”工具,在图像上涂抹你想要修改的区域。

在下方的Inpaint设置中,选择Inpaint masked(只重绘遮罩区域)。

编写Prompt来描述遮罩区域应该变成什么。

调整Denoising strength。

点击Generate。

使用Embeddings/Textual Inversions 和 LoRA:

在Web UI的Extensions(扩展)标签页可以安装支持Embeddings和LoRA的功能。

下载对应的*.pt (Embeddings) 或 *.safetensors (LoRA) 文件,放到指定的目录下(通常是embeddings和models/Lora)。

在Prompt中通过特定语法调用它们,例如:。LoRA可以用来实现特定角色、画风或概念。

ControlNet (需要安装ControlNet扩展):

这是一个功能强大的扩展,可以让你通过输入参考图(如骨骼姿态、边缘检测图、深度图、草图等)来精确控制生成图像的构图、人物姿态等。

总结:

使用SD文生图,核心在于理解Prompt的构建、参数的意义,以及如何通过迭代优化来逐步实现你的创作意图。从基础的txt2img开始,熟悉模型和参数,然后逐步探索img2img、Inpainting、LoRA等更高级的功能,你就能充分发挥Stable Diffusion的强大创作能力。

建议:

多看教程: B站、YouTube上有很多优秀的Stable Diffusion教程,从安装到进阶技巧都有讲解。

多看别人的Prompt: 在Civitai等模型分享网站,用户通常会分享生成图像的Prompt和参数,这是学习的好途径。

多动手实践: 理论结合实践,不断尝试才能熟能生巧。

祝你在Stable Diffusion的世界里创作顺利!