使用Blender加载一个项目场景,我们将学习如何原型化一个基本图像并通过StableDiffusion AI生成不同的变体来增强它。首先,我们将安装基本软件要求,如Python和GIT,以便能够克隆项目存储库并自动编译它们。接下来,我们将安装Blender并用现有项目练习,以熟悉工作流程并生成一个基本图像以供AI使用。之后,我们将安装Krita和插件krita_ai_diffusion,将在Blender中生成的图像加载到其中,并开始基于我们的渲染创建AI图像。一旦我们熟悉了基本概念,我们将进一步深入研究并安装Webui Forge和ComfyUI,这是最著名和多功能的StableDiffusion接口之一。我们将安装所需的Controlnet模型,以利用它们在Archviz中。我们将学习如何在Webui Forge和ComfyUI中渲染图像,并比较两个界面之间的结果。将提供ComfyUI的工作流程,以帮助使用不同模型渲染图像。最后,我们将安装Blender的AI-Render插件,以学习如何直接从3D程序中渲染。无需高级技能或知识,课程中将解释和演示每个程序的基本用法。Archviz with Blender and StableDiffusion

创建者:Alvaro Celis
MP4 | 视频:h264,1280×720 | 音频:AAC,44.1 千赫兹,2 通道
风格:电子学习 | 语言:英语 | 时长:12 讲座(3 小时 46 分钟)| 大小:2.9 GB

使用Blender和StableDiffusion创建外部/内部Archviz图像

学到什么:
使用Blender项目为AI渲染创建基本输出图像。
学习如何安装Krita和AI-Diffusion插件
学习如何安装并使用Stablediffusion的Webui Forge和ComfyUI界面
理解并使用不同的Controlnet模型生成Archviz图像。
使用AI-render插件直接从Blender渲染图像变种。

要求:
Windows/Linux 操作系统,Nvidia 显卡。
基本操作系统知识/程序安装。
了解基本终端/命令提示符的用法。
推荐具有基本Blender知识。
推荐使用Nvidia显卡,因为大多数库都针对CUDA进行了优化。

发表回复

后才能评论