话题AIGC › Stable Diffusion

AIGC:Stable Diffusion

关联话题: ComfyUI

画面词云效果工作流搭建和讲解

深度解析网上流行的comfyui搭建的词云工作流。

How to generate realistic people in Stable Diffusion

One of the most popular uses of Stable Diffusion is to generate realistic people. They can look as real as taken from a camera. In this post, you will learn the mechanics of generating photo-style portrait images. You will learn about prompts, models, and upscalers for generating realistic people.

AIGC教程:如何使用Stable Diffusion生成B 端图标

在日常工作中,设计师在应对运营和UI设计的B端图标时,常常面临大量的构思、制作和渲染等工作,耗时耗力。我们可以利用Stable Diffusion(以下简称SD)结合AI的方式,帮助设计师优化图标的设计流程,使任何对这一领域感兴趣的人都能尝试并创作出多样化的图标设计,灵活高效运用在项目之中。

利用 Midjourney、Stable Diffusion 1 天完成主视觉定义

速看!AI应用实战,利用 Midjourney和Stable Diffusion ,帮你轻松搞定用户金币体系和成长体系主视觉定义~

Stable Diffusion 黏土风格生图攻略

社交平台正在被一股全新的创作潮流所席卷,这就是“黏土AI”的狂潮。这种丑陋但又可爱的风格已经成为网民们热议的话题。

Hosting a ComfyUI Workflow via API

Motivation This article focuses on leveraging ComfyUI beyond its basic workflow capabilities. You have created a fantastic Workflow and want to share it with the world or build an application around…

ComfyUI源码分析-NODE RUNTIME TRACE

ComfyUI是一个基于节点流程式的stable diffusion AI 绘图工具本章节的重点在于trace从node创建到接入workflow最终生成,后端的执行过程,非相关部分本章节不会赘述,后续会在其他章节详述部分核心node实现。

彻底搞定ComfyUI中的采样器和调度器

当我们使用Stable Diffusion时,它首先会创建一张充满噪声的原始图像,之后逐渐去除图像中的噪声。这个过程就像是雕刻:原始噪声图就像是雕刻的原料,去噪的过程就像是用雕刻刀去除废料,最后生成的图片就像是雕刻成型的作品。

从零开始:构建你的首个ComfyUI工作流

直至现在已经有10000+名设计师加入智设这是我们的第130篇原创文章大家好,我是言川。

不用翻墙,完全免费,不用学代码,有了这个神器,Stable Diffusion可以自己搭

Comfy UI通过优化工作流程、降低学习成本和提升个性化创作体验,使得设计师能够高效利用AI技术进行自动化设计、探索新方法,从而提高工作效率、顺应设计趋势并增强竞争力。

如何使用stable diffusion做品牌视觉延展

设计师在从事品牌视觉相关设计的过程中,往往离不开使用品牌视觉符号进行主题化或风格化设计,下面就为大家分享如何使用stable diffusion来辅助进行品牌视觉logo延展设计。

从零开始的stable diffusion

stable diffusion真的是横空出世,开启了AIGC的元年。不知你是否有和我一样的困惑,这AI工具好像并不是那么听话?

Stable Diffusion 可用于拍摄角度、位置调整、构图的 prompt

Stable Diffusionのおすすめプロンプト一覧。実写風やアニメ風の画像生成時に「カメラアングルや構図を変えたい」という方へ。本記事では、位置の調整方法や、構図に関するプロンプト(呪文)・狙い通りの画像を生成するコツをまとめているので、ぜひ参考にしてみてください。

Character Consistency in Stable Diffusion (Part 1)

One of the big questions that comes up often in regards to Stable Diffusion is how to create character consistency if we want to create more than a single image. Facial characteristics are the most important, followed by body shape, clothing style, setting, etc… in the AI image/video world it’s the sought after holy grail as of now (mid-’23).

One route to achieve this goal is through the use of a LoRA (Low-Rank Adaptation), a method of training that inserts weights into an existing AI model’s layers to bias it towards a defined outcome. But, most LoRAs are trained on real-life people (famous actors images, personal photographs) and styles, not on AI generated/created persona output. Because of this the question comes about, what if I want to create a character based on the output of the model itself so that I have a 100% unique fabricated persona to develop a character around, using my own character description, how do I achieve that?

StableDiffusion如何实现模特精准换装以及如何替换模特

本篇教程主要运用StableDiffusion这个工具来进行操作,下面会通过几个小案例,给大家展示不同需求下,我们该如何使用StableDiffusion来辅助我们完成服装效果展示。本教程适用于电商设计场景、摄影场景等多个运用人物设计的实战中,全程干货,需要大家慢慢吸收,学会后轻松拿捏模特换装,let’s go!

基于Stable Diffusion的AIGC服饰穿搭实践

在虚拟穿搭领域,目前主要有虚拟试衣VTON和基于Stable Diffusion的AIGC穿搭两类主流方法。

ホーム - Wiki
Copyright © 2011-2024 iteam. Current version is 2.132.0. UTC+08:00, 2024-09-21 13:42
浙ICP备14020137号-1 $お客様$