话题AIGC › Stable Diffusion

AIGC:Stable Diffusion

关联话题: ComfyUI

AIGC图像技术在淘宝人生2的探索和应用

淘宝人生2(又名:第二人生)是淘宝的一个虚拟人装扮类应用,承担了用户在淘宝的第二个人生的作用。

IP-Adapter,新一代“垫图”神器

不用训练lora,一张图就能实现风格迁移,还支持多图多特征提取,同时强大的拓展能力还可接入动态prompt矩阵、controlnet等等,这就是IP-Adapter,一种全新的“垫图”方式,让你的AIGC之旅更加高效轻松。

如何使用stable diffusion做品牌视觉延展

设计师在从事品牌视觉相关设计的过程中,往往离不开使用品牌视觉符号进行主题化或风格化设计,下面就为大家分享如何使用stable diffusion来辅助进行品牌视觉logo延展设计。

从零开始的stable diffusion

stable diffusion真的是横空出世,开启了AIGC的元年。不知你是否有和我一样的困惑,这AI工具好像并不是那么听话?

Stable Diffusion 可用于拍摄角度、位置调整、构图的 prompt

Stable Diffusionのおすすめプロンプト一覧。実写風やアニメ風の画像生成時に「カメラアングルや構図を変えたい」という方へ。本記事では、位置の調整方法や、構図に関するプロンプト(呪文)・狙い通りの画像を生成するコツをまとめているので、ぜひ参考にしてみてください。

Character Consistency in Stable Diffusion (Part 1)

One of the big questions that comes up often in regards to Stable Diffusion is how to create character consistency if we want to create more than a single image. Facial characteristics are the most important, followed by body shape, clothing style, setting, etc… in the AI image/video world it’s the sought after holy grail as of now (mid-’23).

One route to achieve this goal is through the use of a LoRA (Low-Rank Adaptation), a method of training that inserts weights into an existing AI model’s layers to bias it towards a defined outcome. But, most LoRAs are trained on real-life people (famous actors images, personal photographs) and styles, not on AI generated/created persona output. Because of this the question comes about, what if I want to create a character based on the output of the model itself so that I have a 100% unique fabricated persona to develop a character around, using my own character description, how do I achieve that?

StableDiffusion如何实现模特精准换装以及如何替换模特

本篇教程主要运用StableDiffusion这个工具来进行操作,下面会通过几个小案例,给大家展示不同需求下,我们该如何使用StableDiffusion来辅助我们完成服装效果展示。本教程适用于电商设计场景、摄影场景等多个运用人物设计的实战中,全程干货,需要大家慢慢吸收,学会后轻松拿捏模特换装,let’s go!

基于Stable Diffusion的AIGC服饰穿搭实践

在虚拟穿搭领域,目前主要有虚拟试衣VTON和基于Stable Diffusion的AIGC穿搭两类主流方法。

Stable Diffusion基础:ControlNet之线稿成图

所谓线稿就是由一条条的线段组成的图形,主要用于绘画和设计领域的打底稿、表达构想和预见最终效果。

所谓线稿成图就是利用 Stable Diffusion + ControlNet 的能力,依照线稿中的图形设计生成创意图片。借助ControlNet,我们可以直接使用线稿图生成图片,也可以先从其它图片中提取线稿,然后再生成图片。

这篇深入浅出帖助你早日实现Stable diffusion自由

我是憨憨,一个不会画画的设计师。过去半年里,AI绘画曾经多次引爆公众讨论,网络上那些精致的二次元同人插画、堪比真人的AI穿搭博主、打破次元壁的赛博Coser……背后都有一个“幕后黑手” —— Stable Diffusion,其背后的技术便是人们常说的扩散模型(扩散模型这个概念源自热力学,在图像生成问题中得以应用)。

想知道上面这些精致的插画是如何实现的吗?接下来,我将结合这个案例带你走进 Stable Diffusion 的世界,帮你系统性地了解并掌握这神奇AI绘画魔法。

运用Stable Diffusion实现运营设计海报落地

如今,AI的应用已经遍布各个行业,运用的方式也越来越丰富,越来越多的人尝试将AI参与进自己的工作流程中。

不过在此之前,我们做项目需求的时候也需要评估项目是否适合使用AI辅助,毕竟AI的功能不是万能的,有些地方也存在着它暂时的“硬伤”。

这次我们将以一个活动运营海报需求为案例,分享如何运用AI工具Stable Diffusion对其进行辅助设计(本篇案例使用的是秋叶版本Stable Diffusion)。

Stable Diffusion WebUI 从零基础到入门

Stable Diffusion 是一个深度学习的文本到图像生成模型, Stable Diffusion WebUI是对Stable Diffusion模型进行封装,提供可操作界面的工具软件。

一份保姆级的Stable Diffusion部署教程,开启你的炼丹之路

市面上有很多可以被用于AI绘画的应用,例如DALL-E、Midjourney、NovelAI等,他们的大部分都依托云端服务器运行,一部分还需要支付会员费用来购买更多出图的额度。在2022年8月,一款叫做Stable Diffusion的应用,通过算法迭代将AI绘画的精细度提上了一个新的台阶,并能在以秒计数的时间内完成产出,还可以在一台有“民用级”显卡的电脑上运行。

Stable diffusion三步搞定——场景定制化

SD强于MJ就这两点:

  1. 它可以精准控制画面的构图及布局。
  2. 它也可以定制画面的输出风格。

Stable Diffusion进阶教程!让AI绘画更可控的混合语法

Stable Diffusion 中的混合语法。

基于ChatGPT+Stable Diffusion实现AI绘画

近年来,AI生成内容(AIGC)领域的飞速发展催生了诸多创新技术与应用,尤其是AI绘画。为降低构建Prompt的复杂性,我们基于ChatGPT实现了一个Stable Diffusion提示词生成器,支持多语言提示词和智能优化与扩展提示词,助力初学者轻松探索AI绘画世界。

首页 - Wiki
Copyright © 2011-2024 iteam. Current version is 2.137.1. UTC+08:00, 2024-11-15 06:46
浙ICP备14020137号-1 $访客地图$