近半年来,AIGC技术在各个领域都取得了重大突破,尤其是在设计领域,AI绘画技术的出现加速了设计行业的变革,为设计师带来了新的机遇和挑战。
其中,Midjourney和Stable Diffusion等AI绘图工具快速崛起,成为备受设计师青睐的代表。这些工具利用深度学习技术,通过学习大量的艺术作品来生成图像,具有操作简单、生成速度快等特点,而智行营销需求具有高频率、快节奏等属性,因此将AI绘画应用到设计流程中,有望提高设计师的生产力和效率。
1 Midjourney与Stable Diffusion区别
2 工作流程变化
3 案例一学生形象2D转3D
4 案例二Train star海报线稿上色
5 案例三H5活动头图2D转3D
6 案例四节日海报设计
7 写在后面
#01
工作流程变化
以往未使用Midjourney与Stable diffusion的情况下,设计师通用设计工作流程如下:
流程一:首先设计师找参考构思画面,再通过Midjourney和Stable diffusion关键词生成画面,最后从中选合适图片进行优化调整,工作流程如下图所示:
#03
为了更好体现学生的青春活力,整体形象设定为:手拿书本、扎着双马尾、戴帽子,穿背带裤...
1️⃣ 结构清晰完整、线条流畅
2️⃣ 如有描边,不能太粗,否则会当作结构生成
3️⃣ 上色均匀,无需笔触肌理感
第二步:选择模型
大模型的选择决定了生成的风格,再配合lora对服装、五官、头发等细节进行调节,这里模型选择如下:
第四步:设置参数
第五步:设置Controlnet
第六步:生成图片
第七步:Midjourney优化3D形象
Stable Diffusion能精准的把2D形象转换成3D,但现阶段整体3D立体感、皮肤质感欠缺,继续导入Midjourney优化,整体思路如下:
Train star海报线稿上色
Train star是火车票部门给予优秀员工的荣誉称号,旨在鼓励每一季度为部门做出贡献的员工。
设计创意:采用左右对称布局,画面中央火车飞速驰过,而员工手握奖杯,面露开心激动之情,为整个场景营造氛围感。
Stable diffusion草图需注意:线条流畅、结构清晰便于识别
第三步:输入关键词
关键词通过Stable Diffusion Tag反推功能来获得,在此基础上进行修改添加
提示词相关性:14
第五步:设置Controlnet
预处理器:invert(图像有白色背景和黑色线条建议选择invert)
根据生成图片,不断调整关键词和参数,多次尝试挑选出符合预期的学生形象。
第七步:后期调整
我们将结合生成图片的优缺点进行合成,并对生成结果中不精准的部分进行调整,以达到更高的准确性和更好的视觉效果。
#05
第一步:绘制2D草图
设计创意:通过塑造背着书包,特种兵敬礼姿势的出游形象,融合户外景点,打造出一个充满活力和挑战的特种兵出游氛围。
第二步:选择模型
为了提高生成画面的精度,我们选择了不同的模型来分别生成背景和主体人物,以确保每个元素都能够得到更加精准的呈现。
对于关键词输入、参数设置和生成图片,已在案例一和案例二中进行了详细说明,在此不再赘述。
第五步:设置Controlnet
预处理器:LeReS深度信息估算(LeRes depth estimation)
模型:05深度-背景复杂-control_depth-fp16
画面有纵深感、背景复杂,推荐使用depth模型
我们将结合生成图片的优缺点进行合成,并对生成结果中不够精准的部分进行调整,最后添加标题文字。
夏至节气海报
以上三个案例均基于设计师的草图生成,然而,对于那些更注重画面整体氛围,对元素、创意、位置和大小没有过高要求的情况,我们可以尝试使用Midjourney直接生成,以夏至节气海报为例。
第二步:关键词生成画面
通过Midjourney垫图和关键词描述来生成画面:
#07
通过以上案例,我们可以看到,AI绘画在设计领域中的应用越来越广泛,无论是3D形象、场景海报或H5活动头图,都可以在各个流程中找到AI绘画的机会点。我们也将不断研讨并总结出结合AIGC工具的全新设计工作流程,以便更好地应对快速迭代的AIGC生成工具。
未来,设计行业将进入人机协同时代,我们应该保持终生学习的心态,时刻准备接受新事物的挑战,才能在越来越激烈的竞争中脱颖而出。同时,我们也要明确,AI绘画工具并不是设计师的替代品,而是辅助工具。只有掌握了AI绘画工具,才能更好地发挥自己的设计能力,创造出更加出色的作品。