世界观察:如何简单高效地定制自己的文本作画模型?

2023-01-01 23:37:26 来源: 分享到:

强烈建议先阅读:一文弄懂 Diffusion Model


【资料图】

1. 论文信息

标题:Multi-Concept Customization of Text-to-Image Diffusion

作者:Nupur Kumari, Bingliang Zhang, Richard Zhang, Eli Shechtman, Jun-Yan Zhu.

原文链接:https://arxiv.org/pdf/2212.04488.pdf

代码链接:https://www.cs.cmu.edu/~custom-diffusion/

2. 引言

最近通过文本生成图像的深度学习相关技术取得了非常大的进展,2021已经成为了图像生成的一个新的milestone,诸如DALL-E和Stable diffusion这种模型都取得了长足的进步,甚至达到了“出圈”的效果。通过简单文本prompts,用户能够生成前所未有的质量的图像。这样的模型可以生成各种各样的对象、风格和场景,并把它们进行组合排序,这让现有的图像生成模型看上去是无所不能的。

但是,尽管这些模型具有多样性和一些泛化能力,用户经常希望从他们自己的生活中合成特定的概念。例如,亲人、朋友、宠物或个人物品和地点,这些都是非常有意义的concept,也和个人对于生成图像的信息有对齐。由于这些概念天生就是个人的,因此在大规模的模型训练过程中很难出现。事后通过详细的文字,来描述这种概念是非常不方便的,也无法保留足够多的视觉细节来生成新的personal的concepts。这就需要模型具有一定的“定制”能力。也就是说如果给定少量用户提供的图像,我们能否用新概念(例如宠物狗或者“月亮门”,如图所示)增强现有的文本到图像扩散模型?经过微调的模型应该能够将它们与现有概念进行概括并生成新的变化。这带来了几个比较严峻的挑战:

首先,模型倾向于遗忘现有概念的含义:例如,在添加“moon gate”这一concept的时候,“moon”的含义就会丢失。其次,由于stable diffusion这样的网络往往参数会超级多,所以在小数据上训练模型,容易造成对训练样本进行过拟合,而且采样中变化也有限。此外,论文还关注了一个更具挑战性的问题,即组group fine-tuning,即能够超越单个个体concept的微调,并将多个概念组合在一起。学习多个新的concepts同时也是存在一定的挑战的,比如 concept mixing以及concept omission。

在这项工作中,论文提出了一种fine-tuning技术,即文本到图像扩散模型的“定制扩散”。我们的方法在计算和内存方面都很有效。为了克服上述挑战,新方法固定一小部分模型权重,即文本到潜在特征的key值映射在cross-attention layer中。fine-tuning这些足以更新模型的新concepts。为了防止模型丧失原来强大的表征能力,新方法仅仅使用一小组的图像与目标图像类似的真实图像进行训练。我们还在微调期间引入data的augamation,这可以让模型更快的收敛,并获得更好的结果。论文提出的方法实验是构建在Stable Diffusion之上,并对各种数据集进行了实验,其中最少有四幅训练图像。对于添加单个concept,新提出的方法显示出比相似任务的作品和基线更好的文本对齐和视觉相似性。更重要的是,我们的方法可以有效地组成多个新concepts,而直接对不同的concepts进行组合的方法则遇到困难,经常会省略一个。最后,我们的方法只需要存储一小部分参数(模型权重的3%),消耗的GPU memory非常有限,同时也减少了fine-tuning的时间。

3. 方法

总结来讲,论文提出的方法,就是仅更新权重的一小部分,即模型的交叉注意力层。此外,由于目标概念的训练样本很少,所以使用一个真实图像的正则化集,以防止过拟合。

对于Single-Concept Fine-tuning,给定一个预训练的text-to-image diffusion model,我们的目标是在模型中加入一个新的concept,只要给定四张图像和相应的文本描述进行训练。fine-tuning后的模型应保留其先验知识,允许根据文本提示使用新概念生成新的图像类型。这可能具有挑战性,因为更新的文本到图像的映射可能很容易过拟合少数可用图像。所以保证泛化性就非常有必要,也比较有挑战。所以就仅仅fine-tuning新的K和V,而对于query,则保持不变,这样就可以增加新概念的同时,保证模型的表征能力不受到太多的影响。优化目标还是diffusion的形式:

概括起来实际上非常简单,就是训练一个k和v的矩阵,来扩充维度,增加模型的表征能力,使其能生成更为丰富的图像内容。

而对于Multiple-Concept Compositional Fine-tuning,为了对多个概念进行微调,我们将每个概念的训练数据集合并,并使用我们的方法将它们联合训练。为了表示目标概念,我们使用不同的修饰符的,并将它们与每个层的交叉注意关键和值矩阵一起初始化,并优化它们。通过将权重更新限制为交叉注意key和value参数,与DreamBooth等方法相比,可以显着更好地将两个概念合并在一起。

由于我们的方法仅更新与文本特征相对应的key和value投影矩阵,因此我们可以将它们合并,以允许使用多个微调概念生成。让集合表示预训练模型中所有交叉注意层的key和value矩阵,并且表示添加概念的相应更新矩阵。由于方法随后的优化适用于所有层和key矩阵,为了简洁起见忽略key和value的上标以及层。我们将合成目标表述为以下约束最小二乘问题:

这里,是维度为的文本特征。这些是个跨越所有个concept的目标词.

可以发现,增加约束还是让模型具有更强的表征能力的。最下面一行才和真正的门比较相似,同时生成的月亮也非常合理。

4. 实验

给定一个新concepts的图像如左侧显示的目标图像,提出的方法可以在看不见的上下文和艺术风格中生成带有该概念的图像。第一行:代表水彩画艺术风格中的概念。方法还可以在背景中生成山脉,而 DreamBooth 和 Textual Inversion 忽略了这一点。第二行:改变背景场景。我们的方法和 DreamBooth 的表现与 Textual Inversion 相似且更好。第三行:添加另一个对象,例如带有目标桌子的橙色沙发。新的方法成功地添加了另一个对象。第四行:改变对象属性,如花瓣的颜色。第五行:用太阳镜装饰私人宠物猫。我们的方法比基线更好地保留了视觉相似性,同时仅更改花瓣颜色或为猫添加太阳镜。

可以发现Multiple-Concept Compositional Fine-tuning的效果也非常惊艳。

风格迁移的效果也不错。

定量指标也有比较有竞争力的表现:

5. 结论

论文提出了一种基于new concepts的text-to-image生成模型的fine-tuning方法。只需使用一些有限的图像示例, 新方法就能一高效的方法生成微调概念的新样本同时保留原有的生成能力。而且,我们只需要保存一小部分模型权重。此外,方法可以连贯地在同一场景中组合多个新概念,这是之前的方法所缺少的能力。

世界观察:如何简单高效地定制自己的文本作画模型?

来源: 2023-01-01 23:37:26

集资诈骗罪的认定标准是怎样的?-天天观焦点

来源: 2023-01-01 07:48:52

哪些行为易引起火灾? 当前快报

来源: 2022-12-31 15:25:08

环球速递!恒生指数2022年累跌15.46% 恒生科技指数2022年累跌27.19%

来源: 2022-12-30 20:17:17

头条:2023武汉花博汇元旦开放时间+门票+活动安排

来源: 2022-12-30 17:20:45

天天看点:柳钢股份董秘回复:公司将严格按照相关规定履行信息披露义务

来源: 2022-12-30 15:05:06

安徽省公安厅原副厅长陈小平一审获刑11年半

来源: 2022-12-30 09:22:46

今亮点!12月29日基金净值:工银深证红利ETF最新净值1.9197,跌0.9%

来源: 2022-12-30 01:24:58

2023年1月3日起北京公交新开S102路通告_最资讯

来源: 2022-12-29 19:11:07

【国际漫评】给恶鬼松绑|世界速递

来源: 2022-12-29 17:19:47

简讯:东莞生益科技近期招聘岗位信息

来源: 2022-12-29 15:27:20

万达普惠贷款逾期二个月影响征信吗 天天资讯

来源: 2022-12-29 13:22:28

诺华(NVS.US)将支付2.45亿美元终止Exforge仿制药反垄断案

来源: 2022-12-29 11:35:40

全球简讯:抗疫八个字激励短句精选8句

来源: 2022-12-28 19:38:30

2023江门元旦节放假安排

来源: 2022-12-28 16:47:50

世界速读:超越ConvNeXt!Transformer 风格的卷积网络视觉基线模型Conv2Former

来源: 2022-12-28 14:13:33

焦点短讯!国家能源集团集中开工10个电力项目

来源: 2022-12-28 10:25:00

天天新动态:上海驾照科目一考试内容及合格标准

来源: 2022-12-28 02:40:05

振邦智能(003028):选举第三届监事会职工代表监事 短讯

来源: 2022-12-27 18:27:09

今日播报!【机器学习】集成学习代码练习(随机森林、GBDT、XGBoost、LightGBM等)

来源: 2022-12-27 14:49:07

统计局:经最终核实 2021年GDP现价总量为1149237亿元

来源: 2022-12-27 09:22:02

环球今头条!吃肉了!我的重仓股!

来源: 2022-12-26 21:49:36

科技赋能活化世界文化遗产 广西踏上文旅元宇宙新赛道

来源: 2022-12-26 15:49:51

A股异动 | 中京电子涨5% 拟不超5.5亿元在泰国投建印制电路板(PCB)生产基地_天天观热点

来源: 2022-12-26 10:30:09

天天观热点:中式咖啡搜索热度暴增近5000%

来源: 2022-12-25 21:33:25

吉林省白城市大安市交通违章处理带什么资料

来源: 2022-12-25 06:33:19

上海:商业创新活力强劲,重点商圈发展态势良好|今日报

来源: 2022-12-24 09:14:56

微粒贷逾期18天会上征信吗

来源: 2022-12-23 18:33:25

三部门:“十四五”期间建设30个左右文旅产业融合发展示范区

来源: 2022-12-23 14:18:53

网上贷款逾期7年对征信有影响吗-世界要闻

来源: 2022-12-23 08:35:41

Copyright   2015-2022 全球知识产权网 版权所有  备案号:豫ICP备20009784号-11   联系邮箱:85 18 07 48 3@qq.com