多模态和多模态大模型
导读

-
输入和输出数据不同(如,从文本生成图像,或从图像生成文本) -
同时处理多种输入数据(如,处理文本和图像) -
能够生成多种类型的输出(如,生成文本和图像)
-
第一部分涵盖了多模态的背景,包括为什么要使用多模态、不同的数据模态以及多模态任务的类型。 -
第二部分深入探讨了多模态系统的神奇之处。通过 CLIP 这个例子,我们可以看到它如何为未来的系统铺平了道路;而 Flamingo 的出色表现,则为 LMMs 这类技术带来了新的启示。 -
第三部分带我们走进 LMMs 的研究前沿,看看如何生成多模态的结果,以及如何更高效地进行多模态训练。当然,还会介绍一些新晋的多模态技术,例如 BLIP-2、LLaVA、LLaMA-Adapter V2 和 LAVIN。

01


-
音频可以转化为图像形式,如音谱图。 -
语音内容可以转写为文字,但这样做可能会丢失某些信息,如声音的响度、语调和停顿等。 -
图像可以转化为向量,并进一步被转换为一串文本词元(Token)序列。 -
视频实际上是一系列的图片加上音频。但现在,很多机器学习模型只把视频看作是图片的连续播放。这真的大大限制了它们的能力,因为研究表明,声音在视频中起到的作用与画面一样重要。比如,88% 的 TikTok 用户表示,在 TikTok 上,声音是不可或缺的。 -
其实,只要你为一段文字拍张照,它就能被视为一张图片。 -
你知道吗,数据表格也可以变成图表,也就是我们常说的图像。

-
为每张图片添加描述或标签,可以是手动添加,也可以是自动识别(比如在 文本生成 中提到的自动图像描述技术)。然后根据输入的文本,找出与之匹配的图片。 -
训练图像和文本的联合向量空间。给定一个文本查询,生成该查询的向量,并找到向量最接近该向量的所有图像。

02
-
CLIP 是第一个可以通过零样本和少样本学习推广到多个图像分类任务的模型。 -
虽然 Flamingo 不是第一个能够“自由聊天”的多模态大脑(Salesforce 的 BLIP 比它早3个月),然而,Flamingo 的强劲表现促使一些人将其视为多模式领域的 GPT-3 时刻。
-
一个编码器,它可以把各种类型的数据转化为数字向量。 -
一种将不同模态的向量对齐到同一多模态向量空间的方法。 -
[仅限生成模型] 用于生成文本结果的语言模型。由于输入可以包含文本和视觉效果,因此需要开发新技术,使语言模型不仅可以根据文本,还可以根据视觉效果来调节其生成结果。


-
它是一个大型的视觉 Transformer (ViT-L) -
它将每个图像分成 14 个小部分来处理 -
可以处理 336x336 像素的图像输入

-
列出 500,000 个关键词,像是常见的词或者维基百科的热门文章标题。 -
在大量数据中找到与这些关键词匹配的图片。虽然具体搜寻方法是秘密,但很可能 OpenAI 使用了自家的大型数据库。 -
把每张图片与与它相关的文字(比如图片说明或评论)配对起来,但不是与关键词配对,因为单纯的关键词描述得太简单了。


-
把V1,V2,...,Vn 想象成 N 张图片的向量。 -
把 L1,L2,...,Ln 想象成 N 段文本的向量。





-
将你的所有图片转化为 CLIP 的向量数据格式,并保存在专门的向量数据库中。 -
对你输入的文字进行转化,使其符合 CLIP 的向量数据格式。 -
在向量数据库中做相似度检索,找出与你输入的文字向量最接近的所有图像。
-
CLIP 经过训练并冻结。预训练的 CLIP 模型可以在同一向量空间中生成文本和图像的向量。 -
图像生成时发生两件事:
-
使用 CLIP 生成此文本的向量。 -
使用扩散解码器根据这个向量生成图像。


-
“看”的部分(视觉编码器):使用对比学习先训练一个和 CLIP 类似的模型。然后,把这个模型的文本编码器去掉,只保留视觉编码器。 -
“说”的部分(语言模型):这部分基于一个叫 Chinchilla 的模型,让它学会了看图说话。除此之外,还加入了两种新技术:Perceiver Resampler 和 GATED XATTN-DENSE。这两个我们后面再详细聊。

|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|

-
Flamingo 在处理文本时选择了 BERT 技术,而不是常见的 GPT-2。 -
而在处理图像方面,它选择使用了 NormalizerFree ResNet (NFNet) F6 这一模型。 -
在整合文本和图像信息之前,Flamingo 会对这些信息进行平均处理。




-
IDEFICS (由 HuggingFace 提供) -
mlfoundations/open_flamingo


03
-
ULIP: 一种将语言、图片和三维点云统一表示的技术 (由 Xue 等人于 2022年12月发表) -
ImageBind: 一个能将所有内容连接在一起的向量空间 (Girdhar 等人于 2023年5月发表) -
Jeff Dean 在 2021年提出的 Pathways 项目,其目标是“创建一个同时涵盖视觉、听觉和语言理解的多模态模型”。

-
MultiInstruct: 一个通过指导来优化多模态学习的技术 (由 Xu 等人于 2022年12月发表) -
LLaVA: 针对视觉的指令优化技术 (Liu 等人于 2023年4月28日发表) -
InstructBLIP: 一种结合视觉与语言的全能模型 (由 Salesforce 于 2023年5月11日发布) -
LaVIN: Cheap and Quick: Efficient Vision-Language Instruction Tuning for Large Language Models (由 Luo 等人于 2023年5月24日发表)

-
BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models -
[LAVIN] Cheap and Quick: Efficient Vision-Language Instruction Tuning for Large Language Models -
LLaMA-Adapter V2: Parameter-Efficient Visual Instruction Model





-
Microsoft COCO Captions: 数据收集和评估服务器 (Apr 2015) -
VQA: 视觉问题回答 (May 2015) -
VideoBERT: 视频和语言表示学习的联合模型 (Google, Apr 3, 2019) -
LXMERT: 从转换器学习跨模态编码器表示 (UNC Chapel Hill, Aug 20, 2019) -
[CLIP] 从自然语言监督中学习可转移的视觉模型 (OpenAI, 2021) -
通过文本生成统一视觉和语言任务 (UNC Chapel Hill, May 2021) -
BLIP: 启动语言图像预训练,用于统一的视觉语言理解和生成 (Salesforce, Jan 28, 2022) -
Flamingo: 用于小样本学习的视觉语言模型 (DeepMind, April 29, 2022) -
GIT: 一种生成性图像到文本的变换器,用于视觉和语言 (Microsoft, May 2, 2022) -
MultiInstruct: 通过指导调优提高多模态零射击学习 (Xu 等人, Dec 2022) -
BLIP-2: 通过冻结图像编码器和大型语言模型启动语言图像预训练 (Salesforce, Jan 30, 2023) -
跨模态微调: 先对齐再优化 (Shen 等人, Feb 11, 2023) -
KOSMOS-1: 语言不是你所需要的一切: 与语言模型对齐的感知 (Microsoft, Feb 27, 2023) -
PaLM-E: 一个具体的多模态语言模型 (Google, Mar 10, 2023) -
LLaMA-Adapter: 使用零初始化注意力的语言模型的高效微调 (Zhang 等人, Mar 28, 2023) -
mPLUG-Owl: 模块化赋予大型语言模型多模态性能 (Ye 等人, Apr 2, 2023) -
LLaMA-Adapter V2: 参数高效的视觉指令模型 (Gao 等人, Apr 28, 2023) -
LLaVA: 视觉指令调优 (Liu 等人, Apr 28, 2023) -
InstructBLIP: 通过指导调优朝着通用的视觉语言模型迈进 (Salesforce, May 11, 2023) -
朝着专家级医疗问题回答的大型语言模型 (Singhal 等人, May 16, 2023) -
便宜且快速: 大型语言模型的高效视觉语言指令调优 (Luo 等人, May 24, 2023) -
Shikra: 释放多模态 LLM 的参考对话魔法 (SenseTime, Jun 3, 2023) -
Macaw-LLM: 带有图像、音频、视频和文本集成的多模态语言建模 (Tencent, Jun 15, 2023)
-
[CVPR2023 教程演讲] 多模态大模型: 向建设和超越多模态 GPT-4 迈进 -
幻灯片: 多模态大模型 -
[CMU 课程] 11-777 MMML -
[开源] Salesforce 的 LAVIS
声明:此公号(ID:czfida)发布内容和图片的目的在于传播更多信息,版权归原作者所有,不为商业用途,如有侵犯,敬请作者与我们联系。
近期活动
Upcoming Activities
넶浏览量:0