BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

Title: BLIP: 引导语言-图像预训练,用于统一的视觉-语言理解和生成 作者: Junnan Li Dongxu Li Caiming Xiong Steven Hoi;Salesforce Research 发表日期:2022.2 github: https://github.com/salesforce/BLIP 该论文试图解决什么问题? 目前已经存在的VLP(Vision-Language Pre-training)模型仅仅在理解类任务(understanding-based tasks)或者生成类任务(generation-based tasks)其中一方面表现优秀。 本文主要解决问题有二。 提出BLIP,一个新的可以灵活迁移到理解类任务和生成类任务的VLP架构。 (CapFilt): 网络爬取的数据有噪声,该方法可以提升数据的质量。 Key Contributions 提出MED(ultimodal mixture of Encoder-Decoder)架构: 可以有效的多任务预训练和迁移学习。 通过三个视觉-语言目标函数实现:imagetext contrastive learning, image-text matching, and imageconditioned language modeling. 提出CapFilt(Captioning and Filtering)方法: 从有噪声的数据训练。captioner模块:输入网络爬取的图片,输出合成的文本描述(caption 任务), filter模块:从合成的图像文本对中删除质量差的数据(noisy captions). Method 模型结构 note: 颜色相同的模块共享参数 主要分为三个模块 Unimodal encoder: 单模态的encoder, 包括图像encoder, 文本encoder Image-grounded text encoder: 通过cross-attention进入视觉信息 Image-grounded text decoder: 用于生成任务 预训练目标函数 Image-Text Contrastive Loss (ITC) 作用:视觉特征空间与文本特征空间对齐(CLIP思想) 实现方式:同一个batch中配对的图像和文本是正样本,不配置的图像和文本是负样本(自已构建正负样本对)。计算cos距离后正样本打高分,负样本打低分。 Image-Text Matching Loss (ITM) 作用:捕获更细粒度的图像文本对齐特征 实现方式:网络最后接一个全连接层做一个二分类任务。note:与ITC不同 Language Modeling Loss (LM) 作用:给定图片生成描述 实现方式:交叉熵 CapFilt 先用网络爬取的数据和人类标注的数据集预训练模型。然后各自(指参数不共享)的finetune captioner模块和filter模块。...

五月 22, 2023 · 1 分钟 · Pan

BLIP-2:Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models

Title: BLIP-2: 用冻结的图像编码模型和大语言模型引导文本-图像预训练 作者: Junnan Li Dongxu Li Silvio Savarese Steven Hoi;Salesforce Research 发表日期:2023.5 github: https://github.com/salesforce/LAVIS/tree/main/projects/blip2 该论文试图解决什么问题? 由于端到端的训练, 预训练视觉-语言模型代价变的非常高昂。这篇论文提出了BLIP-2, 一个通用的、有效的预训练策略: 其从现成的冻结的视觉模型和冻结的大语言模型,引导视觉-语言(vision-language)模型的预训练。该方法解决的跨模态对齐(视觉模型和LLM)问题。 应用:Instructed Zero-shot Image-to-Text Generation 先展示一下BLIP2的强大能力,这是BLIP2最亮眼的地方。 信息检索能力,利用LLM强大的知识库 事实推理能力 开放生成能力 Method 整体架构 两阶段策略,预训练一个轻量级Q-Former模块去连接两种模态的gap。 第一阶段:从一个frozen image encoder中引导vision-language表示学习(representation learning)。 第二阶段:从一个frozen LLM中引导vision-to-language的生成学习(generative learning) 第一个阶段:图片-文本表示学习(vision-language representation learning) note: Q-Former的输出维度Z(32*768)远远小于VIT-L/14(257*1024)的维度 注意三个目标self-attention mask的不同 Q-Former作用:从图片中提取与文本最相关的特征 第二个阶段:图片到文本生成学习(vision-to-language generative pre-training) Q-Former后接入一个全连接层,用于使用LLM的输入。LLM model分为两类,一个像OPT只有Decoder模块,一个像FlanT5既有Encoder又有Decoder模块。 Experiments 在各个视觉-语言任务上的zero-shot能力 zero-shot VQA 参考文献 BLIP2:下一代多模态模型的雏形 多模态学习持续梳理

五月 15, 2023 · 1 分钟 · Pan