来源:机器之心
纯文本大模型方兴未艾,多模态领域也开始涌现出多模态大模型工作,地表最强的GPT-4具备读图的多模态能力,但是迟迟未向公众开放体验,于是乎研究社区开始在这个方向上发力研究并开源。MiniGPT-4和LLaVA问世不久,阿里达摩院便推出mPLUG-Owl,一个基于模块化实现的多模态大模型。
今天要介绍的是mPLUG-Owl,该工作不仅通过大量cases展示出优秀的多模态能力,还第一次针对视觉相关的指令理解提出一个全?的测试集OwlEval,通过人工评测对比了已有模型,包括LLaVA、MiniGPT-4、BLIP-2以及系统类MM-REACT等工作,实验结果表明mPLUG-Owl展示出更优的多模态能力,尤其在多模态指令理解能力、多轮对话能力、知识推理能力等方?表现突出
XRP持有者律师:XRP预计价格将突破1美元的阻力位:金色财经报道,XRP持有者的律师John Deaton他的官方推特账号上回应了一位推特用户的推文,该用户试图痛斥一些投资者的大部分所谓抱怨,这些投资者对大多数数字货币年初至今价格上涨缓慢持批评态度。用户Moon Lambo认为,XRP今年迄今已增长高达85%,这意味着总体上呈积极走势。Deaton评论说,一些用户的失望完全源于他们的期望。他指出,虽然他预计XRP在裁决后不会创下新的历史高点,但他表示他预计价格将突破1美元的阻力位。[2023/8/6 16:21:09]
论文链接:https://arxiv.org/abs/2304.14178
代码链接:https://github.com/X-PLUG/mPLUG-Owl
杭州法院对利用某平台登录漏洞盗卖数字藏品被告判处三年有期徒刑:4月3日消息,日前,经浙江省杭州市拱墅区检察院提起公诉,法院以侵犯公民个人信息罪、非法获取计算机信息系统数据罪,数罪并罚,判处被告人陈某有期徒刑三年,缓刑四年六个月,并处罚金7000元。
2022年7月20日,陈某偶然发现,某数字藏品平台的登录机制存在漏洞。经查,陈某成功登录了30余个用户的账户,并以1400元至1600元不等的单价卖掉了其中21个用户的数字藏品,总计获利3万余元。目前,这21件数字藏品已经退还到了原用户账号。[2023/4/3 13:42:14]
ModelScope体验地址:
https://modelscope.cn/studios/damo/mPLUG-Owl/summary
HuggingFace体验地址:
https://huggingface.co/spaces/MAGAer13/mPLUG-Owl
多模态能力展示
我们把mPLUG-Owl与现有工作进行对比来感受一下mPLUG-Owl的多模态效果,值得一提的是,该工作中评比的测试样例基本上都来自已有工作,避免了cherrypick问题。
加密初创公司Solvo将允许用户使用生成式AI创建NFT:金色财经报道,加密货币初创公司Solvo近期宣布将使用生成式AI技术,用户可以生成自己的NFT。并通过上传或拍照的方式来设计自己的NFT,也可以通过输入描述他们想要的图像来实现。目前,Solvo在Optimism链上可以免费铸造AI生成的NFT。在未来的版本中,用户将能够存入和取出该NFT以及其他NFT。[2023/2/14 12:06:47]
下图6展示了mPLUG-Owl很强的多轮对话能力。
从图7中可以发现,?mPLUG-Owl具有很强的推理能力。
新加坡推出500万新元“虚拟制作创新基金”:金色财经报道,新加坡资讯通信媒体发展局 (IMDA) 宣布启动500万新元(约360万美元)“虚拟制作创新基金”, 旨在利用虚拟制作技术发展、支持本地媒体行业。此外,新加坡资讯通信媒体发展局还宣布与元宇宙游戏开发巨头Epic Games公司达成合作,后者将帮助新加坡培训和支持本地人才并提供工具和资源。(variety)[2022/12/7 21:28:25]
如图9展示了一些笑话解释例?。
在该工作中,除了评测对比外,该研究团队还观察到mPLUG-Owl初显一些意想不到的能力,比如多图关联、多语?、文字识别和文档理解等能力。
如图10所示,虽然在训练阶段并没有进行多图关联数据的训练,mPLUG-Owl展现出了一定的多图关联能力。
知情人士:Azuki NFT系列开发团队接近完成3000万美元A轮融资:金色财经报道,Azuki NFT系列开发团队Chiru Labs正在接近完成3000万美元的A轮融资。三位熟悉筹款工作的人士证实了预期的融资规模。其中一位消息人士表示,大部分资金已经承诺,如果该轮融资结束,Azuki的估值将在3亿至4亿美元之间。第四位知情人士提醒说,细节还没有最终确定,但很快就会确定。(The Block)[2022/9/22 7:13:57]
如图11所示,尽管mPLUG-Owl在训练阶段仅使用了英文数据,但其展现出了有趣的多语?能力。这可能是因为mPLUG-Owl中的语?模型使用了LLaMA,从而出现了这一现象。
尽管mPLUG-Owl没有在带有标注的文档数据上进行训练,但其仍然展现出了一定的文字识别和文档理解能力,测试结果如图12所示。
方法介绍
该工作提出的mPLUG-Owl,其整体架构如图2所示。
模型结构:它由视觉基础模块(开源的ViT-L)、视觉抽象模块以及预训练语?模型(LLaMA-7B)组成。视觉抽象模块将较?的、细粒度的图像特征概括为少量可学习的Token,从而实现对视觉信息的?效建模。?成的视觉Token与文本查询一起输?到语?模型中,以?成相应的回复。
模型训练:采用两阶段的训练方式
第一阶段:主要目的也是先学习视觉和语?模态间的对?。不同于先前的工作,?mPLUG-Owl提出冻住视觉基础模块会限制模型关联视觉知识和文本知识的能力。?因此mPLUG-Owl在第一阶段只冻住LLM的参数,采用LAION-400M,?COYO-700M,?CC以及MSCOCO训练视觉基础模块和视觉摘要模块。
第?阶段:延续mPLUG和mPLUG-2中不同模态混合训练对彼此有收益的发现,Owl在第?阶段的指令微调训练中也同时采用了纯文本的指令数据(52kfromAlpaca+90kfromVicuna+50kfromBaize)和多模态的指令数据(150kfromLLaVA)。作者通过详细的消融实验验证了引?纯文本指令微调在指令理解等方?带来的收益。第?阶段中视觉基础模块、视觉摘要模块和原始LLM的参数都被冻住,参考LoRA,只在LLM引?少量参数的adapter结构用于指令微调。
实验结果
SOTA对比
为了比较不同模型的多模态能力,该工作构建一个多模态指令评测集OwlEval。由于?前并没有合适的自动化指标,参考Self-Intruct对模型的回复进行人工评测,打分规则为:A="正确且令人满意";B="有一些不完美,但可以接受";C="理解了指令但是回复存在明显错误";D="完全不相关或不正确的回复"。
对比结果如下图3所示,实验证明Owl在视觉相关的指令回复任务上优于已有的OpenFlamingo、BLIP-2、LLaVA、MiniGPT-4。
多维度能力对比
多模态指令回复任务中牵扯到多种能力,例如指令理解、视觉理解、图?上文字理解以及推理等。为了细粒度地探究模型在不同能力上的?平,本文进一步定义了多模态场景中的6种主要的能力,并对OwlEval每个测试指令人工标注了相关的能力要求以及模型的回复中体现了哪些能力。
结果如下表格6所示,在该部分实验,作者既进行了Owl的消融实验,验证了训练策略和多模态指令微调数据的有效性,也和上一个实验中表现最佳的baseline—MiniGPT4进行了对比,结果显示Owl在各个能力方?都优于MiniGPT4。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。