发表评论取消回复
相关阅读
相关 AI-多模态-2022:BLIP【统一理解和生成的多模态】
论文:[https://arxiv.org/abs/2201.12086][https_arxiv.org_abs_2201.12086] 代码:[GitHub - sale
相关 AI-多模态-2021:FILIP【一种基于交互的细粒度图文预训练模型】
前言 FILIP(Fine-grained Interactive Language-Image Pretrain)是一种基于交互的细粒度图文预训练模型,用于解决图文双塔
相关 AI-多模态-2022:TCL【triple contrastive learning】【三重对比学习的视觉-语言预训练模型】
论文:[https://arxiv.org/pdf/2202.10401.pdf][https_arxiv.org_pdf_2202.10401.pdf] 代码:[https
相关 多模态预训练模型选用指南(Vision-Language Pre-traning)
本篇整理一下最近几篇关于Vision-Language Pre-traning(VLP)的综述文章,以及一篇很不错的,关于各个组件的选用指南文章。 VLP: A Survey
相关 多模态:CLIP 模型【连接语言与视觉】
CLIP(Contrastive Language-Image Pre-Training,以下简称 CLIP) 模型是 OpenAI 在 2021 年初发布的用于匹配图像和文本
相关 AI-多模态-2021:CLIP模型【OpenAI】【连接语言与视觉】【对比学习】
[GitHub - openai/CLIP: Contrastive Language-Image Pretraining][GitHub - openai_CLIP_ Con
相关 (四):M6:中文多模态预训练模型
文献阅读(四):M6: A Chinese Multimodal Pretrainer ABSTRACT KEYWORDS 1 INTRODUCTION
相关 (Model-Contrastive Federated Learning)模型对比联邦学习
摘要 联邦学习使多方能够在不交流本地数据的情况下协作训练机器学习模型。 联邦学习的一个关键挑战是处理各方本地数据分布的异质性。 尽管已经提出了许多研究来应对这一挑战,但我
相关 读文章笔记(十二):图文音三模态预训练模型
读文章笔记(十二):图文音三模态预训练模型 前言 三模态预训练模型基本原理 多层次多任务自监督预训练学习 实验结果 数据集 [
相关 预训练语言模型
常用的抽取文本特征有: TFIDF/LDA/LSI gensim glove fasttext ELMO Bert [word2vec
还没有评论,来说两句吧...