英文

视频MAE(基准大小模型,仅经过预训练)

VideoMAE模型在Kinetics-400上进行了800个时期的自监督预训练。它在Tong等人的论文 VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training 中介绍,并首次发布于 this repository

免责声明:发布VideoMAE的团队未对该模型撰写模型卡片,因此此模型卡片由Hugging Face团队撰写。

模型描述

VideoMAE是对 Masked Autoencoders (MAE) 进行了视频扩展的模型。该模型的结构非常类似于标准的Vision Transformer(ViT),顶部还增加了一个解码器,用于预测掩码补丁的像素值。

视频以一系列固定大小的补丁(分辨率为16x16)的形式呈现给模型,这些补丁经过线性嵌入。还在序列开始处添加了一个[CLS]标记,以用于分类任务。在将序列馈送到Transformer编码器的层之前,还添加了固定的正弦/余弦位置嵌入。

通过预训练模型,它学习到视频的内部表示,然后可以用于提取对下游任务有用的特征:例如,如果您有一个带标签的视频数据集,可以在预训练编码器的顶部放置一个线性层来训练一个标准分类器。通常会在[CLS]标记的顶部放置一个线性层,因为该标记的最后一个隐藏状态可以看作是整个视频的表示。

预期用途和局限性

您可以使用原始模型来预测视频中随机掩码补丁的像素值,但它主要用于在下游任务上进行微调。请参阅 model hub ,以查找对您感兴趣的任务进行微调的版本。

使用方法

以下是使用此模型预测随机掩码补丁的像素值的方法:

from transformers import VideoMAEImageProcessor, VideoMAEForPreTraining
import numpy as np
import torch

num_frames = 16
video = list(np.random.randn(16, 3, 224, 224))

processor = VideoMAEImageProcessor.from_pretrained("MCG-NJU/videomae-base-short")
model = VideoMAEForPreTraining.from_pretrained("MCG-NJU/videomae-base-short")

pixel_values = processor(video, return_tensors="pt").pixel_values

num_patches_per_frame = (model.config.image_size // model.config.patch_size) ** 2
seq_length = (num_frames // model.config.tubelet_size) * num_patches_per_frame
bool_masked_pos = torch.randint(0, 2, (1, seq_length)).bool()

outputs = model(pixel_values, bool_masked_pos=bool_masked_pos)
loss = outputs.loss

有关更多代码示例,请参阅 documentation

训练数据

(待定,欢迎提交PR)

训练过程

预处理

(待定,欢迎提交PR)

预训练

(待定,欢迎提交PR)

评估结果

(待定,欢迎提交PR)

BibTeX条目和引用信息

misc{https://doi.org/10.48550/arxiv.2203.12602,
  doi = {10.48550/ARXIV.2203.12602},
  url = {https://arxiv.org/abs/2203.12602},
  author = {Tong, Zhan and Song, Yibing and Wang, Jue and Wang, Limin},
  keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
  title = {VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training},
  publisher = {arXiv},
  year = {2022},
  copyright = {Creative Commons Attribution 4.0 International}
}