模型:
MCG-NJU/videomae-base-ssv2
任务:
视频分类许可:
cc-by-nc-4.0VideoMAE 模型在 Something-Something-v2 数据集上进行了 2400 轮的无监督自训练。该模型最初由 Tong 等人在 VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training 论文中提出,并于 this repository 首次发布。
免责声明:发布 VideoMAE 的团队没有为该模型编写模型卡片,因此该模型卡片是由 Hugging Face 团队编写的。
VideoMAE 是对 Masked Autoencoders (MAE) 在视频领域的扩展。模型的架构与标准的 Vision Transformer (ViT) 非常相似,顶部还有一个解码器用于预测被屏蔽的补丁的像素值。
视频被呈现给模型作为一系列固定大小的补丁(分辨率为16x16),并进行线性嵌入。还在序列开头添加了一个 [CLS] 标记,用于分类任务。在将序列输入到 Transformer 编码器的层之前,还添加了固定的正弦/余弦位置嵌入。
通过预训练模型,它学习了视频的内部表示,然后可以用于提取对下游任务有用的特征:例如,如果你有一个带标签的视频数据集,可以通过将线性层放置在预训练编码器的顶部来训练一个标准分类器。通常在 [CLS] 标记的顶部放置一个线性层,因为该标记的最后隐藏状态可以看作是整个视频的表示。
你可以使用原始模型来预测视频中随机屏蔽补丁的像素值,但它主要用于在下游任务上进行微调。请参阅 model hub ,以寻找您感兴趣的任务的经过微调的版本。
以下是如何使用此模型来预测随机屏蔽补丁的像素值:
from transformers import VideoMAEFeatureExtractor, VideoMAEForPreTraining import numpy as np import torch num_frames = 16 video = list(np.random.randn(16, 3, 224, 224)) feature_extractor = VideoMAEFeatureExtractor.from_pretrained("MCG-NJU/videomae-base-short-ssv2") model = VideoMAEForPreTraining.from_pretrained("MCG-NJU/videomae-base-short-ssv2") pixel_values = feature_extractor(video, return_tensors="pt").pixel_values num_patches_per_frame = (model.config.image_size // model.config.patch_size) ** 2 seq_length = (num_frames // model.config.tubelet_size) * num_patches_per_frame bool_masked_pos = torch.randint(0, 2, (1, seq_length)).bool() outputs = model(pixel_values, bool_masked_pos=bool_masked_pos) loss = outputs.loss
有关更多代码示例,请参阅 documentation 。
(待办,请随时提交 PR)
(待办,请随时提交 PR)
(待办,请随时提交 PR)
(待办,请随时提交 PR)
misc{https://doi.org/10.48550/arxiv.2203.12602, doi = {10.48550/ARXIV.2203.12602}, url = {https://arxiv.org/abs/2203.12602}, author = {Tong, Zhan and Song, Yibing and Wang, Jue and Wang, Limin}, keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} }