模型:
MCG-NJU/videomae-base-short-finetuned-kinetics
任务:
视频分类许可:
cc-by-nc-4.0VideoMAE 模型以自监督的方式进行了800个时期的预训练,并在 Kinetics-400 上进行了监督微调。它是由Tong等人在论文 VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training 中提出的,并在 this repository 中首次发布。
免责声明:发布 VideoMAE 的团队并未为此模型编写模型卡片,因此该模型卡片由 Hugging Face 团队编写。
VideoMAE 是 Masked Autoencoders (MAE) 在视频领域的扩展。该模型的架构与标准的 Vision Transformer(ViT)非常相似,顶部有一个解码器,用于预测被掩蔽的补丁的像素值。
视频被呈现给模型作为一系列固定尺寸的补丁(分辨率为16x16),这些补丁被线性嵌入。在序列的开头还添加了一个[CLS]标记,用于分类任务。还在将序列输入 Transformer 编码器的层之前添加了固定的正弦/余弦位置嵌入。
通过预训练模型,它学习了视频的内部表示,然后可以用于提取在下游任务中有用的特征:例如,如果您有一个带有标签的视频数据集,可以在预训练的编码器上方放置一个线性层来训练标准分类器。通常将线性层放置在[CLS]标记上,因为该标记的最后隐藏状态可以被视为整个视频的表示。
您可以使用原始模型对视频进行分类,将其分为400个可能的 Kinetics-400 标签之一。
这里是如何使用此模型对视频进行分类的方法:
from transformers import VideoMAEImageProcessor, VideoMAEForVideoClassification import numpy as np import torch video = list(np.random.randn(16, 3, 224, 224)) processor = VideoMAEImageProcessor.from_pretrained("MCG-NJU/videomae-base-short-finetuned-kinetics") model = VideoMAEForVideoClassification.from_pretrained("MCG-NJU/videomae-base-short-finetuned-kinetics") inputs = processor(video, return_tensors="pt") with torch.no_grad(): outputs = model(**inputs) logits = outputs.logits predicted_class_idx = logits.argmax(-1).item() print("Predicted class:", model.config.id2label[predicted_class_idx])
有关更多代码示例,请参阅 documentation 。
(待办事项,欢迎提交PR)
(待办事项,欢迎提交PR)
(待办事项,欢迎提交PR)
此模型在 Kinetics-400 的测试集上获得了79.4的 top-1 准确率和94.1的 top-5 准确率。
misc{https://doi.org/10.48550/arxiv.2203.12602, doi = {10.48550/ARXIV.2203.12602}, url = {https://arxiv.org/abs/2203.12602}, author = {Tong, Zhan and Song, Yibing and Wang, Jue and Wang, Limin}, keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} }