模型:
microsoft/swinv2-large-patch4-window12to24-192to384-22kto1k-ft
Swin Transformer v2模型在ImageNet-21k上进行了预训练,并在分辨率为384x384的ImageNet-1k上进行了微调。它是由Liu等人在论文 Swin Transformer V2: Scaling Up Capacity and Resolution 中提出,并于 this repository 首次发布的。
免责声明:发布Swin Transformer v2的团队并未为该模型撰写模型卡片,因此此模型卡片是由Hugging Face团队撰写的。
Swin Transformer是一种Vision Transformer。它通过合并深层的图像块(显示为灰色)来构建分层特征图,并且由于仅在每个局部窗口(显示为红色)中计算self-attention,它的线性计算复杂度与输入图像大小成比例。因此,它既可以用作图像分类的通用骨干,也可以用于密集识别任务。相比之下,先前的视觉Transformer仅产生单一低分辨率的特征图,并且由于全局self-attention的计算,其计算复杂度与输入图像大小成二次关系。
Swin Transformer v2增加了3个主要改进:1)将残差后归一化方法与余弦注意力相结合,以提高训练稳定性;2)采用对数间隔连续位置偏差方法,将以低分辨率图像预训练的模型有效地应用于具有高分辨率输入的下游任务;3)采用自监督预训练方法SimMIM,减少对大量标记图像的需求。
您可以使用原始模型进行图像分类。查看 model hub 可查找您感兴趣的任务的微调版本。
以下是如何使用该模型将COCO 2017数据集的图像分类为其中一个1,000个ImageNet类别的示例:
from transformers import AutoImageProcessor, AutoModelForImageClassification from PIL import Image import requests url = "http://images.cocodataset.org/val2017/000000039769.jpg" image = Image.open(requests.get(url, stream=True).raw) processor = AutoImageProcessor.from_pretrained("microsoft/swinv2-large-patch4-window12to24-192to384-22kto1k-ft") model = AutoModelForImageClassification.from_pretrained("microsoft/swinv2-large-patch4-window12to24-192to384-22kto1k-ft") inputs = processor(images=image, return_tensors="pt") outputs = model(**inputs) logits = outputs.logits # model predicts one of the 1000 ImageNet classes predicted_class_idx = logits.argmax(-1).item() print("Predicted class:", model.config.id2label[predicted_class_idx])
有关更多代码示例,请参阅 documentation 。
@article{DBLP:journals/corr/abs-2111-09883, author = {Ze Liu and Han Hu and Yutong Lin and Zhuliang Yao and Zhenda Xie and Yixuan Wei and Jia Ning and Yue Cao and Zheng Zhang and Li Dong and Furu Wei and Baining Guo}, title = {Swin Transformer {V2:} Scaling Up Capacity and Resolution}, journal = {CoRR}, volume = {abs/2111.09883}, year = {2021}, url = {https://arxiv.org/abs/2111.09883}, eprinttype = {arXiv}, eprint = {2111.09883}, timestamp = {Thu, 02 Dec 2021 15:54:22 +0100}, biburl = {https://dblp.org/rec/journals/corr/abs-2111-09883.bib}, bibsource = {dblp computer science bibliography, https://dblp.org} }