模型:
microsoft/cvt-13-384-22k
CvT-13模型是在ImageNet-22k上进行预训练,并在分辨率为384x384的ImageNet-1k上进行微调。它是由Wu等人在 CvT: Introducing Convolutions to Vision Transformers 论文中提出的,并首次发布于 this repository 。
免责声明:CvT发布团队没有为该模型编写模型卡片,所以本模型卡片是由Hugging Face团队编写的。
以下是如何使用此模型将COCO 2017数据集中的图像分类为ImageNet的1,000个类别之一:
from transformers import AutoFeatureExtractor, CvtForImageClassification from PIL import Image import requests url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = Image.open(requests.get(url, stream=True).raw) feature_extractor = AutoFeatureExtractor.from_pretrained('microsoft/cvt-13-384-22k') model = CvtForImageClassification.from_pretrained('microsoft/cvt-13-384-22k') inputs = feature_extractor(images=image, return_tensors="pt") outputs = model(**inputs) logits = outputs.logits # model predicts one of the 1000 ImageNet classes predicted_class_idx = logits.argmax(-1).item() print("Predicted class:", model.config.id2label[predicted_class_idx])