模型:
hustvl/yolos-small-dwr
YOLOS模型在COCO 2017对象检测(118k个标注图像)上进行了微调。它由Fang等人于 You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection 年的论文中引入,并在 this repository 年首次发布。
免责声明:发布YOLOS的团队没有为此模型撰写模型卡片,因此此模型卡片是由Hugging Face团队编写的。
YOLOS是经过DETR损失训练的Vision Transformer(ViT)。尽管其简单性,基本大小的YOLOS模型能够在COCO 2017验证集上达到42 AP(与DETR和更复杂的框架(如Faster R-CNN)相似)。
该模型使用“二分图匹配损失”进行训练:将预测的每个N = 100个对象查询的类别+边界框与实际注释进行比较,并填充到相同长度N(因此,如果一个图像只包含4个对象,96个注释将只有一个“无对象”作为类别和一个“无边界框”作为边界框)。匈牙利匹配算法用于创建每个N个查询和每个N个注释之间的最佳一对一映射。接下来,使用标准的交叉熵(用于类别)和L1和广义IoU损失的线性组合(用于边界框)来优化模型的参数。
您可以将该原始模型用于对象检测。查看 model hub 以查找所有可用的YOLOS模型。
以下是使用此模型的方法:
from transformers import YolosFeatureExtractor, YolosForObjectDetection from PIL import Image import requests url = 'http://images.cocodataset.org/val2017/000000039769.jpg' image = Image.open(requests.get(url, stream=True).raw) feature_extractor = YolosFeatureExtractor.from_pretrained('hustvl/yolos-small-dwr') model = YolosForObjectDetection.from_pretrained('hustvl/yolos-small-dwr') inputs = feature_extractor(images=image, return_tensors="pt") outputs = model(**inputs) # model predicts bounding boxes and corresponding COCO classes logits = outputs.logits bboxes = outputs.pred_boxes
目前,特征提取器和模型都支持PyTorch。
YOLOS模型在 ImageNet-1k 上进行了预训练,并在 COCO 2017 object detection 上进行了微调,该数据集包含了118k/5k个用于训练/验证的标注图像。
该模型在ImageNet-1k上进行了300个时期的预训练,并在COCO上进行了150个时期的微调。
该模型在COCO 2017验证集上实现了37.6的AP(平均精确度)。有关评估结果的更多详细信息,请参阅原始论文的表1。
@article{DBLP:journals/corr/abs-2106-00666, author = {Yuxin Fang and Bencheng Liao and Xinggang Wang and Jiemin Fang and Jiyang Qi and Rui Wu and Jianwei Niu and Wenyu Liu}, title = {You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection}, journal = {CoRR}, volume = {abs/2106.00666}, year = {2021}, url = {https://arxiv.org/abs/2106.00666}, eprinttype = {arXiv}, eprint = {2106.00666}, timestamp = {Fri, 29 Apr 2022 19:49:16 +0200}, biburl = {https://dblp.org/rec/journals/corr/abs-2106-00666.bib}, bibsource = {dblp computer science bibliography, https://dblp.org} }