模型:
SenseTime/deformable-detr-single-scale
Deformable DEtection TRansformer (DETR)是一个单尺度模型,使用ResNet-50作为骨干网络,在COCO 2017目标检测数据集(118k个标注图像)上进行端到端训练。该模型由Zhu等人在论文 Deformable DETR: Deformable Transformers for End-to-End Object Detection 中提出,并首次在 this repository 中发布。
声明: 发布Deformable DETR的团队没有为该模型编写模型卡片,因此这个模型卡片是由Hugging Face团队编写的。
DETR模型是一个编码器-解码器变换器,具有一个卷积骨干网络。为了进行目标检测,在解码器输出的顶部添加了两个头部:一个用于类标签的线性层,一个用于边界框的多层感知机(MLP)。模型使用所谓的对象查询来检测图像中的物体。每个对象查询在图像中寻找特定的物体。对于COCO,对象查询的数量设置为100。
模型使用“二部图匹配损失”进行训练:将每个N = 100个对象查询的预测类别+边界框与地面实况注释进行比较,填充到相同长度N(因此,如果图像只包含4个物体,96个注释将仅具有“无对象”作为类别和“无边界框”作为边界框)。使用匈牙利匹配算法创建每个N个查询和每个N个注释之间的最佳一对一映射。接下来,使用标准交叉熵(用于类别)和L1和广义IoU损失的线性组合(用于边界框)来优化模型的参数。
您可以使用原始模型进行目标检测。查看 model hub 以查找所有可用的Deformable DETR模型。
以下是如何使用此模型:
from transformers import AutoImageProcessor, DeformableDetrForObjectDetection import torch from PIL import Image import requests url = "http://images.cocodataset.org/val2017/000000039769.jpg" image = Image.open(requests.get(url, stream=True).raw) processor = AutoImageProcessor.from_pretrained("SenseTime/deformable-detr-single-scale") model = DeformableDetrForObjectDetection.from_pretrained("SenseTime/deformable-detr-single-scale") inputs = processor(images=image, return_tensors="pt") outputs = model(**inputs) # convert outputs (bounding boxes and class logits) to COCO API # let's only keep detections with score > 0.7 target_sizes = torch.tensor([image.size[::-1]]) results = processor.post_process_object_detection(outputs, target_sizes=target_sizes, threshold=0.7)[0] for score, label, box in zip(results["scores"], results["labels"], results["boxes"]): box = [round(i, 2) for i in box.tolist()] print( f"Detected {model.config.id2label[label.item()]} with confidence " f"{round(score.item(), 3)} at location {box}" )
目前,功能提取器和模型都支持PyTorch。
Deformable DETR模型是在 COCO 2017 object detection 上进行训练的,该数据集包含118k/5k个带有注释的图像,用于训练/验证。
@misc{https://doi.org/10.48550/arxiv.2010.04159, doi = {10.48550/ARXIV.2010.04159}, url = {https://arxiv.org/abs/2010.04159}, author = {Zhu, Xizhou and Su, Weijie and Lu, Lewei and Li, Bin and Wang, Xiaogang and Dai, Jifeng}, keywords = {Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Deformable DETR: Deformable Transformers for End-to-End Object Detection}, publisher = {arXiv}, year = {2020}, copyright = {arXiv.org perpetual, non-exclusive license} }