NVIDIA发布了Transfer Learning Toolkit工具包
2019年09月27日 由 KING 发表
909360
0
现在许多企业正在经历大规模转型,以满足人工智能驱动的可持续环境的需求。企业通过训练深度神经网络从零开始构建智能视频分析(IVA)管道是一个耗时的过程,需要在设计和建造时仔细考虑。但是现在使用NVIDIA最新推出的转移学习工具包(TLT),就可以快速有效地进行培训和扩展。
昨天,NVIDIA发布了一个用于微调深层神经网络和简化智能视频分析训练任务的工具包。该工具包是一个基于python的SDK,开发人员可以通过它更快地提供特定行业的深度学习解决方案,以利用NVIDIA内部构建的经过优化的预训练模型。这些经过预训练的模型可加快开发人员的深度学习训练过程,并消除从头开始的大规模数据收集,标记和训练模型所带来的高成本。TLT StreamAnalytics提供了端到端的深度学习工作流程,可用于加速深度学习培训并使用NVIDIA DeepStream SDK 4.0进行部署。这些模型针对IVA特定的参考用例(例如检测和分类)进行了全面培训。
该工具包名为转移学习(Transfer Learning Toolkit),这意味着你可以从现有的神经网络中提取学习特征,并通过神经网络中转移权重来转移这些学习特征。开发人员和数据科学家可以从使用TLT来减少训练、重新调整和微调DNN的时间中获益。该工具包预先打包了几个图像分类和检测模型,每个模型都经过最高精度的训练,并使用Tensorrt和DeepStream SDK在NVIDIA GPU(pascal、volta和turing gpu)上进行推理优化。所有的检测模型都支持rgb和单色图像作为输入。包括在公共数据集上接受过培训的网络。TLT使多GPU和交叉分辨率训练易于使用。TLT还可以帮助修正网络,打包复杂的应用程序,提高吞吐量和流密度等等。当与DeepStream SDK结合使用时,就会成为IVA端到端多功能深度学习解决方案。TLT预先训练的模型可以从NVIDIA NGC访问。目标检测框架包括更快的RCNN、SSD和Detectnet V2(NVIDIA开发的检测技术)。
关键能力
- 计算机视觉任务的GPU优化预训练权重
- 修改配置文件以添加新类并使用自定义数据重新训练模型
- 在异构多GPU环境中进行模型自适应和再训练
- 使用修正功能减少模型大小
- NVIDIA Tesla和Jetson产品NVIDIA DeepStream SDK上部署的模型导出API
- Jupyter笔记本对象分类和检测用例示例