2019年1月:人工智能,机器学习和深度学习相关最佳arXiv论文
2019年02月21日 由 明知不问 发表
449676
0
我们筛选了在arXiv.org上出现的最新研究论文,这些研究论文涉及与人工智能、机器学习以及深度学习相关的引人注目的主题,包括统计学、数学和计算机科学等学科,最终列出了过去一个月的最佳论文。arXiv包含一个名副其实的学习方法宝库,你可以使用它来解决数据科学问题。
我们希望通过挑选代表典型数据科学家最有潜力的文章来节省你的时间。下面列出的文章代表所有文章的一小部分。考虑这些是学术研究论文,通常面向研究生,博士后和经验丰富的专业人士,基本上都包含高等数学,因此要做好准备。
Go-Explore: a New Approach for Hard-Exploration Problems
强化学习的一个重大挑战是智能探索,特别是当奖励稀少或具有欺骗性时。两个Atari游戏作为这些艰难探索领域的基准:蒙特祖玛的复仇和陷阱。
在这两种游戏中,当前的强化学习算法表现不佳,即使是那些具有内在动机的算法,这也是在探索困难领域中提高性能的主要方法。为了解决这一不足,本文介绍了一种名为Go-Explore的新算法。
论文:
arxiv.org/abs/1901.10995
Deep Neural Network Approximation for Custom Hardware: Where We’ve Been, Where We’re Going
深度神经网络已被证明在视觉和音频识别任务中十分有效。然而,现有模型往往在计算上昂贵并且存储器密集,因此用于面向硬件的近似的方法已经成为热门话题。
研究表明,定制的基于硬件的神经网络加速器在吞吐量和能源效率方面都可以超过通用处理器。应用定制加速器与基于近似的网络训练方法联合设计,将大的、密集的、计算开销大的网络转化为小的、稀疏的、硬件有效的替代方案,增加了网络部署的可行性。论文对高性能网络推理的近似方法进行了全面的评估,并深入讨论了它们在自定义硬件实现中的有效性。
论文:
arxiv.org/abs/1901.06955
Generating Textual Adversarial Examples for Deep Learning Models: A Survey
随着高计算设备的发展,近年来,深度神经网络(DNN)在许多AI应用中得到显著的普及。然而,之前的研究表明,DNN易受战略修改样本的影响,这些样本被命名为对抗性样本。这些样本产生了一些不可察觉的扰动,但可以欺骗DNN给出错误的预测。
受图像DNN生成对抗性示例的流行启发,近年来出现了针对文本应用攻击DNN的研究。然而,由于文本数据是离散的,现有的图像摄动方法不能直接应用于文本。这篇文章回顾了关于DNN的这一差异的研究,以及关于DNNs的一般经验对抗性例子。
论文:
arxiv.org/abs/1901.06796
Revisiting Self-Supervised Visual Representation Learning
无监督的视觉表示学习在计算机视觉研究中仍然是一个悬而未决的问题。在最近提出的用于无监督学习视觉表示的方法中,一类自我监督技术在许多具有挑战性的基准上实现了优越的性能。
研究人员已经研究了大量用于自我监督学习的任务,但是其他重要方面,例如卷积神经网络(CNN)的选择,没有得到同等的关注。因此,本文重新审视了许多之前提出的自我监督模型,进行了全面的大规模研究,并因此揭示了多个重要的见解。
论文:
arxiv.org/abs/1901.09005
Self-Driving Cars: A Survey
论文调查了文献中发表的关于自DARPA挑战以来开发的自动驾驶汽车的研究,这些汽车配备了可归类为SAE 3级或更高等级的自主系统。
自动驾驶汽车自治系统的结构通常被组织成感知系统和决策系统。感知系统通常被分成许多子系统,负责诸如自驾车定位,静态障碍物映射,移动障碍物检测和跟踪,道路测绘,交通信号检测和识别等任务。决策系统通常被划分为许多负责任务的子系统,例如路线规划,路径规划,行为选择,运动规划和控制。
论文:
arxiv.org/abs/1901.04407