DeepMind开源了强化学习游戏框架平台OpenSpiel
2019年08月28日 由 KING 发表
62401
0
强化学习这项人工智能技术,已经成功运用到能够打败世界扑克冠军和引导自动汽车驾驶的系统中,这是毋庸置疑的。而如果要在游戏领域熟练地运用强化学习技术必须借助辅助工具,而这些工具并不公开。
幸运的是这种情况终于要得以改变。最近DeepMind的研究人员在一篇论文中描述了一个名为的游戏领域强化学习框架。它的核心是一个环境和算法的合集,用于研究游戏中的一般强化学习、搜索和规划,以及分析学习动态和其他常见评估指标的工具。研究人员写道:“OpenSpiel的目的是在许多不同的游戏类型中促进智能体强化学习,其方式与一般的游戏玩法类似,但重点是学习,而不是竞争形式”。“我们希望OpenSpiel能对游戏中的智能体强化学习产生的效果,和Atari学习环境对单一代理强化学习产生的效果一样。”
OpenSpiel支持超过20种单代理和多代理游戏类型,从协作博弈和零和博弈到常和博弈和一般博弈。除此之外还包括完美博弈(玩家在做出决定时完全了解之前发生的所有事件)和不完美博弈(做出决定和了解事件同时进行)。
正如论文中说到的,OpenSpiel是围绕极简这个设计标准构建的。为此,它是基于现实来分析的,而不是自行优化或参考代码,从而缩小其范围和广度。此外,它将使安装占用的空间达到最小,从而降低未来出现兼容性问题的可能性。
OpenSpiel中的游戏是用c++编写的,用Python封装,并使用Python提供了一些自定义的增强学习环境,而算法则是用这两种编程语言实现的。DeepMind注意到,两种语言中的API几乎是相同的,如果需要,可以轻松地翻译代码。DeepMind的研究人员指出,OpenSpiel只在Linux上进行过测试,但是他们说,由于它使用的是在MacOS和Windows上也可以使用的免费工具,因此它在这些平台上编译和运行应该不会产生任何问题。从今天起,它在。
OpenSpiel的目标是游戏领域,但它并不是第一个瞄准游戏领域的。去年8月,在Facebook的Horizon强化学习平台发布之前,谷歌发布了一个基于其机器学习库TensorFlow的开源强化框架。另外,英特尔在RL Coach中提供了一系列增强学习工具,最新版本于7月份发布。在竞争如此激烈的环境下OpenSpiel能否站稳脚跟现在还是一个未知数,但是这一次开源或许能够让DeepMind给AI领域带来一股新的热潮。