用C++实现强化学习,速度不亚于Python,这里有个框架可用

论坛 期权论坛 期权     
量子位   2019-6-9 21:25   1307   0
乾明 发自 凹非寺
量子位 报道 | 公众号 QbitAI没法用Python,怎么实现强化学习?
现在,有了一个新选择。
一位名叫Isaac Poulton的英国小哥,开源了一个名为CppRL的C++强化学习框架。


整个框架,用PyTorch C++编写而成,主要的使用场景,就是在没法使用Python的项目中实现强化学习。
现在,这个框架已经可以实现A2C(Advantage Actor Critic)、PPO(近端策略优化)算法。
而且,用户只需要很少的设置,就能够在电脑的桌面程序中使用。
小哥说,之所以做这个框架,是因为C++中还没有一个通用的强化学习框架。
但自己的个人项目中需要一个,就借着PyTorch C++前端的发布,做了一个出来,还顺便训练了一批LunarLander-v2游戏中的智能体。
[h1]框架有何特性?用起来效果如何?[/h1]根据小哥的介绍,这个框架一共有五大特性:
  • 首先,它能够实现强化学习中很关键的两个算法A2C和PPO。
  • 其次,支持基于门控循环单元(GRU)的循环策略。
  • 第三,具备跨平台兼容性,已经在Windows 10和Ubuntu 16.04和Ubuntu 18.04上进行了测试。
  • 第四,有可靠的测试覆盖率。
  • 第五,能够适度进行优化,可以开放PR来推进框架优化。
此外,框架中还有对OpenAI Gym的实现,其通过ZeroMQ通信来测试框架在Gym环境中的表现。
基于当前的版本的框架,小哥在自己的笔记本电脑(i7-8550处理器)上,平均用60秒训练一个智能体就可以获得200奖励。在登月游戏LunarLander-v2中实现的效果如下:


这8个智能体中,有5个智能体完成了任务。
在回答Reddit上网友的提问时,他介绍了训练智能体的速度,基本上和用Python实现速度相当。
但是,在一些环境中速度会比较慢。比如OpenAI Gym客户端中,必须要与Python接口,并通过TCP发送观察结果,所以训练速度会大幅下降。
不过,小哥说会通过重做Gym客户端来解决这个问题。
这一框架未来会如何?
小哥表示,要把它打造成一个可扩展的、经过合理优化的、随时可以使用的框架。
在Reddit的帖子中,他也发起了呼吁,如果你有兴趣来一起完成这一项目,非常欢迎提交PR~
[h1]传送门[/h1]C++强化学习框架项目地址:https://github.com/Omegastick/pytorch-cpp-rl
— 完 —
活动报名|多模态视频人物识别

订阅AI内参,获取AI行业资讯

加入社群
量子位AI社群开始招募啦,量子位社群分:AI讨论群、AI+行业群、AI技术群;



欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“微信群”,获取入群方式。(技术群与AI+行业群需经过审核,审核较严,敬请谅解)


量子位 QbitAI · 头条号签约作者
''  追踪AI技术和产品新动态
喜欢就点「好看」吧 !
分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:54
帖子:9
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP