开源星际争霸2多智能体挑战smac

2019 年 2 月 13 日 专知

【导读】SMAC是Github上的一个用于在暴雪星际争霸2上进行多智能体协同强化学习(MARL)的环境。SMAC用了暴雪星际争霸2的机器学习API和DeepMing的PySC2为智能体与星际争霸2的交互提供了友好的接口,方便开发者观察和执行行动。


SMAC是Github上的一个用于在暴雪星际争霸2上进行多智能体协同强化学习(MARL)的环境。SMAC用了暴雪星际争霸2的机器学习API和DeepMing的PySC2为智能体与星际争霸2的交互提供了友好的接口,方便开发者观察和执行行动。


项目地址


https://github.com/oxwhirl/smac


安装SMAC

pip install git+https://github.com/oxwhirl/smac.git

另外,星际争霸2也是要安装的。


示例代码


在下面的代码中,独立的智能体在接收到观察和全局状态后会执行随机策略。

from smac.env import StarCraft2Env
import numpy as np


def main():
   env = StarCraft2Env(map_name="8m")
   env_info = env.get_env_info()

   n_actions = env_info["n_actions"]
   n_agents = env_info["n_agents"]

   n_episodes = 10
   
for e in range(n_episodes):
       env.reset()
       terminated = False
       
episode_reward = 0
       
while not terminated:
           obs = env.get_obs()
           state = env.get_state()

           actions = []
           for agent_id in range(n_agents):
               avail_actions = env.get_avail_agent_actions(agent_id)
               avail_actions_ind = np.nonzero(avail_actions)[0]
               action = np.random.choice(avail_actions_ind)
               actions.append(action)

           reward, terminated, _ = env.step(actions)
           episode_reward += reward

       print("Total reward in episode {} = {}".format(e, episode_reward))

   env.close()


-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!480+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!


请加专知小助手微信(扫一扫如下二维码添加),咨询《深度学习:算法到实战》参团限时优惠报名~

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
17

相关内容

多智能体深度强化学习的若干关键科学问题
专知会员服务
188+阅读 · 2020年5月24日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
专知会员服务
207+阅读 · 2019年8月30日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
AmpliGraph:知识图谱表示学习工具包
专知
40+阅读 · 2019年4月6日
机器学习可解释性工具箱XAI
专知
11+阅读 · 2019年2月8日
PyTorch实现多种深度强化学习算法
专知
36+阅读 · 2019年1月15日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
DeepMind发布《星际争霸 II》深度学习环境
人工智能学家
8+阅读 · 2017年9月22日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Phrase-Based & Neural Unsupervised Machine Translation
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
相关资讯
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
AmpliGraph:知识图谱表示学习工具包
专知
40+阅读 · 2019年4月6日
机器学习可解释性工具箱XAI
专知
11+阅读 · 2019年2月8日
PyTorch实现多种深度强化学习算法
专知
36+阅读 · 2019年1月15日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
DeepMind发布《星际争霸 II》深度学习环境
人工智能学家
8+阅读 · 2017年9月22日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员