综合 来源:IT之家 阅读量:17484 2021-12-10 02:10
,谷歌母公司 Alphabet 旗下顶尖 AI 实验室 DeepMind 曾因其 AI 系统 AlphaGo 击败顶尖人类围棋选手,AlphaStar 赢得星际争霸 2 而爆红全球本周,它又披露新的游戏 AI 系统
与此前开发的游戏系统不同,DeepMind 的 AI 新作 Player of Games 是第一个在完全信息游戏以及不完全信息游戏中都能实现强大性能的 AI 算法完全信息游戏如中国围棋,象棋等棋盘游戏,不完全信息游戏如扑克等
这是向能够在任意环境中学习的真正通用 AI 算法迈出的重要一步。
Player of Game 在象棋,围棋这两种完全信息游戏和德州扑克,苏格兰场这两种不完全信息游戏中与顶尖 AI 智能体对战。
从实验结果来看,DeepMind 称 Player of Games 在完全信息游戏中的表现已经达到了人类顶级业余选手水平,但如果给予相同资源,该算法的表现可能会明显弱于 AlphaZero 等专用游戏算法。
在两类不完全信息游戏中,Player of Games 均击败了最先进的 AI 智能体。
深蓝,AlphaGo 等 AI 系统仅擅长玩一种游戏
计算机程序挑战人类游戏选手由来已久。
20 世纪 50 年代,IBM 科学家亚瑟塞缪尔开发了一个跳棋程序,通过自对弈来持续改进其功能,这项研究给很多人带来启发,并普及了机器学习这个术语
此后游戏 AI 系统一路发展1992 年,IBM 开发的 TD—Gammon 通过自对弈在西洋双陆棋中实现大师级水平,1997 年,IBM 深蓝 DeepBlue 在国际象棋竞赛中战胜当时的世界棋王卡斯帕罗夫,2016 年,DeepMind 研发的 AI 系统 AlphaGo 在围棋比赛中击败世界围棋冠军李世石
IBM 深蓝系统 vs 世界棋王卡斯帕罗夫
这些 AI 系统有一个共同之处,都是专注于一款游戏比如塞缪尔的程序,AlphaGo 不会下国际象棋,IBM 的深蓝也不会下围棋
随后,AlphaGo 的继任者 AlphaZero 做到了举一反三它证明了通过简化 AlphaGo 的方法,用最少的人类知识,一个单一的算法可以掌握三种不同的完全信息游戏不过 AlphaZero 还是不会玩扑克,也不清楚能否玩好不完全信息游戏
实现超级扑克 AI 的方法有很大的不同,扑克游戏依赖于博弈论的推理,来保证个人信息的有效隐藏其他许多大型游戏 AI 的训练都受到了博弈论推理和搜索的启发,包括 Hanabi 纸牌游戏 AI,The Resistance 棋盘游戏 AI,Bridge 桥牌游戏 AI,AlphaStar 星际争霸 II 游戏 AI 等
2019 年 1 月,AlphaStar 对战星际争霸 II 职业选手
这里的每个进展仍然是基于一款游戏,并使用了一些特定领域的知识和结构来实现强大的性能。。
DeepMind 研发的 AlphaZero 等系统擅长国际象棋等完全信息游戏,而加拿大阿尔伯特大学研发的 DeepStack,卡耐基梅隆大学研发的 Libratus 等算法在扑克等不完全信息游戏中表现出色。
对此,DeepMind 研发了一种新的算法 Player of Games,它使用了较少的领域知识,通过用自对弈,搜索和博弈论推理来实现强大的性能。
更通用的算法 PoG:棋盘,扑克游戏都擅长
无论是解决交通拥堵问题的道路规划,还是合同谈判,与顾客沟通等互动任务,都要考虑和平衡人们的偏好,这与游戏策略非常相似AI 系统可能通过协调,合作和群体或组织之间的互动而获益像 Player of Games 这样的系统,能推断其他人的目标和动机,使其与他人成功合作
要玩好完全的信息游戏,需要相当多的预见性和计划玩家必须处理他们在棋盘上看到的东西,并决定他们的对手可能会做什么,同时努力实现最终的胜利目标不完全信息游戏则要求玩家考虑隐藏的信息,并思考下一步应该如何行动才能获胜,包括可能的虚张声势或组队对抗对手
DeepMind 称,Player of Games 是首个通用且健全的搜索算法,在完全和不完全的信息游戏中都实现了强大的性能。
Player of Games主要由两部分组成:
一种新的生长树反事实遗憾最小化
一种通过游戏结果和递归子搜索来训练价值—策略网络的合理自对弈。
Player of Games 训练过程:Actor 通过自对弈收集数据,Trainer 在分布式网络上单独运行
在完全信息游戏中,AlphaZero 比 Player of Games 更强大,但在不完全的信息游戏中,AlphaZero 就没那么游刃有余了。
Player of Games 有很强通用性,不过不是什么游戏都能玩参与研究的 DeepMind 高级研究科学家马丁施密德说,AI 系统需考虑每个玩家在游戏情境中的所有可能视角
虽然在完全信息游戏中只有一个视角,但在不完全信息游戏中可能有许多这样的视角,比如在扑克游戏中,视角大约有 2000 个。3354营收6518亿美元,较去年同期的4673亿美元增长41%,按固定汇率计算增长39%。
此外,与 DeepMind 继 AlphaZero 之后研发的更高阶 MuZero 算法不同,Player of Games 也需要了解游戏规则,而 MuZero 无需被告知规则即可飞速掌握完全信息游戏的规则。
在其研究中,DeepMind 评估了 Player of Games 使用谷歌 TPUv4 加速芯片组进行训练,在国际象棋,围棋,德州扑克和策略推理桌游《苏格兰场》上的表现。
苏格兰场的抽象图,Player of Games 能够持续获胜
在围棋比赛中,AlphaZero 和 Player of Games 进行了 200 场比赛,各执黑棋 100 次,白棋 100 次在国际象棋比赛中,DeepMind 让 Player of Games 和 GnuGo,Pachi,Stockfish 以及 AlphaZero 等顶级系统进行了对决
不同智能体的相对 Elo 表,每个智能体与其他智能体进行 200 场比赛
在国际象棋和围棋中,Player of Games 被证明在部分配置中比 Stockfish 和 Pachi 更强,它在与最强的 AlphaZero 的比赛中赢得了 0.5% 的胜利。
尽管在与 AlphaZero 的比赛中惨败,但 DeepMind 相信 Player of Games 的表现已经达到了人类顶级业余选手的水平,甚至可能达到了专业水平。
Player of Games 在德州扑克比赛中与公开可用的 Slumbot 对战该算法还与 Joseph Antonius Maria Nijssen 开发的 PimBot 进行了苏格兰场的比赛
不同智能体在德州扑克,苏格兰场游戏中的比赛结果
结果显示,Player of Games 是一个更好的德州扑克和苏格兰场玩家与 Slumbot 对战时,该算法平均每 hand 赢得 700 万个大盲注,mbb / hand 是每 1000 hand 赢得大盲注的平均数量
同时在苏格兰场,DeepMind 称,尽管 PimBot 有更多机会搜索获胜的招数,但 Player of Games 还是显著击败了它。
研究关键挑战:训练成本太高
施密德相信 Player of Games 是向真正通用的游戏系统迈出的一大步。
实验的总体趋势是,伴随着计算资源增加,Player of Games 算法以保证产生更好的最小化—最优策略的逼近,施密德预计这种方法在可预见的未来将扩大规模。
人们会认为,受益于 AlphaZero 的应用程序可能也会受益于游戏玩家他谈道,让这些算法更加通用是一项令人兴奋的研究
当然,倾向于大量计算的方法会让拥有较少资源的初创公司,学术机构等组织处于劣势在语言领域尤其如此,像 OpenAI 的 GPT—3 这样的大型模型已取得领先性能,但其通常需要数百万美元的资源需求,这远超大多数研究小组的预算
即便是在 DeepMind 这样财力雄厚的公司,成本有时也会超过人们所能接受的水平。
对于 AlphaStar,公司的研究人员有意没有尝试多种构建关键组件的方法,因为高管们认为训练成本太高根据 DeepMind 披露的业绩文件,它在去年才首次盈利,年收入达到 8.26 亿英镑,获得 4380 万英镑的利润从 2016 年~2019 年,DeepMind 共计亏损 13.55 亿英镑
据估计,AlphaZero 的训练成本高达数千万美元DeepMind 没有透露 Player of Games 的研究预算,但考虑到每个游戏的训练步骤从数十万到数百万不等,这个预算不太可能低
结语:游戏 AI 正助力突破认知及推理挑战
目前游戏 AI 还缺乏明显的商业应用,而 DeepMind 的一贯理念是借其去探索突破认知和推理能力所面临的独特挑战近几十年来,游戏催生了自主学习的 AI,这为计算机视觉,自动驾驶汽车和自然语言处理提供了动力
伴随着研究从游戏转向其他更商业化的领域,如应用推荐,数据中心冷却优化,天气预报,材料建模,数学,医疗保健和原子能计算等等,游戏 AI 研究对搜索,学习和博弈推理的价值愈发凸显。
一个有趣的问题是,这种水平的游戏是否可以用较少的计算资源实现这个在 Player of Games 论文最后中被提及的问题,还没有明确的答案
。免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。
上一篇:节日+婚礼,能够带来好运