综合

当前位置/ 首页/ 综合/ 正文

AI和人类玩星际争霸的区别

导读 看到 AlphaStar 在几乎每场比赛中都采用了非常人性化的游戏风格,让我印象深刻,这让我印象深刻,职业星际争霸 II 玩家 Grzegorz Kom...

“看到 AlphaStar 在几乎每场比赛中都采用了非常人性化的游戏风格,让我印象深刻,这让我印象深刻,”职业星际争霸 II 玩家 Grzegorz Komincz (MaNa) 以 5-0 输掉比赛。到阿尔法星。

职业星际解说员也对 AlphaStar 的比赛感到震惊,称其为“非凡”和“超人”。

但是,尽管 AlphaStar 是一项非常了不起的技术,也是人工智能行业的里程碑式成就,但重要的是不要将其与人类智能以及人类玩家学习和玩星际争霸的方式相混淆。

为了达到周四所显示的熟练程度,AlphaStar 经历了比任何人一生都可以参加的比赛更多的比赛。2014 年被谷歌收购后,DeepMind 可以使用其母公司的大量计算资源来训练他们的 AI 模型。AlphaStar 联盟中的每个 AI 代理都接受了 16 个 Google 强大的 TPU 训练,这些 TPU 是专门用于 AI 任务的处理器。在 14 天的过程中,每位特工体验了价值 200 年的游戏。根据与 DeepMind 研究人员的AMA Reddit 线程,每个代理玩了相当于 1000 万场游戏。

当考虑到 AlphaStar 必须玩的游戏数量才能达到超越人类玩家的优势时,深度学习的局限性变得更加突出。人类能够理解抽象概念,并根据常识和不完整的知识、直觉和个人经验做出决定。这就是为什么他们可以通过玩几场比赛和观看几个小时的专业比赛来获得星际争霸的一般感觉并快速制定成功战术的心理模型。

另一方面,深度学习基于统计数据和概率做出决策。AI 玩的《星际争霸》游戏越多,它需要比较其决策的示例就越多。这就是为什么它需要玩这么多游戏才能达到熟练度的原因。

“机器学习的局限性仍然在于你提供给它的数据。它不了解物体以及它们对人类的意义。我们人类,即使在玩游戏时,也会识别具有其背后含义的对象,或者我们将每个对象与它用于执行特定操作的现实世界活动联系起来。对 AI 而言,它们只是形状和像素,如果将新对象引入游戏,它不知道如何在不经过数百万次训练和测试阶段的迭代的情况下在未来的动作中采用这种变化,”Jai Rangwani 说,首席技术官,人工智能交易员。

深度学习也只擅长执行有限的任务,即广为人知的狭义 AI。与人类不同,当前的人工智能组合在将知识从一个领域转移到另一个领域方面非常糟糕。一个专业的星际争霸 II 玩家将能够在非常有限的时间内快速适应星际争霸、魔兽争霸 III 和大多数其他 RTS 游戏的规则。但是,虽然 AlphaStar 已经能够击败最好的星际争霸 II 玩家,但它必须从头开始学习其他策略游戏,甚至是星际争霸 I。

AlphaStar 只接受过参加 Protoss 的训练,这是游戏中可用的三个种族之一。虽然职业选手在三场比赛中的一场比赛中也表现出色,但他们可以迅速调整自己的技能以适应其他比赛。对于AlphaStar来说,打Zerg或者Terran,另外两个种族,意味着它必须要经历整个广泛的训练。

即使是规则和环境的微小变化也会对人工智能的性能产生巨大影响。例如,人类玩家只能看到地图的有限部分,足以适应他们的屏幕。默认情况下,AlphaStar 可以同时看到整个缩小的游戏地图(不包括尚未发现的区域)。在 MaNa 以 5-0 输给 AlphaStar 后,AI 被更改为与人类用户具有相同的受限视窗。这一变化导致 AlphaStar 彻底失败。

“我们看到的更大问题是……[人工智能]学习的政策很脆弱,当人类可以将人工智能推出其舒适区时,人工智能就会崩溃,”乔治亚理工学院人工智能副教授 Mark Riedl告诉边缘。

免责声明:本文由用户上传,如有侵权请联系删除!