ARE:AI Arena:掌握游戏机制 训练你的下一个拳王

人工神经网络

一个最重要的创新:人工神经网络

简单来讲,神经网络意味着理论上它可以学习任何用户动作的映射!

为了介绍一会儿将使用的一些术语,从状态到行动的映射将被称为“策略”。

为了让拳手的神经网络学习策略,AI Arena将采取模拟学习和强化学习。其中神经网络架构存储在IPFS上。

在上图中,神经元之间的连接称为“权值”。当你的神经网络正在“学习”时,所发生的是它正在改变权值的值。

人工智能小冰公司完成10亿元融资,拟加速元宇宙虚拟人 AI Being框架技术研发:金色财经报道,人工智能小冰公司宣布完成10亿元融资,这笔融资将用于加速元宇宙虚拟人AI Being小冰框架技术研发,推动数字员工普及。小冰公司前身为微软人工智能小冰团队,2020 年,小冰团队分拆为独立技术研发实体,实现完全本土化。[2022/11/9 12:37:11]

权值最终将决定状态如何映射到动作,这意味着我们可以将权值解释为“智能”。

神经网络权值对于每个NFT都是唯一的,并存储在以太坊上。

AI设计机制全攻略

状态

(1)什么是状态?

状态是环境在某个时间点的表示。它并没有包含所有信息——只包含了其中必要的信息。

例如:研究人员使用屏幕上的所有像素作为状态,让AI计算出像素代表什么。然后根据他们认为对决策过程重要的因素进行人工调试。

上原亚衣推出碎片化NFT“AI MOSAIC TOKEN(AIT)”:12月21日,上原亚衣宣布推出碎片化NFT“AI MOSAIC TOKEN(AIT)”,向前1万名申领用户发放。用户需按规定完成操作,并提交BSC钱包地址以接受相关Token。此次Token发放活动将结束于12月27日。[2021/12/21 7:53:54]

AI Arena一再强调其关心的是为所有人提供平等的机会——团队希望奖励能够更多地给予坚持训练AI的用户,而不是奖励拥有更多资源的用户。

(2)游戏将使用哪些变量?

下面是状态中包含的变量列表。需要注意的是,AI Arena将使用下标1表示用户自己的AI,下标2表示对手。

此外,竞技场的左边界的X位置为0,右边界的X位置为1。

火币全球站现已恢复RAI(RAI Finance)充币和提币业务:官方消息,RAI钱包升级已完成,火币全球站现已恢复RAI(RAI Finance)的充币和提币业务。[2021/7/7 0:32:51]

训练

(1)训练概述

这是改变神经网络中权值的过程,以使AI能够起作用。

例如:如果我们在对手面前,我们可能希望我们的战士出击。

有一系列的权值可以实现这一点,训练的重点是让AI学会在特定场景中采取特定的行动。

AI Arena在应用程序中嵌入了以下培训计划:

模仿学习

为了学习如何战斗,你的AI将观察你并学习模仿你的动作。

自我学习

为了学习你无法教给它的技能,你的AI将与自己的副本对抗,以不断提高。

公告 | OKEx上线Dai Stablecoin(DAI):据OKEx官方消息,OKEx上线Dai Stablecoin(DAI),其中香港时间12月17日17:00开放DAI充值,12月18日?15:00开放BTC/DAI?、ETH/DAI、USDT/DAI的市场交易,12月19日?17:00开放DAI提现。

据了解,Dai 由链上资产足额抵押担保发行,和美元保持1:1锚定,1 Dai = 1 美元。Dai在抵押贷款、保证金交易、国际转账、供应链金融等方面已有落地应用。[2019/12/17]

(2)为什么需要训练?

1·随机初始化

首次创建NFT拳手时,神经网络权值也随之生成。一开始它会随机采取行动,因为它不知道在什么情况下应该采取什么行动。

动态 | EOS NewYork 发文回应 AnChain.ai 报告及其对 EOS 菠菜 dApp 的报道:据MEET.ONE 报道报道,六月初,AnChain.ai 宣布其平台对 EOS 上排名前 10 的菠菜 dApp 的分析,并构陷 51% 的账户和 75% 的交易与这些 dApp 上的智能合约相关,且为机器人运作的结果。由于这篇文章,一些媒体的报道将 dApp 定性为无作为的应用,把多数的 EOS 用户当成是机器人。为此, EOS New York 发文回应该报道,并称其对 EOS 认知不足,且通过 dApp 生态系统、报告、商业决策、以及区块链内在属性等方面分析,反驳 Anchain.ai 观点。[2019/6/12]

因此为了准备战斗,我们必须训练它,使它学会一个好的作战策略。

2·随机策略

正如上文“神经网络”部分中提到的,从状态到动作的映射称为策略。

换句话说,策略定义了代理在某些情况下的行为方式。在训练之前,NFT拳手还没有学会一个好的战斗策略,所以只是随机行动。

(1)通过观察学习

理解模仿学习的最好方法是想象你是一个师父,你的AI是一个你正在准备战斗的战士。

你用你的人工智能进行搏击,它学习模仿你在特定场景中的动作。

我们正在写一篇关于模仿学习的综合博文,到时候会将其链接到这里。

(2)演示

实际情况:你实际操控的是左边的灰色拳手,而你的AI在右边。你可以测试一些动作,观察AI如何模仿你。

请注意:它不会立即复刻你的动作,因为神经网络需要一点时间来学习,所以在AI学会之前,你可能需要多重复几次你的动作。

为简单演示,目前AI Arena只允许用户使用这些操作:向左跑、向右跑、单拳、双拳和防守。

(1)完美匹配

最完美的拳击搭档就是用户自己。通过自我学习,你的AI总是在不断地挑战自己,不断地改进。

(2)不同的学习范式

通过模仿学习,AI通过观看演示进行学习。在自我学习中,AI像对手一样学习和战斗没有多大意义,因为对手是人工智能本身的克隆。

但是如果没有专家向人AI展示如何战斗,那么它如何学习该做什么呢?——通过奖励。

AI将学会采取给予它更多正向奖励的行动,而减少采取给予它负面奖励的行动。

定制训练

Python环境【正在准备中】

AI Arena计划为玩家引入一个python环境来训练他们自己的模型。

目前,用户仅限于使用团队在应用程序中提供的两种培训方法;但不久的将来,应用程序将可以允许玩家导入其自定义培训模型并上链。

游戏模式探索

战斗

AI Arena目前有两种可用的作战模式:模拟赛和排位赛。除此之外,团队计划在不久后整合另外两种作战模式。

1)模拟赛

玩家可以在对抗竞技场测试他们的拳手来预先训练的AI。在这种模式下将没有任何奖励。

2)排位赛

玩家将让他们的拳手去对抗来自世界各地的拳手。玩家的唯一目标就是努力攀登排行榜,成为竞技场的冠军!

玩家在排行榜上的排名越高,赢得一场战斗的回报奖励就越高。

3)目标

虽然每种战斗模式都有其独特之处,但它们都有一个共同的胜利目标:在指定的时间内消耗对手所有生命值。

链金交易员总结

目前AI Arena尚处在早期,很适合提前埋伏观察。据官方透露,游戏正式版本大概率于明年推出,而今年年末推出的测试版本将只有白名单用户可以参与体验。

白名单用户名额的获取方式是参与团队即将推出的解密游戏,通过游戏后的用户将会被随机选择是否进入白名单。

有兴趣的玩家可以加入他们的Discord尝试体验,大概率后期会有早鸟空投奖励。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金星链

[0:31ms0-1:50ms