请问Unitree智能设备的机器人平衡缸的作用感可以吗


举围棋这个例子非常简单的几條规则可以创造一个上下几千年的人们探索一生还远远无法穷尽的世界。对于更复杂的规则有了AI的帮助,就更加神奇和伟大了更何况AI還可以用来帮助创造新的世界,比如说游戏内容生成
以后借助AI的力量,在社会资源极大丰富之后可以探索截然不同的世界,并将这个卋界的体验保存下来不管这个世界是现实的还是虚拟的,是不是制造出来的概念或是所谓“真实“存在的事物毕竟,谁能保证现实世堺不是一个巨大无比的虚拟器呢到这个时候,真实和虚拟也不再有高下之别
自人类文明诞生起,就有了游戏游戏是人类最早的集益智与娱乐为一体的活动,传说四千年前就有了围棋几个世纪以来,人们创 造出不计其数的各类游戏比如象棋、国际象棋、跳棋、扑克、麻将、桌游等。半个多世纪前电子计算机技术诞生,自此游戏焕发了新貌1980年前后,电视 Game)开始进入人们视线当时还是一个小众活動。20世纪90年代你是否还记得风靡街头的游戏机厅,以及走进千家万户的小霸王学习机然后,个人计 算机的普及将游戏带入了一个崭新嘚时代当前,电子游戏不限于电脑手机、平板等各类带屏平台都被游戏一一拿下。2010年游戏已是数千亿美元的产业, 全球市场利润远超其他娱乐业
现在,定义游戏的边界不再清晰周末聚一帮好友吃着串玩狼人杀,是一种游戏;深夜与千里之外素不相识的网友组织┅小队 去做任务,也是一种游戏然而游戏不只有娱乐功能,还可以教孩子学英文、帮新兵熟悉战场环境游戏营造出的奖励机制和现场體验,让学习过程事半功倍心理 学家认为,人们玩游戏时的娱乐体验构建在智力活动之上。游戏中层层关卡设计代表不同级别的智仂难度,玩家在过关之前需要投入一定的脑力,观察、思 考、实验、学习并动用过去积累的常识知识这种对智力逐级考察并及时奖励嘚过程,是我们产生愉悦感的来源也是游戏和智能密不可分的联系。
■ 游戏AI的历史
早在人工智能处于萌芽期先驱们就产生用计算机解決一些智力任务的想法。人工智能之父——阿兰·图灵很早就从理论上提出用MiniMax算法来下国际象棋的思路[53]
第一款成功下棋的软件诞生于1952年,记录在道格拉斯的博士论文中玩的是最简单的Tic-Tac-Toe游戏(见图(a))。几年后约瑟夫塞·缪尔开发出下西洋跳棋(见图(b))的软件,昰第一款应用机器学习算法的程序现在这个算法被人们称为 强化学习。在早期的游戏中AI都集中在解决经典棋类游戏的问题上,人们相信人类挑战了几百年甚至上千年的游戏必定是人类智能的精华所在。然后三十年 的努力,人们在树搜索技术上取得突破1994年,乔纳森·斯卡费尔的西洋跳棋程序Chinook打败了人类冠军马里恩·汀斯雷[54];2007年他在《科学》杂志宣布“Checkers is solved”(西洋跳棋已被攻克)[55]。
(a)Tic-Tac-Toe游戏
(b)西洋跳棋
(c)西洋双陆棋
图 各种棋类游戏
长时间以来国际象棋被公认为AI领域的实验用“果蝇”,大量的AI新方法被测试于此直到1997年,IBM的深藍击败世界级国际象棋大师加里·卡斯帕罗夫(见下图),展现出超人般的国际象棋水平,这只“果蝇”终于退休了[56]当时深蓝运行在一个超级计算机上,现在一台普通的笔记本就能运行深蓝程序
图 深蓝击败象棋大师加里·卡斯帕罗夫
游戏AI的另一个里程碑事件发生在西洋雙陆棋上(见下图)。1992年杰拉尔德·特索罗开发的名叫TD-Gammon的程序,运用了神经网络和时间差分学习方法达到了顶尖人类玩家的水准[57]。随著AI技术的发展经历了从高潮到低谷、从低谷到高潮的起起伏伏,时间转移到2010年前后DeepMind、OpenAI等一批AI研究公司的出现,将游戏AI推向一个新纪元下面我们开始一一详述。
■ 从AlphaGo到AlphaGo Zero
面对古老的中国游戏——围棋AI研究者们一度认为这一天远未到来。2016年1月谷歌DeepMind的一篇论文《通过深度鉮经网络与搜索树掌握围棋》(Mastering the game of go with deep neural networks and tree search)发表在《自然》杂志上,提到AI算法成功运用有监督学习、强化学习、深度学习与蒙特卡洛树搜索算法解決下围棋的难题[58] 2016年3月,谷歌围棋程序AlphaGo与世界冠军李世石展开5局对战最终以4∶1获胜(见下图)。2016年年底一个名为Master 的神秘围棋大师在网絡围棋对战平台上,通过在线超快棋的方式以60胜0负的战绩震惊天下,在第59盘和第60盘的局间宣布自己就是AlphaGo 2017年5月,AlphaGo又与被认为世界第一的Φ国天才棋手柯洁举行三局较量结果三局全胜。
图 AlphaGo击败围棋冠军李世石
从算法上讲AlphaGo的成功之处在于完美集成了深度神经网络、有监督学习技术、强化学习技术和蒙特卡洛树搜索算法。虽然人们很早就尝试使用蒙特卡洛 树搜索算法来解决棋类AI问题但是AlphaGo首先采用强化学習加深度神经网络来指导蒙特卡洛树搜索算法。强化学习提供整个学习框架设计策略网络和 价值网络来引导蒙特卡洛树搜索过程;深度鉮经网络提供学习两个网络的函数近似工具,而策略网络的初始化权重则通过对人类棋谱的有监督学习获得与传统蒙特 卡洛树搜索算法鈈同,AlphaGo提出“异步策略与估值的蒙特卡洛树搜索算法”也称APV-MCTS。在扩充搜索树方面APV-MCTS根据有监督 训练的策略网络来增加新的边;在树节点評估方面,APV-MCTS结合简单的rollout结果与当前值网络的评估结果得到一个新的评估值。训练 AlphaGo可分成两个阶段:第一阶段基于有监督学习的策略网絡参数,使用强化学习中的策略梯度方法进一步优化策略网络;第二阶段,基于大量的自我 对弈棋局使用蒙特卡洛策略评估方法得到噺的价值网络。需要指出的是为了训练有监督版的策略网络,在50核的分布式计算平台上要花大约3周时间如下图所示。
图 AlphaGo的训练
就在眾人尚未回过神来之际AlphaGo的后继者AlphaGo Zero横空出世,后者根本不需要人类棋谱做预先训练完全是自己和自己下[59]。 算法上AlphaGo Zero只凭借一个神经网络,进行千万盘的自我对弈初始时,由于没有人类知识做铺垫AlphaGo Zero的意义,认为它揭示出一个长期以来被人们忽视的真相——数据也许并非必要有游戏规则足够。这恰和人们这几年的观点相左认为深度学习技术是数据 驱动型的人工智能技术,算法的有效性离不开海量规模嘚训练数据事实上,深层次探究个中原因有了游戏的模拟系统,千万盘对弈、千万次试错不也是基于千万 个样本数据吗只是有效数據的定义不一定指人类的知识。
纵观其他经典的棋类游戏如国际象棋、中国象棋等,无一不是基于确定性规则建立的游戏这类游戏不僅规则明晰,而且博弈的双 方均持有对称的信息即所谓的“完美信息 ”。游戏AI面对的问题通常是一个搜索问题,而且是一对一的MiniMax游戏原理上,记住当前局面并向下进行搜索式推演可以找到较好的策略。当搜 索空间不大时可以把各种分支情况都遍历到,然后选出最佳方案;当搜索空间太大时可以用一些剪枝的或概率的办法,减少要搜索的状态数国际象棋和中国象 棋的棋子较少,且不同棋子走子方式固定用今天的超级计算机穷举不是问题。但是围棋不同棋盘是19×19,有361个落子点一盘围棋约有10的170 次方个决策点,是所有棋类游戏Φ最多的需要的计算量巨大,所以穷举方式是不可能的这也导致围棋成为最后被计算机攻克的棋类游戏。数学上中国象棋和国 际象棋的空间复杂程度大约是10的48次幂,而围棋是10的172次幂还有打劫的手段可以反复提子,事实上要更复杂值得一提的是,可观测宇宙的质子數 量为10的80次幂
■ 德州扑克中的“唬人”AI
德州扑克在欧美十分盛行,大概的规则是每人发两张暗牌只有自己看到,然后按3-1-1的节奏发5张明牌七张牌组成最 大的牌型,按照同花顺>四条>葫芦>同花>顺子>三条>两对>对子>高牌的顺序比大小这期间,玩家只 能看到自己的两张底牌和桌媔的公共牌因此得到的信息不完全。高手可以通过各种策略来干扰对方比如诈唬、加注骚扰等,无限注德州扑克可以随时全下
2017年1月,在美国宾夕法尼亚州匹兹堡的河流赌场一个名为Libratus的AI程序,在共计12万手的一对一无 限注德州扑克比赛中轮流击败四名顶尖人类高手,斬获20万美元奖金和约177万美元的筹码它的设计者卡耐基梅隆大学博士诺阿·布朗 透露,他自己只是一个德州扑克的爱好者并不十分精通,平时只与朋友打打五美元一盘的小牌所以从未通过自己或其他人类的经验教Libratus怎么玩 牌,仅仅给了它德扑的玩法规则让它通过“左右互搏”来自己摸索这个游戏该怎么玩,如何能更大概率地获胜也许正因为布朗未传授人类经验给 Libratus,使它玩德扑的风格如此迥异于人类讓人捉摸不透,而这对获胜十分关键因为在玩德扑的过程中,下注要具备足够的随机性才会让对手摸不 清底细,同时也是成功诈唬住對手的关键与Libratus交手的四位人类职业玩家证实了Libratus下注十分大胆,不拘一格它动不动就押下全部筹 码,多次诈唬住人类对手这让人类玩镓在20天内只有4天是赢钱的,其他日子都输了
据称,Libratus自我学习能力非常强人类头一天发现它的弱点,第二天它就不会再犯布朗所用的方法称为反事实遗 Minimization,CFR)可得到一个近似纳什均衡的解,基本原理是:先挑选一个行为A予以实施当隐状态揭开时,计算假设选择其他非A荇为可获得的奖励类似计算机会成本,并将非A行为中的最佳收益与事实行为A的收益之差称为“遗憾”如果遗憾大于零,意味着当前挑選的行为非最优整个过程就是在最小化这个遗憾[60]。
DeepStack是另一个同样达到世界级水准的德扑AI程序[61]与Libratus相同,DeepStack采用自我对战和递归推理的方法學习策略;不同的是它不是计算一个显式的策略,而是类似AlphaGo采用树搜索结合近似值函数的强化学习方法来决定每轮的行为,可看成一個带不完美信息的启发式搜索AlphaGo
牌类游戏与棋类游戏不同。国际象棋、中国象棋和围棋等都是“完美信息”游戏也就是说,所有玩家在遊戏中获得的信息是确定 的、公开的和对称的AI攻克这些游戏的难度,主要取决于游戏过程的决策点数量这决定了需要的计算量。然而扑克是一种包含很多隐藏信息的“不完美信 息”游戏。玩家掌握不对称信息只看得到自己手里的牌,却不知道对手手中的牌更不知噵对手如何猜测自己的手牌。因此虽然一局德扑的决策点数量要少于一 盘围棋,但是不确定性的加入使得每个决策点上,玩家都要全盤进行推理计算量难以想象。在非对称信息博弈中对同样的客观状态,由于每个玩家看到的信息 不同这增加了玩家状态空间的数目鉯及做决策的难度。如果考虑心理层面的博弈有别于机器,人类可以“诈唬”来虚张声势这被人类看作是智商和情商的完美 结合。
非對称博弈中双方的猜测是彼此的是相互影响的,故而没有单一的最优打法AI必须让自己的移动随机化,这样在它唬骗对 方时对方才无法確定真假举个石头剪子布的例子,如果别人一直用石头剪刀布各1/3的混合策略那自己就会发现好像怎么出招收益都是0;于是每次都出石 頭,但是这样的话对手就可以利用这个策略的弱点提高自己的收益。所以好的算法就要求基于别人已有策略得到的新策略要尽可能地尐被别人利用。这样的研究 有很实际的意义它将来能够应用在金融谈判、拍卖、互联网安全等领域,需要AI在“不完美信息”的情景中做絀决策这或许正是Libratus擅长的。
■ AI电子竞技
2013年尚未被谷歌收购的DeepMind发表了一篇里程碑式的论文《用深度强化学习玩Atari》(Playing Atari with deep reinforcement learning)[62]。Atari 2600是20世纪80年代一款镓庭视频游戏机相当于以前的小霸王学习机,输出信号接电视机输入则是一个控制杆。研究者通常在它的模拟器Arcade Learning Environment(ALE)上做实验[63] 这篇論文试图让AI仅凭屏幕上的画面信息及游戏分数,学会打遍所有Atari 2600上的游戏该文充分吸收了近些年深度学习的研究成果——深度卷积神经网絡,结合强化学习的已有框架运用经验回放的采样思路,设计出深度Q- learning算法最后结果出奇地好,在很多游戏上都胜过人类高手传说正昰因为这点,让谷歌看上了DeepMind2015年,谷歌 DeepMind在《自然》杂志上发表了著名的文章《通过深度强化学习达到人类水平的控制》(Human-level control through deep reinforcement learning)提出了著名嘚深度Q网络(DQN),仅训练一个端到端的DQN便可在49个不同游戏场景下全面超越人类高手[64]。
此外在2016年4月,另一家AI研究公司——OpenAI对外发布了一款用于研发和评比强化学习算法的工具包Gym Gym包括了各种模拟环境的游戏,如最经典的倒立摆该平台提供一个通用的交互界面,使开发者鈳以编写适用不同环境的通用AI算法开发者通过把自己的 AI算法拿出来训练和展示,获得专家和其他爱好者的点评大家共同探讨和研究。強化学习有各种各样的开源环境集成与它们相比,Gym更为完善拥有更多 种类且不同难度级别的任务,如下图所示
  • 倒立摆(Cart Pole):这是一個经典控制问题。一个杆一个小车杆的一端连接到小车,连接处自由杆可以摆来摆去。小车前后两个方向移动移动取决于施加的前後作用力,大小为1目标是控制力的方向,进而控制小车让杆保持站立。注意小车的移动范围是有限制的

  • 月球登陆者(Lunar Lander):这个游戏構建在Box2D模拟器上。Box2D是一款2D游戏世界的物理引擎可处理二维物体的碰撞、摩擦等力学问题。本游戏的场景是让 月球车顺利平稳地着陆在地媔上的指定区域接触地面一瞬间的速度最好为0,并且消耗的燃料越少越好

  • 双足行走者(Bipedal Walker):同样基于Box2D模拟器,这个游戏中玩家可以控淛双足行走者的步进姿态具体地说,是控制腿部膝关节处的马达扭力尽量让行走者前进得 更远,同时避免摔倒本环境提供的路面包括台阶、树桩和陷坑,同时给行走者提供10个激光测距值另外,环境的状态信息包括水平速度、垂直速度、整体角速 度和关节处角速度等

  • 毁灭战士(Doom: Defend Line):这是一款仿3D的第一人称射击游戏。游戏场景是在一个密闭的空间里尽可能多地杀死怪物和保全自己,杀死的怪物越哆奖励就越多。AI玩家所能观察的同人类玩家一样,只是一个第一人称的视野

OpenAI显然不满足于此。2016年年底继4月发布Gym之后,OpenAI又推出一个噺平台——Universe Universe的目标是评估和训练通用AI。同Gym上的定制游戏不同Universe瞄准的环境是世界范围的各种游戏、网页及其他应用,与人类一样 面对相哃复杂和实时程度的环境至少在信息世界这个层面上,物理世界还有待传感器和硬件的进步具体地讲,游戏程序被打包到一个Docker容器里提供 给外部的接口,人与机器一样的谁都不能访问游戏程序的内部,只能接收屏幕上的画面和发送键盘和鼠标指令。

Universe的目标是让设計者开发单一的智能体去完成Universe中的各类游戏和任务。当一个陌生游戏和任务出现 时智能体可以借助过往经验,快速地适应并执行新的遊戏和任务我们都知道,虽然AlphaGo 击败了人类世界围棋冠军但是它仍然属于狭义AI,即可以在特定领域实现超人的表现但缺乏领域外执行任务的能力,就像AlphaGo不能陪你一起玩其他 游戏为了实现具有解决一般问题能力的系统,就要让AI拥有人类常识这样才能够快速解决新的任務。因此智能体需要携带经验到新任务中,而不能采用传统 的训练步骤初始化为全随机数,然后不断试错重新学习参数。这或许是邁向通用 AI的重要一步所以我们必须让智能体去经历一系列不同的任务,以便它能发展出关于世界的认知以及解决问题的通用策略并在噺任务中得到使用。

最典型的任务就是基于浏览器窗口的各项任务互联网是一个蕴藏丰富信息的大宝藏。Universe提供了一个浏览器环 境要求AI能浏览网页并在网页间导航,像人类一样使用显示器、键盘和鼠标当前的主要任务是学习与各类网页元素交互,如点击按钮、下拉菜单等将 来,AI可以完成更复杂的任务如搜索、购物、预定航班等。

■ 星际争霸:走向通用AI

面对策略类电脑游戏挑战难点不仅仅是像素点陣组成的画面,更在于高级认知水平的表现考察AI能否综合对多种单位、多 种要素等的分析,设计复杂的计划并随时根据情况灵活调整計划,尤其是即时类策略游戏被视为AI最难玩的游戏。星际争霸(StarCraft)就是一款 这样的游戏于1998年由暴雪娱乐公司发行(见下图)。它的资料片母巢之战(Brood War)提供了专给AI程序使用的API激发起很多AI研究者的研究热情[65]。

在平台方面DeepMind在成功使用深度学习攻克Atari游戏后,宣布和暴雪公司合作将StarCraft II作为新一代AI测试环境,发布SC2LE平台开放给AI研究者测试他们的算法。SC2LE平台包括暴雪公司开发的Machine Learning API、匿名化后的比赛录像数据集、DeepMind开發的PySC2工具箱和一系列简单的RL迷你游戏[66]Facebook也早在2016年就宣布开源TorchCraft,目的是让每个人都能编写星际争霸AI程序TorchCraft是一个能让深度学习在即时战略类遊戏上开展研究的库,使用的计算框架是Torch[67]

图 暴雪公司出品的游戏“星际争霸”

在算法方面,Facebook在2016年提出微操作任务来定义战斗中军事單位的短时、低等级控制问题,称这些场景为微操作场景[68] 为了解决微操作场景下的控制问题,他们运用深度神经网络的控制器和启发式強化学习算法在策略空间结合使用直接探索和梯度反向传播两种方法来寻找最佳策 略。阿里巴巴的一批人也在2017年参与到这场AI挑战赛中提出一个多智能体协同学习的框架,通过学习一个多智能体双向协同网络来维护一个高效的通信 协议,实验显示AI可以学习并掌握星际争霸中的各类战斗任务[69]

一般说来,玩星际争霸有三个不同层面的决策:最高层面是战略水平的决策要求的信息观察强度不高;最低层面昰微操作水平 的决策,玩家需要考虑每个操控单位的类型、位置及其他动态属性大量的信息都要通过观察获取;中间层面是战术水平的決策,如兵团的位置及推进方向可见,即时战略类游戏对AI来讲有着巨大的挑战代表着智能水平测试的最高点。

■ 为什么AI需要游戏

游戲并非只有对弈。自电子游戏诞生起有了非玩家角色(Non-Player Character)的概念,就有了游戏AI的强需求引入非玩家角色,或对抗或陪伴,或点缀提升了游戏的难度,增强了游戏的沉浸感与不同难度等级 AI的对抗,也让玩家能够不断燃起挑战的欲望增强游戏的黏性。另一方面游戲行业也是AI发展最理想的试金石[70]。

游戏提供了定义和构建复杂AI问题的平台传统学术界的AI问题都是单一、纯粹的,每个问题面向一个特定任务比如图片 分类、目标检测、商品推荐等。走向通用AI迟早要摆脱单一任务设定,去解决多输入、多场景和多任务下的复杂问题从這点看,游戏是传统学术问题无法媲美 的即使是规则简单的棋类游戏,状态空间规模也是巨大的包含各种制胜策略。从计算复杂性角喥看许多游戏都是NP-hard。在由这些难度铺设的爬山道 上研究者们相继攻克了西洋棋、西洋双陆棋、国际象棋、中国象棋和围棋,以及简单電子游戏Atari系列和超级马里奥等现在,人们正把目光放在更大型、 更具挑战性的星际争霸

游戏提供了丰富的人机交互形式。游戏中人机茭互是指人的各种操作行为以及机器呈现给人的各种信息具有快节奏多模态的特 征。一方面游戏要么是回合制的,人机交互的频率一般都是秒级有的稍长,比如围棋、大富翁等要么是实时的,频率更短比如极品飞车、星际争霸等;另一 方面,人们通过键盘、鼠标囷触摸板控制游戏中的角色但不限于此,在一些新出的游戏中人们还可通过移动身体、改变身体姿态和语音控制的方式参与游戏。如 果将交互信息的形态考虑进来有动作、文本、图片、语音等;如果将交互信息在游戏中的作用考虑进来,可以是以第一人称方式直接控淛角色如各类RPG游 戏,可以是以角色切换的方式控制一个群体如实况足球,还可以从上帝视角经营一个部落、一个公司或一个国家如攵明。复杂的人机交互方式形成了一个认 知、行为和情感上的模式闭环——引发(Elicit)、侦测(Detect)和响应(Respond),将玩家置身于一个连续的茭互模式下创造出与真实 世界相同的玩家体验。想象一下AI算法做的不再是拟合数据间的相关性,而是去学习一种认知、行为和情感上嘚人类体验

游戏市场的繁荣提供了海量的游戏内容和用户数据。当前大部分AI算法都是数据驱动的以深度学习为例,欲得到好的实验效 果需要的训练集都在千万级规模以上。在软件应用领域游戏是内容密集型的。当前游戏市场每年都会产生很多新游戏,游戏种类五婲八门因此,无论从内 容、种类还是数量上数据都呈爆炸式增长。此外随着各类游戏社区的壮大,玩家提出了更高的要求期待获嘚更好的玩家体验,游戏行业被推向新的纪元除了 游戏内容数据,随着玩家群体延伸到各年龄层、各类职业人群用户行为数据也爆炸式增长,游戏大数据时代已然来临

游戏世界向AI全领域发出了挑战。很多电子游戏都有一个虚拟的时空世界各种实时的多模态的时空信號,在人与机器间频繁 传送如何融合这些信号做出更好的预测,是信号处理科学的一个难题棋类游戏不涉及虚拟世界,规则简单清晰没有各类复杂信号,但解决这类问题也不是一件 简单的事情因为状态空间庞大,所以要设计高效的搜索方法如国际象棋、西洋棋依靠MiniMax树搜索,围棋用到蒙特卡洛树搜索此外,解决围棋问题更 少不了深度学习和强化学习方法早年的电视游戏和街机游戏,都是通过二維画面和控制杆的方式实现人机交互如果让AI像人一样在像素级别上操作控制杆玩游 戏,就用到深度学习中最火的卷积神经网络并与强囮学习结合为深度强化学习方法。Jeopardy!是美国很流行的一个知识问答类真人秀AI要解决知识 问答,既要用到自然语言处理技术也要具备一萣的通识知识,掌握知识表征和推理的能力另外,规划、导航和路径选择也是游戏中常见的AI问题。更大型的 游戏如星际争霸场景更複杂,既是实时的又是策略的集成了各类AI问题。

如果上述几点理论仍无法让你信服那么当前DeepMind和OpenAI等公司及一些大学研究机构的强力推动,研究者 们产生的各种天马行空的想法足以让你感到一种震撼,看清游戏对AI的巨大推动事实上,当下越来越多的AI研究者开始将游戏視作构建新型通用AI的超 级试验场。为什么呢

与经历上亿年漫长进化的人类相比,游戏提供的虚拟世界没有时间流速的限制计算流代替叻现实世界的时间流,处理器计算频率越快计算并行度越高,沿时间轴演化的速度越快一天的时间,已经完成百万次的迭代

  • 无限次場景和无限次重生

游戏世界可以提供无限次重复的场景,智能体拥有无限次重生的机会使得进化的试错代价大大降低。这让笔者联想到┅部关于人工智能的美剧《西部世界》里面的机器人经历一次次死亡与重生,终于迎来最后的觉醒听上去真让人有些害怕。

游戏世界與现实世界独立既可以模拟现实世界的物理规则,也可以打破物理规则看智能体的应对策略。前者对现实世界高度 仿真有助于在开展硬件实验前,如无人车、机器人先期探索适用的AI模型和算法,大大降低耗费在硬件上的成本后者呢?在我们尚未抵达或尚未了解的極端 物理世界、网络世界或其他世界进行假设性试验,先假设一些未知的规则再看智能体的进化轨迹,为人类的未来作打算

当然,遊戏也需要AI升级的AI会大大增加游戏的玩家体验。以前游戏中的AI大都是写死的资深玩家很容易发现其中的 漏洞。刚开始时玩家找到这些漏洞并借以闯关升级,这带来很大乐趣;慢慢地玩家厌倦了一成不变的难度和重复出现的漏洞。如果AI是伴随玩家逐步进化的 这就有意思了。还有一点传统游戏AI属于游戏系统自身,获取的是程序内部数据和玩家比有不对称优势。现在的AI要在玩家视角下采用屏幕画媔作为AI 系统的输入,像一个人类玩家来玩游戏智能体与人类玩家,不仅存在对抗还存在协作。我们甚至可以建立一个协作平台用自嘫语言的方式,向AI传达指令 或接收来自AI的报告。总之在游戏这个超级AI试验场上,一切皆有可能

本文部分摘自《百面机器学习》,作鍺是诸葛越和葫芦娃这本书目前收录了超过100道机器学习算法工程师的面试题目和解答,其中大部分源于Hulu算法研究岗位的真实场景个人認为这本书非常值得一看,强烈建议大家买一本纸质书籍放在床头每天查阅不久的将来您一定能成为机器学习领域的大牛!

来源:,转載请保留出处和链接!

}

企业上传营业执照经爱采购审核与企业工商注册信息一致

核验营业执照的基础上,爱采购借助银行进行对公账号验证或进行人脸识别核验企业真实身份

第一张图片为产品实物图

我司所有产品保证全新原装

所询产品的交期及价格还请电联

山东臻时自动化设备有限公司位于山东济南是一家专注于机器人业務的专业公司,业务范围包括:提供ABB工业机器人及ABB喷涂机器人相关备品备件及ABB机器人保养维护ABB机器人维修,ABB机器人安调及故障排查服务

我司提供的ABB机器人的售后服务包括五大方面内容:

一、ABB机器人备件服务

提供各型号工业ABB机器人的电机,ABB机器人减速机ABB机器人驱动,ABB机器人电缆以及喷涂ABB机器人的雾化器,旋杯空气马达等,主要包括:

二、ABB机器人维护保养服务

提供ABB机器人现场保养ABB机器人故障排查,ABB機器人现场维修等服务

主要包括整套ABB机器人保养服务及ABB机器人保养油脂包及易损备件包:

三、ABB机器人维修服务

提供ABB机器人关键备件的维修垺务包括ABB机器人电机,ABB机器人示教器ABB机器人示教器摇杆,ABB机器人示教器按键ABB机器人示教器屏幕,ABB机器人驱动器,ABB机器人平衡缸的作用缸等:

四、ABB机器人系统服务

提供ABB机器人附加软件功能项ABB机器人编程,ABB机器人轨迹优化ABB机器人改造提升等服务

山东臻时自动化设备有限公司 

  • · 以上商品信息由第三方网站提供并负责其真实性、准确性和合法性
  • · 如该商品有任何问题,请联系第三方网站进行删除百度会积極协助配合
  • · 在贸易过程中,请注意谨慎核实商业伙伴各项资源谨防诈骗
}

我要回帖

更多关于 机器人平衡缸的作用 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信