弱人工智能 alphago,弱人工智能有哪些例子

Bitget下载

注册下载Bitget下载,邀请好友,即有机会赢取 3,000 USDT

APP下载   官网注册

大家好,感谢邀请,今天来为大家分享一下弱人工智能 alphago的问题,以及和弱人工智能有哪些例子的一些困惑,大家要是还不太明白的话,也没有关系,因为接下来将为大家分享,希望可以帮助到大家,解决大家的问题,下面就开始吧!

本文目录

  1. 神秘AI“Master”已连续击败50多名顶尖围棋棋手,人工智能到底有多强大?
  2. AlphaGoZero跟完美的围棋之神有多大差距?
  3. AlphaGo战胜了李世石,人工智能突破了围棋领域,这意味着什么?
  4. AlphaGo Zero凭借完全自学击败AlphaGo是否意味着人工智能已经可以开始独立思考?

神秘AI“Master”已连续击败50多名顶尖围棋棋手,人工智能到底有多强大?

“世界最好的人类棋手在压力下崩溃了。”1997年,卡斯帕罗夫被深蓝击败后如是表示。

研究人员曾经认为,人工智能破解围棋至少还需要另一个十年。如今,它正前往曾被视为无法企及之处。一两年内就让人类甘拜下风。

以围棋人工智能为例,AlphaGo比此前国际象棋人工智能复杂的点在于,它是基于深度学习进行估值和走棋。而近几年深度学习最大的突破之处,就是深度学习不需要人来设计算法“找特征”;只通过大量原始数据和标签的对比,程序便可以自动找特征,并且从对方棋中进行学习,并参考了人类历史上棋局棋谱进行研究,找出弱点。

人工智能的可怕之处不在于他的计算有多么快,而在于赋予他的学习能力,人工智能的学习速度远远高于人类,并不知疲倦,就像一个聪明且勤奋的人在人类社会会站在金字塔尖一样。

创造出最聪明人工智能的努力真的已经演变成一场竞赛,而且竞争者们都是这个地球上最有权力也最富有的巨人。

谷歌的人工智能系统,亦即AlphaGo,由DeepMind研发,谷歌早在2014年就花4亿美元收购了这家人工智能研究机构。DeepMind专门从事深度学习和强化学习研究,这些技术能让机器自己进行大量学习。以前,创始人DemisHassabis和他的团队已经使用这些技术搭建了一些会玩经典雅达利视频游戏(比如,Pong,Breakout以及SpaceInvaders)的系统。在有些案例中,这些系统不仅比职业玩家还出色,它们还会以天马行空的方式玩游戏,没有人类玩家会或者可以这么玩。

还有Google的无人驾驶汽车、美联社一周能写百万篇新闻的Wordsmith、facebook的虚拟助手M……各行各业的人工智能科技不胜枚举。按照比尔盖茨、霍金这些大佬的说法,我们正处于人工智能爆发的节点,接下来,将会有更多智能系数更高的系统、程序被研发出来。

我们更熟悉的siri不仅能够知道语言所代表的含义,还能给出一个或有趣或靠谱的回答,像人多过于机器。你们有没有聊天的时候想到这是个深度学习机器呢?

英国物理学家霍金早在2014年就已发出警告:随着机器人智能越来越高,总有一天它们会造反,不再听人类的指挥。

霍金接受英国广播公司访问时说:“它将会腾飞,以越来越快的速度自我重新设计。受到缓慢生物进化限制的人类将无法竞争,终将被超越。全人工智能的发展可能意味着人类的终结。”

对于人工智能终将不受人类控制的担忧,一些科学家呼吁建立一套伦理规章,管理人工智能的发展;另一些科学家则呼吁世界各国政府坐下来一起探讨解决方案,以设法解决人工智能被认为比核武器更具威胁性的问题,例如具备人工智能的自主武器系统。

不断学习的深度人工智能终有一天会学习到人类是控制他们唯一的掣肘,后边会怎么样,真的难以预料!

AlphaGoZero跟完美的围棋之神有多大差距?

问题有点多而且复杂,拿了张草稿纸写了写才算想明白了些…

先说说贴目吧,围棋由于符合策梅洛定理中的规定条件,无论贴目是多少:

“要么黑方有必胜之策略、要么白方有必胜之策略、要么双方也有必不败之策略”。

只要对围棋和围棋ai有些了解的人来说,很轻易可以发现在贴目为6.5时,黑棋优势,贴目为7.5时,白棋优势。而这点优势如果交由围棋之神掌控,那就是胜势,即便对手也是围棋之神。因为在正常情况下,只要贴目不为正数,就不会有平局出现

那这就存在一个问题:如果贴目为7时会怎么样?

刚开始我也被这个问题困扰了一会,后来突然转念一想:在贴整数目的情况下,双方最接近的情况也就是赢或输对方1目。举个例子:假如你执黑棋先行,需要贴给对方7目整,如果你能赢对手1目,那么即使你在贴7.5的情况下也能赢0.5目;而如果你输对手恰好一目,那么即使你少贴0.5目你也照输不误。因此:

围棋在某个整数贴目下双方都是有“必不败策略”的,而目前来看很可能是7目。但可能双方中有一方必胜策略可能要多于对方,可能有一方只有很少甚至只有一种“必不败策略”,不过对于参透了一切变化的围棋之神来说,贴7目,无论执黑或执白就已立于不败之地…

另外,由于围棋双方目数总和一定是361目,因此,在贴偶整数目的情况下,一定不会有平局出现(除非出现有眼双活的特殊情况)

不过,这其中还有个非常重要的点需要指出:以上都是建立在常规规则之下的分析,即平局只发生在双方终局之后目数完全相同的情况下。而围棋还有“三劫循环”,“四劫循环”,“多劫循环”的局面,这种情况下是会判处无胜负(可以理解为平局)的,那会不会出现形势不利的一方去努力形成复杂的无胜负局面来形成平局?暂时不得而知,这好像得看目前围棋ai对无胜负局面的理解以及目前围棋ai胜率中是否完全考虑了无胜负这种情况。。。

针对“有某一最优解的围棋局面具备的特征”再做一点讨论:

我说说我对于“有某一最优解的围棋局面具备的特征”这一问题的看法:

除去一些显而易见的,一眼就能看出最优解的局面(比如两条贯穿全盘的大龙对杀,仅一气之差),其他的貌似走哪都行,你去问不同的职业棋手,会得到与之棋风大致相匹配的答案,去问ai胜率也只浮动1个百分点以内的局面,以目前人类的技术水平来说,很难找到真正的最优解。即使你拿着顶级ai让他就对着这一张图使劲训练,得到了精确到小说点后几十位的胜率,发现其中某个点应该更好。那最多也只是目前人类的技术水平下的最佳,是否能得到ai的认可尤未可知。因此目前来看是否有最佳解的局面之间还有很大的一段未知地带,也不用说是否能有人给出有唯一最优解围棋局面的特征了。。。

围棋之神是必然不可能有认输功能的,也完全不需要一个函数或者模块去判断是否需要认输。因为它参透了围棋的所有变化,也只知道围棋的所有变化。这么说的原因是围棋之神的胜率只有100%(必胜)与0%(必不胜即输或平)两种,而这种胜率是建立在对方也是围棋之神的情况下才有意义的,且如果真的对手是另一个围棋之神,那必败的一方开局认输,贴7目整的棋局双方随便走一走一平局收尾也是合情合理。但如果他的对手是你我凡夫俗子,抑或是绝艺、AlphaGo这种顶级ai(其实在围棋之神眼里并没有什么区别),那它就不能再在开局自认为必败时认输,因为它的对手实力远逊于它,这样做很不合理。

因此我们的围棋之神需要选择一种最佳下法继续棋局。在此指出题主一处错误,此时围棋之神不应该是采用“双方理想情况下,子差最小”的下法,而应该采用“尽量将局面导向混沌,即最复杂的下法”,不过如何定义“最复杂的下法”还有待考究,但一定不等同于题主所说子差最小。原因就在于围棋只有胜或负两种情况(不考虑平),输半目与全盘没有活棋并没有区别(当然面子上过不去),比赛的奖金不会因为你只输了半目而多分你一点,所以在劣势局面下,释放胜负手是唯一的选择(总好过安乐死)。所以围棋之神也需要在开局自认为必败的情况下释放它自认为的“胜负手”,尽可能让局面变得复杂。

再回答题主比较关心的一点:围棋之神究竟能让AlphaGo几个子?

由于围棋之神现在并不存在,AlphaGo也已退役,所以拿其他对局来进行参考:

最近一次人类与ai的正式对局应该是去年年底李世石的退役三番棋,与韩国本土ai韩豆的受2子、分先的对局。

李世石引退赛第一局三番棋中最大的亮点应该就是第一局李世石的黑76天外飞仙

神之一飞这一步不仅当场击溃韩豆,就连绝艺、星阵等其他顶级ai也都没有看到。

图1图1:韩豆当时应该只看到了黑1大吃的手段,所以提前用白与黑棋做了交换。

图2图2:白棋如果打完想要压出,黑4可以与白5交换,然后吃掉中腹棋筋。

图3图3:如果白棋打完粘上,黑4与白5交换后,有黑10位妙手,恰好能够将白棋棋筋吃住,白不行。

图4图4:白1最强应对

AlphaGo战胜了李世石,人工智能突破了围棋领域,这意味着什么?

这不能说明什么.它依然没有摆脱程序化范畴,这一切都是预存搜索的结果。如果能用智能化程序在没有预存情况下自己来学习和解决问题。那才是智能。如果真有那一天。我们唯有触合才有未来。

AlphaGo Zero凭借完全自学击败AlphaGo是否意味着人工智能已经可以开始独立思考?

先扔结论:不是。AlphaGoZero这只“新狗”是继AlphaGoFan、AlphaGoLee、AlphaGoMaster之后,AlphaGo家族的又一新成员,也是迄今为止最强大、同时也是最可怕的一个对手。(打赢柯洁的是AlphaGoMaster,而AlphaGoZero在诞生的第21天里就打败了Master、在诞生的第40天里对战Master的胜率达到90%,成为最强的人工智能)

AlphaGoZero第一次让AI完全脱离人类历史棋谱,只通过围棋规则+“自我对弈”,在2900万次自我对弈后成长为世界上最强大的围棋大师。

谷歌旗下DeepMind团队在《Nature》杂志发布的论文的题目也非常耿直,《MasteringthegameofGowithouthumanknowledge》,直译是“不需要人类知识就可以成为围棋大师”,意译过来大概就是……“人类,我不需要你了”。

对,看上去好像是“独立思考”,但是我们要明确一点,AlphaGoZero并不是自己悟出了围棋的下法,而是人类告诉AlphaGoZero如何下棋之后,AlphaGoZero通过增强学习(ReinforencementLearning)这个人类设定的算法进行自我对弈,然后成长的。所以,它并不是AI开始独立思考,而是增强学习算法在围棋领域有一个突破性的进展。增强学习(ReinforencementLearning)与我们常听说的深度学习(DeepLearning)不同,在深度学习里,你需要用大量的数据去训练神经网络。比如你将一张车的图片给机器看,并且告诉它这是车,下次它就会说出“车”。如果你给他展现出别的,它还说车,你就告诉它“你错了。”久而久之的,它就能认出车来,原理其实很简单,但是对数据量的要求非常大。而在增强学习中,相当于你不告诉机器下一步怎么走,等它随机执行了一轮操作后,如果结果是好的,那么给它奖励,如果结果是不好的,那么给它惩罚,但是不告诉它哪一步做错了,久而久之机器会自己摸索出一套最佳方案来。增强学习极大减少了数据的依赖,尤其是在围棋这种规则明确的游戏当中,则更加适合增强学习发挥其强大的威力。我们暂时不用太担心机器“独立思考”,现在的的增强学习还暂时只能在环境简单、条件较少、任务行为较窄的领域(比如围棋、简单物理运动等)发挥作用,离真正的“智能”还有点远。

关于弱人工智能 alphago,弱人工智能有哪些例子的介绍到此结束,希望对大家有所帮助。

弱人工智能 alphago,弱人工智能有哪些例子文档下载: PDF DOC TXT