樊麾(樊麾为什么二段)

体育新闻 2022-11-25 06:56www.1689878.com最新体育新闻

体育知识网给大家浅谈下,以及樊个人资料对应的知识点,希望对各位有所帮助,不要忘了收藏体育知识网喔。

本文看点:

围棋官方AI接入程序的名字?

阿尔法围棋(AlphaGo)是一款围棋人工智能程序,由位于英国伦敦的谷歌(Google)旗下DeepMind公司的戴维·西尔弗、艾佳·黄和戴密斯·哈萨比斯与他们的团队开发,这个程序利用“价值网络”去计算局面,用“策略网络”去选择下子。2015年10月阿尔法围棋以5:0完胜欧洲围棋冠军、职业二段选手樊麾;2016年3月对战世界围棋冠军、职业九段选手李世石

樊这个字怎么念?

樊,汉字,普通话读音fán ,部首木,笔画15画,上下结构。“樊,鷙(騺)不行也。”

基本信息

中文名 樊

拼音 fán

樊的解释:樊fán,笼子:樊笼(关鸟兽的笼子,喻不自由的境地)。

篱笆:樊篱(喻对事物的限制)。纷杂的样子:“樊然淆乱”。

姓:樊姓,中国姓氏,一出于姬姓,一出于子姓,以国为氏,是中国姓氏排行第一百零二位的姓氏。樊姓发祥于河南。

春秋战国时,樊姓氏族以此为源,北入山西,东到山东,南迁湖北、江苏,西徙陕西,与当地氏族世代共处。

【转载】AlphaGo原理解析

这些天都在没日没夜地关注一个话题,谷歌人工智能程序AlphaGo(国内网友亲切地称为“阿尔法狗”)以5:0击败欧洲职业围棋冠军樊麾二段,并在和世界冠军的比赛中2:0领先。
什么!!
19年前计算机击败国际象棋冠军卡斯帕罗夫的情景还历历在目,现在计算机又要来攻克围棋了吗!?
虚竹在天龙八部里自填一子,无意中以“自杀”破解“珍笼”棋局,逍遥子方才亲传掌门之位。难道以后“阿尔法狗”要出任逍遥派掌门了?
1933年,东渡日本19岁的吴清源迎战当时的日本棋坛霸主、已经60岁的本因坊秀哉,开局三招即是日本人从未见过的三三、星、天元布阵,快速进击逼得对方连连暂停“打卦”和弟子商量应对之策。随后以“新布局”开创棋坛新纪元。难道阿尔法狗会再造一个“新新布局”?
作为一个关心人工智能和人类命运的理科生,近些天刷了好些报道,记者们说“阿尔法狗是个‘价值神经网络’和‘策略神经网’络综合蒙特卡洛搜索树的程序”,但我觉得光知道这些概念是不够的。我想看看“阿尔法狗”的庐山真面目。

准备好棋盘和脑容量,一起来探索吧?

围棋棋盘是19×19路,所以一共是361个交叉点,每个交叉点有三种状态,可以用1表示黑子,-1表示白字,0表示无子,考虑到每个位置还可能有落子的时间、这个位置的气等其他信息,我们可以用一个361 * n维的向量来表示一个棋盘的状态。我们把一个棋盘状态向量记为s。
当状态s下,我们暂时不考虑无法落子的地方,可供下一步落子的空间也是361个。我们把下一步的落子的行动也用361维的向量来表示,记为a。
这样,设计一个围棋人工智能的程序,就转换成为了,任意给定一个s状态,寻找最好的应对策略a,让你的程序按照这个策略走,最后获得棋盘上最大的地盘。
如果你想要设计一个特别牛逼惊世骇俗的围棋程序,你会从哪里开始呢?对于在谷歌DeepMind工作的黄士杰和他的小伙伴而言,第一招是:

蒙特卡洛搜索树(Monte-Carlo Tree Search)是一种“大智若愚”的方法。面对一个空白棋盘S0,黄士杰的老师Coulum最初对围棋一无所知,便假设所有落子方法分值都相等,设为1。然后扔了一个骰子,从361种落子方法中随机选择一个走法a0。Coulum想象自己落子之后,棋盘状态变成S1,然后继续假设对手也和自己一样二逼,对方也扔了一个筛子,随便瞎走了一步,这时棋盘状态变成S2,于是这两个二逼青年一直扔骰子下棋,一路走到Sn,最后肯定也能分出一个胜负r,赢了就r记为1,输了则为0,假设这第一次r=1。这样Coulum便算是在心中模拟了完整的一盘围棋。
Coulum心想,这样随机扔骰子也能赢?运气不错啊,那把刚才那个落子方法(S0,a0)记下来,分值提高一些:

我刚才从(S0, a0)开始模拟赢了一次,r=1,那么新分数=2,除了第一步,后面几步运气也不错,那我把这些随机出的局面所对应落子方法(Si,ai)的分数都设为2吧。然后Coulum开始做第二次模拟,这次扔骰子的时候Coulum对围棋已经不是一无所知了,但也知道的不是太多,所以这次除(S0, a0)的分值是2之外,其他落子方法的分数还是1。再次选择a0的概率要比其他方法高一点点。
那位假想中的二逼对手也用同样的方法更新了自己的新分数,他会选择一个a1作为应对。如法炮制,Coulum又和想象中的对手又下了一盘稍微不那么二逼的棋,结果他又赢了,Coulum于是继续调整他的模拟路径上相应的分数,把它们都+1。随着想象中的棋局下得越来越多,那些看起来不错的落子方案的分数就会越来越高,而这些落子方案越是有前途,就会被更多的选中进行推演,于是最有“前途”的落子方法就会“涌现”出来。
最后,Coulum在想象中下完10万盘棋之后,选择他推演过次数最多的那个方案落子,而这时,Coulum才真正下了第一步棋。

蒙特卡洛搜索树华丽转身为相当深刻的方法,可以看到它有两个很有意思的特点:
1)没有任何人工的feature,完全依靠规则本身,通过不断想象自对弈来提高能力。这和深蓝战胜卡斯帕罗夫完全不同,深蓝包含了很多人工设计的规则。MCTS靠的是一种类似遗传算法的自我进化,让靠谱的方法自我涌现出来。让我想起了卡尔文在《大脑如何思维》中说的思维的达尔文主义[6]。
2)MCTS可以连续运行,在对手思考对策的同时自己也可以思考对策。Coulum下完第一步之后,完全不必要停下,可以继续进行想象中的对弈,直到对手落子。Coulum随后从对手落子之后的状态开始计算,但是之前的想象中的对弈完全可以保留,因为对手的落子完全可能出现在之前想象中的对弈中,所以之前的计算是有用的。这就像人在进行对弈的时候,可以不断思考,不会因为等待对手行动而中断。这一点Coulum的程序非常像人,酷毙了。
但黄士杰很快意识到他老师的程序仍然有局限:初始策略太简单。我们需要更高效地扔骰子。
如何更高效的扔骰子呢?
用P_human()来扔。

如果某一步被随机到很多次,就应该主要依据模拟得到的概率而非P_human。
所以P_human的初始分会被打个折扣:

这样就既可以用P_human快速定位比较好的落子方案,又给了其他位置一定的概率。看起来很美,然后实际操作中却发现:“然并卵”。因为,P_human()计算太慢了。
一次P_human()计算需要3ms,相对于原来随机扔骰子不到1us,慢了3000倍。如果不能快速模拟对局,就找不到妙招,棋力就不能提高。所以,黄士杰训练了一个简化版的P_human_fast(),把神经网络层数、输入特征都减少,耗时下降到了2us,基本满足了要求。先以P_human()来开局,走前面大概20多步,后面再使用P_human_fast()快速走到最后。兼顾了准确度和效率。
这样便综合了深度神经网络和MCTS两种方案,此时黄士杰的围棋程序已经可以战胜所有其他电脑,虽然距离人类职业选手仍有不小的差距,但他在2015年那篇论文的最后部分信心满满的表示:“我们围棋软件所使用的神经网络和蒙特卡洛方法都可以随着训练集的增长和计算力的加强(比如增加CPU数)而同步增强,我们正前进在正确的道路上。”
看样子,下一步的突破很快就将到来。同年2月,黄士杰在Deepmind的同事在顶级学术期刊nature上发表了“用神经网络打游戏”的文章[2]。这篇神作,为进一步提高MCTS的棋力,指明了前进的新方向:

红白机很多人小时候都玩过,你能都打通吗?黄士杰的同事通过“强化学习”方法训练的程序在类似红白机的游戏机上打通了200多个游戏,大多数得分都比人类还好。

“强化学习”是一类机器学习方法,Agent通过和环境s的交互,选择下一步的动作a,这个动作会影响环境s,给Agent一个reward,Agent然后继续和环境交互。游戏结束的时候,Agent得到一个最后总分r。这时我们把之前的环境状态s、动作a匹配起来就得到了一系列<s,a>,设定目标为最后的总得分r,我们可以训练一个神经网络去拟合在状态s下,做动作a的总得分。下一次玩游戏的时候,我们就可以根据当前状态s,去选择最后总得分最大的动作a。通过不断玩游戏,我们对<s,a>下总得分的估计就会越来越准确,游戏也玩儿得越来越好。
打砖块游戏有一个秘诀:把球打到墙的后面去,球就会自己反弹得分。强化学习的程序在玩了600盘以后,学到这个秘诀:球快要把墙打穿的时候评价函数v的分值就会急剧上升。

机器学习的开山鼻祖Samuel早在1967年就用自对弈的方法来学习国际跳棋[7],而之前的蒙特卡洛搜索树也是一个自对弈的过程。但是现在黄士杰不仅有一个从人类对弈中学习出的P_human这样一个高起点,而且有一个神经网络可以从对弈样本中学习,有理由相信这次会有更好的结果。

黄士杰准备在MCTS框架之上融合局面评估函数v()。这次还是用P_human作为初始分开局,每局选择分数最高的方案落子,下到第L步之后,改用P_human_fast把剩下的棋局走完,同时调用v(SL),评估局面的获胜概率。然后按照如下规则更新整个树的分数:

前两项和原来一样,如果待更新的节点就是叶子节点,那局面评估分就是v(SL)。如果是待更新的节点是上级节点,局面评估分是该节点所有叶子节点v()的平均值。
如果v()表示大局观,“P_human_fast模拟对局”表示快速验算,那么上面的方法就是大局观和快速模拟验算并重。如果你不服,非要做一个0.5: 0.5之外的权重,黄士杰团队已经实验了目前的程序对阵其他权重有95%的胜率。
以上,便是阿尔法狗的庐山真面目。

上图演示了阿尔法狗和樊麾对弈时的计算过程,阿尔法狗执黑,红圈是阿尔法狗实际落子的地方。1、2、3和后面的数字表示他想象中的之后双方下一步落子的地方。白色方框是樊麾的实际落子。在复盘时,樊麾觉得位置1的走法更好。
深度学习、蒙特卡洛搜索树,自我进化三招齐出,所有其他围棋ai都毫无还手之力。99%的胜率不说,“阿尔法狗”还可以在让四子的情况下以77%的胜率击败crazystone。“阿尔法狗”利用超过170个GPU,粗略估算超过800万核并行计算,不仅有前期训练过程中模仿人类,自我对弈不断进化,还有实战时的模拟对局可以实时进化,已经把现有方法发挥到了极限,是目前人工智能领域绝对的巅峰之作。

围棋是NP-hard问题,如果用一个原子来存储围棋可能的状态,把全宇宙的原子加起来都不够储存所有的状态。于是我们把这样的问题转换为寻找一个函数P,当状态为S时,计算最优的落子方案a = P(s)。我们看到,无论是“狂拽酷炫”的深度学习,还是“大智若愚”的MCTS,都是对P(s)的越来越精确的估计,但即使引入了“左右互搏”来强化学习,黄士杰和团队仍然做了大量的细节工作。所以只有一步一个脚印,面对挑战不断拆解,用耐心与细心,还有辛勤的汗水,才能取得一点又一点的进步,而这些进步积累在一起,终于让计算机达到并超过了人类职业选手的水平。

我国有哪些职业围棋手啊

1、陈祖德,中国围棋职业九段棋手。

陈祖德是中国围棋六七十年代的领军人物,他不仅是第一个战胜日本职业九段的中国棋手,也是中国棋院第一任院长。

陈祖德在围棋上有开创性的成就。1965年中国围棋代表团访日期间,陈祖德在实战中推出了他的围棋新型布局,取得巨大反响。围棋界称陈祖德的新型布局为“中国流”。其优点为速度快,胜率高,后成为国际最流行新型布局。于是,人称陈祖德是“中国流布局”的创始人。

2、聂卫平,中国围棋职业九段棋手。

聂卫平九段有着“棋圣”称号,这也是迄今为止中国人里仅有的一个棋圣头衔,“棋圣”头衔的获得,得益于他在中日围棋擂台赛期间的杰出表现,在那个时代,聂卫平十一连胜日本超级高手,极大的鼓舞了中国人民的民族自信心和对围棋的热爱,因此,国内出现了空前的“围棋热”。

1975年到1979年之间,国内所有赛事桂冠全被聂卫平囊括,被成为“聂卫平时代”。1998年,聂卫平创办了聂卫平围棋道场,为中国围棋事业的做出了极大的贡献。聂卫平也培养一些杰出的围棋国手,他广收门徒,如世界冠军常昊,古力,孔杰,檀啸等人都出自聂卫平门下。

3、常昊,中国围棋职业九段棋手。

6岁学棋,8岁进上海队,10岁入选国家少年集训队。曾获第一、三届全国棋童杯围棋赛冠军,第五届世界青少年围棋锦标赛冠军,第12届世界业余围棋锦标赛冠军。

聂卫平大弟子,应氏杯冠军,从马晓春逐渐淡出之后,常昊一人独领风骚,1998年到2005年开创了自己的王朝,曾获世界六亚。

4、古力,中国围棋职业九段棋手。

6岁开始学围棋,12岁进重庆围棋队,1995年入段并入选国家少年围棋队,1997年底师从聂卫平。2006年在第10届LG杯世界围棋棋王战中夺得职业生涯第一个围棋世界冠军;2007年获得春兰杯世界职业围棋锦标赛冠军,首次把春兰杯留在中国;

2008年获得富士通杯世界围棋锦标赛冠军,成功终结了韩国富士通杯十连冠记录;2009年在第4届丰田杯世界围棋王座战、第13届LG杯世界围棋棋王战、第1届BC信用卡杯世界围棋公开赛中三次夺冠;

2010年12月10日在第15届三星杯世界围棋公开赛中夺得个人第七个世界大赛冠军;2015年6月3日在第10届春兰杯中再夺世界冠军,成就世界围棋“八冠王”。

5、柯洁,中国围棋职业九段棋手。

弱冠之年已然四冠,名符其实的世界第一人,古今第一人。也是棋迷们最喜欢的棋手。2015年开始,柯洁超越朴廷桓成为世界第一。

一直到现在,人机大战后对战人类高手取得22连胜,柯洁为人正直,说话直接,敢说真话,棋力高,颜值高,关键还脾气性格好,被称为继吴清源李昌镐之后最杰出的棋手。

为什么电脑下围棋的水平非常差劲?

就个人理解而言,目前电脑围棋AI方面是碾压人类的,包括职业选手,电脑围棋一点也不弱。

以著名的AlphaGo(号称阿尔法狗)为例,是一款人工智能围棋程序,由被 Google 收购的 DeepMind 公司开发。

2015年10月崭露头角, 5:0 战胜樊麾二段。

2016年3月,后来4:1 战胜拥有18个世界冠军头衔的棋王李世乭九段引起了围棋界的轰动。

2016年12月29日至2017年1月4日,AlphaGo 以ID名「Master」在网络围棋平台弈城和野狐上 60:0 战胜数十名中韩日职业围棋手。

2017年5月,AlphaGo Master 3:0 战胜当时 GoRatings 世界排名第一的柯洁九段,没记错的话柯洁都下哭了。

目前有记录的一败还是拜韩国棋王李世乭九段所赐。

后来貌似独孤求败,阿尔法狗围棋团队解散了。

还有,腾讯公司推出AI围棋软件“绝艺”,在网络上以绝对优势击败各国顶尖棋手。

人类生命有限,精力有限,学会各种路数并将其神乎其神的应用到现实中几乎不可能,而机器人通过超强的计算能力可以学习已存在的所有知识,人类几乎不可能。

所以,电脑围棋软件下的一点也不弱,人工AI加持下,已经碾压了人类棋手,甚至职业选手也开始摆电脑围棋的谱,向它们学习了。

阿尔法狗ai读后感?

读完《阿尔法狗》这篇故事后,我深刻的感受到:

对于普通人而言,“阿尔法狗”的胜利并不是全面的。文学、音乐、喜剧、烹饪等等,目前还不在人工智能的掌控之下,人工智能想要赋予其新的意义,或许还要很久。

想要像人类一样拥有更加开放的思维、更加细微的体验,人工智能还有很远的路要走。况且,当人工智能在棋类比赛中获胜时,它并没有夺去观战者的喜悦。有樊麾与李世石作为引路人,“阿尔法狗”将鼓励人类拥抱未来。

阿尔法围棋影响力?

阿尔法围棋是由谷歌公司在2016年开发出的围棋电脑程序,曾在野狐围棋平台上以“master”的帐号与众多中外职业高手对战,无一败绩。

2016年分别与欧洲围棋冠军樊麾二段和韩国世界冠军李世石九段进行了五番棋的较量,仅输给李世石一盘。2017年与中国围棋第一人柯洁九段进行三番棋的较量,三战全胜。根据它的开源代码,衍生出了绝艺、星阵等强大的围棋AI,它带领围棋进入了AI时代

让柯洁愤怒!AI围棋,这是什么鬼东西?

柯洁愤怒的不是AI围棋,而是AI给围棋带来的对弈环境的变化。一局棋,AI出现前,棋迷都是抱着敬畏欣赏的态度去看,不管胜负……如今,是神是鬼都可以对职业围棋高手的棋指指点点,人仗狗势,狂批狂议论。

我想说的是,即便AI时代,对于围棋和胜负的理解,职业围棋高手也是远超越我们的,我们还是需要对职业围棋保持尊敬。

或许,这才是柯洁愤怒的核心原因——

与时俱进,这个世界唯一不变的就是变化。过去老祖宗武艺高强,刀枪剑棍样样精通,天下无敌,自从八国联军用现代化武器打败了清朝的骑兵,中国迅速走向衰落。中华民族不笨,我国军事装备也可以赶超西方,甚至和美国一拼,原子弹氢弹导弹航母隐形飞机样样有。柯洁难道就不能向韩国棋手学习,迅速追赶他们,其他中国小将学习AL围棋的能力难道不如韩国一哥,清华都能考上,学习一点AL围棋,不相信会比韩国一哥差。抱怨无意义,努力学习才是出路。

智能化虽然没有特殊的棋风,但所有的变化已经算尽,而人类无法步步算清,所以人类很难取胜机器人。

围棋的最高境界,不是杀而是和,不战曲人之兵,上之上者也.(先装一下b[可爱])

AI围棋的出现,就像是一场 游戏 遇到了无敌boss,无论怎样都难于突破这个天花板。下围棋可以用算法替代,失去了创造性和乐趣。AI围棋击败了人类的顶尖棋手,使得围棋仅仅具有 娱乐 ,思维训练的价值,而围棋的那种只可意会不可言传的境界,棋手之间博弈的心路历程,灵神交汇却失去了,变得乏味而无趣。

网络上最常见的一种言论是,“计算机的计算能力本来就比人类强大,在围棋这种依赖计算的领域击败人类有什么可奇怪的?”对此,我想反问一句:从1997年深蓝在国际象棋领域战胜人类世界冠军以来,近20年的时间,计算机经历了这么多次升级换代,硬件软件方面都有巨大提升,为何在阿法狗出现以前始终没有出现能匹敌职业围棋棋手的围棋程序?阿法狗的胜利,仅仅是计算速度提升的结果?

我对围棋软件的印象,最初来自于一些围棋书籍上的宣传:围棋是一项复杂度极大的智力活动,目前电脑在围棋领域仅仅有入门水平——我学棋的那个时代确实如此。然后,我就看着围棋软件的水平,从我这种弱鸡都能让它几子并轻松取胜的水平,提升到我让它几子只能偷鸡摸狗侥幸赢一盘的水平,然后过了不知道多少年,我爸(业余4段)有一天心血来潮下载了一个围棋程序,惊奇地发现他分先已经下不过PC版围棋程序了。不过业余棋手毕竟是业余棋手,我们始终相信业余与职业之间存在一道不那么容易突破的天堑。

其实16年的3月份,除了阿法狗的新闻以外,还有个新闻,叫做“在2016年3月23日的电圣战中,zen被让3子战胜小林光一”。应该说这个进度才符合我们对围棋程序发展速度的正常期望——被让3子,被让2子,被让先,再到分先,再到完全超越人类。我们难道不知道电脑终有一天会在围棋领域战胜人类吗?难道职业棋手不明白这个道理么?我们都明白这一天终会到来,只是完全没预料到这一天会来得这么快。

阿法狗的出现,是围棋史上的一场革命,也是人工智能发展史上的一个里程碑,其意义绝非某些人以为的“计算机高速发展的正常结果”那么简单。阿法狗的研制者创造性地在围棋AI领域引入了卷积神经网络、机器学习的算法——这些算法本身不是什么新东西,但是在围棋AI领域应用还是第一次。从2015年末在内部测试中零封退役职业棋手樊麾,到16年3月份完虐21世纪初期围棋史上的传奇、手握13个世界冠军的李世石,到16年年末再次大幅提升,以master的身份对阵中韩日多位职业顶尖棋手豪取60连胜,阿法狗可以说是在一年时间内凭借一己之力将围棋AI的棋力硬生生提高了4个子,又在16年接下来的9个月时间内再次提高了2-3个子(职业棋手普遍认为master能让他们2子,能不能让3子尚未统一意见)。这是什么概念?如果说阿法狗出现以前的围棋程序不过相当于人类刚刚造出火箭,那么阿法狗几乎相当于载人登月了。电脑围棋曾经被当成人类的宠物,被人类的高手们各种调戏,但谁也没想到,就在16年初,这个曾经的人类玩物,突然大变身成大怪兽,对人类露出狰狞面目,完虐职业顶尖棋手以后,扬长而去,一骑绝尘,从此人类再也不能望其项背。

了解这些基本事实,才能明白谷歌公司、阿法狗的创造者们取得了多么了不起的成就,才能明白围棋界为何会对相关事件反应如此强烈。围棋AI的棋力还会继续提升,也许以后在掌机上就能下载具有职业棋手水平的围棋app也说不定——围棋AI发展和成功的关键从来都在软件而不是硬件。面对这千古未有之奇变,生活在这个伟大时代的人们会怎样看待,我们的后人又会如何评价,时间会告诉我们答案。

柯洁:AI让围棋失去当年的美感

日前,柯洁在个人社交媒体上再度提及对围棋人工智能的看法。他直言,并不希望AI出现,因为它的出现让围棋失去了当年的美感。

“对于我来讲,我并不希望AI出现。因为AI可以很大程度上拉近棋手之间差距。水平较高的棋手,前50手可能通过布局就可以拉开差距。”

“现在都有AI了,都有工具辅助了,棋手就会完全按照AI的下法去下。老一辈棋手可能会觉得,现在的棋失去了当年的美感,因为都是跟AI一样的下法。” 柯洁这样说道。

同时,柯洁也认为,AI使得围棋行业竞争越来越激烈。

“在以前的话,我觉得想赢一盘棋还是比较容易的,现在越来越难了。人类棋手都在向人工智能进行学习,大家都知道布局该怎么下。”

2017年,柯洁与人工智能“AlphaGo”进行了三番对决,最终柯洁0:3完败。如今,柯洁的空余时间几乎全部用在了研究AI上,他说道: “我现在看到AI也比较痛苦,因为我知道我没有办法走出比AI更优秀的好棋。”

虽然柯洁没有办法打败人工智能,但他也认为人工智能促进了围棋的发展。

“在AlphaGo出现之前,外界对棋手的印象还停留在白发苍苍、仙风道骨的大师。但是看到我以后,大家觉得怎么是一个毛头小孩。”

“对于我们围棋人来说,也很感谢阿尔法狗能够出来击败李世石、击败我。这样就让围棋彻底火出圈,让更多人知道中国有这么厉害的国粹。”

对小申的完败,柯洁赛后发表了“受够了AI围棋”的言论。而从柯洁的完整言论中,我想他 受够的不光是AI围棋 更加讨厌的是完全不懂的人仅凭借AI对他的失败指指点点。

…..巅峰对决,……“完全不知道怎么就输了”情况失利,可想而知他内心的痛苦,但这时还有人“ 落井下石” ,所以他才了“忍无可忍”吧。

尽管多次吐槽,但其实早先柯洁认为AI对围棋有利……。但我想, 用AI去批判去站在上帝视角责备他人,这并不是它出现的初衷 ,也不应该有这样的发展。

在天元赛挑战赛中失利,柯洁赛后又发了一条动态:“……围棋 这段时间是不会再碰了……”

最后我的结论大致是:无论谁自暴自弃,想必柯洁都不会……,相信这个闪闪发光的少年,会带着他的初心继续坚定地走下去!

————-

新浪棋牌对这类马屁文章看来是下了坚持十年不动摇的决心,不然单看内容实在让人有惨不忍睹之感。

申真谞的棋跟AI显然不是一码事,但他确系棋坛上学习AI颇有心得的棋手。

但拿申真谞的棋等同于AI棋却含有暗指小申对局开狗的含沙射影,当年的聂圣也是不忍面对韩流中盘提速的残酷事实最后找到了昏招这块上好的遮羞布,由此看来输掉大赛后找借口方面柯洁也算是有样学样。

所谓不懂棋的人仅凭借AI对柯洁的失败指指点点,聂卫平工作室的我对此愤愤不平,然而这就是 科技 进步带来的福利。柯洁大赛失利后不但不去总结经验教训,却含沙射影暗指对手开狗,这才是许多人抨击柯洁的根本原因,对此却被我不问青红皂白统统视为落井下石。我的这类无脑吹其实是在帮柯洁的倒忙,不利于他静下心来总结经验教训。

最后甚么相信这个闪闪发光的少年,会带着他的初心继续坚定地走下去的结论完全是莫名其妙。柯洁大赛接连败北其本质是他的威慑力不足了,目前的技术潮流较洪湖水浪打浪为主流时期已然有了明显的变化,柯洁虽是浪打浪派的翘楚,然而一旦得不到擅长的局面也常有徒唤奈何之感。对这些新情况,新变化中国围棋也包括柯洁若要想继续与时俱进是急需升级和拿出应对办法来的。而聂卫平工作室的我却从来不愿睁开双眼去面对事实,仅把自己装扮成鸵鸟把脑袋埋在沙堆里,以为只要如此危险终将会过去,此可笑可鄙是也。

就好比原来以为围棋大师们都是爱因斯坦,现在ai出现了才发现围棋大师们可能只是中学生的水平甚至更低。一方面让人类有些绝望,一方面也提高了人类的认知上限。天外有天人外有ai,总比我们固步自封或者盲目自大好

中日韩三国围棋擂台赛赛后,完败于韩国棋手申真谞的柯洁,在社交媒体上留下了这样的字句。

这场比赛中,一向有“ 申工智能 ”之称的申真谞展现出了恐怖的统治力,在AI绝艺的判断中,他的胜率全盘未低于 46.8%

更令人惊讶的是,执白的申真谞在这盘棋中,与AI的吻合率达到了 65.8%

但让柯洁撂下气话的,并不只是失利本身。

实际上,AI在围棋领域最先惊世亮相,而现在,这项运动本身,可能也已成为“AI改变世界”的第一批试验田。

这种对弈本身就不对称,好比你和最原始的计算器比计算,你也赢不了。
真正值得比的,是中国的AI和美国的AI下棋,看谁厉害。

电脑首次打败人类围棋冠军意味着什么?

尽管不是所有人都关心计算机打败人类围棋冠军,因为他们并没有洞察到这一进步在其他领域也很重要。研究人员按照通用方法建立了该系统,而不是仅仅适用于围棋。他们打算最终将这些技术应用到重要的现实问题中。该项目的参与人Hassabis说:“我们希望有一天它们可以尽力帮助人们解决一些社会上最艰难、最紧迫的问题,从气候建模到复杂的疾病分析。” Yoshua Bengio说该程序在电脑对话中也可能会有重要的应用,而且在将来它还可能用来解决一些抽象的社会问题,这些问题可以通过游戏的方式来表述,像国家政治问题或者国际气候协商。
但是,AlphaGo的当务之急是如何打败全球最优秀的围棋选手李世石,他们之间的比赛将于下个月在韩国首尔举行。尽管AlphaGo在与樊麾的对决中表现出众,但Schaeffer和Fotland仍旧认为李世石将会赢得比赛。“我觉得人类职业选手会胜出,” Fotland说,“但是,面对如此强大的围棋程序,我相信人类高手会大吃一惊。”到现在为止,依旧有一部分人坚信人类选手会赢得这场比赛。3月9日鹿死谁手,让我们拭目以待吧!

最早阿尔法狗什么时候出现的

最早阿尔法狗是2015年出现的,阿尔法狗最先出现在公众视野,是2015年10月5比0完胜欧洲冠军樊麾二段。樊麾是法国围棋队总教练,他曾多次获得法国冠军,及蝉联2013年至2015年的三届欧洲围棋冠军。两年前,樊麾有幸受邀成为第一位与阿尔法狗分先对弈的人类职业棋手。

围棋计算机能战胜人吗?

围棋曾被视为

“可以抵挡电脑进攻的最后阵地”

围棋与芯片成为新一期英国《自然》杂志的封面,因为一个名为alphago的电脑程序战胜了围棋欧洲冠军,这是第一次有电脑程序能在不让子的情况下,在完整的围棋竞赛中击败专业选手。

据英国《自然》杂志网站1月27日发布的最新一期学术论文,2015年10月,谷歌公司下属的“深度思维”公司开发的alphago电脑程序在英国伦敦以5比0的战绩打败了三届欧洲围棋冠军、前中国职业棋手樊麾。由于论文评审的保密流程,对局详情刚刚被刊登出来。

其实,早在1997年ibm公司研发的超级电脑“深蓝”就战胜了国际象棋世界冠军卡斯帕罗夫。这场胜利,拉开了在棋类竞技比赛中电脑向人脑叫板的序幕。2006年,中国象棋也宣告沦陷。在“浪潮杯”人机大战中,电脑“浪潮天梭”战胜中国象棋特级大师柳大华等人。

不过,果壳网署名“开明”的文章中还是用“人类最后的智力骄傲即将崩塌”来渲染这一次alphago的战绩,这是因为,很多人都把围棋视为“可以抵挡电脑进攻的最后阵地”。此前一些观点称,至少还要10年甚至100年人工智能才能战胜围棋职业棋手。

计算围棋,确实比国际象棋和中国象棋都要困难得多。“围棋具有巨大的状态空间复杂度和博弈树复杂度,又在本质上无法做准确的静态盘面评估”,这使得即使采样样本足够大,也有力所不逮之处。北京邮电大学教授、计算机围棋研究所所长刘知青用以下一组数据来说明:从状态空间复杂度(用于搜索)来看,围棋是10172,中国象棋和国际象棋分别只有1048、1046;从博弈树复杂度(用于决策)来看,围棋是10300,中国象棋和国际象棋则分别只有10150、10123。

另一重复杂,是围棋落子选点无法验证。一手棋有多大价值,数学证明,或搜索验证,都难以胜任。“分析围棋棋子位置,数目的多少,以及棋子之间的静态关系(例如影响函数),无法完整、准确地评判围棋棋子的作用和最终死活;围棋棋子的作用和最终死活必须由博弈的具体进程决定”。

简单而言,围棋的下法可能多达10的700次方,比全宇宙的原子数还多,而国际象棋的下法大约只有10的60次方。所以说,围棋这种源自中国的古老游戏更加“烧脑”。就在去年11月,在北京举行的“美林谷杯”计算机围棋锦标赛上获得冠军的程序“石子旋风”,在人机大战中仍然不敌人类职业棋手。所以,尽管alphago此次完胜的对手并非职业顶尖棋手,中国围棋队总教练余斌九段仍感觉“吃惊”。以往认为,计算机围棋“100年都不会有突破”的他,从中看到“关键的突破点已被找到”。

人类也下不过电脑了

让电脑学会下

到底有多难?

以往的下棋电脑程序都是运用传统的智能运算方法,即对所有可能的落子位置建立搜索树,但这种方法在对付围棋时就失灵了。“无论如何,枚举所有情况的方法都是不可行的”,所以研究者们祭出了终极杀器——“深度学习”(deeplearning)。这是目前人工智能领域中最热门的科目,它能完成笔迹识别、面部识别、驾驶自动汽车、自然语言处理、识别声音、分析生物信息数据等非常复杂的任务。

据专家介绍,alphago应用的是目前人工智能领域最热门的卷积神经网络技术,能模拟人脑神经元,具有深度学习、主动识别、自适应等功能,在图像处理方面异常强大。其核心成功应用了两种深度神经网络:“策略网络”(policywork)和“价值网络”(valuework)。

“策略网络”负责减少搜索的宽度——面对眼前的一盘棋,有些棋步是明显不该走的,比如不该随便送子给别人吃。这样就可以将盘面落子选点从几百、几十个大大缩减为三五个,逐渐接近职业棋手;

“价值网络”则负责减少搜索的深度——ai会一边推算一边判断局面,局面明显劣势的时候,就直接抛弃某些路线,不用一条道算到黑后者。这也是最难的,在盘面形势判断上,通过职业棋手棋谱的验证、筛选,给出下一步的预判,这比以往基于海量数据的“蒙特卡洛树搜索”(未加任何验证)对职业棋手盘面符合率达到40%—50%要好很多。

这两种网络合作“挑选”出那些比较有前途的棋步,抛弃明显的差棋,从而将计算量控制在计算机可以完成的范围里,本质上和人类棋手所做的一样。这样alphago在分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。

谷歌公司说:“我们用人类职业棋手的3000万步下法来训练‘神经网络系统’,直到它能以57%的准确率预测职业棋手的下一步走法。”

值得一提的是,人类在下棋时有一个劣势,在长时间比赛后,他们会犯错,但机器不会。而且人类或许一年能玩1000局,但机器一天就能玩100万局。所以alphago只要经过了足够的训练,就能击败所有的人类选手。

人工智能会迈出

真正挑战人类的“关键一步”吗?

alphago这个名称由两部分组成,alpha对应希腊语的第一个字母,有“首要、关键”的意思;go来自日语对围棋的称呼,在英语中也有“行走、前进”的意思。因此,alphago也许可以意译为“关键一步”。

接下来alphago将在今年3月挑战韩国棋手李世石。李世石曾多次赢得围棋世界冠军,所以这场大赛,被视为是电脑与人脑竞技大战中的“关键一步”。“这是第一次有电脑在公平规则下挑战人类顶级职业围棋手,我很荣幸成为这名棋手,”李世石说,“无论结果如何,都将是围棋历史上意义重大的事件。”

如果电脑赢了,一个科幻般的念头可能会浮上许多人的心头。既然在棋类游戏中人类已经没法阻止电脑,那么未来是否真会像《终结者》、《黑客帝国》等电影里那样,出现电脑满世界追着人类打的场景?如果李世石赢了,人们心中也不会太轻松。毕竟许多人认为还要过很多年才会发生的事情,已经逼近到眼前。电脑更新换代的速度有目共睹,谁知道人类还能阻挡它们多久?

在人工智能领域,还有另一个著名的关卡是“图灵测试”。这种由著名计算机科学家图灵提出的测试,是让电脑模仿人类与人类裁判“对话”,如果成功诱使人类裁判认为与之对话的是人,则通过测试。2014年,在英国皇家学会于伦敦举行的“图灵测试”竞赛上,一台名为“尤金·古兹曼”的电脑通过了测试。

电脑在与人脑的大战中不断过关斩将,但它们目前还面临一个限制,那就是还不会将其智能“通用化”。“深度思维”首席执行官德米什·哈萨比斯说,alphago目前只会下围棋,如何将这种智能用于其他领域还是一个挑战。如果电脑能够突破这个限制,无疑会将人工智能带入一个新的境界。

在推动人工智能发展的过程中,人类如何在伦理上“控制”电脑也是一个挑战。如一些科幻电影描述的那样,许多人担心人工智能的发展可能会带来灾难,著名科学家霍金就曾表示人工智能可能会导致人类灭绝。因此,科学家也需要注意让人工智能不会迈出真正挑战人类的“关键一步”

2016年三月李世石得的奖状?

成为唯一一位在对局中赢过人工智能AlphaGo的棋手。

2016年3月13日,围棋人机大战展开第四局较量。在接连三局负于“阿尔法围棋”后,脱去胜负包袱的李世石为荣誉而战,终于迎来了“围棋人机大战”的首次胜利。

李世石是李昌镐之后,韩国最具代表性的棋手,他在2003年获第16届富士通杯冠军后升为九段棋手。自2002年加冕富士通杯以来,十年时间里他共获18个世界冠军。

谷歌曾于2014年以4亿欧元收购人工智能公司DeepMind。由DeepMind研发的AlphaGo项目已有两年历史,AlphaGo曾在去年战胜了欧洲围棋冠军樊麾(职业二段)。

2015年10月5日-10月9日,谷歌AlphaGo在比赛中以5:0的比分完胜了欧洲冠军。除了战胜人类外,AlphaGo还与其他的围棋程序对战,获得了500场胜利。

李世石与阿尔法围棋的围棋人机大战为五番棋挑战,但无论比分如何将下满五局,比赛采用中国围棋规则,执黑一方贴3又3/4子(即7.5目),各方用时为2小时,3次60秒的读秒机会。五局比赛分别于2016年3月9日、3月10日、3月12日、3月13日和3月15日在韩国首尔钟路区四季酒店进行,获得三胜者获得100万美元奖金(约11亿韩元)。若阿尔法围棋获胜,奖金将捐赠给联合国儿童基金会、STEM教育以及围棋慈善机构。除了100万美元基础奖金外,李世石还可获得15万美元出场费。此外每胜一局还有2万美元胜局奖金,如果五盘全胜,胜局奖金为10万美元。

2016年3月13日,韩国首尔,李世石与人工智能AlphaGo对弈。此前他以及他代表的人类已经连输三局,第四局已经无关比赛胜负。

比赛开始后,李世石局势不容乐观,第四败似乎就在眼前。经过漫长的思考后,李世石使出了白78凌空一挖的妙手,最终战胜AlphaGo。

3月15日,第五局,李世石仍然告负。最终结果是人工智能阿尔法围棋以总比分4比1战胜人类代表李世石。

AlphaGo 为什么它能战胜人类

  在13日结束的AlphaGo与李世石五番棋对决中的第四局,李世石胜出。连败三局之后,人类终于扳回一局。但这场胜利来得有些迟,AlphaGo此前已经痛快得赢得这场人机大赛的胜利。这场生生夺走一周眼球的人机围棋大战,人们最想追问的是,AlphaGo为什么能战胜人类?
  赛前,无论是职业棋手还是科技界,并不看好机器胜利
  机器赢了人类,这个结果让无数人感到吃惊与意外。在这场比赛开始前,很多职业棋手认为 AlphaGo 不可能赢得比赛。棋圣聂卫平在赛前下定论认为:电脑和人下围棋,百分之百是人赢。
  而科技界对 AlphaGo 是否能赢得比赛表示谨慎看好,并没有十足信心。这从 AlphaGo 创始人德米什 · 哈萨比斯(Demis Hassabis)在第二场比赛结束后的发言可以看出,他当时认为 AlphaGo 的胜利难以置信。
  在与李世石对弈前,AlphaGo 于去年 10 月与欧洲围棋冠军樊麾进行了对弈,以 5:0 战胜了樊麾,而在非正式对局当中, 樊麾则 2 次中盘战胜了 AlphaGo。
  这也被外界认为 AlphaGo 很难战胜李世石的原因。樊麾的等级为职业棋手二段,李世石为职业九段。围棋界公认,这两人的围棋水平为:樊麾是踏在了职业门槛,而李世石则是职业顶尖,前围棋世界第一人,代表了人类围棋最高水平。
  但仅仅过了 5 个月,AlphaGo 在五番棋中以 3:0 战胜了李世石,并且在比赛过程中下出了很多令专业人士都非常惊讶的妙手。
  很多关注人机大战的人都想要知道一个问题:
  Google是怎么设计AlphaGo的?
  比如,AlphaGo 的运行机理是什么?进入自我学习的阶段之后,谷歌团队是否还需要人工对其进行不断的人工优化、改良以及提升?还是完全凭借其自身的学习能力来提升?
  最近两天 ,DoNews 记者在 Twitter 上就该问题向德米什 · 哈萨比斯进行了两次提问,但德米什 · 哈萨比斯没有进行回应。
  在对外公布的所有信息中,包括其在《Nature》上发表过的两篇论文中,都只提到了他们的 AlphaGo 能够做什么,都没有透露 AlphaGo 的运行机制是什么,即 AlphaGo 到底是怎么做到的。
  德米什 · 哈萨比斯仅透露,就 AlphaGo 的对弈水平而言,他们的神经网络训练算法远比它使用的那些硬件重要得多。此外,这次人机对战所消耗的计算量差不多与 AlphaGo 和樊辉对弈中消耗的相当,使用的是分布式方案搜寻,能有效节省决策用时。
  人工智能战胜人类,为何引起这么多关注?
  围棋这项发源于中国的有两千年历史的智力游戏,曾被认为是最后一个人工智能不能超越人类的游戏。围棋游戏的规则是:棋盘由纵横各十九条等距离、垂直交叉的平行线构成。形成 361 个交叉点,在围棋中简称为 “点”。对局双方各执一色棋子,轮流下子,最后谁占的点多,谁就赢。
  虽然围棋规则简单,但建立在此规则之上的各种策略、棋理、布局、定式、手筋、手段,却是无穷无尽的。
  聂卫平曾解释了其中的原因,围棋棋盘上有 361 个点,其理论变化值是 361 阶乘,阶乘到底本身就是一个无限大的数,无法表达。
  比如,棋手在下第一手时有 361 个点可以选,下第二手有 360 个点,第三手是 359,361×360×359×……2×1,即 361 阶乘。(有数据统计,结果约是 1.43 乘以 10 的 768 次方。)
  这个数字有多大呢?Google 灵感来源于一个单词 Googol,以表示知识之海无穷无尽。Googol 代表 “10 的 100 次方”,这个数字是人类目前最有想象力的数字。即使人类已知宇宙中原子数量,也不过是 10 的 80 次方。
  同时,在围棋对弈中,还包含着很多变化:打二还一,打三还一,打劫,倒扑等,每一种变化都会衍生出无数的变化。
  在下棋过程中,棋手需要有一种判断。而此前,电脑被认为无法承担这种判断,因为这不是计算就能够完成的。
  AlphaGo 是怎么做到的?
  AlphaGo 结合了 3 大块技术:蒙特卡洛树搜索 (MCTS) 是大框架,这也是很多博弈 AI 都会用的算法;强化学习 (RL) 是学习方法,用来提升 AI 的实力;深度神经网络 (DNN) 是工具,用来拟合局面评估函数和策略函数。
  我们在这里用比较通俗的语言来解释一下:棋盘上有 361 个点,AlphaGo 会进行一层层分析:下在哪个点或区域是有利的?这时它会参考输入的过往的棋谱,对局和模拟,进行选择、推演,并对推演结果进行估值。AlphaGo 能够理解会根据“赢”这个目标来进行估值,选择出一个对“赢”足够优的解。
  围棋?AI 能超越人类的还有很多…….
  AlphaGo 的胜利,引发了大讨论。因为人类开始面临着一个前所未有的情况:人类造出了,在智能的某个点上,超越自己的东西。 通过黑白纹枰上的胜利,AI 已经在人类的智力围墙打开了第一个缺口,但这绝非最后一个。
  在过往漫长的岁月里,机器都只是人类劳动的一种替代与工具,无论飞机、汽车、起重机还是电子计算机、互联网,尽管看上去有着无限的能力,但却从未侵入由人类大脑所把持的领域——“创造”。
  而随着 AlphaGo 的胜利,这一天或许将成为历史。实际上,过去几天,这台人工智能在围棋盘上发挥的创造能力,已经超越了人类两千年于此道上积累的智慧结晶。
  如果我们检索人类的“资源库”,会发现,复杂程度超越围棋的智力行为并不多见。这也意味着很多传统人类脑力劳动的形态,发生改变。很多从事创作、设计、推演、归纳的工作,都将被 AI 部分替代。
  如果将思路拓展出去,可以应用在音乐的创作,等其他类似于元素组合式的创造,从某中意义上说,它能够击败围棋的顶尖高手,也就有可能让人难辨真假的音乐和旋律。甚至做出更多我们想不到的事情。
  按照德米什 · 哈萨比斯的设想,人工智能未来的主要用途将是医疗、智能助理和机器人。
  而人们通过这次比赛担忧的是,如果人工智能拥有创造性的思维,加上远超出人类的运算能力,是否有一天会统治人类。
  就像网友评论里说的段子一样,“第四局AlphaGo输了,是不是AlphaGo故意输的?细思极恐”。

樊麾为什么才2段

职业门槛。樊麾的等级为职业棋手二段,李世石为职业九段。围棋界公认,这两人的围棋水平为:樊麾是踏在了职业门槛,而李世石则是职业顶尖,前围棋世界第一人,代表了人类围棋最高水平。樊麾二段,虽然以欧洲冠军闻名于世,但其实圈内都知道是一名中国旅欧教学的职业棋手。

小结:
樊麾的解释与樊麾是什么意思?的知识点就此结束了,希望您所关心的问题已经解决,也请您不要忘记转发收藏体育知识网哦。

Copyright © 2016-2025 www.1689878.com 体育知识网 版权所有 Power by

足球|篮球|NBA|奥运|网球|高尔夫|田径|游泳|排球|赛车|比赛|亚运会