Menu
Woocommerce Menu

谷歌正式宣布AlphaGO五月对战中国顶尖围棋高手!柯洁:抱有必胜的心态和必死的信念

0 Comment


北京时间10月19日凌晨,谷歌旗下的人工智能公司DeepMind在世界顶级科学杂志Nature杂志上宣布了AlphaGo的新进步,可以在没有人类干预的情况下自我学习,新的AlphaGoZero在自我学习3天之后,就以100比0的成绩战胜了第一代AlphaGo。自我学习能力的出现,对于人工智能和机器学习来说,是一个新的突破。“过去人们普遍认为机器学习是基于海量的大数据,但是从AlphaGoZero身上,我们发现算法比数据更重要。”AlphaGo项目的主要负责人戴维·席尔瓦(David
Silver)说道。也由于使用了更多的算法和更少的数据,所以AlphaGoZero只使用了一台计算机器和4个TPU,被它打败的一代AlphaGo则用到多台机器和48个TPU。当人们惊讶于AlphaGoZero在围棋领域的神级水平时,对于DeepMind团队来说,这才只是刚刚开始,他们的目的是通过培养自主学习的能力,来解决更多其他领域目前无法解决的棘手问题。从AlphaGo、AlphaGoMaster到AlphaGo
ZeroAlphaGo于2015年10月面世,在广为人知的与棋手李世石对弈之前,它已经打败了欧洲围棋冠军樊麾。樊麾接受《财经》记者采访时表示,当时在他看来,一个计算程序要打败职业棋手是不可能的事情。结果他以0-5输给了AlphaGo,但他也因此加入了DeepMind团队,帮助训练AlphaGo。2016年3月,在他帮助训练下的AlphaGo以4-1的成绩打败了人类顶尖棋手李世石。2017年初,AlphaGo化名为“Master”,在网络上挑战60名人类棋手,保持全胜的成绩。2017年5月,在乌镇的,名为Master的第二代AlphaGo以3-0战胜了目前人类最强棋手柯洁。AlphaGo对战柯洁
图片来自网络今年5月的比赛期间,DeepMind的多位高管就已经向《财经》记者透露,Master已经实现了自我学习能力,甚至有了自己的“直觉”,“我们发现AlphaGo已经不需要依赖人类训练师了。”戴维·席尔瓦告诉《财经》记者。与柯洁的对弈中,AlphaGo已经能下出很多人类棋手完全无法想象的路数,比赛后柯洁表示,第一代的AlphaGo还能找到破绽,Master已经实现了“从人到神”的飞跃。而AlphaGoZero在“独立”上更进一步,在训练的过程中,它是自我对弈。从训练图上可以看出,由于一开始并不熟悉围棋,对弈双方的水平都很弱,但是随着时间的推进,在短短3天互相博弈490万局后,越来越强,实现了围棋水平的突破。(图:AlphaGo训练的72小时图谱)

原创 君 DeepTech深科技

作者:王心馨 虞涵棋 来源:澎湃新闻 发布时间:2017/10/19 11:15:50
选择字号:小 中 大 阿尔法狗再进化:自学3天,就100:0碾压李世石版旧狗
伦敦当地时间10月18日18:00,AlphaGo再次登上世界顶级科学杂志《自然》。
一年多前,AlphaGo便是2016年1月28日当期的封面文章,Deepmind公司发表重磅论文,介绍了这个击败欧洲围棋冠军樊麾的人工智能程序。
今年5月,以3:0的比分赢下中国棋手柯洁后,AlphaGo宣布退役,但DeepMind公司并没有停下研究的脚步。伦敦当地时间10月18日,DeepMind团队公布了最强版AlphaGo
,代号AlphaGo
Zero。它的独门秘籍,是自学成才。而且,是从一张白纸开始,零基础学习,在短短3天内,成为顶级高手。
团队称,AlphaGo
Zero的水平已经超过之前所有版本的AlphaGo。在对阵曾赢下韩国棋手李世石那版AlphaGo时,AlphaGo
Zero取得了100:0的压倒性战绩。DeepMind团队将关于AlphaGo
Zero的相关研究以论文的形式,刊发在了10月18日的《自然》杂志上。
AlphaGo在两年内达到的成绩令人震惊。现在,AlphaGo
Zero是我们最强版本,它提升了很多。Zero提高了计算效率,并且没有使用到任何人类围棋数据,AlphaGo之父、DeepMind联合创始人兼CEO
戴密斯哈萨比斯说,最终,我们想要利用它的算法突破,去帮助解决各种紧迫的现实世界问题,如蛋白质折叠或设计新材料。如果我们通过AlphaGo,可以在这些问题上取得进展,那么它就有潜力推动人们理解生命,并以积极的方式影响我们的生活。
不再受人类知识限制,只用4个TPU
AlphaGo此前的版本,结合了数百万人类围棋专家的棋谱,以及强化学习的监督学习进行了自我训练。
在战胜人类围棋职业高手之前,它经过了好几个月的训练,依靠的是多台机器和48个TPU。
AlphaGo
Zero的能力则在这个基础上有了质的提升。最大的区别是,它不再需要人类数据。也就是说,它一开始就没有接触过人类棋谱。研发团队只是让它自由随意地在棋盘上下棋,然后进行自我博弈。值得一提的是,AlphaGo
Zero还非常低碳,只用到了一台机器和4个TPU,极大地节省了资源。

据 DT
君从现场发来消息,就在刚刚,谷歌携手中国围棋协会和浙江省体育局在位于北京的中国棋院就“中国乌镇 · 围棋峰会”召开了新闻发布会。据发布会宣布,此次围棋峰会将于
5 月 22 到 27
日在中国桐乡乌镇举行,5月22日是活动报道日。而其中最为人关注的是,在开赛的前三天中 AlphaGo
与柯洁之间的三番棋对弈。

AlphaGo Zero强化学习下的自我对弈。

图片 1

经过几天的训练,AlphaGo
Zero完成了近5百万盘的自我博弈后,已经可以超越人类,并击败了此前所有版本的AlphaGo。DeepMind团队在官方博客上称,Zero用更新后的神经网络和搜索算法重组,随着训练地加深,系统的表现一点一点地在进步。自我博弈的成绩也越来越好,同时,神经网络也变得更准确。

柯洁致辞:抱有必胜的心态和必死的信念

AlphaGo Zero习得知识的过程

据发布会现场提供的材料,在比赛的后两天,峰会还将举办配对赛和团队赛两场形式各异的交流比赛。在配对赛中,两位棋手将分别与
AlphaGo
组队,挑战棋手如何理解AlphaGo独特风格并与之合作;在团体赛中,将由五位中国顶尖棋手合作,建立棋手“神经网络”,降低心里因素的影响,从而做出更加客观的判断。

这些技术细节强于此前版本的原因是,我们不再受到人类知识的限制,它可以向围棋领域里最高的选手AlphaGo自身学习。AlphaGo团队负责人大卫席尔瓦说。
据大卫席尔瓦介绍,AlphaGo
Zero使用新的强化学习方法,让自己变成了老师。系统一开始甚至并不知道什么是围棋,只是从单一神经网络开始,通过神经网络强大的搜索算法,进行了自我对弈。
随着自我博弈的增加,神经网络逐渐调整,提升预测下一步的能力,最终赢得比赛。更为厉害的是,随着训练的深入,DeepMind团队发现,AlphaGo
Zero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。
自学3天,就打败了旧版AlphaGo 除了上述的区别之外,AlphaGo
Zero还在3个方面与此前版本有明显差别。

图片 2

AlphaGo-Zero的训练时间轴

谷歌大中华区总裁石博盟致辞

首先,AlphaGo
Zero仅用棋盘上的黑白子作为输入,而前代则包括了小部分人工设计的特征输入。
其次,AlphaGo
Zero仅用了单一的神经网络。在此前的版本中,AlphaGo用到了策略网络来选择下一步棋的走法,以及使用价值网络来预测每一步棋后的赢家。而在新的版本中,这两个神经网络合二为一,从而让它能得到更高效的训练和评估。
第三,AlphaGo
Zero并不使用快速、随机的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,来预测哪个玩家会从当前的局面中赢得比赛。相反,新版本依靠地是其高质量的神经网络来评估下棋的局势。

据悉,此次参战的 AlphaGo 2.0
可能采用了全新的算法模型,即未先学习人类棋谱再下棋的经验,而是直接通过对战来获得认知和能力。这与此前被“喂”了无数份人类棋谱的
AlphaGo 1.0 完全不同。

AlphaGo几个版本的排名情况。

图片 3

据哈萨比斯和席尔瓦介绍,以上这些不同帮助新版AlphaGo在系统上有了提升,而算法的改变让系统变得更强更有效。
经过短短3天的自我训练,AlphaGo
Zero就强势打败了此前战胜李世石的旧版AlphaGo,战绩是100:0的。经过40天的自我训练,AlphaGo
Zero又打败了AlphaGo
Master版本。Master曾击败过世界顶尖的围棋选手,甚至包括世界排名第一的柯洁。
对于希望利用人工智能推动人类社会进步为使命的DeepMind来说,围棋并不是AlphaGo的终极奥义,他们的目标始终是要利用AlphaGo打造通用的、探索宇宙的终极工具。AlphaGo
Zero的提升,让DeepMind看到了利用人工智能技术改变人类命运的突破。他们目前正积极与英国医疗机构和电力能源部门合作,提高看病效率和能源效率。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的来源,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

DeepMind 创始人戴密斯·哈萨比斯视频致辞

根据发布会提供的材料,AlphaGo的做法是使用了蒙特卡洛树搜索与评估网络(Value
Network)和走棋网络(Policy
Network)两个深度神经网络相结合的方法,其中一个是以估值网络来评估大量的选点,而以走棋网络来选择落子。在这种设计下,电脑可以结合树状图的长远推断,又可像人类的大脑一样自发学习进行直觉训练,以提高下棋实力。

图片 4

DeepMind创始人哈萨比斯刚刚发推文表示对乌镇对决充满期待

但现在的 AlphaGo 2.0
到底进化成什么样,恐怕只有比赛开始后才能一探究竟了。

2016 年 3 月,AlphaGo 1.0 在围棋人机大战中“一战成名”,以 4:1
的成绩打败韩国名将李世石九段——这场胜利甚至可以说是开启了人工智能走向大众的新认知时代。

图片 5

事后,李世石这样描述他与 AlphaGo 1.0
对战的感觉:“面对毫无感情的对手是非常难受的,这让我有种再也不想跟它比赛的感觉”

值得一提的是,李世石当时还不知道谷歌为这一胜利准备了一个秘密武器——一种专属的机器学习处理器“张量处理单元”(Tensor
Processing Unit, TPU)。在当时的比赛中,TPU 帮助 AlphaGo 1.0 更快地
“思考”、更好地预判局势。

在 2016 年 5
月份,谷歌首次证实了“TPU”的存在,但并没有披露相关的技术细节,外界只知道在谷歌街景、AlphaGo
等应用中用到了TPU。谷歌自己就称,在 AlphaGo
战胜李世石的比赛中,AlphaGo
能够做出更快更准的判断,大部分功劳要归于TPU。

根据谷歌就在近日发布的论文显示,在功耗效率测试中,TPU目前的性能要优于常规的处理器30
到 80 倍
;而同传统的GPU
/ CPU的计算组合相比 ,TPU的处理速度也要快上15 到 30
。最为关键的是,由于TPU的运用,就连深度神经网络所需要的代码数量也大幅的减少,仅仅需要
100 到 1500 行代码就可以顺畅运行。

谷歌关于此次活动的宣传视频

DeepMind 创始人戴密斯·哈萨比斯今年 1 月 17 日出席
DLD(数字、生活、设计)创新大会上说:“AlphaGo
为谷歌公司节省了大量的电力消耗。谷歌数据中心每天的用电量惊人,我们就通过
AlphaGo
的算法合理配置冷却装置。结果用于冷却装置的能源消耗减少40%,从而使整个数据中心的总电力消耗减少了15%。”

可以想象,即便没有被“喂棋谱”,如此强大配置之下的 AlphaGo 2.0
有可能将是柯洁难以超越的对手。

图片 6

实际上,就在 2017 年年初,AlphaGo 化名为 Master 横扫棋坛,以 60 比 0
大胜中日韩围棋高手,其中包括聂卫平、柯洁(是的,柯洁已经输过一次了)、朴廷桓、井山裕太等。对于
Master
的路数,有棋手表示“看不懂”,几乎每一盘棋Master都有让职业高手找不到北的走法。

这在当时引起了不少人的困惑。AlphaGo1.0
的风格趋于保守,偏向于选择那些最终赢棋概率较大,但所赢目数较少的棋步,
Master 的“棋风”大变,原因何在?

图片 7

谷歌 DeepMind
公司创始人戴密斯·哈萨比斯(如上图)曾在一次采访中透露,他们正在尝试训练一个没有学习过人类棋谱的人工智能。或许
Master 正是 AlphaGo1.0 和 2.0 之间的过渡产品,也或许 Master 正是
AlphaGo2.0 本身。

图片 8

2016 年 11 月的时候,AlphaGo
团队的发言人樊麾通过微博宣布:“我们很高兴向大家宣布,AlphaGo
的棋力在已过半年有巨大的进步,将在2017年初复出下棋,我们团队会在近期内公布更多讯息”
——这个“巨大进步”耐人寻味。

据 DeepMind 介绍, AlphaGo 1.0
是“深度学习”人类棋谱得出围棋手数的估值,但 1.0 版本的 AlphaGo
所走招法其实并没有超出人类理解范围,而且也是人类棋手用过的方法。

但是,如果 AlphaGo 1.0
完善了,就意味着得出了接近完美的围棋手数估值函数,而 AlphaGo 2.0
则是利用这个估值函数进行自我对局和“深度学习”,不再受人类棋谱的局限,下出真正属于“人工智能”的围棋。

图片 9

那么这次与柯洁之间的新战役,是否意味着 AlphaGo1.0
就这么退出历史舞台了呢?

2016 年,AlphaGo1.0
战胜李世石之后,谷歌在《Nature》上公布了其详细的研究结果。2017 年 4 月 2
日,马化腾在中国 IT
领袖峰会上公开表示他对谷歌此举的感激之情,因为腾讯的围棋AI“绝艺”不久前在日本
UEC 比赛中获得冠军。

“如果没有 Google 的 paper(论文),我们也做不出来”,马化腾表示。

据报道,除了绝艺之外,日本的 DeepZenGo、比利时的“丽拉”等围棋 AI
新秀,都受到了 2016 年谷歌在《自然》杂志上发表的关于 AlphaGo
论文启发。可以说,当年公布的 AlphaGo 1.0
研究结果还在“哺育”着整个围棋人工智能领域。

去年年底,Google 宣布将 DeepMind 源代码进行开源,上传到 Github
上。Google 希望,以此增加 AI 能力的开放性,让更多开发者参与 AI
研究,观察其他开发者是否能够挑战并打破 DeepMind 现在的纪录。

而就在近日,DeepMind 宣布已经开源了最新的深度学习框架 Sonnet,将被用于与
TensorFlow
进行协同工作,开发者从此能够更方便、直接地构建复杂神经网络模型。

图片 10

不久前,DeepMind 创始人戴密斯·哈萨比斯曾表示:“2017年将是 AlphaGo
与棋界兴奋的一年”。
这一次,他们又会带来什么样的惊喜?

凑巧的是,马云在 4 月 2 日的中国IT领袖峰会上对AlphaGo
“隔空喊话”:“AlphaGo 赢了李世石,so
what?
下围棋本来的乐趣就是对方下一把臭棋,结果机器不会下臭棋,那还有什么事情呢?”

或许,我们也可以期待 AlphaGo 在这次 PK
中能下一把令人称绝的臭棋。但如果你希望能去围观,可以着手准备去乌镇了,据说当地客房已经很紧张了。

免费参加InnoTalk沙龙-InnoTalk-从人工智能在金融领域的应用创新看未来发展机会:

点击报名:http://event.3188.la/584629940

发表评论

电子邮件地址不会被公开。 必填项已用*标注

相关文章

网站地图xml地图