百科问答小站 logo
百科问答小站 font logo



如何评价第二局比赛 AlphaGo 又一次战胜李世石? 第1页

  

user avatar   gao-fei-long-50 网友的相关建议: 
      

最近两天几乎每一个小时都有新的认识,学到了很多东西。

今天我的认识可能与昨天不同,而明天又将比今天更进步。

所以本答,仅代表我在第二局比赛结束并休息一日后的认识。

同时,本答将致力于让更多的人,甚至是让完全不懂棋的人看懂概要。

-

先说最重要的事:

第二局比赛中,李世石的表现和AlphaGo的表现都比第一局更强,而绝大多数人(包括大部分围棋界的人士甚至包括一部分人工智能界的人士),对AlphaGo的实力判断提高了一大截。

AlphaGo展现出了至少不亚于人类最顶尖棋手的前半盘实力,后半盘的收束水平甚至可以说已经明显高于所有人类棋手。

部分人类棋手认为李世石前半盘有机会而后半盘全线落后,而更多的人类棋手却认为李世石完败。

而听说AlphaGo好像并不认为自己始终占优。

-

第一场比赛结束后,很多人的情绪都很低落,“哀鸿遍野”的情绪持续了大概几个小时。毕竟大家虽然都知道这一天早晚会来,但没想到这么快,这么突然。

但没过多久,大量的职业高手们就缓过神来,开始了严肃的复盘和反思。

当天晚上十二点,李喆六段在自己的公众号中发布了一篇意义重大的文章:

【火线速递】——李世石的策略与AlphaGo的弱点

这篇文章非常理性客观的分析了李世石和AlphaGo在第一局中的发挥、李世石采取的策略、AlphaGo为什么会下出有争议下法的可能原因、以及AlphaGo可能存在的问题。

这篇文章是迄今为止我看到的,对第一局比赛最好的分析,给了包括我在内的大家很大的启发。

甚至可以说,这篇文章很可能是所有人类距离AlphaGo第一局为什么获胜的,最接近真相的分析。

在这篇文章面前,我在

如何评价第一局比赛 AlphaGo 战胜李世石? - 高飞龙的回答

的有关棋局的分析,显得认识过于肤浅。

-

首先,需要再次强调的是,AlphaGo选择落子位置的决策,是以之后下法的获胜概率为导向的。

AlphaGo倾向于选择获胜概率最高的下法,并且时时刻刻都对当前局势有一个自身获胜概率的判断,也就相当于人类的全局形势判断。

一个有趣的现象是,根据尚未彻底确定的消息,在第一局中,AlphaGo对于自身获胜概率的判断始终高于50%;而在第二局中,AlphaGo前半盘对获胜概率的判断一直为接近50%,甚至在中盘一度低于50%,而很快又提升到50%以上,并越来越高。

而与此对应的是,在即时性的直播中,大量人类的高手们对形势的判断大致是:

第一局开局AlphaGo占优,中盘李世石占优,后半盘AlphaGo翻盘。

第二局,部分人认为AlphaGo始终占优,而李世石完败;另一部分人认为李世石前半盘占优,中盘太缓而被翻盘。

为什么会出现这么有趣的差别呢?

首先,我们要拐回头从第一局开始看。

首先当黑79在左下挂角时,白80脱先补上方的“缓手”,这步棋一定是缓手吗?

根据李喆的意见,如果白棋按照普通的下法回应左下黑棋的拐角,黑棋接下来可能:

黑棋在左上动出的手段相当的严厉,后续变化非常复杂。

当然,白棋未必害怕这样的手段,从一部分人类高手的经验来说,很可能会选择这样的战斗。

而AlphaGo这两天的棋,有着这样的风格:在局面不差或占优时走最简明的棋,不喜欢保留变化。

所以我们可以大致依此推测,它依据自身的决策模型,很可能会认为上图的下法因变化分支过多而难以掌控,故而获胜概率较低。

那它为什么会判断实战的下法获胜概率更高呢?我们继续往下看:

实战白A一步的“自创新招”,最终下成了局部这样的变化,大家可以看到黑棋在棋盘的左下中部形成了一块大空,而这空凭空出现,可以说是白棋白送给黑棋的,所以可以说局部大损。

从前面白80的“缓手”,到这里的大损,AlphaGo始终判断自己全局的胜率较高,即全局占优。

而当时大多数人都认为白棋不好。

这是由于大多数人对后续下法导致的后果出现了误判或者忽略。

这里做一个科普:什么是形势判断?

形势判断并不仅仅是对棋盘上已有的棋子形成的局势的判断,而是依据现有棋型,对各个局部将来可能形成的最终定型进行预判,并且对预判形成后的全局棋型进行点目,最终判断局势。

所以懂棋的人都知道,形势判断是各方面技术达到很高的水平之后才能掌握的,并且水平越高、计算力越强,判断也就越精准。

AlphaGo在这里仍然判断自己形势有利,是因为它判断当自己抢到先手后,会在右边下出如下手段并取得很大的便宜:

白102点入,当时被认为是白棋在形势不好时释放的胜负手,最终的结果大家都知道,白棋在对外围损伤较小的情况下,吃住了右上黑棋三个子(圆圈)。

此处战斗结束后,黑棋大损,一部分人类高手认为白棋就此“翻盘”,当然还有少部分人认为白棋只是“扳回”了均势。

实际上这很可能根本不是什么“翻盘”,被人类高手誉为绝妙手筋的白102也根本不是什么“胜负手”。

白102只是AlphaGo一早就已经发现了的手段,认为这是自己的“权利”,并且它将右上最终的战果(吃住黑棋三子)很早就考虑进了全局形势判断,所以它才会始终认为自己占优。

而人类高手未必就不能提早判断出这些,如果是一名人类棋手在局中提前做出了这种判断,大家可能会对他的表现表示由衷的钦佩,但未必惊为天人。

而当时AlphaGo与李世石弈第一局时,可能没有人预想到AlphaGo会有这么强(知道谷歌内部计算出的AlphaGo的等级分的人也许知道它很强,但未必能想象出这样的表现)。

但事后,我们既然知道AlphaGo始终认为自己占优,那么它一早就算清了这里的变化并考虑进入了全局形势判断,就不再是一个高估它的”猜想“,而很可能是它棋力强劲的真实表现。

那么为什么AlphaGo要在左下角选择那么亏损的变化呢?

很多知道算法的人都已经分析过,AlphaGo会在80%赢10目和70%赢20目之中,选择前者。

也就是宁可用局部损目来换取全局赢棋的可能性。

有些人还说,这与人类的思路完全不同,因为人类喜欢在局部算目数的亏损,而积小成多最终汇集成胜局。

且不论其是否具有绝对合理性,AlphaGo采用的是这种“用目数换概率”的决策方式,我们应该都已经没有疑问了。但后面那种对人类思路的理解,明显出于不太懂棋的人之口。

人类,很多时候一样有这样的思路。

首先,前半盘“弃子取势”等虚路棋的概念,就是以目换概率,只不过人类喜欢将其大致换算成目——自己容易理解和互相之间易于沟通传达的概念。

而后半盘的收束中,很多高手会在优势时“快速收兵”、“缩小棋盘”,经常以局部损空的方法来减少棋盘上剩余的空间,来逼近终点。

这后一种情况,现在来看,极有可能正是AlphaGo在第一局中的左下角所做的事情。

如果AlphaGo直接在右边动手将自己的“权利”兑现,那么在棋盘左下方的开放性空间中,黑棋肯定会拼命,甚至拼命追杀左下角以求换取更大利益。

这样,AlphaGo冒的风险更大,获胜概率可能较小。

而实战AlphaGo先将左下定型之后,再兑现右边“权利”,黑棋虽然发现左下占了便宜,可算上右边吃的亏,全局是落后的。

而且,左下定型后,黑棋没有施展手脚的空间了。

AlphaGo获胜的概率的确提高了,正如它自己一直认为的那样。

实际上,先定型再兑现权利,用自己判断的领先战胜对手的方式,在人类的高水平对局中在所多有。

但当左下棋盘还如此空旷时就早早判断出要赢,收兵定型如此早的例子,我一时能想起来的真不多。

仔细回想打过的棋谱,经常干出这种事并被大家赞誉不已的人类棋手,猛一下能想起来的只有吴清源和李昌镐。

他们总是能在大家都觉得棋局还不明朗时,就判断出“这样下已经赢了”,并开始不惜用局部损目的简明手法定型来缩小棋盘、逼近最终胜利,而当对手判断清时,早已为时已晚。

AlphaGo第一局跟李世石对弈时,还是被大家低估了。

-

接下来,看看昨天的第二局。

且不提开局AlphaGo在右上惊艳的五路肩冲到底是好是坏,它始终认为局势是均势。

(有人赛后问我为什么说这步棋人类“绝不会下”,实际上从来没有什么人类“绝不会下”的棋,这手棋跟当年武宫正树的肩冲星位也有异曲同工之处)

而当序盘战斗中,AlphaGo在左下走出了一系列的疑问手之后,大家都认为其局部严重亏损,而且此时局面尚早(开放),AlphaGo也没有取得优势,完全不能理解它这种下法是在“以目换概率”。

围棋是抢空(地盘)的博弈,单个棋子能占据或者控制的空的数量(目),被称为这个棋子的效率(子效)。而全局子效高的一方,自然就占优并且获胜概率较高,这是非常明晰的逻辑。

左下黑棋这一团子(圆圈),完全是一堆凝型,堆积在一起,不仅没有目,棋子的效率极低。

而且还是飘在天上的孤棋,将来可能成为负担,而两侧的白棋却都是活棋并且棋型完整。

所以黑棋在局部战斗中,将开始尚有少许毛病的白棋阵营变成这种棋型,无论如何都没有任何好的道理。

(什么这个棋是外势啦其实不亏啦的各种说法显然是不怎么会下棋的人说出来的,不值得讨论)

这就是棋理所在,当然所有人也都认为这么下不好。

据悉,在此局中,AlphaGo开局以来一直认为获胜概率是50%,而当这个局部战斗之后将获胜概率判断调整到了50%以下......

这很可能是两盘棋中,李世石唯一的真正占优的时刻。

虽然这优势可能也很小。

但好景不长,不知道李世石是因为第一局输了过于谨慎,还是认为此处占了便宜而马上变的保守,他立刻下出了一系列的缓手,而AlphaGo立刻抓住机会反超局面并且拉开了差距。

短暂的一瞬间的微弱领先之后,李世石再也没有了机会,后面的局势完全是AlphaGo碾压。

AlphaGo的黑棋63贴时,白64跟着下很有疑问,当场就被很多人认为是缓手,应该打入上方黑空。

而AlphaGo立刻按实战的下法将右上的阵营牢牢守住,白棋的机会转瞬即逝。

哪怕不懂棋的人也应该能看出来,红线标明的两堵白墙,中间的间隔非常的近。

你家盖房子两堵墙之间只隔一米,喘的过来气儿吗?

子的效率能高吗?

如果这个还不明显,我们再看看接下来李世石疑似的最终败着:

白68到底缓不缓且不论,白68和黑69的交换白棋到底亏不亏也不说。

白70、72打拔二路一子,还落了后手,几乎等于投降。

当时在直播或研究的所有人,感觉都要跳起来了。

李世石是怎么啦?

看右上角,画了圆圈的以及71位的共七个黑子(被提掉了一个)围成了大圆圈的地盘,和画了圆圈的以及70、72位的共九个白子围成了小圆圈的地盘,大家比较一下。

我七个子围了这么多(基本围住,角上有小毛病),你九个子围了这么少。

谁的棋子效率高?

你还想跟我争胜?

大圆圈和小圆圈,哪怕一点都不懂围棋的人,到这里也能看懂了吧。

白70、72打拔这两步超级缓手,直接在局面并不领先的时候让出了先手,而AlphaGo马上补强左下那一串孤棋,之后再也没有给李世石机会。

据悉,AlphaGo在白70、72之后,立刻将自己获胜的概率提高到了高于50%,之后就一路走高。

-

说说最后的打劫。

白棋此前一直没有往171位夹进去拼劫(当时没下成这样,少几个子),到了此时白172仍然不往A位长,走成黑B、白C、黑D的黑棋先手劫,而是老老实实的走在172位吃六个黑子。

这是一种投降的下法。

不提外围的很多阴谋论,就是很多职业棋手也对这个下法很气恼,这并不是他们不相信李世石。

客观的从棋局本身来说,白棋的劫财不利,就算打劫也一样是输,而且输的更多。

职业棋手们谁都知道这一点,业余高段们也都知道。

在围棋里,最终的输赢是哪一方目数哪怕多半目,也将取走全局的胜利。

当年藤泽秀行说,如果有100块,大家都认为取走51块就可以了,而他认为应该尽可能取走全部100块。

但围棋确实是,你拿到了51块,数完棋发现比对手的49块多两块,那你就可以拿走全部的100块。

所以我们平时才说,输半目和输一百目是一样的。

所以我们才跟学生们说,这个棋你在落后的时候平平稳稳的下,会100%的输5目,那还不如去拼命,去搏一个99%会输100目却有1%翻盘的可能。

这不仅仅是棋手的血性,逻辑也是自洽的。

而这,一样是以目数换概率,只不过和前面说过的方向相反。

打劫一般比普通的变化复杂,因为涉及各种各样的转换,当然也有更高的概率会拉近局势,降低优势方的获胜概率并提高劣势方的翻盘几率。

所以我们经常看到,顶尖高手在劣势下拼命搅局打劫转换,而优势时却常常简明的让劫。

所以AlphaGo为了增加获胜概率,始终不怎么打劫。

在这种情况下,它打劫的水平高低对我们来说是未知的,有可能确实不好,也有可能其实很厉害。

而以李世石的水平,早已算清此时打劫也不赢,但输的更多本来就是一件无所谓的事情,在常见情况下,几乎所有棋手都会在输定的情况下选择拼搏打劫,宁可输更多也拼一个对手犯错的概率(哪怕是极微概率)。

而身为顽强闻名世界的韩国人的李世石,身为被誉为“僵尸流”的李世石,从来都是宁死不屈、拼搏到底、自己死全盘也要搅昏对手的李世石,居然退却了,没有去拼。

这让大家觉得,他的拼搏精神不够,非常令人奇怪和懊恼。

身为曾经的天下第一、棋界永远的真男人的李世石,居然没有表现出自己闻名天下的血性。

性格激烈一点的棋手甚至表示,既然他已经丢了血性,那他不配代表人类出战。

但我有一种猜想,之前的说法的前提是,输的更多是一件无所谓的事情。

但如果有所谓呢?如果在全世界的目光中,或者说在很多很多不懂棋的人的面前,你拼了之后输的更多,然后大家说,啊原来这才是李世石和AlphaGo真正的差距,你会不会对此有所担忧呢?

当然,也许并不是这样,而是单纯的面对电脑,提不起面对人时的那种心劲,感觉无所着力。

也可能,是因为输棋和感到对手的强大,心力交瘁而放弃此局。

也可能上面的原因都有。

总之,他选择了不打劫。

-

至于柯洁对于有信心战胜AlphaGo的言论,那不仅仅是他年轻人的气盛,更是他身位世界第一应有的自信与担当。

甚至,这是任何一名棋手都应该有的血性。

不论理性分析,对手有多强大,获胜的概率有多小,如果你在对局前完全没有去争胜的动机,对自己完全没有自信,那这棋就不用下了。

如果一名棋手这样,他就不配当一名棋手。

而柯洁,只是身为现在最强的人类,将这种自信刻意表达的更强烈而已。

在两个月前,AlphaGo战胜樊麾老师的消息刚刚曝光时,我写下了

如何看待 Google 围棋 AI AlphaGo 击败欧洲围棋冠军? - 高飞龙的回答

,看过的人都应该知道我对人工智能进步的欣喜,和对未来人工智能战胜人类的预期。

可是近来,我发现有很多“观众”的心态有些问题。

虽然人工智能早晚会在围棋盘上超越人类是一个被包括围棋界在内的几乎所有人都达成了的共识,但这并不说明人类就要等着被超越,并不说明顶尖棋手们就要轻易认输。

“看!AlphaGo已经比李世石强了,你们怎么还不认输!还不服输!快跪下来!”

好像我们本来就是躺在砧板上的鱼肉,就应该静静的等着刀俎来砍,连弹一下腿儿都是罪过一样。

现在的人工智能虽然有了学习能力,但还没有感情,应该是不懂得“认输不服输”才能进步的道理的吧。

但人类自己应该懂得吧?

这些棋手们、职业棋手们、顶尖职业棋手们,个个都是花费十数年、数十年时间从海量的人群中杀出来,在残酷的竞争环境中淘汰了不可计数的竞争者们,才走到了现在的高度。

如果他们没有不服输的血性,那就根本不配代表人类成为职业棋手,也根本就不会在长年的竞争中胜出。

甚至,不只是棋手,我觉得所有领域、所有行业、所有人类都应该有这种血性。

输了要承认,不要讲七七八八的。

但绝不能轻易服输,输了还要想着赢回来,要想着让自己变的更强,这才是应有的态度。

诚然,围棋圈内确实有部分人并不是不服输,而是压根就不认输的态度,这样不对。

但很多观众走到另一极的态度,我认为同样不妥。

-

还有一种说法,最近甚为流行,虽然其中一样夹杂着一些刺耳的杂音。

围棋界,将迎来一场新的革命。

就像当年算砂废座子、道策创手割、吴清源引领新布局法一样。

甚至比那几场变革更加彻底,更加伟大。

没错,在大家还没意识到有生之年能看到人工智能胜过人类的时候,其实就有很多人在茶余饭后闲聊时调侃过这种可能。

那时,还只是玩笑而已。

而当这一天出乎所有人的意料提前来到我们眼前时,很多人压根就没有防备。

这革命说来就来了。

但请注意,我说的是“围棋界”将迎来一场革命,而不是“围棋”将迎来一场革命。

这中间的区别可大了去了。

围棋,规则简单,范围确定,变化数目在数学上有穷(10^170)却在实际操作中等效于无穷(超过宇宙中的全部原子数10^100),其在规则和范围确定的当天,就已经确定了所有的规律。

这规律,就是导向赢棋的最优解。

只需要穷尽所有变化,就一定能找到最优解。

而这最优解,应该有很多条路,毕竟李喆在六路棋盘上都已经用数学证明存在最优解的多解性了。

而在黑白都处于最优时,黑棋获胜的目数,也应该就是贴目的最合理数目。

这些道理,大家都很容易想到。

人类无法穷尽围棋的所有变化,至少现在不能,未来也看不到希望。

人类只是在几千年的不断探索、互相对弈与局后研究中,不断的总结规律,更靠近最优解的规律。

而这些规律,被总结成了庞大的理论体系。

这体系当然不可能全部是对的,它只是围棋全貌的一小部分,而我们在围棋盘上的发展就是不断的拓展新疆土、逼近最优解的过程。

AlphaGo同样无法穷尽所有变化,而且和人类一样还差的很远很远。

它是采用模仿人的方式来学习和积累规律,同时以提升获胜概率为决策目的来指导行棋方式的。

AlphaGo学习了人类几乎所有的职业对局(其团队曾经找相关棋谱网站要过5万多盘人类对局棋谱),然后从中学习人类几千年来习得的规律,再自己进行海量的自对弈,来消化吸收旧规律和摸索新规律。

现在假设有一个“围棋上帝”,他能穷尽所有变化,故而能在与任何对手对战的任何时刻都找到赢棋的最优解。

那么,他会考虑赢棋的概率吗?

显然不会,他知晓所有的最优解,获胜的概率应该永远是100%(不考虑特殊局面的和棋),最起码输棋的概率肯定是0。

那么,当他在面对比他弱的“棋手”时,最优解就应该是在对手下错了部分棋的情况下,追求赢的最多。

现在,AlphaGo很可能已经超越了顶尖的人类,在对规律的发现上走出了人类已占有疆土,或者最起码是在人类疆土内,对已有规律的践行成功率超过了任何人类个体。

但AlphaGo到达“围棋上帝”了吗?

不仅没有,而且可能还离得很远。

在这条路上,人类以后可能要追赶人工智能了,而人类和人工智能前进的方向,都是“围棋上帝”。

而走在人类前面的人工智能,可以成为人类反向学习的对象。

它在围棋盘上习得的规律,很可能比人类已经总结出来的规律更有效,所以导致人类总结规律体系中的部分内容被淘汰和替换。

但是,人类几千年来的规律体系,或者说棋理体系,是不可能被全盘推翻的。

因为越下层的基础内容,就越是明确。最简单的例子,像两眼成活、大眼气数、对杀规律这种从基本规则直接经过严密的数学逻辑推理出的规律,这些可以用数学公式准确无误的表达出来的棋理,怎么可能被推翻?

除非你改变规则。

而受到冲击的,可能被替换的规律,必然是上层的规律。

而被替换的规律所处位置越下层,对整个体系的影响也越大。

但我一定要再强调一次,告诉那些不懂棋却口口声声否认几千年来无数人心血和努力换来的成果的观众们:

人类已有的规律体系不会被全部颠覆,而这场革命只会使整个体系更加发展和先进,离围棋上帝更近一步。

退一万步说,那些被淘汰、被替换掉的部分,也不是没有意义的,发现总结他们的前辈们的努力,是极为有道理的。

任何人类学科领域,都是从初生到成熟,经历无数的试错,后人不断站在前人肩膀上不断前进的。

对这种否定之否定的基本马哲规律,应该没有多少不懂的人吧。

-

举一个例子。

在李世石与AlphaGo的第一局中,李世石落下黑141时,AlphaGo应之以白142。

白142是一步明确的错着,只须如下图:

不挡,而是如白1跳在一四,那么黑棋的处境将比实战差很多。

如果黑棋仍然和实战一样脱先,比如走在黑2(随便举例),那么白棋保留3扳、5断的手段,之后A、B两点成见合(即必得其一),那么黑棋只能走更大的A位,而白棋将能够在B位打吃,救出右边三个死子。

黑棋要么补一手,和实战相比丢掉了先手,要么脱先而局部给白棋留下这么一个手段,怎么都比实战差太多。

在右下这个封闭空间中,人类可以穷尽所有有效变化,也就是会和“围棋上帝”作出同样的决策。

可AlphaGo为什么没有这么选择?

第一天,大家都认为是它出错了,说明它不是尽善尽美,计算力不够。

而第二天,看过了AlphaGo更强大的表现,见识到了它强大的计算力,大家都意识到它不可能在第一局中算不到这个变化。

人类都能在这个小封闭空间内穷尽变化,难道它就不能?

这一天掀起了神话AlphaGo的狂潮,大家都奔走相告:它是胜率导向的,它认为这么下胜率更高。

没错,它肯定是算到了这个变化,并认为这么下不如实战的下法获胜的概率高,所以放弃了这个目数上更好的最优解。

这很可能是因为它认为,后续变化变复杂了,所以出错概率提高了,所以获胜概率下降了。

这就引出了一个问题:概率导向的决策模型下的目数换概率,一定是最合理的吗?

显然不,这是在无法穷尽变化的情况下,做出的一种简化。

或者说,这是对人类“棋感”的模仿。

这是一种非常优秀的策略,获得了巨大的成功。

但这离“围棋上帝”还有相当的距离。

我们不难想到,如果是“围棋上帝”来下,当然会选择目数最好的最优解,反正他绝对不会出错的。

我们以前曾经认为,如果人工智能有一天超过人类,那么它一定会具有强大的后半盘,在封闭环境之类的局部计算中滴水不漏,而要想在前半盘的开放式局面中胜过人类的大局观,则要困难很多。

这种想法很能逻辑自洽,并且也符合很多的实践。

但也许我们万万想不到,在AlphaGo的模型下,它的大局观和前半盘如此之强,而在封闭环境中它却居然可能出现错棋。

它的计算的确滴水不漏,但它的判断和选择却可能有问题。

我这两天每天晚上都睡不着觉,闭上眼睛就会看到棋盘上的这个局部,始终都想不明白。

直到今天中午准备“硬创公开课”的讲课内容时,忽然感到理清了头绪。

对啊!的确是有问题的!

我第一天晚上就想到,它虽然下出了错棋(在此之前的上方也有一个类似的封闭空间的错棋,损了一目,和这个加在一起一共两个“错”),但都是在全局占优时出现的。

也就是说,当AlphaGo判断自己获胜概率很高时,出现了这些算清了却选错了的问题。

假设它在局势落后的时候遇到这种情况,会怎样呢?它还会选错吗?

很可能不会。

但无论如何,这都极可能是决策模型的缺陷所在。

成也萧何,败也萧何,成就这个决策模型的概率导向很可能存在隐患。

现在我们对围棋规律的总结还不够成熟,未来当人类和人工智能在规律总结的路上都走的更远,离今天已经很远了以后,这种模型会不会存在上限呢?

如果将来人类要在不断提升自身上限的过程中打败这一代人工智能,或者即使人类自己已经做不到,需要靠新一代的人工智能来打败AlphaGo们的时候,会不会以此作为突破口呢?

虽然,这一切都还只是我的猜想而已。

-

明天,哦不今天,即将要迎来第三局的比赛了。

我花费了整整五个小时来梳理这些头绪,这其中借鉴了大量职业高手们反思的意见,尤其是在棋谱分析时借鉴甚至引用了大量李喆的分析,因为不是正式论文,故而不再详细标明。

李喆在第二日的比赛后,通宵十二个小时,直到今天的中午十二点才写出了

这两盘棋 ,没人会比李世石做得更好!

这篇文章。

此文不同于我回答开头给出的那篇对第一局比赛的分析的完全理性思考,而是在获得了更多有关AlphaGo的信息之后,在理性之余掺入了大量感情流露,希望为李世石正名,也尽力扭转围棋界内和界外很多不当的心态,以正视听。

一日之间刚转柔,此乃乾坤大挪移第七层的功夫是也。

我棋力低微,见识浅薄,对朋友、校友、队友无以为敬,廖做此文而已。

今日遥想14年的晚冬某晚,我与李喆在北大校内散步,踩在薄薄的积雪上,他问我对人工智能围棋程序和蒙特卡洛算法是怎么看的,我只给出了些自以为深思熟虑却实则粗陋的想法。

而今得观喆兄二文,真如胜读十年书也!

也许,作为世界第一的柯洁是现在最接近战胜AlphaGo的人,但李喆很可能是最接近AlphaGo赢棋真相的人。

毕竟,连AlphaGo的开发团队都无法将其习得的规律翻译成人类可以懂得的语言呢。

我期待着翻译方法从理论转为实践的那一天,期待着人工智能围棋程序真的能成为人类探索围棋规律的工具的那一天。

我也为李喆而感概,为这个曾经棋坛最为“有创意、有思想”的棋手,最以愿意尝试新下法闻名世界棋坛的棋手,最不惜以更高的输棋概率来换取对围棋革新的尝试、却可能是因此而没能登上巅峰并为世人唏嘘的棋手而高兴。

今天,可能是他曾经在棋坛的所有尝试和探索,以及为开阔思路而到北大哲学系读书的选择,凡此种种,显得最有意义的一天。

他,可能是离真相最近的人。






-

注:第二局比赛后至今的一日里,大约一百个问题邀请的主要相关内容,我已一并回答在此,无需过多邀请。


user avatar   zhang-zheng-ning 网友的相关建议: 
      

非常关注这次阿狗与李世石的对决,很开心见证了历史性的时刻,心情可以说是『欢欣鼓舞』,但也引发了许多的思考。抛砖引玉,把这些想法写出来,供大家批评指正。


阿狗已经赢了两盘,实际上比赛再往下走,胜负的意义已经不大,我们更应该关注阿狗为什么能赢?是如何赢得?这里面有什么规律?阿狗使用的人工智能能否推广?如果李世石后面赢了,阿狗是如何输的,暴露了什么样的设计缺陷?如果我们把规则改为对战4局,如果2:2平,就数赢的『目』来确定最后胜利者,对战局会有什么影响? 我思考了8个问题,本文会先概述一下阿狗的设计思想,然后阐述这8个问题。

首先,我对人工智能一直非常有兴趣,最近刚开始研究深度学习,我们正在用深度学习解决一个图像识别的问题。对于围棋,我完全是小白,只知道最基本的规则,不过3月9号和10号的比赛后,我几乎阅读了知乎上所有与比赛有关的回答,即使看不懂用围棋术语对比赛的讲解,也看的不亦乐乎。第一场比赛后,思考了一晚上,等到第二场比赛结束,一些不确定的东西进一步得到验证,所以才敢在这时回答这个问题。

也许大家对深度学习不了解,这次比赛也算是一次很好的科普实际上,深度学习等方法的应用在最近几年已经取得很大的进展,比如人脸识别采用深度卷积神经网络(DCNN)等方法后,目前的识别准确率已经超过人类;文字、语音、指纹等的识别能力相比传统方法得到很大提升,也已经应用于许多产品中,只是还不为大众所知。关于Alpha go的原理我就不再赘述,在这个两个问题里:

如何看待 Google 围棋 AI AlphaGo 击败欧洲围棋冠军? - 谷歌 (Google)

),

DeepMind 研发的围棋 AI AlphaGo 系统是如何下棋的? - 深度学习(Deep Learning)

已经讲述的比较清楚,为了大家阅读和后续阐述的方便,我简单概述一下。如果您没有兴趣或者已经了解,也可以略过不看分割线隔出来的这部分内容。

————————————————————基础知识————————————

AlphaGo 总的设计思路是将深度神经网络与蒙特卡洛树状搜索相结合,它使用了两个神经网络:

  • 第一个叫做走棋网络(Policy Network),它的作用是在给定当前局面情况下,判断下一步可以在哪里走子。训练走棋网络其实就是向人类学习的过程,通过学习了一个网络对战平台KGS的三千万个棋局,得到在输入一个盘面s(状态state)时,如果采取行动a(action)时,人类落子的概率分布。请看下图,最上面的绿色棋盘就是走棋网络的输出,深绿色的柱状图表示对人类下一步可能落子点的概率分布情况。有了这个走棋网络我认为主要是让AlphaGo对棋面局部的分析处理能力比较强。
  • 第二个是估值网络(Value Network),它用于在给定当前局面s情况下,估计是白胜还是黑胜的概率;Google使用一种自我强化学习的方法,通俗的说就是左右互博,让阿狗自己和自己不断的下棋,通过左右互搏获得海量对局训练出来,并且每个对局只用一个样本,从而保证随机性和避免过拟合。我认为就是这个估值网络给了AlphaGo下棋时具有所谓『大局观』的能力。

(AlphaGo使用的神经网络结构示意图,来自Google论文)



此外,还有一个称为『快速走子』的关键模块,设计它虽然看似是工程性的目的,但对于阿狗的性能和能否实战其实非常重要。下面是@田渊栋老师的回答中的解释:

快速走子(Fast rollout),由于神经网络太慢,所以要用传统的局部特征匹配(local pattern matching)加线性回归(logisticregression)的方法,在适当牺牲走棋质量的条件下,使得走子速度要比走棋网络快1000倍。这样做的好处一是可以在走棋网络没有返回时(主要使用GPU)让CPU不闲着,先搜索起来,等到网络返回更好的着法后,再更新对应的着法信息,所以可以更好的利用硬件资源。其次是用来评估盘面,通过模拟走子,从当前盘面一路走到底,不考虑岔路地算出胜负,然后把胜负值作为当前盘面价值的一个估计,用统计的方法就可以取得很好的效果。
  • 下图是Google论文中的扩展表格中给出的用于局部特征匹配的特征,我们可以看到这些特征并不多,不知道Google是如何确定使用这些特征的。


最后,就是蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS),通过MCTS把上述两个神经网络和快速走子连接成一个完整的系统。蒙特卡洛搜索树(Monte-Carlo Tree Search)是利用计算机强大的计算能力,通过简单的『傻算』,但是快速搜索所有的可能路径,然后通过统计对比,找到当前的最佳选择。但是围棋的状态空间太大,路径太深,直接傻算,估计就是算到宇宙末日也搞不定所有可能。具体到AlphaGo,走棋网络的输出给出了当前可能的落子选择,然后用估值网络评估,砍掉大量不值得深入考虑的分岔树,交给MCTS处理,从而大大提高计算效率。MCTS包括4个步骤,先选择一个叶子节点(Selection);然后扩展一个节点(Expansion);向下仿真棋局结果(Simulation);最后向后回溯,得到反馈。



下图给出了使用蒙特卡罗树搜索时,AlphaGo如何看待一个棋局的决策过程:



在这个过程中,两个神经网络,或者我们类比为两个大脑在不断的协同。其中一个大脑判断当前局面可能的走法,另一个用蒙特卡洛方法进行尝试走下去(仿真),判断不同走法的优劣,也给出对于下一步棋最佳走法的建议。这两个大脑的建议被加权后,做出最终的决定。论文中给出的这个加权的公式是:

公式(1)

注意,这个公式很关键,我直接把论文给出的结果引述如下:


这个意思就是,给通过蒙特卡洛模拟得到的赢棋概率和局面评估结果同样的权重,效果最好,对比其他不同的权值,有95%的获胜概率。这个公式我下面会讨论。

————————————————讨厌的数学终于结束了——————————————


好吧,其实我自己想说的现在才开始,水平有限,而且不太懂围棋,所以主要从人工智能的角度谈,请大家指正。

问题1:仔细阅读了知乎和网络上不同人的对AlpfaGo前两局李世石的评价,有不少人认为这理所当然。因为计算机的计算能力太强,和深蓝当年击败卡斯帕罗夫是一个道理,有什么惊奇的?


这个问题的答案看了上面的背景知识就会很清楚,AlphaGo绝对不简单,围棋的状态空间太大,又很难对局面优劣进行评价,所以要让人工智能战胜九段高手非常困难。当年的深蓝主要是靠蛮力计算,而且国际象棋每个棋子的价值容易评分,二者完全不可同日而语。

问题2:关于两盘棋中AlphaGo下出的所谓『俗手』如何评价?

(感谢知友指正,我是围棋小白,把『俗手』写成『俗子』)

这个问题的评价两极化严重,在直播中和围棋高手看来,这些落子有的不好说好还是坏,但认为是俗手无疑。另一些人认为,人类看上去的俗手,可能只是境界不够高,看不透AlphaGo在精确计算之后的也许是更恰当的选择。

对此问题,我的看法是两种观点都有道理,甚至这就是围棋程序的意义所在。因为围棋太过于复杂,人类通过经验积累,总结出了许多规律,形成所谓『定式』。我相信这些『定式』多数都是正确的,AlphaGo的训练过程也学习了这些人类智慧的结晶。但是『定式』既然也会被打破,就说明一定还有更多的可能存在,这一点,人类的计算能力弱的不足就决定了实战中不太可能对『定式』做出改变。但是AlphaGo可以,只要策略得当,计算机不仅能够,而且也没有心理上的障碍采用更加灵活的走子策略,这会让人类棋手非常不适应,大大增加思考的时间。第二局中,李世石几次常考,就表现出了这种不适应。

另一个角度,就是AlphaGo下的一些棋不仅『俗』而且『臭』。我认为这种可能性更大,这也是AlphaGo需要提示的地方。从上面对其原理的分析来看,如果只看Google的论文,似乎并没有针对一些特定局部定式进行处理。从总体概率上考虑,不针对特定情况设计使得AlphaGo的适应能力更强,但我认为如果在高手的知道下,借助计算机的强大分析能力,针对性的客观和深入分析人类总结出的『定式』,这可以让我们队围棋的理解更加深刻。研究的结果可以用于进一步提升AlphaGo能力和棋手的训练。

问题3:AlphaGo能不能陪李世石复盘?

目前卷积神经网络虽然很好用,但是理论基础还很薄弱,也说不清楚每一层网络究竟实现了哪些处理。许多人认为神经网络的决策过程太复杂,没法帮助李世石复盘。这一点,我完全不赞同,复盘和理解神经网络是两回事,就像我们现在也不太说清楚人类各种直觉产生的具体过程,但是这不妨碍棋手解释下棋时基于什么样的考虑作出决策。实际上,只要Google愿意,应该完全可以记录每一步棋的过程,比如走棋网络给出的初始落子概率分布,每一步估值网络给出的局面判断,MCTS搜索得到的各种走法的仿真结果等等,这不就是复盘吗!实际上,如果这样,Google可以把AlphaGo修改成为一个强大的围棋训练程序。期待这一天的到来。现在没这么做的原因,估计是怕输吧(偷笑)。


问题4:AlphaGo的棋下的不够美!

我们总是相信,宇宙间的真理应该是简洁而优美的,很自然的,我们希望下围棋不仅要赢,还要赢得优美。这个问题对AlphaGo很难,因为围棋的局面不吓到最后连评价局面的优劣都很难,要下的美,你首先得定义美,然后给出评价函数。比如@原子Atom给出的这个形状,说老师坚决不让下,

我一个不懂围棋的就不能理解这样下为什么就不美?但我相信应该让AlphaGo下的棋更美,这种对美得执着究竟是人的一种无意义的情结还是一种潜意识中对正确棋路得直觉呢?我不知道,但值得研究。有知友告诉我这是因为黑棋下在一起,失去了许多变化的机会,控制力弱了,这样解释『美』我就明白了,阿狗也一样会明白。实际上你看阿狗的快速走子,里面在局部特征匹配时,就考虑了类似的特征。不过其他的『美』还有哪些?如何考虑进去,值得思考。

问题5:AlphaGo自从去年11月击败欧洲冠军以后棋力进步如何?和李世石每次对局之后是否会进步?

许多人认为5个月来进步很大,而且和李世石越下,对李世石了解会更多。这个问题我认为答案hi否定。因为根据AlphaGo的原理和公布的设计结构,在它已经学习了三千万盘棋基础上,再多学一两盘意义不大,它的设计结构也决定了并没有针对棋手进行专门训练的过程和采取对策的方法。它并没有观察一个特定棋手的对局,了解他的棋风并做出相应的对策。AlphaGo的设计思路基本是采取通用化的方向,但是在其他的决策领域,是很可能要求计算机随时进行适应性的变化,比如人类在决策时经常是非理性的,这时候完全按照理性假定进行推断就不一定得到最佳结果。还比如,我们下双升的时候,自己手里有一个5和对K,有时会先出一个5,诱惑对手将对A拆了出,像这种有点奸诈的策略,计算机学起来就很困难(请原谅我不懂围棋,不会用围棋举例)。当然,要是人工智能真能学会这个,那太可怕了。这个例子是想说明人在决策时有时会考虑利用对手贪婪的心理,追求利益最大化。AI如果有足够的机会,可能会使总的获胜概率最高,但是如果有一个场景,只有一次机会,那么AI能够赢人类吗?在我心目中真正的人工智能应该能够学会处理这种问题才行。


问题6:AlphaGO似乎遇强则强,遇弱则弱?


我观察着两盘棋,也是有这个感觉,这和阿狗的结构有关系,因为它采取的设计思想就是一定会找使得最后赢棋概率最大化得那一步。这样就会出现赢钱,但是赢得不爽。对于围棋来讲,这种设计没什么不妥,但是如果是多次博弈,而且最后是计算总的得失数量,相当于要计算小分时,就不仅要赢,还要赢得多。此时,估值网络的设计会很难,这也是阿狗需要改进的地方。如果得以提升,会使得阿狗更容易推广到其他人工智能的应用领域。

问题7:阿狗的提升空间有多大?

我认为AlphaGo提升的空间很大,主要在这几个思路:

  • 一方面阿狗已经学了够多的人类对局,也和自己下了足够多的棋,如果和Facebook的『黑暗森林』这样设计思想不完全相同的AI下,是否可以进一步提升棋力?
  • 其次就是上面说过的能否进一步增加对『定式』的研究;能否增加对特定对手棋风的学习和采取策略等?
  • 估值网络的设计能否更加灵活,甚至可以动态调整?上面公式(1)给出的最后决定时的加权权重是各自0.5,在开局、中盘、官子阶段,这个权重是否可以调整的?因为直观的想,开局阶段赋予局面评估结果更大的权重似乎更加合理。这个问题挺复杂,我思考了半天,感觉自己的智慧不够了,应该再做一些测试才能有答案。因为估值网络的训练过程很长,所以如果忽然改变规则,比如我文章开头所说的不仅要赢,还要尽量赢得多,那么估值网络应该会明显变化。还比如所,现在忽然要求改为日本规则,李世石适应没有任何问题,阿狗可就不一定了。如果如我所说,那这绝对是阿狗的不足。也就是说阿狗对规则变化的适应能力远远比不上人,那么这又是为什么?如何改进?

问题8:阿狗的意义?

这个大家讨论比较多,我也做一些相关的研究,阿狗虽然很强大了,但是不足之处更多,也远远不是一个通用的人工智能机器。报考阿狗使用的深度卷积神经网络,更像一个黑盒子,我们对其机理研究的还非常不够。阿狗虽然强,其实还真不太算得上太智能,但它真是我们从宙斯那里偷得的第一把火! @李开复 老师认为阿狗的技术称不上是科学上的创新突破,这一点我赞同,不过他认为阿狗并不是新的“发明”我略不赞同,开复老师是不是过于严苛一点?越是仔细分析Google的文章,越觉得有很多的关键内容他们没有写出来,虽然使用的都是已经发明很久的技术,但是通过精心的设计,DeepMind团队毫无疑问发明了一个非常厉害的人工智能围棋程序和针对类似复杂决策问题的解决思路。

实际上我们回过头看阿狗的结构,两个神经网络加蒙特卡洛,非常像人类的大脑思维。一方面我们下围棋时必然要计算,这就是蒙特卡洛;另一方面我们有棋感,有定式,有大局观,这就是深度卷积神经网络(DCNN)。DCNN的方法非常类似与我们的图像化思维,通过逐步卷积,逐步抽象一个复杂的对象,我们人类的视觉也是这样,先会对全局有个把握,仔细看才会关注细节。所以,我大胆挑战一下 @李开复 老师,阿狗使用的具体方法虽然没有大的创新,但是这种深度学习+蒙特卡洛的结构有没有可能帮我们打开了人工智能的一扇窗,也许这是一条窥视智慧秘密的裂缝,这样讲的话,阿狗的意义就非常大了。


我自己和刘慈欣一样,是科技的乐观派,我们认为人类社会问题根本上要通过科技进步解决,技术进步带来的好处远大于危害。对于围棋,相信阿狗的出现可以极大的促进围棋进步,人工智能也应该可以让人类生活更加美好!


—————————————————正文完—————————————————

上述中的『论文』,特指google发表在Nature上的:

1)(

nature.com/nature/journ

);

Nature网上全文很贵,我买不起,后来搜索到一个地址可以下载,共享给大家:

willamette.edu/~levenic

我的回答主要参考了:


在Faceboo工作的

@田渊栋

老师的文章

2)(

arxiv.org/abs/1511.0641

)以及他在知乎回答的相关问题:

3)

AlphaGo的分析 - 远东轶事 - 知乎专栏

4)

围棋作为唯一一种电脑下不赢人的大众棋类,是何原因导致?以及量子计算机出现后有无可能? - 田渊栋的回答

非常感谢

@高飞龙

的回答,帮助理解了围棋:

5)

如何评价第一局比赛 AlphaGo 战胜李世石? - 人工智能
@袁行远

老师的回答思路很清晰:

6)

DeepMind 研发的围棋 AI AlphaGo 系统是如何下棋的? - 袁行远的回答

7)在

DeepMind 研发的围棋 AI AlphaGo 系统是如何下棋的? - 深度学习(Deep Learning)

问题中:

@

Tao Lei

,@

董飞

@

袁行远

@

李丹宁

等朋友的回答。

还有其他朋友的文章:

8)

谷歌围棋程序AlphaGo实力几何? - 不一样的围棋 - 知乎专栏

9)

木遥:关于 AlphaGo 论文的阅读笔记

3月9号和10号的比赛后,我几乎阅读了知乎上所有与比赛有关的回答,特别是@

高飞龙

等老师的回答给我很多启发。也不是正式的论文,恕不一一引述,在此一并表示感谢。


user avatar   pi-pi-chen 网友的相关建议: 
      

其实李世石是有机会的 这就是所谓的当局者迷吧


user avatar   xie-dan-9 网友的相关建议: 
       AI胜了两局,李世石还有机会吗? - 啥都好奇 - 知乎专栏

第二场比赛之后,假设我站在众人和AI之外的第三角色看,个人觉得人类真是太情绪化的动物,甚至这群众是精英也如此。开赛前把AI贬到地上,现在把AI抬在天上。

这第二场的比赛,讨论的很多,但是大多讨论无意义,特别是李世石为啥不如何打劫。这是旁观者的角度,而不是当事人的角度。从李世石的行棋和行为看,李世石可能对目数有错误判断,没有意识到自己的目数落后如此之大。

1,在下完后,李自己的复盘上,第一步是中间的一步长。其实按照当时目数,这步长即使是最强手,也最多增加1-2目,是完全不影响胜负的。正确判断了目数的话,是不会去复盘这里的。

2,大多数专业棋手在没具体数清楚之前,也是对目数误判的。古力和余斌都在说白棋小优时,再仔细数目数,发现其实已经是黑棋多10目了(即2-3目优势)。

3,这说明思维在棋盘上的话,受到之前黑棋一些小失误影响,会导致人把白棋优势扩大,从而不知不觉中,思维对形势判断出现失误。AI是不会出现这个失误的。

从这盘棋的内容看,AI虽然局部会下一些略损的棋(可能是为了简化局面。)。但是AI对围棋的空势均衡可以说是无敌的了。

肩冲这步,虽然白棋厚实,但是那是一个拆二,这厚势无法发挥的。

后面尖补左上角,厚实自己,且维持了空的平衡,觉得是胜利宣言。这个时候,李世石如果觉醒,可能还有一点希望。李世石判断失误,就再无机会了。

CNN的算法更多用于图像识别,这是和以前的最大不同。这就是所谓的棋感,也就是说AI现在的大局感/空势感是超越人类的。而算目更是之前就超过人类了。

这两者导致AI行棋会有正招为主(减少搜索宽度)。且形势判断准确。

缺点就是妙招下不出(即使小妙招也难,因为这会大大增加搜索树宽度。)

从两天的比赛看,AI的优势是冷静,行棋绝招还基本没看到。但是李世石的劣势很明显了,太沉入行棋情绪,对AI小失误估算太高,形势判断不够准确。(这三点如果对手是人的话,不是大的问题,因为对手做为人,失误概率类似,所以沉入行棋情绪,会更加专注。)

接下来三盘,李世石必须脱离沉入行棋情绪,心态更加冷静,多做低级的算目来判断形势。简单说,不要太专心,要更多等待黑棋的小错误。才有一胜的可能啊。


user avatar   yangfan 网友的相关建议: 
      

著名麻将研究者

@K神传说

已经写了一部教程来专门论述川麻应该怎样打更科学。目前总字数接近 3 万字,还在继续写作中。这明显不是一个知乎回答可以说清的问题。


user avatar   present-is-gift 网友的相关建议: 
      

有一说一,其实性价比最高的4K蓝光播放设备很可能是二手xbox


user avatar   wgwang 网友的相关建议: 
      

我个人并不是很看好。

html5,js以及类似的技术替代原生大家喊了很久了,就是大热的react native目前看来也依然很不完善。微信的应用应该都是运行在腾讯浏览器的X5内核里,这东西怎么样大家心里也都有数。我感觉还是只能做一些低交互的应用,大概也就是比网页快捷方式高一级别,要利用os的炫酷特性,原生还是跑不掉,而且目前原生开发很成熟了,框架库很多,门槛也很低。

对于不用下app省空间我不是很理解,只不过是把app浪费的空间挪动到微信里而已。

微信所倡导的用完即走的理念也只有腾讯有资本装b才会这么说,其它公司无论如果始终还是会想办法更多的占用用户的时间。

腾讯现在原本就掌握了渠道,现在连app的审核等生杀大权也都掌握,你说苹果恶心,但他起码还勉强算公平,而腾讯可以随便打着为了用户(和你妈说为了你好)进行系统抖动,非腾讯系全都会抖,想怎么搞你怎么搞你。


结局都是类似的,中小型公司都很激动,以为有了小应用他们就有了腾讯爸爸的几亿用户,这种幻觉很美好,但他们可能会面临更加惨烈的竞争,变成临时解决用户欲望的千斤顶,以及腾讯渠道那可怕的推广分成费用。大公司肯定都很不情愿的跟进,又没办法,估计会简单开发一些应用,然而尽可能的往自己原生的app上导入,心态很微妙,不过短期内肯定会先爆发一波星座血型算命起名你的前世今生颜值计算能活多少岁等一些QQ空间喜闻乐见的低质量辣鸡应用,目前也不知道腾讯审核时是否会做一些限制。

微信也许已经不是聊天软件了,我朋友偶尔用了一下QQ,惊叹的说,QQ真好用呀,聊天记录都能自动存下来! 微信当初也许吸引大家的是我们只想要一个广聊天的QQ,现在已经要变成微信os了,是不是以后也要走和当年QQ一样的路?整个腾讯系全压在这款app中? 我不知道,在集团利益,业绩增长的车轮下,什么张小龙王小龙,什么鬼的用户体验,什么产品经理说不的坚持,有多少碾碎多少。

仅是个人一点感悟和粗浅看法,不太对请见谅




  

相关话题

  俄罗斯一游戏支付公司用 AI 裁员 150 人,被裁员工被算法判定不敬业效率低下,这种评判方式合理吗? 
  SpaceX 将在菲律宾推出「星链」卫星服务,此举具有哪些意义? 
  媒体报道苹果将于 2022 年发布平价版 iPhone,定价或将在 400 美元以下,值得期待吗? 
  小米最近对于广告的投放明显增加,会不会造成本就追求极致性价比的小米手机入不敷出? 
  下一代 AI 框架长什么样? 
  如何看待柯洁在人机大战后持续连胜? 
  日本芯片产业的发展历程如何,有哪些值得借鉴的经验和应该规避的教训? 
  在你熟悉的领域里,有哪些创新在悄悄改变生活? 
  在李世石九段与 AlphaGo 的五局对弈中,有哪些值得回味之处? 
  一个汉朝人穿越到明朝,是否会有科技日新月异的感受? 

前一个讨论
AlphaGo 与李世石的第三局比赛中有哪些值得关注之处?
下一个讨论
AlphaGo 下棋的策略套路与人类策略有哪些相似吗?





© 2025-04-02 - tinynew.org. All Rights Reserved.
© 2025-04-02 - tinynew.org. 保留所有权利