本帖最后由 Joe_G4906 于 2018-10-4 05:01 编辑
以下写上几句对于围棋AI的一点粗浅看法(也许都是废话,见笑了)
据说围棋的变化有10的360次方之多。
AlphaGo Zero 和目前所有类似的零狗的原理都是让计算机自对弈来摸索棋的下法。通俗一点说,就是借助电脑硬件的快速运算能力(虽然快,但是其实是机械式的简单运算),把上百万上千万棋局变化都下一遍,再总结最后对局的胜率。然后按胜率高低来选择某一局面下的最佳着手。(我这么说对不对,坛子里的高手尽管指正啊)
所以,围棋AI 本质上其实是凭经验在下棋。狗之所以比人类高,是它已经把几百万棋局都自己下过一遍了。狗懂不懂为什么某一步棋下法胜率高的原因? 它是不懂的。
就目前而言,所有市面上的零狗包括阿尔法,都只是通过自对弈演练了有限的棋局数,这个数字不管多大,都还远未到达那个只有上帝才知道的围棋总变化数。现在各种狗的棋力高低,基本上就是看谁演练过的棋局数更多。
所以,结论来了: 对于业余爱好者,包括业余高段( 业5、业6),甚至包括职业棋手,当你面对里拉Mylizzie分析软件给出的某一局面下,几个推荐下法,以及每一招法的胜率是多少多少,这里面究竟有什么实际意义?我说: 没有意义。因为那个推荐招法背后是几百万甚至几千万盘狗自己对弈的棋局经验积累。当狗给出某一步棋下法有胜率70%, 那后面是狗自身的经验为基础的。(人一辈子,最多就下几万局棋。)
那业余爱好者得到了什么,除了机械的记忆这种局面下,狗说了某一个下法胜率很高,下一次自己来下,就这么下,还能有什么作用?而那一步棋的后续手段是什么,狗并不会告诉你。你去猜吧。
|