続報2)プロ棋士の頭脳に勝ったGoogle技術とは

強化学習という技術が AlphaGo をプロ棋士以上の脳に育てたことを前回書きました。
その出所は、文献“Mastering the Game of Go with Deep Neural Networks and Tree Search” Nature
なのですが、英文ですし、かつ、技術的に難しい。
そこで、日本語で解説してくれている記事を探してみましたら発見しました。
技術的に興味がある方は、こちらを見てください。

Google AlphaGoの仕組みを理解する─AI技術は今、どこまで進化したのか?

出典;2016413() IT Leaders

http://it.impressbm.co.jp/articles/-/13474?page=2

続報)プロ棋士の頭脳に勝ったGoogle技術とは

前回紹介したGoogle技術は、論文記載の新しい手法とだけ説明した。
その手法は、強化学習というものらしい。
「強化学習」は、教師あり学習は異なる学習手法らしい。
教師データという予めに用意したデータがなくても、一人で勝手に学習するものらしい。
難しい技術表現は避け説明すると、こんな感じでしょうか!
プロ棋士が過去に打った手を手本に準プロ並みになったコンピューターが
強化学習により、勝手に強くなり、結局、プロ棋士以上の実力になった
という感じ。
伝わったかな?!

プロ棋士の頭脳に勝ったGoogle技術とは

Alpha Go が凄いことが話題になっています。
の技術が具体的にどのようなものか気になっていました。
ディープラーニングという機械学習によるものなのですが、ここまでは、IBMのWatsonなどと変わりません。
機械学習は、予め優れた教師データを使い、頭を良くするというものです。
でもそれだけでプロ棋士に勝てないと思う。
そのことを示唆する記事を見つめました。以下です。

ディープラーニングを用いたコンピュータ囲碁

Alpha Go の技術と展望~ 出典;日経テクノロジーonline

「ディープラーニングと強化学習を用いた手法で囲碁の局面を評価する新しい手法を確立し、その手法と従来のモンテカルロ木探索(MCTS: Monte-Calro Tree Search)の手法を組み合わせることで、既存のプログラムに99.8%勝つばかりか、囲碁のヨーロッパチャンピオンのプロ棋士に5連勝したというものであった。」

古い技術のようですが、「モンテカルロ木探索」という技術が使われているようです。

さらに、新しい手法を加えたと記事は伝えています。

詳しいことは、論文を追う必要があるようです。

そもそも「モンテカルロ木探索」がよくわかってないので、調べました。

素人向けに簡単に説明すれば、どうも

「囲碁の打ち手を先先とシミュレーションして、勝てそうな手を選ぶ」

というもののようです。

コンピューターだからできることと思いました。