[技術解説]

Google AlphaGoの仕組みを理解する─AI技術は今、どこまで進化したのか?─

2016年4月13日(水)濱田 直希(株式会社富士通研究所)

 2014年に米Google(現Alphabet)が4億ドルで買収した英DeepMind。同社が開発した囲碁AI「AlphaGo」は、プロ棋士を打ち負かす偉業をやってのけた。そこにはどんな仕組みや工夫があるのか? AIの専門家がAlphaGoに関する論文、「Mastering the game of Go with deep neural networks and tree search」を紐解く。 CIOはもちろん、IT関係者にはぜひ知っておいてほしい内容である(本誌)。

 「AlphaGoがプロ棋士に勝利した」――このニュースは全世界を駆け巡った。2015年10月には囲碁のヨーロッパチャンピオンであるファン・フイ2段に5戦5勝、2016年3月には世界的なトッププロの1人であるイ・セドル9段に4勝1敗で勝利したのだ。従来、囲碁AI(人工知能)はプロ棋士とは3子以上の実力差があるとされ、プロ棋士に勝つとしても10年先と言われていた。

 ちなみに3子とは、碁盤に予め置石するハンディキャップのことで、3子は7段のアマチュアがプロと勝負できるかどうかのレベルである。このようなハンデなしに行われたAlphaGoとプロ棋士の勝負は1戦ごとに大きな関心を集め、日本では平日夕方の一般向けTVニュースでも取り上げられるほどだった。囲碁のみならず、社会全般でAIが専門家を超える日をも夢想するという、“AlphaGo旋風”が吹き荒れたと言っていい。

 しかしイ・セドル戦から2カ月が経ち、ほとぼりが冷めてみれば、これだけの話題をさらったAlphaGoのメカニズムについて冷静に分析した記事があまりないことに気付く。一体、何が囲碁AIに短期間での飛躍的な棋力向上をもたらしたのか? Google傘下のDeepMind社はどの程度の計算機リソースを投入したのか? そして囲碁AIで培われた技術は、DeepMindチームの言うように、社会問題の解決に繋がるのか?

 本稿では、これらの疑問に答えるべく、AlphaGoの詳細なメカニズムが記された現状唯一の公式発表――2016年1月28日付の英科学誌「Nature」に掲載された論文“Mastering the game of Go with deep neural networks and tree search” [1]の内容を紐解き、“人類を超えるAI技術”が現在、どのような到達点にあるのかを分析する。
[1] http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html

この記事の続きをお読みいただくには、
会員登録(無料)が必要です
登録済みの方はこちら

IT Leaders 雑誌版、電子版をご購読の方、会員登録済みの方は下記ボタンよりログインして続きをお読みください

初めての方はこちら

IT Leaders 会員になると
会員限定公開の記事を読むことができます
IT Leadersのメルマガを購読できます

【次ページ】AlphaGoは役割の異なる4つの要素で構成
  • 1
  • 2
  • 3
関連キーワード

AI / 深層学習 / Google

関連記事

Google AlphaGoの仕組みを理解する─AI技術は今、どこまで進化したのか?─ 2014年に米Google(現Alphabet)が4億ドルで買収した英DeepMind。同社が開発した囲碁AI「AlphaGo」は、プロ棋士を打ち負かす偉業をやってのけた。そこにはどんな仕組みや工夫があるのか? AIの専門家がAlphaGoに関する論文、「Mastering the game of Go with deep neural networks and tree search」を紐解く。 CIOはもちろん、IT関係者にはぜひ知っておいてほしい内容である(本誌)。

PAGE TOP