現在もっともホットなITのキーワードといえば、AIやIoT、ロボティクスといった単語が挙げられるだろう。そうした一連の先端テクノロジーの背後にある重要な技術が「ディープラーニング」だ。日本語では「深層学習」と呼ばれ、今日もまたさまざまなメディアを賑わせている。だが、それがどういったものかを詳しく説明できる人は多くないだろう。今回は初心に立ち返って、ディープラーニングの基本をもう一度おさらいしたい。

データ解析の結果をAIが学習しながら判断の精度を上げていく

 現在多くの企業が合言葉のように口にするのが、「DX=デジタルトランスフォーメーション」だ。激しく移り変わる市場のはざまで自社の活路を切り開いていくのに、デジタル技術は必要不可欠な存在となっている。そのキーテクノロジーの一つがAI(人工知能)なのは、ご承知の通りである。

 だがAI自体は包括的な概念であり、テクノロジーとしても範囲が非常に広範囲にわたる。また高度な専門知識が要求されるため、一握りの専門家以外の人々にとっては、何やら難しくとらえどころがないとの認識を持たれてきた。それがにわかに脚光を浴びたのは、ごく最近のことだ。第3次AIブームとも呼ばれる現在の盛り上がりのきっかけとなったのが、今回のテーマである「ディープラーニング」である。

 ディープラーニングとは、AIが学習対象のデータから特徴を抽出・解析して、それらをもとに判断を下し、その結果の正否をAIに戻して判断の誤りを修正。再び判断を実行するといった一連の作業を高速で繰り返しながら、より精度の高い認識や判断を行えるように学習していくという一連のプロセスを指している。

 このためディープラーニングは、画像認識の分野などで大きな力を発揮する。たとえば赤いマグカップと青いマグカップを、色や形などの特徴を画像から抽出し、上に挙げた「判断→評価→修正→判断」の繰り返しを通じて、この二つのアイテムをより正確に認識・判別できるようになってゆくのだ。

GPUがディープラーニングの実用化を一気に加速

 ここまで読んできて、カンの良い方は「あ、じゃあディープラーニングは、いわゆるマシンラーニング(機械学習)なんじゃないか」と気づいただろう。たしかにディープラーニングは、マシンラーニングの一分野に含まれる。だがマシンラーニングとは大きく異なる点があって、それがディープラーニングを大きく特徴づけているのを知っておこう。

 再びマグカップを例に採ると、マシンラーニングでは何を識別の条件とするかを人が定義しなくてはならない。たとえば「色と形の2つの特徴をもとに違いを判別せよ」といった指示を、あらかじめシステムに与えてやることが必要なのだ。

 一方ディープラーニングでは、この条件付けをAIが自動的に行うことができる。このため人間では不可能な、高速で正確な学習プロセスの繰り返しが可能になる。その結果、同じ学習を行うのにも従来は数カ月を要したものが数日レベルにまでに短縮され、認識の精度も飛躍的に向上した。このことが、今日のディープラーニングの実用化に大きな拍車をかけているのだ。

 さらにもう1つ、ディープラーニングの実用化の推進力となったのが、「汎用GPUコンピューティング」の急速な進化だ。GPUとは「Graphics Processing Unit」の名前が示すように、もともと3D画像処理(3Dゲームや3D CADなど)のために専用に設計されたプロセサである。一般のCPUが1つの処理を連続的に行うのを得意とするのに対して、GPUは並列演算すなわち同じ処理を同時に高速で行える点が特徴となっている。

 3D画像処理では、空間内の頂点計算や陰影処理のために、膨大なパワーを必要とする。そのパワーを、画像処理以外にも活用しない手はない。そこで登場したのが汎用GPUコンピューティングだ。当初、科学技術計算分野(スーパーコンピュータなど)で使われ始めた汎用GPUコンピューティングだが、2012年にディープラーニングにも有効であることが実証され、現在のAIブームを生み出す原動力となった。実際のところ、汎用GPUコンピューティングと出会う前のディープラーニングは、理論上は確立されていたものの、必要な計算量が膨大すぎてとても実用にはならないとみなされていたのである。

画像認識から医療、株価予測まで無限に広がる応用の可能性

 では、実際にディープラーニングは、現在どのような分野で利用されているのだろうか。たとえば画像認識の分野では、Facebookが登録ユーザーの顔写真をAIによる顔認識システムで分析し、他の人が新しく投稿した写真にそのユーザーが写っていると、自動的に氏名をタグづけする機能を提供している。

 顔認識以外には、工場の生産ライン上を流れる製品や部品の不良品チェックを行うといった利用も進んでいる。また判別の精度そのものをアップするだけでなく、従来は熟練者が目視で行っていた判別のナレッジをAIで取り込んでシステム化し、若手労働人口の減少に向けた熟練工の技術継承に応用する試みも行われている。

 この他にも、レントゲン写真や内視鏡検査の映像を分析する診断アシスタントなど、医療分野でのディープラーニングの応用も進んでいる。米国のスタートアップであるEnlitic社が開発した悪性腫瘍の検出システムは、人間の専門医を上回る成績を挙げたという報告もある。

 金融業界におけるフィンテックでも、ディープラーニングの活用が積極的に取り組まれている。すでにみずほフィナンシャルグループは、2017年9月から国内外の一部の機関投資家を対象に、株価の動きを予測するAI能を組み込んだ取引システムを提供している。このシステムには各銘柄ごとに数千種類の情報が収められており、人間のトレーダーでは見つけられない特徴的な動向までを発見して株価予想に利用している。

 この他にも、顧客問い合わせに対するチャットボットを使った自動応答システムや、スマホやタブレットに内蔵されたパーソナルアシスタント、Amazon EchoやGoogle Homeといったスマートスピーカー、そして自動運転システムなど、ディープラーニングの応用範囲はほぼ無限大だといえよう。

力技で実現してきたディープラーニング、その今後と課題は

 日進月歩のディープラーニングの今後だが、代表的なGPUメーカーであるNVIDIA社とAMD社では、ディープラーニングを明確にターゲットにしたGPUの開発が進められている。もともと3Dゲームは精度よりも速度が重視されるため、単精度(32ビット)による演算が主であった。一方、科学技術計算ではより正確な計算が求められるため、倍精度(64ビット)で行われるのが常である。ところが、ディープラーニングで行われるグラフ処理(点と線で表されるネットワークにおけるデータ処理)では、精度は必要とされない。半精度(16ビット)でも十分なのである。

 こうした背景に合わせるようにGPUは進化してきた。具体的には単精度だけだったものが、倍精度も扱えるようになり、最新モデルには半精度向けのアクセラレーション機能も搭載されるようになってきている。

 一方で、GPUとは別にディープラーニング専用チップの開発も進んでいる。Intel社は2016年11月に、2020年までにディープラーニング性能を現在の100倍に高める計画を発表。その実現に向けて2017年10月、ディープラーニングに特化したNervana NNP(Neural Network Processor)を発表した。また、Googleは、2017年5月に新しいTPU(Tensor processing unit)を発表し、ディープラーニング用フレームワークであるTensorFlowによるAI処理を、効率的に実行する環境を整えつつある。

 今後ディープラーニングが克服してゆくべき課題としては、まず、学習用に膨大なデータが必要な点がある。ディープラーニングは、元データが少ないと認識や判断の精度が上げにくい。少ない元データに最適化されすぎて、未知のデータに対応できない“過学習”という現象も発生する。そこで、元データが少ないときは、元データを少し加工したダミーデータを作ってデータを水増しするといったことが行われているのだが、これにより、データ加工の手間が増え、学習に必要な演算能力も増えるという事態に陥っている。

 もう1つの問題は、処理の負荷が高い点だ。これまでのディープラーニングは、GPUや専用チップを使って“力技”でAIを実現してきた。手元のスマホが搭載するパーソナルアシスタントも、スマホは単に入出力デバイスに過ぎず、実体はクラウド上で処理されている。SiriやCortanaがオフラインで使えないのはそういう理由だ。

 だが、自動運転車に搭載されるAIが「オフラインでは使えません」というのは非常に困る。もちろん、自動運転車向けのAIユニットはその点も考慮されているのだが、より省電力でよりコンパクトなものが実現できないと、オフラインでも使えるAI搭載のウェアラブルデバイスは実現できない。

 より少ないデータとより少ない処理能力で、効率的かつ精度の高い学習を可能にするためには、新たなアルゴリズムの開発が求められる。それがディープラーニングの改良版になるのか、あるいはディープラーニングに取って代わる新たなアルゴリズムになるのかは分からない。いずれにしてもAIを取り巻く技術は激しく進化と変遷を繰り返しており、今後もますます目が離せない。