「ディープラーニング(Deep Learning:深層学習)」とは、コンピュータによる機械学習の1種であり、人間の脳の階層構造をコンピュータで再現しようというアイデアに基づいた「ニューラルネットワーク」を改良し、画像や音声などの認識や、自動運転などの複雑な判断を可能にする。
ディープラーニング(Deep Learning:深層学習)とは
ディープラーニング(深層学習)とは、人間が自然に行うタスク(音声認識/画像認識/予測など)をコンピュータに学習させる機械学習手法の1つである。
人間がデータを編成して定義済みの数式にかけるのではなく、人間はデータに関する基本的なパラメータ設定のみを行い、その後は、コンピュータ自体に課題の解決方法を学習させる。
コンピュータは大量のデータを取り込み、何層もの処理を用いたパターン認識を行うことにより、自動的にデータから特徴を抽出する「ディープニューラルネットワーク(DNN)」を用いた学習を行う。
1層の処理のみではシンプルな結果しか導き出せないが、処理を行う層を深く(ディープに)することで複雑な処理を行えるようにするというのが、ディープラーニングのアプローチ方法である。
「人工知能」の領域の中に「機械学習」が含まれ、「機械学習」の領域の中に「ディープラーニング」が含まれる関係になっている。
つまり、「ディープラーニング」は、「人工知能(AI)」要素技術の1つという位置付けである。
人工知能要素技術の1つである「機械学習」の特徴は、「AI自身がデータを解析し、法則性/ルールを見つけ出す」機能にある。
開発者はすべての処理動作を詳細にプログラムする必要はなく、AIが自身で「トレーニング」を行うことにより特定のタスクを実行できるようになる。
AIに「色に注目すること」という指示を与え、1枚1枚に「赤い花」「青い花」「黄色い花」というタグをつけた、大量の花の画像を読み込ませてトレーニングを行う。
まだ解析していない花の画像をAIに解析させると、色に注目して、その画像は「赤い花」なのか「青い花」なのか「黄色い花」なのかについて区別できるようになる。
機械学習の場合、トレーニング用データに対して、人が1つずつタグを設定する必要があるため、データ準備段階に膨大な手間が発生するという問題がある。
機械学習では、既存のデータを用い、特徴エンジニアリングによって新しい変数を導き出し、適切と思われる分析モデルを選択した上で、最終的にそのモデルにおける未知の係数値を推定する。
このような手法で予測システムを構築することは可能だが、完全性/正確性は、モデルとクオリティに大きく依存するため、なかなかスマートに一般化できない。
例えば、数万の変数に依存するモデルが得られたとした場合、変数の選別などを通してモデルのシェイプアップが必要となる。また、新たなデータが追加されるたびに、各種調整が必要となる。
「ディープラーニング」は「機械学習」をさらに発展させたものである。機械学習とは異なるデータ分析手法「ニューラルネットワーク」をベースとしている。
機械学習で花の画像を分析する場合、特徴点(注目ポイント)である「色」をトレーニングさせるために、すべての画像に人がタグを設定する必要がある。
一方、ディープラーニングでは、AIが学習データから自動的に特徴を抽出できる。人が特徴点(色など)を教える必要はなく、AI自身で特徴点を抽出し、自動的に学習していく。大量のデータを与えることで性能を向上でき、より高い精度を得られる。
ディープラーニングによる新しいアプローチでは、人がトレーニングデータを用意する必要はなく、入力層と出力層の間の中間層にある多層レイヤー群を用いて、そこに見られる規則性から、データに潜む特徴を明らかにしていく方法を学習させる。
多層レイヤー群の調整を行うことにより、「情報伝達処理向上」「特徴量精度向上」「汎用性向上」「予測精度向上」などの効果を高めることが可能である。
ディープラーニングは「特徴エンジニアリング」から「特徴表現」へ移行させるパラダイムシフトをもたらしている。
ディープラーニングの登場により、データ分析/学習性能をより強力に押し上げることが可能となった。
→AnalyticsNews →人工知能(AI)とシンギュラリティ
当初、多層ニューラルネットワークは、各種技術的な問題(問題局所最適解、勾配消失など)により、充分な学習を行えず、性能を向上できない時代が長く続いていた。
2006年、代表的なニューラルネットワーク研究者であるジェフリー・ヒントン氏らの研究チームが、多層にネットワークを積み重ねても精度を損なわない手法「スタックドオートエンコーダ」を提唱し、「制限ボルツマンマシンによるオートエンコーダの深層化」に成功した。この成果が、ディープラーニングに繋がる技術的ブレイクスルーとなり、再び注目を集めるようになった。
2012年、物体認識率競技会「ILSVRC」において、ジェフリー・ヒントン氏率いるトロント大学チームが圧勝し、ディープラーニングの有効性を実証した。従来手法のエラー率は26%程度だったが、ディープラーニング手法により、エラー率を17%に下げ、機械学習研究者らに衝撃を与えた。その後の毎年の競技会でも、上位はディープラーニングが占めるようになった。
2012年、Googleが猫の画像認識をAIが行えるようになったと発表した。大量のYouTube画像をディープラーニングに与え、16000のCPUコアで3日間計算しただけで、画像認識を行えることが分かり、画像物体認識において、ディープラーニングは従来手法よりも飛躍的な進歩であることが決定的となった。
2016年、人工知能の囲碁プログラム「AlphaGo」が、世界トップレベルの実力を持つプロ棋士に勝利した。
以上のように、第3次人工知能ブームは、ディープラーニング技術の誕生が大きく貢献している。
機械学習では「人間がデータにモデルを当てはめる」という決定論的なビジネスルールにもとづいてハードコーディングされた分析システム構築が行われてきた。
一方、ディープラーニングは、「継続的改善により情報パターン変化に適時対応可能」なダイナミック性により、一般化と適応が良好に行われ、柔軟性の高いデータをアナリティクスに取り込むことが可能になった。
機械学習では扱いづらい複雑なデータ(言葉で特徴を定義するのが難しい場合)であっても、ディープラーニングの場合、大量のデータさえあれば処理を行え、新しいデータに合わせた継続的な改善も可能である。
ディープラーニングはトレーニングに時間がかかる。
しかし、トータルのデータ分析フローで考えると、データ準備段階で膨大な時間を必要とする機械学習よりも、「圧倒的パフォーマンス向上」と「時間節約」となる。
ディープラーニングのモデルは極めて高い精度を誇り、人間の認識精度を超えることもある。
高い認識精度を活用して、人間が行っていた業務の一部をAIに置き換えるなどの業務効率化が可能になってきている。
特に安全性が最優先されるべき自動運転車のような分野では、高い認識精度は非常に重要な要素と言える。
従来のモデリング手法(機械学習)は人間が理解できるものであり、その予測手法やビジネスルールについて説明は可能である。
一方、ディープラーニングは、どのようなルールにより結果が出ているのかについて人間が理解するのは困難であるため「ブラックボックス的アプローチ」と位置付けられている。
正しく機能しているかを確認するためには、新しいデータを対象にしたテストで証明するしかない。
機械学習では、学習方向性について、人間がある程度コントロールできる。
一方、ディープラーニングは、人間がまったく予測していない方向へ学習が進む可能性がある。どのようなデータを読み込ませるかについて、慎重に選択しなければならない場合もある。最適なデータを選択することで、より効率的な学習を期待できる。
多くの技術発展がディープラーニングのさらなる成長を後押ししている。
既存アルゴリズムの改良などにより、ディープラーニングの精度とパフォーマンスが飛躍的に向上している。
また、「テキスト翻訳」や「画像分類」などの特定用途に特化した新しいアルゴリズムも開発されている。
「コンピュータ高性能化」「クラウドインフラ増強」「高速処理を行えるGPU開発」「FPGA(Field-Programmable Gate Array)開発」などの処理インフラの性能は上昇し続けており、より高速な学習/分析を期待できる。
GUIでモデルを構築できるツールなども登場してきており、ディープラーニング技術のコモディティ化が進行している。
誰もが個人用分析ツールとしてディープラーニング技術を扱えるようになり、データを有効に活用できるようになることが期待されている。
ディープラーニングの学習は膨大な計算処理が必要であるため、クラウドデータセンターなどのハイパフォーマンス環境が利用されている。
一方、ディープラーニングの普及により、クラウドに上げずに、それぞれデバイスが群知能的に処理を行う「エッジコンピューティング」も拡大すると言われている。
人工知能(AI)ビジネスの国内市場は、2030年度に2兆円規模になると予測もある。
ディープラーニングの処理フェーズは、大まかに「学習処理フェーズ」と「推論処理フェーズ」に分かれる。
適正な推論を行える学習モデルに育てるためには、大量の訓練用データを取り込み、学習を行う必要がある。
ディープラーニングは「質の高い訓練用データが多いほど精度が上がる」という特徴がある。大量の訓練用データ(ビッグデータ)を確保できない場合は、高い推論性能を発揮できない。
AI開発において利用できるデータ量は重要なウェイトを占める。「日本の研究機関/企業は、良質なビッグデータを確保できないため、AI開発に遅れが出ている」という分析もある。
膨大な量のデータを処理するため、「時間」「電力」「高機能サーバ(GPU)」が必要となる。
ディープラーニングは、「過学習」や「過剰適合」などの課題もあり、チューニングが難しいという弱点がある。
ディープラーニングのチューニングを行うためには高度なスキルが必要であり、そのような人材は非常に少ないという問題もある。
推論処理フェーズでは、訓練した学習モデルを使用して推論を行う。
実際のビジネスにおいて、「学習済モデル」や「学習済モデルを利用できるサービス」を使用する場合は、自社でのAIトレーニングは行わずに、迅速に開始できる。
推論処理は、学習処理ほどのコンピュータリソースは必要としない。
ディープラーニングには、複数のアルゴリズムを利用できる。
それぞれのアルゴリズムに特徴があり、得意分野が異なるため、どのアルゴリズムが適切なのか検討する必要がある。
ディープラーニングで使用される多くのアルゴリズムには、「ニューラルネットワーク」構造が使われている。そのため、ディープラーニングのモデルは、「ディープニューラルネットワーク」とも呼ばれる。
「ニューラルネットワーク」は、ディープラーニングのベースとなる代表的アルゴリズムである。
「ニューラルネットワーク(NN:Neural Network)」は、ニューロン(神経細胞)ネットワークで構成されている人間の脳神経回路を模倣することでパターン認識を行い、データを分類するアプローチ手法である。
ニューラルネットワークを多層化することで、データに含まれる特徴について、段階的に学習を行える。
ニューラルネットワークは、機械学習用計算アルゴリズムとして、1940年代から存在している。
1990年代後半にブームとなったが、大規模トレーニングデータを確保できず、実用に耐えられる精度を実現するのが難しかったため、下火となった。
その後の第3次人工知能ブームで、ディープラーニングが注目されることにより、ニューラルネットワークも改めて注目されるようになった。
AI学習に欠かせないトレーニングデータを容易に確保しやすくなったという要因がある。
オープンデータ化の風潮もあり、「IoT」「ストリーミングデータ」「ソーシャルメディアデータ」「公的ビッグデータ」などの各種データを入手しやすくなっている。
AI学習には膨大なコンピュータパワーが必要となるが、「分散クラウドコンピューティング」と「GPU(Graphics Processing Unit)」技術などの成長により、十分なコンピュータリソースを比較的安価に利用できるようになった。
「ディープニューラルネットワーク(DNN:Deep Neural Network)」とは、「ニューラルネットワーク」アルゴリズムを多層構造化したものである。「ディープ」は「多層化」を意味している。
「ニューラルネットワーク」は2〜3層程度で構成されているが、「ディープニューラルネットワーク」では、150層以上に達している。
「ディープニューラルネットワーク」は、より多くの多層構造を持つことによって、「ニューラルネットワーク」よりも遥かに高い精度での学習/推論が可能になっている。
「畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)」とは、「ディープニューラルネットワーク」を2次元データに対応させたもので、局所的な情報の抽象化及び位置普遍性をもたせた順伝播型ニューラルネットワークを利用したアルゴリズムである。
近年において、深層であることを強調するため、「深層畳み込みニューラルネットワーク」と呼ばれることもある。
画像処理において、高いパターン認識能力を発揮する。手作業での特徴抽出は必要なく、画像から自動的に直接特徴抽出を行い、1つの画像に含まれる数々の特徴を学習できる。
「再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)」とは、音声/動画データのような可変長データを扱えるようにするために中間層に再帰的な構造をもたせた双方向に信号が伝播するニューラルネットワークを利用したアルゴリズムである。
「動画認識」「音声認識」「自然言語処理」など、入力データの順序によって出力が変わるデータの処理を得意とする。
他にも多くのアルゴリズムが存在する。
ディープラーニング手法は、人工知能(AI)の急速な発展を支えている技術であり、その進歩によりさまざまな分野への実用化が進んでいる。
今後も、研究進展により、新たな実用事例が続々と登場してくることが期待されている。
「ディープラーニングでビジネスチャンスをつかむために必要なことは何か?」について、日本ディープラーニング協会理事長である東京大学の松尾豊特任准教授は、「やったもの勝ちだ」「必要なのは行動するための知識」であると提言する。 【解説テーマ】 ・薄く広くでは負けてしまう ・やったもの勝ち!高校生もできる
Analytics News ACCESS RANKING