Photo by Ferret

これまでSFの世界で語られたいた人工知能(AI)
しかし、現在、AIはもはや現実の世界に応用され、日々、ニュースでその成果が報告されています。

現在の人工知能ブームは実は3回目。もともと数十年前から研究されてきましたが、本格的な実用が進んできたのはここ最近です。その理由には、「ディープ・ラーニング」と呼ばれる自己学習法が新たに登場したことに加え、「クラウド」や「高速ネットワーク」などのインフラ整備によって可能になった「ビッグ・データ」の存在があります。

本書は、このような背景から技術を平素な言葉でわかりやすく紹介した一冊。全4章構成で、興味の章から学べるようになっております。理系でない人でも、比較的、読みやすい本です。
1章:人工知能とは
2章:機械学習
3章:ディープ・ラーニング
4章:ビッグ・データへの活用

「人工知能」を変える「ディープラーニング」

コンピュータはあいまいな情報判断が苦手です。例えば、子供は写真に映る動物が何かを判断できますが、コンピュータは写真にどのような動物が写っているのか判断するのは難しいのです。その理由は、単純な条件判定の羅列では処理を記述できないからです。

このような処理をするときに用いるのが、動物の脳内処理を似せた人工知能です。今回の人工知能技術の実用化に大きく役になったのが、「ディープ・ラーニング(深層学習)」と呼ばれる学習法で、ニューラル・ネットワークを用いた機械学習の過程を多層構造化したものです。ここで、コンピュータでいう「学習」とは「勉強」ではなく、「脳が情報を理解し整理する過程」を意味します。

ディープラーニングでは、学習の前段階として、入力と出力を同じになるような自己符号化器を持っています。これは、データの特徴を捉える役割を果たすものです。この役割を、著者は「ニューロンに染み込ませる」と表現していますが、この前段階を学習することで、学習効率を上げています。
なお、ディープラーニングでは、ニューラルネットワークを多層化し学習しますが、従来4段程度だった階層を6段以上にしたあたりから、飛躍的に学習能力が高まったそうです。

なぜ、人間を模した「AI」にこだわるのか

著者は、その理由を、人が理解しやすいものを作りたい、裏返すと理解できない怖いものは作りたくない本能的な作用があるのかもしれないと考えを述べています。

コンピュータはアナログや十進数を捨て、二進数を扱ったことで、実用化しさらに大きく進化しました。機械式の解析機関にこだわっていたら、コンピュータは実現しませんでした。同じように真に「強いAI=汎用人工知能]を実現するためには人間や動物とは違う思考回路である必要があるのかもしれないと説明されています。」

ビッグデータとAI

本書評の冒頭に、今回のAIの実用化の背景には「ビッグデータ」の存在があると記載しましたが、それはどのようなことでしょうか?

ディープラーニングを実現するには、「学習を行うための大量の教材データ」が必要です。例えば写真に写る「犬」を理解させるためには、膨大な数の写真データが必要です。

人間の知能は、人間の知覚=全身のセンサからもたらされるデータを、「記憶」という形で蓄積しつつ、それを「経験」という道具として用いることで、現実世界で判断を行っています。しかし、人間には体が一つしかないので、処理に限界があります。

しかし、コンピュータの場合は、遠隔地の情報もデータで入手できれば処理が可能です。特に昨今はIoTが普及することで、膨大なデータが非常に容易になり、それが、AIの進化にも大きく貢献しています。

上記以外に、人工知能開発のためのTensorFlowをはじめとするライブラリGPUのディープラーニングへ活用など、これから初めて人工知能について学びたい技術者にも役立つ情報が掲載されております。

ちなみに、NVIDIAHPC向けのGPU「Tesla P100」を8基搭載するディープ・ラーニング向けのスーパーコンピュータDGX-1は、価格が12万9000ドル(約1400万円)。性能は250台分のPCサーバに匹敵するとのことです。

この価格、高い/安い、どうお感じになられましたか?