書評☆4 第三次人工知能ブームはディープラーニングが原因 | 人工知能は人間を超えるか

概要

2014年末ごろから急に人工知能 (AI) がブームになりだした。これを受けて,人工知能がなぜ今ブームになっているのかの経緯と,重要なキーワードと概念について,この分野のトップランナーである著者が解説している。

キーワードだけが取り上げられて,マスメディアにより煽動され,実際のところどうなのか?今後何がどう変わっていくのか?そういったところがいまいちよくわからなかった。この本を読むことで,何が起きているのか,何が重要なのかが分かる。

参考箇所

p. 005: はじめに

実は、人工知能にはこれまで2回のブームがあった。1956年から1960年代が第1次ブーム。1980年代が第2次ブーム。

人工知能が過去にもブームだったのはきいていたが,より正確な時系列がわかった。

p.044: 専門家と世間の認識のズレ

私を含め、専門家13人による人工知能の定義を図1の表にまとめておいた。このように、人工知能の定義は専門家の間でも定まっていない。

ちなみに、私の定義では、人工知能は「人工的に作られた人間のような知能」であり、人間のように知的であるとは「気づくことのできる」コンピュータ、つまり、データの中から特徴量を生成し現象をモデル化することのできるコンピュータという意味である。くわしくは第5章で説明する。

人工知能の定義が専門家の間でも定まっていないことに驚いた。

p. 055: 強いAIと弱いAI

人工知能の研究分野では、古くから「強いAI」「弱いAI」という議論がある。

もともとは哲学者のジョン・サール氏が言ったもので、「正しい入力と出力を備え、適切にプログラムされたコンピュータは、人間が心を持つのとまったく同じ意味で、心を持つ」とする立場を「強いAI」とした。


それに対して、「弱いAI」とは、心を持つ必要はなく、限定された知能によって一知見的な問題解決が行えればよいとする立場である。

人工知能の分野でときどき耳にする「強いAI」と「弱いAI」の意味がわかった。

p. 060: ブームと冬の時代

第1次AIブームは1950年代後半〜1960年代。コンピュータで「推論・探索」をすることで得知恵の問題を解く研究が進んだ。しかし、いわゆる「トイ・プロブレム(おもちゃの問題)」は解けても、複雑な現実の問題は解けないことが明らかになった結果、ブームは急速に冷め、1970年代には人工知能研究は冬の時代を迎えた。

第2次ブームは1980年代であり、コンピュータに「知識」を入れると賢くなるというアプローチが全盛を迎え、エキスパートシステムと呼ばれる実用的なシステムがたくさんつくられた。しかし、知識を記述、管理することの大変さが明らかになってくると、1995年ごろにはふたたびAIは冬の時代に突入してしまう。

一方、1990年代半ばの検索エンジンの誕生以降、インターネットが爆発的に普及し、2000年台に入ると、ウェブの広がりとともに大量のデータを用いた「機械学習」が静かに広がってきた。そして現在、AI研究は3回目のブームに差しかかっている。

第3次AIブームは、図3のようにビッグデータの時代に広がった機械学習と、技術的に大きなブレークスルーであるディープラーニング(特徴表現学習)の2つの大波が重なって生まれている。


ざっくり言うと、第1次AIブームは推論・探索の時代、第2次ブームは知識の時代、第3次AIブームは機械学習と特徴表現学習の時代であるが、もっと厳密に言うと、この3つはお互いに重なり合っている。

AIブームのこれまでの変遷を把握できた。

p. 116: 「学習する」とは「分ける」こと

機械学習とは人工知能のプログラム自身が学習する仕組みである。

そもそも学習とは何か。どうなれば学習したと言えるのか。学習の根幹をなすのは「分ける」という処理である。

機械学習及び学習の概念を理解できた。

p. 138: なぜ今まで人工知能が実現しなかったのか

いままで人工知能が実現しなかったのは、「世界からどの特徴に注目して情報を取り出すべきか」に関して、人間の手を借りなければならなかったからだ。

AIが今まで流行らなかった原因とこれを解決するディープラーニングの経緯がわかった。

p. 144: ディープラーニングが新時代を切り開く

2012年、人工知能研究の世界に衝撃が走った。世界的な画像認識のコンペティション「ILSVRC (Imagenet Large Scale Visual Recognistion Challenge)」で、東京大学、オックスフォード大学、独イェーナ大学、ゼロックスなど名だたる研究機関が開発した人工知能を抑えて、初参加のカナダのトロント大学開発したSuperVisionが圧倒的な勝利を飾ったのだ。


何がトロント大学に勝利をもたらしたのか。その勝因は大学教授ジェフリー・ヒントン氏が中心になって開発した新しい機械学習の方法「ディープラーニング(深層学習)」だった。


ディープラーニングは、データをもとに、コンピュータが自ら特徴量を作り出す。人間が特徴量を設計するのではなく、コンピュータが自ら高次の特徴量を獲得し、それを元に画像を分類できるようになる。ディープラーニングによって、これまで人間が介在しなければならなかった領域に、ついに人工知能が一歩踏み込んだのだ。

ディープラーニングの始まりと,何がすごいのかがわかった。

p. 149: ディープラーニングが従来の機械学習とは大きく異なる点が2点ある。1つは、1層ずつ階層ごとに学習していく点、もう1つは、自己符号化気(オートエンコーダー)という「情報圧縮機」を用いることだ。

ディープラーニングの特徴がわかった。

p. 156: 手書き文字における「情報量」

出力が元の入力とできるだけ近くになるようにするには、どうしたらよいだろうか。「情報量」を使えば よいのである。たとえば、ある画素が黒のとき、その隣の画素も必ず黒なのだとしたら、その2つの画素はまとめて扱ってしまえばよい。


数学や統計に詳しい人であればピンとくるかもしれないが、自己符号化器でやっていることは、アンケート結果の分析などでおなじみの「主成分分析」と同じである。

ディープラーニングの方法がわかった。

p. 234: 産業・社会への影響と戦略

人工知能に関連する事業は、米国でも一気に増えているが、私なりに検討した結果、急激に成長する事業はそうそう立ち上がらないかもしれず、少し慎重に考えたほうがよいかもしれない。

まず、図の最上段に書かれている「コア・テクノロジー」という部分は、機械学習そのものを提供するビジネスである。


ツールやAPIの形で提供するものが多いが、ビジネスとしての広がりは厳しいかもしれない。なぜなら、機械学習のアルゴリズムは学術コミュニティが先行しており、その規範を覆して、企業が固有の機械学習の技術を実用化し、それが強い競争力を持つということは考えづらいし、それをツールとして提供したところで、使いこなせる企業は多くない。


2段目のグループは、「企業内の活動をもう一度考えよう」という事業群で、営業、セキュリティ、人事、マーケティングなどが並んでいる。既に多くの企業が参入しているところであり、それらの企業が少しずつ人工知能を使った製品を提供していく形で進化していくだろう。

3段目は、「各産業をもう一度考えよう」というグループである。多くの産業分野では少しずつビッグデータの活用が進み、その後に人工知能の活用が進んでくるはずだ。

この中で、もしわれわれにとってわかりやすい変化が急速に起こるとすれば、3段目の「各産業をもう一度考えよう」というグループの中の、医療、法務、財務といったあたりの分野だろう。専門家を代替する経済的なメリットが高く、多くの人がそのサービスを潜在的に必要としているからだ。


すでに何度か書いているように、「異常検知」はディープラーニングなどの特徴表現抽出の得意なところである。したがって、産業の中で異常検知に対して人出がかかっており、それがスケーラビリティや市場規模の制約となっている場合は、業界構造が一気に変わる可能性がある。

AIにより今後の業界でどこが影響あるかがわかった。

まとめ

近年の大きなトレンドの一つであるAIについて,過去から将来への流れや重要な概念についてわかりやすく解説している。

一般常識としても,今後の仕事をしていくうえでも入門としてこの本を読んでおくのは有益だと感じた。

パーマリンク: https://senooken.jp/blog/2018/09/17/

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です