PAPAの独り言

PAPA(3児の父)が、いろいろ書きたいこと書きます。

人類を超えるAIは日本から生まれる(松田卓也)を読んで

松田卓也さんの『人類を超えるAIは日本から生まれる』を読んだので、備忘録として感想や印象に残った話のまとめなどを書きます。

 

松田卓也さんについて】

著者の松田卓也さんは、神戸大学名誉教授を務められている方で、宇宙物理学者です。AI2オープンイノベーション研究所の所長をされていたり、シンギュラリティサロンを主宰されていて、人工知能(AI)に関する知識もかなり深い方のようです。

 

人工知能(AI)業界の様々な動き】

人工知能は様々な業界で取り入れられています。

  • 自動車企業による、自動運転技術
  • 国立情報研究所による、東大入試の合格を目指すAI「東ロボくん」
  • メガバンクによる、AIのコールセンター業務への活用

【第1次人工知能(AI)ブームの行方】

最初に「人工知能」という言葉が誕生したのは、1956年の「ダートマス会議」でした。その10年前の1946年に世界初の電子式コンピューター「エニアック(ENIAC)」が完成しており、研究者の間には「コンピュータは人間の脳みたいになるはずだ」という期待が膨らんでいました。しかし、しばらく盛り上がった人工知能研究が、1970年代に停滞してしまいます。

一旦盛り上がった人工知能研究が停滞したのは、当時のコンピューター能力が今と比べてはるかに低かったことが理由です。例えば、1954年に発表されたIBM704の性能は、1秒間に4万回の計算が出来るものでしたが、一方、現在の日本最速コンピューター「京」は、1秒間に1京回計算ができます。つまり、当時のコンピューターは現在の2500億分の1の性能だったのです。

現在でもディープラーニングを利用した人工知能ソフトを走らせるには、高速なプロセッサを積んだコンピュータを何台も並べて、何日もかけて計算を行う必要があります。それでも、人間の知能を実現できていません。最新のコンピュータを何台も使ったとしても、まだ人間の知能は実現できていないのです。

【第2次人工知能(AI)ブームの行方】

一旦停滞した人工知能ブームが再び盛り上がったのは1980年代です。ここでは、日本が主導的な役割を果たしました。当時の通産省(現・経産省)が、研究開発予算570億円を投入して、「第5次コンピューター計画」という国家プロジェクトを進めたのです。目標は、推論を高速で実行する並列推論計算機を作ることでした。

当時はディープラーニングではなく、「エキスパートシステム(ルール型人工知能)」という手法を採用していました。エキスパートシステムでは、専門的な知識を「もし○○だったら、□□せよ」という風にif-then式の規則を大量にコンピュータに人間が教えるやり方でした。

結果は、うまくいきませんでした。ハードウェア(計算機)は作れたのですが、その上で走れるアプリケーションが作れなかったのです。産業に応用が何も生まれなかったため、海外では「大失敗(Big Failure)」と呼ばれています。第5時コンピュータ計画は大失敗に終わったのです。ただし、エキスパートシステムに関しては、当時、アメリカをはじめとする様々な国々でも失敗に終わっています

失敗の理由は、人間の知識を「全て」コンピュータに教える、というのが不可能だったからです。子育てをする時に子供に歩き方や話し方は教えませんが、子供は自分で試行錯誤して自然と様々なことが出来るようになります。そして、別の書評記事でも書きましたが、人間は「どうすれば話せるようになるか」「どうすれば歩けるようになるか」を理解していませんし、言葉で説明することも出来ません。人間自身が分かっていない人間のことを、コンピュータに全て教えることはできないのです。

この失敗の後、人工知能研究は再び停滞し、冬の時代に入りました。

【第3次人工知能(AI)ブームの行方】

 21世紀(2001年以降)に入って、また人工知能がブームになります。その理由は3つあります。

一つ目の理由は、ディープラーニングという概念の誕生です。ディープラーニングの全身となる技術に「ニューラルネットワーク」という技術があるのですが、この技術自体は1980年代に理論や手法が完成していました。そして、21世紀に入ってからジェフリー・ヒントンが、ニューラルネットワークのレイヤー(階層)を何段も重ねれば、高度な推論が可能になることを示したのです。この「何段も重ねる(深くする)」という意味から「ディープラーニング」という言葉が生まれたのです。ただし、何段にも重ねて計算をするには、物凄いコンピューターパワー(性能)が必要になるのですが、長らく実行できる環境がなかったのです。ソフトウェアの理論が完成しても、ハードウェアが追いついていなかった、ということです。これは、第1次人工知能ブームが停滞していた原因と同じです。

二つ目の理由は、コンピュータが高性能化したことです。プログラムの計算速度(実行速度)が大幅に上がったため、上記ディープラーニングなどを利用した人工知能プログラムでも実行できるようになった、ということです。

三つ目の理由は、大量のデータ(ビッグデータ)が手に入るようになったことです。人工知能は大量のデータを元に学習します。どんなに頭が良くなっても、学ばなければ何も出来ません。学ぶ知識(データ)が大量に入手できるからこそ、人工知能は学習することが出来るようになったのです。

ディープラーニングが画像認識コンペで圧勝】

 現在、ディープラーニングの利用が進んでいるのは画像認識の分野です。膨大な数の写真データをコンピュータに読み込ませておけば、「これは犬である」「これはヒマワリである」という風に、高い精度で判別できるようになっています。人間の顔も識別でき、写真に写る人が「誰なのか」まで分かるようになっているそうです。

2012年に、世界的な画像認識技術のコンペ「ILSVRC」で、トロント大学のスーパーヴィジョンというソフトが圧勝しました。このソフトにもディープラーニングが利用されていました。

【グーグルの猫】

2012年、グーグルと共同研究していたスタンフォード大学のアンドリュー・エンは、ユーチューブから静止画を1000万枚ほどとってきて、コンピュータを1000台並べた巨大な並列計算システムに入れて、3日間ぶっ通しで計算させました。その結果、ディープラーニングニューラルネットワークの中に、猫を認識するパターンが現われたのです。つまり、人間は人工知能に何も猫に関する特徴を教えていないのに、コンピュータが自分で猫の特徴(パターン。概念)を発見した、ということです。

これは「グーグルの猫」と呼ばれる実験で、一般の人々の間でも話題になりました。

【人間の脳と人工知能の違い】

人工知能の成功と流行の最大要因はディープラーニングであると言えます。このディープラーニングは「機械学習」という手法の一種です。機械学習とは、データを大量にコンピュータに読ませて、なんらかのパターンを発見(パターン認識)したり、データをグループに分類したりする技術のことです。

一般的な機械学習は2段階のプロセスがあります。第1段階は学習フェーズです。画像認識なら、大量の写真データをあらかじめ読み込ませておく必要があります。学習フェーズには膨大な時間がかかります

第2段階は推論フェーズです。推論フェーズはほとんど時間がかかりません。スマホで写真を撮影する時に顔認識できるのも、このためですし、Siriの音声認識機能が即座に応答してくれるのも、学習フェーズが終わって推論フェーズに入っているためです。

人間はコンピュータと違い、学習フェーズで膨大な時間をかける必要がありません。犬を知るのに、お母さんが数匹犬を見せて「あれが犬だよ」と教えれば分かるようになるからです。

【教師付き学習と教師無し学習】

機械学習には、「教師付き学習」と「教師なし学習」、そして、その中間である「半教師付き学習」という種類があります。

教師付き学習は、データを与えるたびに名前を同時に教える学習法です。例えば、「あれは犬だよ」「これは猫だよ」と子供に犬を見せるたびに名前を教えてあげるようなやり方です。この教師付き学習のやり方を、ビッグデータ(大量のデータ)で行うのは難しいのです。1000万枚の猫の写真データを与えるだけなら簡単なのですが、その写真データに対し「猫である」という名前(タグ)を付ける作業に非常に手間がかかるのです。ですが、ディープラーニングの多くは教師付き学習で行われています。

動物は物の区別がつきますが、名前は知りません。つまり、動物は基本的に教師なし学習をしています。人間の子供も、親から「あれはカラスだよ」と教えられるまでは、カラスの名前は知りません。ですが、カラスが鶏ではないことを、概念的には知っています。

この教師なし学習により、概念の分類分け(区別)ができるようになった後に、それぞれの分類(概念)に対して、「犬」「カラス」などと名前を与えるやり方が、半教師付き学習です。つまり、人間は、教師なし学習と半教師付き学習を両方行っているのです。学習フェーズの初期に、膨大なビッグデータの全てにタグ付け(名前付け)をするよりも、学習フェーズが進み分類分けが終わった後の、少数の概念(分類)に対してタグ付け(名前付け)をする方が、はるかに手間が少なくてすみます

繰り返しになりますが、現在のディープラーニングの主流は、教師付き学習(名前付け学習)です。ですので、学習フェーズの段階で大量の手間(膨大な時間)がかかるということが、一つの問題点だと思います。

【人間を超える「超知能」を実現するコンピュータ】

松田さんは今後は「人工知能の冬は来ない」と予測してます。そこで、期待されるのが人間の知能を超える「超知能」の誕生です。

コンピュータの能力がどの程度あれば、人間の脳と同じ知的活動が行えるのか。これについては、研究者によって様々な意見がありますが、最も楽観的な見積もりだと、神戸にあるスーパーコンピュータ「京」程度で十分だ、という意見があります。産業技術総合研究所の一杉裕志さんはこの立場です。

ちなみに、京コンピュータの能力は10ペタフロップスで、1ペタが1000兆のことです。10ペタで1京になります。1フロップスは1秒間に1回、小数点付きの数字の計算ができる能力です。つまり、京コンピュータは1秒間に1京回、小数点付きの数字の計算ができる能力を持っています

一杉さんより厳しい見積もりをする人は、京コンピュータの100倍程度、つまり100京フロップスの能力を持つコンピュータが必要と言います。100京フロップスは、英語で1エクサフロップスと言います。何だかもうわけわからないくらい大きな数字です(笑)つまり、厳しい意見の人だと、1エクサフロップスのスーパーコンピュータが完成すれば、人間の知的活動を再現できる、ということです。

実は日本のベンチャー企業「ペジーコンピューティング(Pezy Computing)」の齊藤元章さんの技術があれば、2020年頃までに、エクサコンピュータを開発できるのです!(凄いですね!日本のベンチャー企業の力で世界トップレベルの人工知能が実現できるかもしれない)

ただし、更に厳しい見方をする人だと、エクサフロップスの1000倍、1ゼタフロップスの能力が必要だとしています。この場合は、2030年くらいまで待たないといけないそうです。

著者の松田卓也さんは最も楽観的な意見である10ペタフロップス(1京フロップス)のコンピュータで実現できるとする、立場です。

【「超知能」を実現するマスター・アルゴリズム

 ぺジーコンピューティングが開発しているようなスーパーコンピュータは、超知能を実現するためのハードウェアにあたります。

超知能を実現するソフトウェアにあたる人工知能は、今のところまだ完成の目処がたっていないようです。ディープラーニングも人間の知能とは違いますし、限界もあります。また、有名なクイズ番組で人間のチャンピョンを破ったことで有名になった、IBMの人工知能であるワトソンは、ディープラーニングではなく、昔ながらのエキスパートシステム(ルール型)を利用しています。人工知能の研究は今も過渡期であり、様々な手法による試行錯誤がなされているのが現状です。

超知能を実現するような理論、「マスター・アルゴリズム」と呼べるようなものが今後生まれるかどうか、人工知能(AI)の未来はそこにかかっています。

【汎用人工知能と専用人工知能

今、世の中にある人工知能は全て、ある特定の目的に特化した「専用人工知能(特化型人工知能)」と呼ばれるものです。例えば、将棋AIに物を運ばせることは出来ませんし、産業用のアームロボットに将棋をさせることは出来ないのです。

一方で超知能が目指す、あらゆる目的に対応する(何でもできる)人間のような人工知能のことを、「汎用人工知能」と言います。人間は、「歩く」「話す」「ボールを蹴る」「歌う」など様々なことが出来ますし、ルールを教えれば(下手だとしても)将棋を指すことだって出来るようになります。作業のクオリティは別として、大抵のことは学習すれば何でもできるのが、人間の知能と専用人工知能との違いなのです。

人工知能の世界では、専用人工知能から汎用人工知能への開発競争へと向かっています。

【グーグルの技術開発とビッグデータ収集】

グーグルは現在、様々な技術開発に物凄い勢いで投資を行っています。最近では、グーグルグラス(メガネ型携帯端末)や自動運転者が話題です。グーグルグラスは民間用ではプライバシー問題などにより実用化されていませんが、業務用としては実用化が進んでいます。自動運転技術に関しては、ほぼ実用化レベルに達していて、後は法的な問題を解決すれば良い段階に入っています。

また、グーグルは全世界の膨大なデータ(ビッグデータ)の収集に力を入れています。例えば、ネストという火災報知機の会社を3200億円で買収しているのですが、それはおそらく各家庭を監視する火災報知機のデータが欲しいからだと推測されます。他にも、家庭用監視カメラの会社や人工衛星の会社も買収しています。

グーグルのGメールを使用する方も多いですが、そのシステムでも様々なメールのやり取りデータが集められていますし、そもそもネット上の検索システムによっても、大量のデータが集められているはずです。

このような膨大なデータの蓄積と、進化し続ける人工知能を組み合わせると、人々が「いつ・どこで・何を欲しがっているか」という詳細なニーズが分かり、必要な人に必要なタイミングでピンポイントに広告などを提供することが出来ます。例えば、今でもAmazonで物を買うと、「あなたにはこちらの商品もオススメ」というリコメンデーション機能が付いていますし、ブログを読んでいると、グーグルのアドセンス広告では、ブログを読む人の購買履歴やインターネット閲覧履歴などから、「読者の欲しがる商品」の広告が表示されるようになっています。

グーグルは資金力が豊富なので、今後もこういった機能は進化し続けていくはずです。ネストの買収額は3200億円でしたが、今から述べるディープマインド社にも500億円近くの金額で買収した、といわれています。

人工知能ベンチャーのディープマインド社】

グーグルが大金で買収したディープマインド社は、人工知能のエキスパート集団によるベンチャー会社で、創立者の1人は、デミス・ハサビスという天才です。ハサビスは、17歳の時にゲーム会社をつくって大儲けし、ケンブリッジ大学を卒業し、また別の会社を経営した後に、ロンドン大学で神経生理学を研究しています。彼の脳に関する論文は、「サイエンス」誌の10大ブレークスルーに選ばれています。

ハサビスは2012年にディープマインドを設立。その後、急激に大きくなり、現在、約100人いる従業員の多くが博士号取得者です。彼らが開発した人工知能「ディープ・Q・ネットワーク」略してDQNと呼ばれています。日本だとネットスラングで「DQN(ドキュン)」は「馬鹿」という意味で使われています。

ハサビスはDQNにスペースインベーダーブロック崩しなどのゲームをさせました。ゲームはルールが明確なので、コンピュータに理解させやすいからです。ゲームをしばらくさせ続けると、だんだんと上達して、最後には人間では全く敵わないレベルになります。DQNがブロック崩しを人間よりもはるかに上手に行うデモ動画は世界を驚愕させ、BBC(イギリス)のニュースにもなったほどです。

ハサビスは「ディープマインドの目標は、物理学を発展させ宇宙の神秘を解明すること」と言っています。そのために人間が宇宙を直接解明するよりも、人間の脳を研究して人工知能を開発した方が早いと考えたのです。脳を解明し、人間よりも賢い汎用人工知能(超知能)を開発し、人工知能(AI)に宇宙の解明をしてもらえば良いからです。

また、ハサビスは平和主義者であり、グーグルに買収される際に、人工知能を軍事利用しないための倫理委員会をつくることを条件にしています。そして、彼らは「20年ロードマップ」をつくり、今後じっくり腰をすえて開発に取り組もうとしているのです。人工知能界の期待の星であり、他の開発者にとっては脅威かもしれません。

【IBMと人工知能(AI)】

IBMは人工知能関連で、3つのプロジェクトを進めています。

一つ目が、既に広く知られているワトソンです。ワトソンはどんどん性能が上がっていて、日本の銀行のコールセンター業務にも導入され始めています。IBMのワトソンが特に力を入れているのが医療分野です。患者の容態や様々な情報を入力すると、どの病気にかかっている確率が何%、候補となる治療法は何かなどを教えてくれるアプリケーションが開発されています。

二つ目のプロジェクトが、シナプス(SyNAPSE)です。これは機械学習の一種であり、ディープラーニングの基礎となっているニューラルネットワークをハードウェア化しよう、という計画です。今の人工知能のほとんどは、コンピュータ上で動くソフトウェアで計算(実行)を行っています。

しかし、スーパーコンピュータなど大型のコンピュータは、携帯したりロボットに搭載することが出来ません。小型で軽量なハードウェアが必要になります。そこでIBMが考えたのがシナプスです。2014年、シナプスの最新版であるトゥルーノースが公開されました。トゥルーノースは、人間の脳のような計算能力や効率性を持つコンピュータ(ハードウェア)です。

トゥルーノースは54億のトランジスタを使用し、コア数が100万。コアとは、CPU内で処理を行う中核回路のことで、脳のニューロンに相当します。脳のシナプスに相当するものはその256倍、2億5600万も備えています。IBMは、このトゥルーノースで「ラットと同程度の能力を達成した」と言っています(ラットと同程度、っていうことは、まだまだ人間にはほど遠い気がします)

ちなみに諸説ありますが、人間の場合、大脳だけに限定してもニューロンは数百億個、シナプスは約100兆個あるといわれています。ですので、その数字だけを見れば、やはり「人間とは程遠い」と思われます。

このシナプス計画はDARPA(アメリカ国防高等研究計画局)の資金援助を受けています。つまり、軍事予算で開発されているのです。例えば、こういうチップをミサイルやドローンに搭載すれば、自律的に敵を探知し攻撃する兵器が完成するかもしれません。

トゥルーノースはチップ単体では学習は出来ません。スーパーコンピュータであらかじめ学習した結果をチップ上に設定する必要があります。つまり、汎用人工知能を実現できるコンピュータではないのです。ただし、産業用(ロボットなど)に利用するのであれば、役に立つでしょう。

人間は「データが与えられるたびに学習する」というオンライン学習を行っています。実践しながら、そのつど少しずつ賢くなっていくのです。繰り返しになりますが、トゥルーノースのように事前の大量学習が必要な仕組みだと、人間のような知能(汎用人工知能)は実現できないのです。

IBMが開発する三つ目の人工知能プロジェクトが、人間の脳により近い人工知能アルゴリズムHTM-CLA」の開発です。この新しい人工知能の開発のために、IBMはジェフ・ホーキンスと共同でコーティカル・ラーニング・センターという部門を新設しています。

 【フェイスブックとヤン・ルカン】

世界最大のソーシャル・ネットワークを持つフェイスブックも2013年に、人工知能研究所を立ち上げ、畳み込みニューラルネットワークという技術を開発したフランス人の人工知能学者であるヤン・ルカンを所長として迎え入れています。ルカンはディープラーニングを開発したフェフリー・ヒントンの教え子です。

ルカンはフェイスブックでの研究を基本的にオープンにすると言っています。前述したディープマインド社もオープンにすると述べています。それに対し、IBMはクローズで進めるようです(アメリカの軍事予算が付いてるので当然と言えば当然です)。

マイクロソフトと自動翻訳サービス】

マイクロソフト人工知能研究に力を入れています。マイクロソフトが中国で行った講演で、講演者の英語を音声認識でテキストに変換して会場の画面に映し出し、リアルタイムで中国語に翻訳して中国語の漢字で表示し、更にその中国語の音声も流す、というデモンレーションがありました。このときは聴衆の拍手喝采があったそうです。

また、スカイプを買収し、スカイプ上での自動翻訳サービスを始めています。こちら側がスペイン語で話すと、相手には英語で聞こえる、というようなサービスです。現在は、英語とスペイン語だけの翻訳ですが、欧米の言語や中国語は文法が似ているので、これから翻訳される言語はどんどん増えていくかもしれません。ただし、日本語と英語はかなり構造が違うので、翻訳サービスが実現するまでに時間がかかるでしょう。

【EUのヒューマン・ブレイン・プロジェクト】

EUはヒューマン・ブレイン・プロジェクトを進めています。これは、人間の脳の活動の全てをスーパーコンピュータでシュミレートしようとする研究プロジェクトです。つまり、人間の脳を最新コンピュータで完全にコピー(完全な汎用人工知能の実現)するのです。

このプロジェクトを率いる、スイス連邦工科大学のヘンリー・マークラム教授は、もともとブルー・ブレイン・プロジェクトと呼ばれる、人間の脳を分子レベルまでコンピュータ・シュミレーションで再現する研究をしていた人です。

このプロジェクトは人工知能研究の開発というより、脳科学研究の側面が強いです。その最終目標は、コンピュータ上のニューロンシナプスの数を人間と同等レベルまで増やし、その結果として、コンピュータ上に意識が現われることです。

この壮大なプロジェクトには批判も多いです。批判の一つは、「人間の脳の基礎的プロセスも解明してないのに、脳の完全なシュミレーションができるはずがない」というものです。あまりにも野心が大きいこの研究から、コンピュータに意識が生まれると考える研究者は少ないようです。

また、マークラムが研究費の大半を持っていってしまうため、他の研究者達が「自分達の研究が出来ない」とEUの上層部に訴えているそうです。ですので、資金面的にもこのプロジェクトには不安が残り、今後どうなるかはまだよく分かりません。

【アメリカのブレイン・イニシアティブ】

オバマ大統領がじきじきに発表した、アメリカのプロジェクトがブレイン・イニシアティブです。EUのヒューマン・ブレイン・プロジェクトよりも、更に脳科学研究に近く、人間の脳の活動を徹底的に研究するのが目標です。人間の脳をコピーするとかそういう話ではないので、特に論争を生み出すような研究ではありません。

ただし、研究予算の配分についてはよくわかっていません。

【中国のバイドゥー(百度)】

バイドゥー(百度)は中国のグーグルに相当する会社です。バイドゥーは2014年、シリコンバレー人工知能研究所を開設しました。その所長に就任したアンドリュー・エンは、スタンフォード大学教授で、人工知能界のスターです。彼がスタンフォード大学で行った人工知能公開講座はネット配信され、5万人が受講したと言われています。

エンは、もともとグーグルの基礎研究所に在籍してディープラーニングの研究をしていました。「グーグルの猫」の実験を行ったのもエンです。

バイドゥーは、2015年、上述したILSVRC(世界的な画像認識技術のコンペ)で、不正を行い1年間出場停止となりました。それくらい、人工知能研究の開発競争が白熱しているのです。

また、バイドゥーは、音声認識のための学習を数千時間行ったと発表しており、先行するグーグルを真剣に追いかけています。

ジェフ・ホーキンスのヌメンタ】

ジェフ・ホーキンスは、パーム(PalmというPDA携帯情報端末)を開発して財を成した人です。彼は2005年、人工知能を開発するベンチャー企業ヌメンタを設立します。ヌメンタが目指すのは、現在の機械的人工知能(専用人工知能)のようなものではなく、人間の脳の構造や仕組みにより近い人工知能の実現です。

ホーキンスは、インテルに勤務していた時期に脳研究の提案をしましたが、ビジネスにならないという理由で却下されています。次にMITの人工知能研究所に願書を出しましたが、不合格。その後、シリコンバレーのITベンチャーを経て、カリフォルニア大学バークレー校で脳の活動や人工知能について(独学で)研究しました。

その頃に偶然思いついた手書き文字認識プログラムが、一時期のPDAブームを牽引したパームへ発展しました。パームで儲けたホーキンスは、2002年にレッドウッド神経科学研究所という私立研究所を設立し、やりたかった人工知能研究を再開します。同研究所は2005年にカリフォルニア大学バークレー校に移管され、理論神経科学レッドウッドセンターという名称に変わっています。

ジェフ・ホーキンスは、ビジネスで財を成し、自分の資金で好きな人工知能の研究をしている非常にユニークな人物です。彼の一貫した目標は、人間の脳を模倣した人工知能(汎用人工知能)の開発です。

ホーキンスの研究では、人間の脳全部ではなく、大脳新皮質だけに特化したアプローチを採用しています。小脳や海馬など、それ以外の器官は一切考慮していません。彼は「私は人間を再現したり、ロボットや意識をつくる気はない」と語っています。つまり、ホーキンスは純粋に合理的・論理的・知性的な人工知能「マシン・インテリジェンス」を作りたいと考えているのです。そして、その最終目標はディープマインドのハサビスと同じく「宇宙の探究」です。

ホーキンスは、人間と同じように考える機械を作る方法は3つあると言います。1つは生物学的アプローチ。2つ目は数学的アプローチ。3つ目が工学的アプローチです。

生物学的アプローチは、彼の提唱する「HTM理論」のことで、これは大脳の構造や信号処理の方法を真似したアルゴリズムです。

数学的アプローチの代表が、流行のディープラーニングです。ディープラーニングは、古くからあるニューラルネットワークを進化発展させたものです。ニューラルネットワーク自体は人間の脳の神経細胞をモデルにしていますが、いったんモデル化された後は、それを解く手段が純粋な数学の問題となっていて、本来の脳活動とはほとんど関係無い方向に理論が発展してしまっています。

工学的アプローチは、いわゆるルール型(エキスパートシステム)の手法になります。代表例が、IBMのワトソンになります。

ホーキンスはこの3つの方法を比較して、人間と同じように考える人工知能をつくるには、人間の脳を模擬するのが唯一の道だと信じています。エキスパートシステムディープラーニングも汎用人工知能を実現することは出来ない、と言っているのです。

【HTM理論(階層的時間記憶理論)】

ホーキンスは、人間の脳は自然界にある時間的・空間的な階層を利用して物事を認識している、という仮説を立てています。大きなものは小さく分解でき、逆に小さなものが集まって大きなものが成り立っている、という考え方です。例えば、音声認識の場合、音素が集まって1つの音になり、音を集めると1つの単語になり、単語を集めると文になり、文を集めるとスピーチになる、という具合です。これが、HTM理論の思想です。

ディープラーニングでも、静止画像の認識に関しては、人間のような階層性の認識ができました。ただし、静止画ではなく動画でも認識できるのか、という問題がありました。この問題を解決するため、インドから来たディリープ・ジョージという学生と共同研究を始めます。そして、2005年に共同でヌメンタを設立し「HTM理論」の本格的な研究開発に取り組みました。

ホーキンスがジョージにアイデアを出し、ジョージが数式化・プログラム化を担当したようです。つまり、HTM理論の実質的な開発者はジョーです。

しかし、2010年になり、ホーキンスはHTM理論をジョージが開発した理論より更に大脳生理学観点から脳に近い理論に転換します。これが、現在IBMとの共同研究開発を進めているHTM-CLAと呼ばれる理論です。そこで、ジョージはヌメンタを辞めて、別会社のヴァイカリアスを作ります。

ホーキンスのHTM-CLA理論は学会では評判がよくありません。明確な数学の式として表現できず、研究論文も数編しかありません。元になったジョージのHTM理論は数式に表すことができ、研究論文もたくさんあります。

【ヴァイカリアス】

ヌメンタを辞めたあとにジョージはスコット・フェニックスという人物と共同で新会社ヴァイカリアスを設立します。ヴァイカリアスには、あの有名なイーロン・マスクも投資しています(マスクはディープマインドにも投資しています)。イーロン・マスクに限らず、ヴァイカリアスに対する投資家の評判は非常に良いそうです。また、ヴァイカリアスは2028年まで研究を非公開で進めていくことを公言しています。

人工知能の手法】

今のところ世の主流は、ディープマインドが行っている強化学習(正解に近いほど高い「報酬」を与える人工知能の学習手法)を使ったディープラーニングと、ヤン・ルカンの畳み込みニューラルネットワークで、傍流がHTM理論とその改良版アルゴリズムという位置づけになっています。HTM理論は手法としては傍流といえど、IBMが認めているので、侮れません。松田卓也さんはHTM理論が主流になっていくと想像しています。

【全脳アーキテクチャ勉強会】

遅れていた日本でも、汎用人工知能開発に向けて本格的な動きが出てきています。その代表的なプロジェクトが、産業技術総合研究所の一杉裕志さん、ドワンゴ人工知能研究所の山川宏さん、東京大学の松尾豊さんの3人が中心となって2013年に立ち上げた、全脳アーキテクチャ勉強会です。参加者は2000人に上るそうです。

全脳アーキテクチャ勉強会では、研究をよりオープンに進めるため、全脳アーキテクチャ・イニシアティブというNPOも発足し、現在会員を募集しています。このNPOの副代表を理化学研究所の高橋恒一さんが務めています。

全脳アーキテクチャの基本的な考え方は、人間の脳機能は、それぞれ明確に定義できる機械学習器が組み合わさってできている、というものです。すなわち、人間の脳の様々な部分である大脳・小脳・海馬などと同等の人工機械学習器をつくり、それらを組み合わせれば、人間の脳と同等かそれ以上の汎用人工知能を実現できる、という考えです。

全脳アーキテクチャの場合、大脳新皮質だけを模擬しようとするホーキンスのHTM理論とは違い、脳全体を再現するというアプローチです。このあたりは、EUのヒューマン・ブレイン・プロジェクトに近いかもしれませんね。

【動き出した日本政府】

人工知能に関してあまり感度がよくなかった日本政府がようやく動き始めました。2015年には総務省人工知能に関する研究会を立ち上げました。この研究会には、松尾豊さんも参加しています。

また、経産省は、産業技術研究所に新たに人工知能研究センターをつくり、ビッグデータ分析を行う人工知能と、脳型人工知能の研究を始めました。脳型人工知能の研究を主導しているのは、一杉裕志さんです。

さらに、2015年夏には、文科省人工知能研究に10年間で1000億円をあてる方針を発表。こちらは、理化学研究所が中心になるようです。

【その他の企業】

リクルートトヨタ人工知能研究機関を開設し、シリコンバレーに研究開発拠点を作っています。

そして、注目したい日本の人工知能ベンチャーが、プリファードインフラストラクチャーPFIです。このベンチャー企業は、ある国際プログラミングコンテストで優勝した、東京大学京都大学の学生が興した会社で、優秀な頭脳の持ち主が集まっています。

PFIの関連会社にプリファード・ネットワークス(PFN)という会社があります。PFNは深層学習(ディープラーニング)や分散コンピューティングなどの技術を研究開発し、産業への応用を行っている会社です。この会社は、日本経済新聞社が実施した「NEXTユニコーン調査」で企業価値ランキング1位になっている、注目の会社です。

【ぺジーコンピューティング(Pezy Computing)】

ここまで、人工知能に関する様々なキー・プレーヤーを紹介しましたが、ほとんどがソフトウェアで人工知能を実現しようというアプローチです。

実は汎用人工知能のハードウェア開発に関して、世界トップレベルの技術を持つ会社が日本にあります。それが、齊藤元章さんが率いるぺジーコンピューティング(PEZY Computing)です。ちなみに、齊藤さんは、ロボットスーツHALを開発した企業サイバーダインとも共同開発を行っているそうです。

正確に言うと、プロセッサ開発を行うぺジーコンピューティングの他に、プロセッサの冷却技術を開発するエクサスケーラー(ExaScaler)、3次元積層メモリを開発するウルトラメモリ(UltraMemory)の3社が、それぞれの技術を結集して世界最高峰のスーパーコンピュータの開発を目指しています。

通常、プロセッサは、インテルのような巨大企業が何百人もの技術者と何千億円もの費用をかけて開発するものです。それを、齊藤さんは全て合わせても50人程度のベンチャー企業で開発したので、これは凄いことです。

齊藤さんらが開発したぺジー・プロセッサを搭載したスーパーコンピュータは、2015年の「グリーン500」という省エネスーパーコンピュータの世界ランキングで1位~3位を独占しました。このグリーン500にランキングされるためには、スーパーコンピュータの絶対性能を競うトップ500にも入っていないと駄目なので、ぺジー・コンピュータは省エネが世界トップレベルなだけでなく、十分に高速なコンピュータです。

齊藤さんは、「ニューロ・シナプティック・プロッセッシング・ユニット(NSPU)」という別のプロセッサも開発する計画があります。NSPUは、人間と同じように、学習と判断を同時に行えるような、世界初のハードウェアになる可能性があります。

コンピュータ・プロセッサの中で、演算を行う心臓部は「コア」と呼ばれています。そして、コアとコア、コアとメモリを繋ぐ信号線が「インターコネクト」です。これを脳と対比させると、コアは脳のニューロン、インターコネクトは脳のシナプス結合に相当すると考えられます。

人間の脳には大脳・小脳合わせると、ニューロンが1000億個、シナプスが100兆個あると言われています。

齊藤さんの目標は、このNSPUを使い、1000億個のコアと、100兆個のインターコネクトをもったコンピュータを作り、それを、0.8リットルほどの大きさに収めようというものです。つまり、人間の脳をハードウェア的に模倣するのです。それを今から10年以内に実現しようというのです。

コンピュータ内で電気信号が伝わる速度は、人間の脳の信号伝達に比べて圧倒的に高速です。そのことも考慮すると、6リットルほどの大きさに、世界の総人口73億人分の脳に匹敵するハードウェアが収まることになる、と齊藤さんは言います。これが途方も無い計画に思えますが、グリーン500の実績があるため、大言壮語とは言い切れません。

人工知能の将来は、このNSPUにかかっていると松田さんは言います。

 【シンギュラリティ(技術的特異点)とは】

汎用人工知能が完成し、コンピュータが人間より高い知能を持つようになると予測されています。それを、シンギュラリティ(技術的特異点と呼びます。人間より高い知能が誕生すると、もはや人間には全く予測不可能な未来へ突入していくのです。

シンギュラリティが強調される理由のひとつには、人工知能自身が人工知能プログラムを進化発展させていくことによる「爆発的技術進化」が起こるのでは、という未来予測があります。

シンギュラリティという言葉を世界的に広めたのは、アメリカ人のレイ・カーツワイルです。カーツワイルは実業家であり発明家でもあり、シンセサイザ、OCRソフト、音声認識技術など、様々なものを開発しています。2012年にグーグルに入社し、機械学習自然言語処理などの研究をしているようです。

カーツワイルは未来学者でもあり、2045年にシンギュラリティが起こると予測してきました。その根拠として、宇宙の歴史が指数関数的(爆発的)に進化することを、様々なデータを使って証明しました。

宇宙誕生は137億年前です。それから30万年後に、初めての星が誕生。地球が誕生したのは46億年前。人類の誕生は600万年前。農耕が始まったのは1万年前。活版印刷機の普及は600年前。産業革命は250年前。コンピュータの発明は70年前。インターネットのウェブサイトが誕生したのは約30年前。初代iPhoneが誕生したのは約10年前です。つまり、カーツワイルは「技術的進化のスピードが爆発的に速くなっている」と主張しているのです。

そして、カーツワイルはそのような技術的進化の原動力として「GNR革命」を主張しています。Gは遺伝学(Genetics)、Nはナノテクノロジー(Nano-Technology)、Rはロボット(Robot)の頭文字です。

遺伝子技術により病気をなくしたり寿命を延ばしたり、ナノボットを脳内に入れて情報のやり取りを携帯などの端末を使わずに行ったり、今まで出来なかったことが出来るようになる、と予測しているのです。

人工知能やその周辺領域の専門家にアンケート調査をすると、約90%の研究者が「シンギュラリティは起こる」と回答したそうですす。10%の専門家はシンギュラリティに対して懐疑的な意見を持っています

また、「シンギュラリティは人類にとっていいことか?」というアンケート調査では、約60%の専門家が「よいことである」と回答しており、「よくない」と回答した専門家は約10%だったそうです。

「シンギュラリティが人類にとって脅威である」と考える著名な人には、車椅子の物理学者スティーブン・ホーキング博士や、人工知能の研究に投資しているイーロン・マスクがいます。

【プレ・シンギュラリティ】

人間よりもはるかに高い知能を持った「超知能(強い汎用人工知能)」の誕生がシンギュラリティ(技術的特異点)ですが、それより一歩手前、人間と同程度の知能を持つ人工知能の誕生を「プレ・シンギュラリティ」と呼びます。

そして、プレ・シンギュラリティがくる時期は、2029年頃とする専門化が多いようです。

人工知能は芸術も出来る?】

アメリカの音楽学者、デヴィッド・コープはバッハやベートーベンの曲をエミー(EMI)というコンピュータ・アルゴリズムに分析させて、バッハ風の曲やベートーベン風の曲を自動的に作曲することに成功しています。ですが、音楽関係者にはコープの反対者も多く「人間らしい心が込もっていない」と批判します。

そこで、エミー(EMI)が作ったバッハ風の曲と、本物のバッハ風の曲と、コープの反対者の音楽家が作ったバッハ風の曲を聴衆に聴かせて、「どれがコンピュータの作曲した曲か?」を当てさせるイベントが行われました。

その結果、聴衆が選んだのは何とコープに反対する音楽家が作った曲でした。「コンピュータの作る曲は心が込もっていない」どころか、むしろ「コンピュータの方がより人間らしい曲を作る」可能性があることが、証明されたのです。

【IA(インテリジェンス・アンプリフィケーション)】

インターネットや人工知能などのテクノロジーを利用して、人間の知能を増強する試みのことを、IA(インテリジェンス・アンプリフィケーション)と言います。

たとえば、今はスマホやパソコンを使用してグーグル検索をして知識や情報を入手していますが、今後はコンタクトレンズ型の端末を利用して、音声認識などにより、もっと簡単に瞬時に情報のやり取りが出来るようになる可能性があります。

さらに、コンタクトレンズすら使わず、脳内の情報と外部の情報が直接やり取りできるような凄く軽量な機器が開発されれば、人々は「機械を使っている」という意識すらなく「自然に」インターネット上の情報にアクセスすることが出来るようになるかもしれません。もちろん、それを実現するにはナノテクノロジーなどの技術的発展と応用が必要です。

【専用人工知能はいずれなくなる?】

松田さんは汎用人工知能が完成すれば、専用人工知能は必要なくなる、と言います。文章作成に特化した機械であるワープロが、汎用コンピュータであるパソコンに置き換わっていったように、今ある専用人工知能もだんだん汎用人工知能に置き換わっていく、というのです。

【強いAIと弱いAI】

意識や感情を持つAI(人工知能)を「強いAI」と呼びます。逆に意識や感情を持たないAIを「弱いAI」と呼びます。これは、哲学の用語です。今のところ強いAIは実現していません。SF映画などで驚異的に描かれる人工知能(AI)は正に「強いAI」です。

強いAIは感情や意識を持つので、人間が管理しづらく、人間に不都合な行動をする可能性があります。松田さんは「強いAI」はとりあえず必要ない、という立場です。

個人的には感情を持つAIを観てみたい気持ちもありますが、意識を持つということは、確実に「権利」を持つということです。当たり前ですが、「機械」としてではなく、「人間と同じように」尊重してあげなければならないです。

倫理的な問題や、それに関わる法的な問題など、かなりややこしく、手間がかかりそうな気がするので、やはり強いAIの開発には慎重になった方が良さそうです。

【弱い汎用人工知能の実現】

強いAIには問題もあるので、松田さんは当面の間は弱い汎用人工知能を目指すべき、と言います。意識や感情が無いけど、社会にある様々な問題を解決できる人工知能です。

そして、弱い汎用人工知能を実現する一番の道は、ホーキンスが行っている「大脳だけを模倣する」人工知能の開発だと言います。日本の全脳アーキテクチャやEUのヒューマン・ブレイン・プロジェクトのように、人間の脳全体をコピーすると、感情や意識を持つ可能性があるし、手間もかかるので、大脳新皮質だけの方がよい、という意見です。こうして開発した人工知能を「人工新皮質」と呼びましょう、と提案しています。

【人工新皮質の利用方式】

人工新皮質(弱い汎用人工知能)が完成したら、今度はそれにどうやって人間がアクセスするか、が問題になります。大きく分けて、侵襲式と非侵襲式の二通りに分けられます。

侵襲式とは、体内にマイクロチップなどを埋め込むなどするやり方です。問題点は、人体への悪影響や健康の問題点です。技術的な要求レベルが非常に高く、実現が困難だと予想されます。また、脳内や体内にチップを埋め込むには、法的な問題もあります。

一方、非侵襲式は、上記以外の人体を傷つけない器具のことです。現在流行しているウェアラブル機器も非侵襲式です。松田さんは、人体を傷つけない非侵襲式のウェアラブル機器を使って、クラウド上(インターネット上)の汎用人工知能と繋がる方式が現実的だと考えています。

【超知能は21世紀の産業革命

これまでの人類の中で大きな革命がいくつかあります。

一つ目は、1万年前に起こった農業革命です。小麦や米など穀物を作り、長期保存することにより人類は大きく栄えました。

二つ目は、250年間に起こった産業革命。人間や家畜などの力で仕事を全て行っていたのが、蒸気機関が発明されたことにより、はるかに強力な力やスピードを利用できるようになり、大規模生産、大量生産が可能になり、急速に工業化が進みました。われわれ日本人も、ガス・水道・電気が不自由なく使用でき、食料製品や工業製品などを購入できるのも、産業革命があったからです。

三つ目は、情報革命です。コンピュータやインターネット、そして現在の人工知能やロボットなどの進化発展は第二の産業革命だと言えます。

産業革命の歴史を振り返ると、革命の波に乗った国々(英米やヨーロッパ)は世界の先進国となり、覇権国家となっていきました。日本もかろうじて波に乗りました。逆に当時は大国であった中国やインドは、波に乗れなかったことにより、発展途上国になってしまいました。

今回の波でも世界中で熾烈な競争が起こっていますが、日本の取り組みは世界に遅れています。アメリカでは、IT企業であるグーグル、フェイスブックマイクロソフト、IBMなどが、人工知能開発に投じる年間予算総額は、約1兆円に届くとも言われています。EUはヒューマン・ブレイン・プロジェクト、アメリカ政府はオバマ大統領がブレイン・イニシアティブを立ち上げて、年間数百億円投資しています。

一方で日本は最近、経産省文科省の予算が付きましたが、年間100億円程度なので、資金的には勝ち目がありません。もう少し国を挙げて、AIへの投資を増やすべきです。

【生産年齢人口割合と経済成長】

生産年齢人口(働く人)の割合が高いことを、人口ボーナスと言います。日本の高度経済成長期は正に人口ボーナスが多かった時期になります。逆に1990年代以降、日本の生産年齢人口割合はほぼ一直線を描きながら低下していきます。これを、人口オーナスといいます。ちなみに、今後人口ボーナスが多くなる国の代表はアフリカとインドです。インドやアフリカは一人当たりGDPも非常に低いので、やはり今後の成長株だと予想されます。

さて、一方、日本は少子高齢化社会に突入しており、ずっと人口オーナスが多い状態が維持されることが予想されます。

高齢化社会に入る日本ですが、悲観的に考える必要はありません。経済力は「生産年齢人口×生産力」です。労働人口が減るのであれば、生産性を上げればよいのです。そのための非常に有力な手段となるのが、AI(人工知能)やロボット技術です。日本のロボット技術は世界トップレベルであり、AIを実現するハードウェア(コンピュータ)の技術レベルも世界トップレベルです。後は、ソフトウェア分野をどうするかにかかっていると言えます。

【平和主義国家の日本こそAI大国になるべき】

AI(人工知能)が脅威だとする意見がありますが、AIが脅威なのではなく、本当の脅威は人間の悪意だと思います。弱いAIで汎用人工知能を作ったとしても、それを軍事利用や洗脳、プライバシー侵害になるような監視や管理システムなど、人類にとって良くないことに使用するのであれば、それは確かに脅威です。

ですが、その「脅威」は人間が作り出したものであり、AIではありません。アメリカや中国は世界的な軍事大国です。軍事大国が人工知能の開発で世界トップになれば、当然のことながら、人工知能は軍事的に利用される可能性が大だと思います。実際、IBMはアメリカの軍事予算の援助を受けて研究開発しています。

日本では、軍事目的のためのAI(人工知能)の研究開発をすることが出来ません。すなわち、人工知能を軍事利用することが出来ないのです。つまり、世界一平和的にAIを開発・利用することが出来る国だということです。

軍事利用、というとミサイルや核弾頭など、大きな破壊力を持つ兵器へのAI利用をイメージするかもしれませんが、機密情報の監視や盗聴、小型ドローンによるターゲットの暗殺、コンピュータシステムの破壊やコントロールなど、ありとあらゆることが想定されます。

【日本の切り札はNSPU】

日本の人工知能における切り札となるのは、前述したぺジーコンピューティングの開発するNSPUです。NSPUが実現すれば、少なくともハードウェアの面では一気にアメリカを追い抜き、日本が世界トップになれるのです。

そして、後はNSPU上で動作するソフトウェア(人工知能)の開発が重要となります。

【現代の志士はコンピュータエンジニア】

幕末の志士の専門は剣術と蘭学でしたが、「現代の志士」に必要な専門分野は数学とコンピュータ、英語ができる「プチ天才」だと松田さんは言います。そのようなプチ天才を10~30人集め、超知能開発に特化した少数精鋭チームをすぐにでもつくるべきだと考えています。

ジーコンピューティングの齊藤元章さんも、10~20人程度の少数精鋭会社3つで、世界トップレベルのスパコン開発を成し遂げています。少数精鋭の小さな企業は、大企業よりも意思決定や行動が早い、というメリットがあります。世界最先端の分野での技術革新には、大企業より小企業の方が向いていることもあるのです。

【海外よりも優れている日本の「ものづくり精神」】

齊藤元章さんは海外在住が長く、外から日本を見ていて「日本にしかない良さがある」と言います。

例えば、ぺジーコンピューティングが最初に開発したスーパーコンピュータは7ヶ月、2代目は4ヶ月という短期間で完成しています。これは、ぺジーコンピューティングの社員だけでなく、ものづくりを担う協力企業や外注企業の仕事のクオリティの高さと、人間的な素晴らしさによるものだったのです。「もしシリコンバレーだったら、3倍の時間がかかっただろう」とのことです。

海外はビジネスライクな仕事の仕方をするため割りに合わないことはしてくれませんが、日本人は職人気質で、徹夜をいとわずに、本当に良い物を作ろうとしてくれる、ということです。

また、最終製品としての半導体の最先端製造プロセスは日本国内からなくなりましたが、それを支える周辺技術では、日本は今も世界の最先端にあります。汎用人工知能や次世代スパコン開発に必要不可欠な要素技術は日本国内にしか無いのです。

【感想とまとめ】

一番印象に残ったのは、やはりぺジーコンピューティングの技術です。日本に世界トップレベルのコンピュータ技術を持つベンチャー企業がいるというのは、凄いことだと思います。(ただし、ネットで検索すると、ぺジーコンピューティングの齊藤元章さんが逮捕されたというニュースがあり、もっとビックリしました)

あと、書いていませんでしたが、松田さんは著書の中で「マインドアップローディング(精神転送)」の話を書いています。これは、人間が自分の意識を丸ごとコンピュータ上やインタネット空間に移してしまう、ということです。僕は、個人的に、これは無理だと思っています。意識、というのは、脳ではないからです。感情や思考は電気信号なあど、物質的なものに置き換えることが出来るような気がします。ですが、「意識(私=魂)」というのは、感情や思考という存在とは別次元のものだと考えているからです。この辺についての哲学的な考えは、また別記事で詳しく書きたいと思っています。

それと、シンギュラリティについてですが、少ないとは言え、「シンギュラリティはこない」と言う専門家がいるわけですから、僕の中では、まだ半信半疑、といったところです。ただし、これだけ世界中で技術開発が行われているので、超知能はともかく、様々な分野での人工知能の応用が進むことは間違いないと思います。

そして、その応用の中で、僕達の暮らしが一変するような凄いテクノロジーが誕生するかもしれないと思うと、本当にワクワクします。

 

人工知能について更に知りたい方はこちらの記事もオススメ

papa365.hateblo.jp