2015年07月08日

ネグロポンテさんの“既に行ってきた未来”

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の16回目です。


ネグロポンテさんの“既に行ってきた未来”

人工知能ブーム再燃の真実(その1)


 新年明けましておめでとうございます。

 新聞、雑誌の新年号は伝統的に、溜めておいた中から明るい話題を拾って新年の目玉記事にしたりするものですが、今年はそうでもなかったようです。その解釈はともかく、本記事は年が明けてから書いていますので、後出しジャンケンと言われぬようということもあり、10年、30年、さらにもっと先の未来まで視野に入れて人工知能の産業応用、生活への浸透をテーマに展望してみたいと思います。

 「ビッグデータが支える、25年ぶりの人工知能ブーム 〜ロボット、自動通訳、IBMの『次の柱』もビッグデータの賜物」で書いた「ブームの到来」は早計に過ぎないか? また、なぜ今、人工知能なのか? 四半世紀前と違ってなぜ今回はうまくいきそうなのか? これらの疑問にある程度答えておかないと、歴史や貴重な知識体系から学ばず、同じ失敗を繰り返す危険が無きにしもあらずだからであります。

未来を読むためには温故知新が重要

 私が米マサチューセッツ工科大学(MIT)人工知能研究所(通称“AIラボ”)に研究員としてお世話になった1993〜94年から20年が経ちました。MITのメディアラボにも1、2度表敬訪問しましたが、当時のニコラス・ネグロポンテ所長は私に対し、“Right Institution, but wrong Laboratory!”と言って、同じMITというニアミスなのになぜうちの研究所(メディアラボ)に来なかったのだ?と笑いました。

 そのネグロポンテ所長の言葉に対しては、「日本語や英語などの言語の研究は奥深く、シンプルな少数の手法だけではなかなか翻訳や検索などの実用システムは作れないので、デモ作り至上主義のメディアラボでは首になっちゃいますよ!」とおどけて答えたものです(当時のメディアラボは、“Demo or Death”というほど全研究員に対してデモ作りを重視しており、理論や分析は実際、後回しというスタンスの研究者が多かった気がします)。

 AIラボでは理論的ブレークスルーを目指し、言語について、今でいうビッグデータを構造化し、分析し、その妥当性を複数の認知科学的な手法で評価する仕事に、年間363日は没頭したものです(残りの2日は、フリーウェイを300km飛ばしてタングルウッド音楽祭に出向いたのと、日本からの客人への応対に費やしました)。

 ネグロポンテ教授は、昨年のTEDトーク (邦訳「スーパープレゼンテーション」でNHKが放映) の中で、過去30年間、およそ隔年で彼の話した内容を振り返り、“I have actually been to the future!(かつて私は実際に未来に行ったものだ)”と断言しました。それくらい当時から未来を先取りして、様々な21世紀のシステムやソフトウエアを試作し、動かして見せたということですね。

 『Being Digital』(物質=Atomより情報=Bitが経済社会の主役となる)という彼の「預言書」には20年後、30年後の生活様式、例えば電子端末を指でこすって新聞や雑誌を読むようになる、などと書かれ、「そんなことは絶対にありえない!」とジャーナリストに猛攻撃をくらったことを勲章のように感じる、と語っていました。グーグル・ストリートビューの撮影にそっくりなことをグーグルより20年以上前にやっていたビデオ映像など、先見の明の証明としてなかなか説得力がありました。

大規模知識ベースという副産物を生んだ当時の研究

 ネグロポンテ先生の足元にも及びませんが、それでも同じMITながら違う研究所で研究生活を送った者として、25年前の人工知能ブームと、今日の人工知能への期待とを対比し、取り巻く環境の違いなどを少々綴ってみたいと思います。

 四半世紀前、日本が国威をかけ、千数百億円の国家予算を投じて取り組んだ第五世代コンピュータ開発機構ICOTのプロジェクトは失敗に終わったとされています。これは知的なコンピュータ、推論マシンの開発や並列プログラミングに重きを置いていましたが、自然言語処理も重要な研究テーマの1つでした。

 人工知能的なコンピュータの実現には自然言語理解が不可欠、という主張は当時のICOTの予算配分も左右したし、最近では、機械の知的能力の総量が全人類の知的能力を超える「シンギュラリティ」の代表的論客Kurzweil博士(米グーグル社)も信奉するところと言われます。

 ICOTの判断に当時、機械翻訳開発に注力していた富士通、NEC等の大手メーカー8社が加わって、大規模知識ベース、特に計算機が言葉を”理解”するための辞書の開発プロジェクトがスピン・オフ。私自身も開発メンバーとなったEDR電子化辞書プロジェクトが立ち上がりました。これは機械翻訳に人工知能的要素を取り入れて言葉の意味をとらえ、文脈に応じておおよその訳し分け(例:bankは「銀行」?「(川の)浅瀬」?) ができることを目指した野心的なものです。日本語や英語などから独立の概念体系と概念記述を50万概念について構築しようとして、ある程度の知識資産を残すに至りました。

 この当時、他国では別のアプローチで2つ、大規模知識ベースの研究開発が走っていました。一般の社会人が当たり前に知っている様々な“常識” 知識を、専門の知識編集者が機械に入力する、Douglas B. Lenat教授らの“Cycプロジェクト”と、もっと実証性・客観性・再現性を重んじて「概念でなく単語(英単語)の間の関係ネットワーク」構築を目指した、George A. Miller教授らの “WordNet : An Electronic Database”(野村も”WordNet for Linguisticsの章”のアイデア発案者であり執筆者の一人として加わっています)です。

 EDRと合わせて、3つの大規模知識ベースとも、ビッグなデータという資産を残しました。当時の専用マシン向けのソフトウエアが現状はほとんど動作しなかったり、保守改良されない状態になっているのに対してずっと良く、予算投入した甲斐があった、ということができるでしょう。中でも、WordNetは、英語以外の言語にアレンジされて構築が進み、来る本格人工知能を開発するための強力な知識インフラとして、現在も成長を続けています。

インフラ、社会環境の激変

 冒頭の自問に戻ります。

「四半世紀前と違って、なぜ今回はうまくいきそうなのか?」

 1つの材料としては、上記のようにかつての人工知能研究ブームの遺産があり、その後、ノウハウ、経験を積んだから、という技術開発側の事情も確かにあります。しかしそれ以上に、ビッグデータと、それを組織化・活用してスマホのアプリなどの形で様々なサービスが提供され、またAPIという使いやすい部品がクラウドでいつでも使えるという状況によって、「真に役立つ」人工知能的なアプリを作りやすくなったという事情の方が大きいように感じます。

「なぜ、今、人工知能なのか?」

 ネット上のデジタル情報量が10年で1000倍と指数関数的に増える「情報爆発」が継続し、自分に必要な情報を読み切れない、選択肢が多すぎて全部トライしている時間がなくなってきた、という人々のニーズは重大です。情報は飛躍的に増えており、目下の判断、意思決定にとって肝要な、自分に最適な情報に行きつけず、情報洪水の中で溺れかけてしまう。だから、本当にベストの解でなくてもいいから、そこそこ使える、頼れる解を「友達」に聞こう、というソーシャルに向かう解決法もありました。しかし、皆が分野ごとに全知全能の友達をそろえているわけではありません。人とのコミュニケーションには膨大な時間がかかるし、ギブ・アンド・テイクの収支に気を遣うあまり疲弊していく人も出てきます。

 「届いたメールを全部読める人などいなくなっている。でも、庶民全員が秘書を四六時中控えさせておくわけにはいかない」という状況で、不都合を回避、軽減するほとんど唯一の解は「機械に代読させる」ことではないでしょうか。ここに、特に先述のKurzweil博士が主張する「自然言語理解」を中心とした人工知能的アプリケーションへのニーズがあります。

 文章を代読したり、さらには、そこから得られたパラメータ(メタデータ!)をもとに、細々とした雑用を、いちいちその詳細は報告せずに、自分でやり方を調べて、こなしてくれる。このような「代行者」としての人工知能がいてくれたら本当に便利ですね。かつての人工知能ブームの末期にも、ネット上をお出かけして他のコンピュータから教えを乞いて問題解決をするモバイル・エージェントが提案されました。エージェントを記述するTelescriptという名の言語も現れましたが、広く普及するには至りませんでした。

 ここ四半世紀で、パーソナルコンピュータの計算速度は何桁も速くなり、インターネットも大容量化して、無線で動画を見放題という、かつては想像もできなかったほどの利便性、体感速度を実現するに至りました。また、機械同士がコミュニケーションするインフラとして IoT (Internet of Things: モノのインターネット)のための軽量言語MQTTが普及し始めたり、そもそも大量データの供給源として、多彩なセンサーが使われるようになり、例えばスマホを振る“シェイク”動作のログを延々とクラウドに吐き続ける仕組みが当たり前のように普及してきました。3Dプリンターに象徴される多彩な出力デバイスが、アイデアを文字通りに具現化したり、サービスの形で供給する具体的な手段として現れ、年々、劇的に価格低下しています。

 計算機の速度が上がっただけで、かつては使いものにならないほど遅かったアルゴリズム(計算手順)が実用になってくる場合もあります。あるいは、たくさん計算できるようになった分、精度が低くて実用にならなかった診断や単純な予測処理が、実用的な精度にもっていけるようになった、ということもあります。

時は“命”なり!

 以上、ニーズとシーズの両面から「機は熟してきた」と論述しましたが、実は、ニーズとシーズは全く独立・分離したものではありません。「優れた道具は、持ち手に新しい使い方を閃かせ、もはや発明者、制作者の思惑を超えて独り歩きする」というアラン・ケイの言葉の通り、優れたインタフェース・デザインの道具は使い手の創造性を刺激し、新たな問題解決に使われ、新たなニーズ、ひいては市場を開拓していくものです。

 逆に、もちろん、伝統的な教訓「必要は発明の母」も然り。多彩なソーシャルメディアからごく短期間に吸い上げたニーズにこたえるサービスがすぐに実現し、使い手に渡ってフィードバックを受けて改良される。これを象徴する出来事の一つが、孫正義さんがツイッターで、フォロワーからの何らかの要望を含む書き込みを読んで「やりましょう!」と宣言し、2〜3週間後に「できました!」と言ってまたツイッターで報告したというエピソードです。これは2010年か2011年の流行語大賞になるのでは、とつぶやかれ、また、その後も、2013年のソフトバンク株主総会で「やりましょう」と言ってしまった事件などが記憶に新しい人もおられることでしょう。やらされる社員さんたちは大変ご苦労様ですが、ユーザーにとってはこのように迅速にニーズを吸い上げてもらえる環境、インフラは歓迎するしかない、と言えるでしょう。

 この他にも、四半世紀もの間には歴史的事件がいくつも起こり、ビジネス上のトレンドも何度も変化してまいりました。中でも、9・11や3・11を経て、人々はますます自分の時間の貴重さ、それがかけがえのない有限の資源であることを自覚するようになった変化は大きいと思われます。かつては、“Time is money”「時は金なり」と言われていた程度だったのが、いやはや“Time is life!”「時は命なり!」です。

 他人の時間を無為に奪うことは、文字通り、その人の命の一部=有限な人生の時間を奪っていく”partial murder”「部分的な殺人」である。こうした消費者の意識の変化を前提にした経済モデルとして、「アテンション・エコノミー」 が生まれ、様々なメディア間で、消費者の時間を奪い合う様子に注意が集まるようになりました。

 こうなってくると、新参者のサービスの多くが、「ユーザーの細切れの時間に使ってもらう」とか、「細切れの時間の集約に寄与する」とか、「ユーザーが迅速に適切に判断できるよう集約・要約する」とか、さらには、「たくさんの雑用を代行する」というカテゴリに該当するようになってきます。この「雑用」というのが曲者で、これぞ人間の得意分野である融通の利く対応や、優れた柔軟性を求められることが多いのです。だから、このようなニッチ時間を活用する雑用的なサービスが「人工知能的」な様相を呈してくるのに何の不思議もありません。

 少し長くなりましたので、元旦の初夢で思いついた、「人工知能の3軸分類」のご紹介など、次回にしたいと思います。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

認証コード: [必須入力]


※画像の中の文字を半角で入力してください。
この記事へのトラックバックURL
http://blog.sakura.ne.jp/tb/169066903

この記事へのトラックバック