2015年10月14日

「賢いコンピュータ」が繰り出した、まさかの反則技

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の23回目です。

「賢いコンピュータ」が繰り出した、まさかの反則技

人工知能ブーム再燃の真実(その8)

2015年10月16日野村 直之

 SF作家アイザック・アシモフのロボット工学三原則に私が初めて触れたのは、1973年頃に読んだ『鋼鉄都市』(原題:The Caves of Steel)でした。感情をむき出しにするニューヨーク市警刑事と、人間そっくりのロボット刑事が「2人」がペアとなって互いの長所を生かして、何十年ぶりに起きた、論理的に考えて不可能と思われる殺人事件を解決していきます。

 昨今流行りの「人工知能脅威論」が気になる方や、人間の仕事が機械に奪われて失業者が溢れるのではないかと心配される方は、この『鋼鉄都市』やその続編の『はだかの太陽』(原題:The Naked Sun、「剥き出しの太陽」の方が原意に近いと思います) を読んでみることをお勧めします。後者の『はだかの太陽』では、理想郷を目指して地球人が進出した惑星ソラリアで、わずかな人口の人類が広大な土地に離れて暮らしており、立体視覚通信システム(今でいう仮想現実VRシステム) で必要な時だけ瞬時にコミュニケーションしています。そして、1人ひとりが2万体ものロボットにかしずかれ、豊かな暮らしを享受するという1つの極端な未来イメージがその副作用とともに描かれています。

アシモフの「ロボット工学三原則」

 アシモフが一連のロボットSF小説シリーズを30年にわたって執筆する中で一貫して前提とされてきたロボット工学三原則は、次の3カ条からなります。

  • 第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
  • 第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
  • 第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

 ―2058年の「ロボット工学ハンドブック」第56版 、『われはロボット』より。

 初期の比較的単純なロボットの場合、次のような行動が見られたことが描かれました。第一条に従って倒れた人間を救いに近づこうとしたら、有害ガスに阻まれ、第三条が作動して元の場所に戻る。そこで自己への危険が去ったので、再び人間を救いに近づこうとするが再び有害ガスに阻まれて…というのを延々と繰り返した、というものです。

コンピュータが「反則技」を繰り出した!

 このロボット工学三原則は、技術がいくら進歩しても実現できないかもしれない、などと伝統的に議論されてきました。

 各条を守るために、ほぼ無限の可能性を検討して評価し尽くさなければならない、という『フレーム問題』というのがあります。この問題を回避するために、汎用的にさまざまな事態に対処することを諦めて、特定の問題解決に絞った人工知能(もどき)しか当面は作れないだろう、という議論もありました。

 目的を、将棋に勝つことだけに狭く絞ったコンピュータプログラムでさえ、この問題に突き当たったように見えた出来事が最近起こりました。ある将棋プログラムが、対戦中の計算量を節約するために、過去の膨大な対戦履歴データ中に存在せず、常識では考えられない反則技に陥るプロセスの評価を省略してしまいました。このため、対戦相手(人間)のある手をきっかけに、反則技を繰り出して人間に負けてしまったという珍事です。

 これについて、複数の棋士・関係者による見解が述べられているのを見ると、自分に王手がかかっているにもかかわらずそれを放置したということで、確かに、人間が盤面を見ていれば一目瞭然で、まず犯さない過ちだったろうというのが印象的です。王手を回避する、というのは、将棋の基本中の基本原則。自分を守る原則ということで、ロボット工学三原則の第三条に似ているといえるでしょう。開発者によれば、毎回ゼロからプログラムを作っているので、今回はたまたま作りこみ忘れていて、それを本番まで気づかなかったということです。

 コンピュータ科学の分野では、何かの制約条件を守りながら最適な解答を見つけ出すための問題解決手順(アルゴリズム)が多数考案されてきました。しかし、1日に訪問する客先を最短ルートで回るにはどうしたらいいか?(『巡回セールスマン問題』)など、一見単純・簡単そうな問題でも、計算量が爆発し、数十、数百の要素になっただけで、現在のスーパーコンピュータでも、太陽系の寿命の何百倍の時間の計算をしても計算が終わらないことが証明できてしまった問題もいくつもあります。

 その解決には、現在のディープラーニングや、発売されたばかりの単純な量子コンピュータがもっと高度に進化して、現在と全く違う原理で問題解決できるようにならなければならない、と考える研究者が多いです。あるいは、良い意味で人間のように「適当に」常識の範囲で、少ない解決案の検討ですませることになるかもしれません。この場合、ロボット工学三原則を機械に守らせることは実際上、不可能になってしまうことでしょう。

 Wikipediaにも解説されているように、アシモフによれば、ロボット工学三原則が適用されるのは自我を持って自分で判断を下せるロボットに限られています。

 "ロボット工学三原則が適用されるのは自意識や判断能力を持つ自律型ロボットに限られており、ロボットアニメに登場する搭乗型ロボットなど自意識や判断能力を持たない乗り物や道具としてのロボットに三原則は適用されない。現実世界でも無人攻撃機などの軍用ロボットは人間の操作によって人間を殺害している道具であるが、自意識や判断能力を持たないため三原則は適用されていない。"

 ところが、現時点で自意識、自我とは何であるかの定義は不明確であり、その実態は科学的に解明されていません。そこでこの制約をはずして、家電製品を含むあらゆる機械にこれらの原則を適用できるよう個別に設計してやればいいじゃないか、という議論が説得力を持ちます。しかし、どんな機械が相手としても、ロボット工学三原則を守らせる、すなわち、実装することは容易にできるのでしょうか?

ロボットが「ロボット工学三原則」を守るのは困難!

 最近、第一条を守らせる実験によればロボット工学の原則を守らせるのは実際的に困難だ、という記事が出ました:

「実験の結果ロボットがロボット工学三原則を守るのは困難だと判明」

 人間役のロボットが穴に落ちるのを、第一条を実装された「倫理ロボット」が防ぐことができるかどうか。英ブリストル・ロボティクス・ラボラトリーのロボット学者のアラン・ウィンフィールド氏とそのチームが実験したところ、守る相手が1体のときはうまくいくが、2体の人間役ロボットを相手にした途端に倫理ロボットは混乱をきたし、相手をうまく守れなくなったそうです。2体のうちどちらを守るかの決断を迫られたときに、機械らしく、「厳密に考え」ようとして迷って時間をロスし、2体とも救えなかったケースがあったといいます。

 もちろん人間でも、同じように混乱して文字通り二兎を追う者一兎をも得ず、という結果に終わることも多いでしょう。しかし、これは価値観の違いや、論理的な思考(計算)の速度がコンピュータよりはるかに遅いせいであり、コンピュータ(人工知能)ならそんな問題はないのでは? という楽観的な予測もあったことでしょう。実験結果を見ると、実際の日常世界で起こる多様な出来事において、ロボットに三原則を守らせることが非常に困難ではないか、と予感させるものがあります。

 ロボットに三原則を守らせることが困難ということは、自動運転車が実用化されようとしている昨今、深刻な問題といえます。例えば次のような事態をイメージしてみましょう。

・走行する道の横断歩道を、黄信号や赤信号になってから横断してくる人の安全を確保しながら、自分が進路をそらして電柱にぶつかって搭乗者に怪我させないようにもしなければならない。

 瞬時に膨大な思考(計算)と様々な判断をやってのけなければならないのは明らかだと思います。

 相手に怪我をさせることでより多くの命だけは救える、という難しいケースを想定してみましょう。こんなとき、あらかじめその通りのシナリオをプログラムされることなく、未知の事態で学習しながら適切な判断を下せる自動運転車ができるのは遠い未来のことのように思えます。

「自動運転」は交通事故を減らせるか?

 先日、ドイツの航空会社の副操縦士が自ら搭乗機を墜落させた事件の直後、「人間よりも機械に乗り物を操縦、運転させた方が安全なのでは?」という論調が流れました。しかし、仮にも何十年と教育を受け、暗黙知なども身に着けながら経験値を上げてきた人間なみに安全遵守能力(安全性能)を向上させるのは、かなり難しいのではないでしょうか。航空機の操縦だけの知識やテクニックに絞った専用人工知能を開発したとしても、先の将棋の反則技を繰り出すようなことは起こり得るわけです。このときの「反則」が想定外だった事態、例えば、計算の結果、海中に潜って空中の障害物(光線の加減を誤認した場合を含め)を回避する、などの手を繰り出してしまう可能性を根絶できるのでしょうか?

 実際に人命を左右するような応用を行う前に、さまざまな実験を徹底的に行って解決策を講じる必要があるでしょう。そして製品のリリース後も、別の人工知能を備えた交通制御システムなども協調的に支援する、などの対策を追加していくことになるのではないでしょうか。

 以上のように安全性を深く考えるのは必須だと考えつつも、やはり最終的には体調や精神状態が怪しい人々が多数、車を運転している現状よりも交通事故は減ってくれるだろう、と楽観しています。もちろん「自動運転車は馬を目指すべき」と提案させていただいた稿でも示唆しましたように、最終の意思決定を下す人間と機械の役割分担、インタフェースをとことん考え抜き、テスト、評価し抜いて、より適切な知性と感覚(センサー)を装備していくべきです。

 新たな発想も必要になり、社会的な合意も必要になってくるので、伝統的な日本のメーカーがあまり得意ではない領域かもしれませんが。それでも冒頭の『鋼鉄都市』が1950年代に描いていたように、人は人の得意なこと、機械は機械の得意な能力を巧みに結び付け、協調させることで、より良い問題解決、安全性の向上になることは間違いないでしょう。

 ヒューマン・エラーをどう低減させるか、というだけの一面的な発想では、機械の位置づけについてのダイナミックな発想が出にくいと思われます。この点、人工知能、あるいは人工知能的な哲学が、新たな視点、発想を提供することができると思います。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年10月02日

AIの健全な産業応用を考える

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の22回目です。

AIの健全な産業応用を考える

人工知能ブーム再燃の真実(その7)


 この連載はもともとビッグデータ分析の科学ということでちょうど1年前にスタートしました。多忙なITベンチャー経営の傍ら1年間、1度も欠かさずに書けたことに我ながら驚くとともに、ご協力いただいた方々、お取引先やメタデータ社の役員、社員には深く感謝しております。

 今回は「なぜ人工知能の話題が最近は多いの?」という疑問にシンプルな回答を書いてみたいと思います。

企業のニーズ:「データそのものはいくらでもあるし、収集や、ある程度の整備のめどは立った。でも最終的に経営改善、業績改善につながる分析結果を導き出すのに、生のビッグデータに人間がいきなり徒手空拳で(手作業で)臨んでも新たな知見など出てこない。そこで、コンピュータらしい力技を発揮して、従来は解析困難だったタイプのデータを、人間が見て何か発見したり仮説検証(定性的・定量的)したりするのを支援してほしい。」

 ビッグデータのブームが一段落したらやはり、人間技では対応できない解析、分析がネックになった。だから、強力な「弱いAI」が必要になった。そのため、人工知能への潜在的な期待が高まり、それに応えるソリューションも出てきたことで(たとえばVoC分析のこれ)、必然的にさまざまなメディアでも取り上げられるようになった、と考えていいのではないでしょうか。

 「従来は解析困難だったタイプのデータ」としては、非数値系のデータ、例えば不定形のテキスト(自然言語)のデータとか静止画像、動画像、音声信号の生データがあります。

 画像は、撮影・編集日時などの5W1H情報や映っている内容についてキーワード入力されたメタデータの類ではなく、画像そのもののことです。これらを扱うには、文章の構文解析、それを超えた意味解析や文脈解析、「常識」知識に照らした推論などが必要になったり、画像の膨大なピクセル情報から映っている人物や事物、背景映像が何であるか、いわばどんな意味内容を含んだ映像であるかを画像認識したりしなければなりません。両方とも、広い意味の「パターン認識」ととらえることができます。

「パターン認識」は人工知能の目や耳

 「パターン認識」、あるいはもっと広く「認識」というのは、「学習」「思考」とは異なるものです。ですが、通常のコンピュータ処理とは異質の、人工知能と呼んでも良さそうな感じがします。人間にしかできないというよりは、目や耳を備えて、危険を認識できる動物全般の能力といって良いでしょう。

 入力された生データは、画素数や文字数で数えると膨大な量になります。しかし「猫の尻尾が映っている」という認識結果(人によっては「画像の意味を理解」したと解釈するかもしれません)は、猫という記号と、その一部、尻尾という記号だけという、極く僅かな情報量(Byte数)に変換されます。

 このように「認識」あるいは「理解」するために、脳内の、さまざまな画像の特徴を記憶したデータベースと、その概念を理解した結果を格納した「辞書」のようなものを使っていると思われます。さらに、猫の尻尾に似ているけれど違うものについて、過去遭遇した場面、出来事の経験に照らして、例外扱いしたりすることもあるように思えます。

 「パターン認識」は、30年以上前から産業界で実用化されています。有名な応用の一つに、NECがいち早く手がけ、今やおそらく全世界の警察が活用している、指紋照合システムがあります。

 犯行現場などで見つかった指紋を、ホストコンピュータのデータベースに格納されている何千万人分もの両手(や両足?)の指紋と、あっという間に照合してしまいます。人間技ではない超高速、ビッグデータ対応が最初から実現していますので、強力な「弱いAI」ということができます。

 何十年も前から実用化されている、あまり有名でない、地味な応用に、工場で生産される薬の錠剤の形を人間に代わって「見て」、規格外の形状のものを排除するためのビデオ・センサと呼ばれるシステムがあります。音声認識、文字認識の世界では、元NEC研究所から九州大学教授に転出された迫江博昭博士が、DPマッチングという手法で、認識対象が、ひな形(「辞書」に入っている単語音声信号や文字画像)から、「変形」(音声の伸び縮みや画像の歪みなど)しているズレを吸収するアイディアを出し、当時の低速な計算機でもパターン認識ができるよう、郵便局用の音声認識機械や、手書き文字認識のシステムを実用化しました。

 人工知能という言葉は、専門家の間でも定義がはっきりしていません。個人的には、パターン認識は「学習」や「思考」、「感情」、「言語理解に基づく本当の対話能力」などとは違うので、人工知能からはずしたいと考えています。そこで、本セクションの小見出しは、「『パターン認識』は人工知能の目や耳」としました。

 だいぶ以前から実用化されているけれども、指紋や錠剤の形、手書き数字(郵便番号など)など、かなり専門特化した応用事例が多かったといえます。

 昨今は、人型ロボットが市場に出てきたことなどにより、汎用性の高いパターン認識へのニーズは高まりつつあるように思います。しかし、その場合でも、どんなものを見分け、聞き分ける必要があるのか、そのために、どれくらいの精度が必要なのかについて、いくつかのケーススタディについて具体的に見積もるべきだと思います。

 そして、現在の技術で、コストに見合う投資額で済むかどうか、きちんと見極めること。人工知能搭載だから賢い、などと思考停止したやり方では、本来うまくいくはずの応用でも失敗してしまいますので、くれぐれも注意したいところです。

社会の重要な裏方としてのAI

 前節で、警察署や郵便局、工場という応用現場に言及しましたので、「社会の重要な裏方」として機能するAIについて、少し考えてみたいと思います。

 2014年度に放映された、放送大学の専門科目現代化学第6回「機能性物質の化学1 〜物質の機能とは」(担当講師石井菊次郎学習院大学教授)では、冒頭で、撥水性繊維でできた布にコーヒーをこぼして見せて視聴者を驚かせた後、「社会の重要な裏方」として働く物質として次が挙げられています:

  • 接着剤・塗料など(ニカワからエポキシ樹脂、低融点ガラスへ)
  • 表面処理剤・潤滑油など
  • 印刷インクなど

 なるほど確かに、「日本の主要な塗料メーカー、潤滑油メーカー、インキメーカーを3社ずつ挙げなさい」と言われて即答できる人は少なさそうです。ですが、これらの製品が住まいや乗り物、工作機械、そして書籍や、印刷技術で作られるファッション・アイテムなどを支える、必要不可欠の存在であることに異論ある方は少ないでしょう。

  物質、材料を「部品」ととらえ、「社会の重要な裏方」として働くハイテク部品の例を考えてみると、日本企業しか作れないといわれていた部品の例として、

  • エンジン内部の超高温でも何年も劣化しないバネ
  • 一度締めたら絶対緩まないネジ

などが思い浮かびます。この他にも、日本の中小企業が世界需要をほぼ独占しているようなハイテク部品には枚挙にいとまがないでしょう。

 上記のような材料技術、部品製作技術が不断に改良され、応用製品を通して市場に出て、社会に貢献している産業分野は非常に健全であると言えるでしょう。

 その一方で、高性能化や安全確保に必要不可欠な技術開発が、(戦時に異常にスピーディに安全無視で技術開発されてしまったなどにより)積み残され、置き去りにされてしまった核関連技術の分野では、70年以上未解決の高レベル放射性廃棄物問題を引き起こしていたりします。比喩的にいえば、腕力や胸の筋力ばかり発達して足腰がまるで脆弱なアスリートみたいなものかもしれません。これでは、いくら当座、産業応用ができてしまっていても、大変な危険と厄災をもたらす事故や解決の目途が立たない廃棄物問題により市民が脅威にさらされ続けることになりかねません。

 人工知能についても、同様の危険があるでしょうか? 「これ一つでどんな問題も解決できる万能のAI」などが本気で喧伝され、無理を承知で強引に現場に適用されたりしたら、あるいは、本当に整備すべきだったデータやロジックがなおざりにされ、当面は人間が担う方が精度面でもコスト面でも優位なところに予算が回らないような事態が生じるかもしれません。

 これは、AIが、生物さえも成し遂げなかった、自らの意思による進化、自己改造など引き起こす「シンギュラリティ」を心配しているのではありません。もっと手前で、従来の工学、産業応用の基本プロセス、発展段階を踏まえ、社会の重要な裏方としてAIが機能するのをすっ飛ばして、派手な役回りのみが持ち上げられ、結局その反動で失望が広がったり、普通の機械、技術と共通する身近な危険が放置されるのを恐れています。

 次回、シンギュラリティ以前の未熟なAIが人々に危害を加えないかを考えるため、ロボット工学3原則について取り上げようと思います。



posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年09月19日

かな漢字変換の学習をみて温故知新

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の21回目です。

かな漢字変換の学習をみて温故知新

人工知能ブーム再燃の真実(その6)


 前回、末尾に次のように記しました:

 「…次回は、新世代の人工知能らしい「学習」とは何かについて、かな漢字変換から、人工知能分野とは少し違う領域の研究者が取り組んでいた機械学習について、また、最適化のタスクや、そのためのビッグデータのモデル化などに触れてみたいと思います。」

 このあと、私の会社であるメタデータ(株)から半年ぶりに、機械学習による全自動テキスト分類等の意味理解機能を搭載したことで初めて「人工知能(AI)」をうたった製品「VoC分析AIサーバ」を発表しました。そこでこの製品にも触れつつ、主に、これまでに実現している機械による学習について論じてみたいと思います。

弱いAIの理想は「透明な」道具

 もっともシンプルで、日本人のほとんどがなじんでいる「学習」機能といえば、かな漢字変換でしょう。一番最近の変換結果を最優先で候補として出す機能です。確かに便利ですが、これに対して「人間のように知的な振る舞いをする人工知能だ!」と感動する人は見当たりません。かな漢字変換などは、誤変換をしないのはもちろん、できれば変換自体を意識させないことこそが高性能の証しであり、自ら自我を持ったり目立ったりしてはいけません。

 存在が利用者の意識から消えてしまい、道具を使っているという意識がなくなってしまうほど手になじむ道具こそが理想の道具ではないか。これを「目に見えないものは意識していないだろう」という意味で、認知心理学やユーザーインタフェースの学会などでは“transparency”(透明性)と呼んで、非常に重要な概念として位置付けてきました。

 かと言って、別に透明人間や透明アルミニウム(映画スタートレックで登場)を作るような苦労は必須ではありません。紙と鉛筆の組み合わせでも、それで書くことに集中できて、道具を使っているという意識が消し飛び、道具の存在を忘れていられるならその人にとって十分に「透明な」道具なのであります。前回書いた、自動運転車が目指すべき「馬」も、熟練者にとっては透明な道具になっているのでありましょう。

インパクトのある誤変換との戦い

 残念ながら、かな漢字変換は精度が100%にならない宿命があります。そして、誤変換をユーザーに見せてしまった瞬間、その時点で、文章を紡ぐ思考が途切れ、道具の存在を意識せざるを得なくなります。インパクトの激しすぎる誤変換を見つけた時にみんなで投稿するサイト「誤変換の宴」というのが以前ありました。私より10年位後輩のM君が運営していたのですが、SNSやboketeの出現前に、ソーシャルなジョークの先駆けの役割を果たしていたと思われます。

 当時栄えたパソコン関係の雑誌にも時々、笑える誤変換の特集がありました。私が最も衝撃を覚えたのは、S社の某専用ワープロが「せんちょうさん」の誤変換を起こしたときの画面例です。「船長さん」が出てくるかと思いきや、変換結果の第一候補が「1000000000000003」だったのです。一瞬、かな漢字変換プログラムの致命的なバグ(トラブル)で、機械語という「0」「1」で記述された低レベルのコンピュータ言語のコード列がディスプレイに流れ出してきたのかと思いました。しかし、数字読み上げ規則(文法)を忠実に実装したS社のかな漢字変換は、残念ながら「人が数字をしゃべる時、概算で数量を把握し伝達するので、10桁以上も離れた位取りの数値を発音したりしない」という常識を備えていなかったため、激しいインパクトのあるおかしな、でも絶対に間違っているとまでは言いきれない変換結果を見せてくれたのでありました。

 他にもトホホな例として、女優の鶴田真由さんの名前を書こうとして、「鶴玉湯」というお風呂屋さんの名前になってしまったりした例などがあります。単語のジャンルというか意味カテゴリのシフトが、(文脈からの期待値から)著しく大きかったとき、インパクトは激しくなります。

 私の古巣でもあるジャストシステムのATOKチーム、ATOK辞書チームは大変優秀で、ごく最近になるまで、ビッグデータの物量と大量の機械学習、統計データの蓄積によるGoogleのクラウドかな漢字変換が精度で追いつけなかったほどです。15年〜20年ほど前にも、少なくとも上記のような「インパクト」の激しい誤変換を生じさせないよう、差分の自動評価に加えて、ATOK辞書チームで一生懸命、目視評価を併用してつぶしていました。

 気づいても黙認した唯一の例外が、全員登録を原則としていたジャストシステム社員の姓名です。社長・専務夫妻の名字が「浮川(うきがわ)」だったため、「今日の海釣りの釣果がいまいちなのは浮きが悪いからだ」と変換しようとしたら最後が「浮川類からだ」となっても、多数の変換のバランスをとる関係上、この名字を辞書から外さないことは黙認されたように記憶しています。現在はその限りではないかもしれませんが、入社した後の最初のATOKのリリースで、最初の変換候補が「野村直行」から「野村直之」に代わってくれたときは、それは嬉しかった覚えがあります。最盛期には日本のパソコンユーザーの8割が使っていたかな漢字変換辞書、システムが自分の名前を優先してくれたのですから! 

※一方、数年前にしばらくの間Google検索が、「野村直行」と入力すると「もしかして野村直之?」と訂正を促していた頃は、後ろめたいような、倫理にもとることを自分がやっているのではないか? と嫌な感じがしたものです。

「学習」機能で実用レベルの一線を超えた

 かな漢字変換は今後も改良が続きます。そもそも、かな文字列を漢字かな交じり文に変える技術は音声認識のために必要だ、と確信して最初に開発した、元東芝常務の森健一博士、天野真家さん(もちろん博士で教授ですが友達なので)らによって1979年に、4人で使える600万円位のワークステーションの形で産声を上げました。機械翻訳用のために、日本語の漢字かな交じり文を分かち書きするよりも、平がな文字列を「使える」水準の漢字かな交じり文字列に変換するほうがずっと難しい。これは直観のとおりです。このあたり、私がくどくど書くよりも、前述の森博士自身の研究開発の総括論文をご参照ください。さすが、オリジナル開発者だけあって、難しかったことも実に平易に解説してくれています:

 「我々の研究結果の結論を先に述べますと、実用レベルの「かな漢字変換方式」を実現するための鍵は、日本語文法の精緻化と同音異義語に関する利用者の使用頻度情報を、機械自身が自動的に学習する機能の開発にありました。」

 旧来の国文法がわずか10数ページ程度にまとめていた、厳密とは言い難い日本語文法を、品詞を細かく増やして定義し、文法ルール、制約条件も数千近くに及ぶまでに整備するとともに、どの切り方が最も正しい確率が高いかについては、辞書中のなるべく長い単語が採用される確率が高いように切り出す「最長一致法」が採用されていました。これは後年、最小コスト法という大量計算する一般的な手法と比べて、多くの場合に、少ない計算量で最適に近いほぼ同じ回答を出すことが証明されました。単語間の結びつきの違いで「子供は泣くが、猫は鳴く」が正しく変換されるように、共起辞書も丹念に人手で制作されていきました。

 そして、上記文献の図6の真ん中にある、
 ◆単語使用の学習機能
には、

  • 最頻度語の優先表示(同音異義語は使用頻度の順番に辞書に入れておく)
  • 最近使用語の学習機能

 とあり、これが、実用水準に到達する最後のカギだったと思われます。

 人類初の日本語ワープロに、最初からこの「学習」機能が入っていたわけです。

かな漢字変換とAIのその後

 その後、ジャストシステムにより、変換キー(PC-98等にあったXFERキー)よりも、分かち書きしない日本語では使用頻度が極少なのに一番押しやすいスペースバー(空白キー)で変換させるという工夫がなされました(皆に使ってもらうため、あえて特許は申請しなかった!)。ATOKが昇り竜のように頭角を現した頃には、このスペースバーすら押させずに、「随分たくさんの平がなが溜まってきた。助詞と思われる『が』『を』『に』の推計数からすると、ここらでコンピュータがユーザーに代わってスペースバーを押し、確定待ち状態にしてもいいのでは?」と判断して、ほどよい単位でユーザーに変換結果の確認を求める「自動変換」が搭載されました。しかし、これはユーザーインタフェース的に違和感が残る人が多かったようで、その後のバージョンでは次第に消えていきました。

 1980年代の第二次人工知能ブームには、かな漢字変換にも「AI変換」という言葉が使われ、より広めの文脈をある程度読んで、少しでも高い精度で変換する仕組みが追求されていきました。現在のかな漢字変換、特にクラウド型のものは、裏側には文法を教え込んだ、もしくは学習させた何らかのメカニズムと、辞書に加えてビッグデータから抽出された大量の常識知識のようなものなど、ミリ秒以下で何万回もの判断をしているような、賢い、「弱いAI」が存在しています。Googleのエンジニア、工藤拓さんの研究開発を漫画にしたこちらをご覧ください。今後も読心術という超能力でも備えない限り100%の精度にはなりませんが、より膨大なビッグデータ由来の知識をリアルタイムで更新することで精度を上げていくことでしょう。

 第二次人工知能ブーム当時の「AI変換」の実態は、1979年の初代ワープロの共起辞書に毛が生えた程度で、当時既にブームになっていた3層ニューラルネットなどは使われていませんでした。それは、ニューラルネットの計算量が理論的にも実際的にも非常に悪くて、当時の計算機のパワーがせいぜい、数10の要素(単語)の間の関係しか自動で学習できなかったため、数万以上もある単語の列などには対応できなかったからです。

 現在は、当時、例えば月額レンタル料が数10億円単位だったNECの初代スーパーコンピュータSX-2の1.3GFlops(毎秒13億回の浮動小数点演算)に対し、4万円以下で購入できるNVidiaのGTX970というビデオカードが2000個近いCUDAプロセッサを搭載し、4.0TFlops(毎秒4兆回の浮動小数点演算)と、3000倍の性能を叩き出しています。個人のパソコンでも700W以上の強力な電源を積めば、このビデオカード(実は超並列スーパーコンピュータ!)を4枚刺すことも可能です。ほぼこの計算パワーに比例して、多層ニューラルネットに何万もの要素(単語や画素など)の入出力を放り込んで全自動で生データと最終出力の関係を学習させ、徐々に精度を向上させることが可能になっています。

古くて新しい様々な技術が「学習」的な応用を支える

 最近、日経BPの浅川記者が、入魂の人工知能最新動向の記事を多数書かれました。その中に、UBICさんの例 があったのですが、いろいろな意味で考えさせられました。

 UBICさんのサイトに行くと、行動科学研究の成果によるPredictive Coding(直訳:予測型符号化)という名前の自動文書解析技術が紹介されています。動画をよく見ると、日本語を分かち書きできること、それらの出現頻度等に応じて、単語の重要度の数値組を作れること、それに対し、数値データマイニングで伝統的に使われてきた様々な統計量を適用して分析をするオーソドックスな手法のことのようでした。

 「伝統的」というのには、例えば、前述のかな漢字変換が誕生した1979年よりずっと以前から使われてきた相互情報量があります。これは、分子分母2項ずつの非常にシンプルな定義です。平たくいえば、ある2つの要素が同時に生じる(例えばその単語が使われる)確率を総合、平均的に求めるもので、2要素間の近しさ、遠さを正負の数値にしたもの。例えば、心理学実験で、集団中のAさんとBさんが一緒に同じ場所に現れやすければ正の値で、どうも互いに避けているのでは? と思われる状況が負の値となって、検証できたりします。要素を単語にしても全く同じで、1950年代前半以来様々に応用されてきたものです。(注:人工知能が誕生したダートマス会議は1956年)

 一挙に60年、時計の針を進めて、ビッグデータ時代の今日、例えば研究者でなく法律などの実務家が、従来、人間が丹念に順番に読むだけだったのに比べて、何十万もの単語のランキングが瞬時に出てきたり、共起関係の出現頻度も出てきて、書類ごとのトピックの違いが何となく一瞥して分かるようなシステムが安価に使えるようになったのは素晴らしいことと言えるでしょう。

 UBICさんの例で言えば、医療分野や法律分野という、少しの生産性向上、検索カバレージ、精度の向上が大きな経済価値を生み出すところに特化して、古くて新しい技術にもその分野、業界特有の運用ノウハウを蓄積して、価値の増大を図ってこられているはず。ですので、高度なSI、コンサルティング業に喩えて、大きな価値が認められるだろうことも容易に想像できます。

膨大な試行錯誤を代行する強力な「弱いAI」

 先週、メタデータ社が発表した「VoC分析AIサーバ」では、-3, -2, -1, 0, 1,2,3の7段階のネガポジ判定結果や、上記の単語ランキング、フレーズ(係り受け)ランキングが任意の組み合わせ条件で絞り込んだ結果に合わせて集計され、すぐに表形式で出力されます。出現頻度数をクリックすると、該当の生データ一覧が開き、また、絞り込んだランキングの結果全体をCSV出力して、自前の5種類の相関分析ツール以外にも、専門の統計パッケージや、Excelの3Dグラフに流し込むことができます(機械学習機能ではないので次回以降、適宜画面例を参照して解説します)。これだけでも、結果が予想できないアンケート自由回答や顧客の声(VoC)の分析には大助かりで、前節の基準では人工知能と呼ばれても良いくらいです。もちろん「弱いAI」です。分析レポートを作成する人間の分析能力を数10倍に拡大できた実績がいくつもあります。

自由回答テキストを全自動で解析、集計 〜人は高度な分析に専念

 「VoC分析AIサーバ」の最大の売りは、機械学習と階層意味分類を活用した全自動テキスト分類です。5階層、約1万種類の意味カテゴリが解析結果抽出されたほとんどの単語に付与されます。

[画像クリックで拡大表示]

 例えば「信頼」という単語の意味カテゴリoik70は日本語で階層的に表現すると、[人の活動]‐[精神作用]‐[心的反応]‐[信頼・謝意・敬意] となります。図中、「@」「A」と操作して、中部地方の回答者1013名に絞り込んだ母集団を、意味カテゴリの識別は、最大限の5階層、そして、T0〜T9までの10種類に自動分類しなさい、と、「B」「C」「D」の順に操作すると、「E」以下の「分類結果」に、その結果が現れます。

 先の、「信頼」と同様の意味カテゴリの共通部分が多い自由回答は、確かに、5本ともT8に分類されています。T8には、営業担当の信頼性の話題が集約されています。同様に、T4には営業マンが仕事の紹介を頑張っている記述が、T1には経済的条件が良いとする記述が、T2には対応、サポートの良さが、T3は仕事が決まる話題の記述が、各々集約されています。

 大事なのは、共通単語が1つもなくとも、表記が違っていても、意味が近ければ同じ分類にすることができている点です。前述の伝統的な手法とは一線を画しています。

 機械学習エンジンは、意味カテゴリの出現頻度のパターンから、適当な初期仮説を生成して、全記事をざっくりと所要の分類数、ここではT0〜T9までの10種類に分けます。その後、果たしてこの分類で、

  • 分類間の違い(距離)が十分大きいかどうか
  • 分類内の違い(距離)が十分小さいかどうか

 何10回も評価を繰り返しては、初期の分類を少しずつ修正していきます。

 その結果、ほぼ収束した、と判断されたものを分類結果として出力します。

 また、実行時ではありませんが、開発時、特に意味カテゴリの改良に際して、さまざまな候補の収集、摺り合わせに、さまざまな人工知能手法を採用しています。これまではひたすら「弱いAI」で人間の判断をサポートするシステムを運用していましたが、今後は全自動タイプの人工知能、例えばディープラーニング応用のビッグデータ解析エンジンを人間のパートナーとして採用し、類語や反意語、関連語の候補を自動学習した結果を人間がチェックすればよい形にもっていきます。こうして、機械と人間がタッグを組んだ最強の知識創出システムが生み出した知識構造を活用して高度な分析が素早くできるようにもってまいります。

 その次に、別種の人工知能を製品に追加搭載することも確定しています。それについては、当該のプレスリリース以降に解説させていただきたいと思います。

 また少し長くなりました。次回以降は、今回用に書いていた、SF作家アイザック・アシモフによるロボット工学の3原則(学習とも大いに関係あります)の実現性、また人工知能的な手法と人工知能的なご利益(ベネフィット)の違いについて書いてみたいと思います。



posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年09月05日

AI搭載だから賢い? ではルンバは知的なのか

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の20回目です。

AI搭載だから賢い? ではルンバは知的なのか

人工知能ブーム再燃の真実(その5)


 前回、マーケティングとしての「強いAI」 を話題にしました。ここで一つ思い出すのは、米マサチューセッツ工科大学(MIT)人工知能研究所(AI Lab)の客員研究員(Visiting Scientist)時代に、“人工知能の父”マービン・ミンスキー博士と恐れ多くも同僚として隣室(2週間ほどは同じ部屋!)で過ごしていた頃の雑談です。

 ミンスキー博士曰く、「強いAIを実現する研究者として作ってみたいのは、平日はいろいろ文句言いながらも真面目に仕事をするけれど、休日になると、スケジュールや体調、気分次第では何かやる気が出なくなって、ボーッと一日中フットボールの試合を見て独り言をつぶやいたりするコンピュータだ」。こんな機械の開発に研究予算を出してくれる政府も企業も、いかにも出てこなさそうですね(笑)。

 でも、人間そっくりの脳やセンサー、行動器官を備えたロボットが作りたいなら、確かに上記のようにヒトの性質までそっくり真似られるようでなければいけません。「優れた」ところだけ真似するのだけでは駄目。コンピュータはもともと超高速計算や膨大な記憶容量などで最初からヒトの脳より「優れた」ところがあったわけですから、そこを捨てていくような研究開発を行うのが「強いAI」の一面とも言えるでしょう。人口減少時代に、寂しい高齢者のパートナー・ロボットを開発したいならば、まさにそのような人間臭い、癒し系の「強いAI」が必要になってくることでしょう。

「掃除」は知的労働なのか

 世間や産業界で騒がれている人工知能(AI)の定義が、何か分からなくなってきた、という向きもいらっしゃると思います。私もときどきそうなりますので、文献を参照して確認することがあります。

 「そもそも人工知能(AI)って?

  A 人間の知的労働を、コンピュータに処理させるためのソフトウエアやシステムがAIだ。」

――エコノミスト誌、2015.1.27号 p.24 より

 「A」と書いてあるのは、「回答」という意味です。「知的労働」というのは紛れもなく、応用課題として解決されるべきタスク(仕事)で、従来人間の知能労働でしかできなかった(とされる)もののことを指しているようです。また、後半の説明では「人間の脳が日常行っている処理」と、急に違う定義に履き違えられてしまう感じがします。いずれにせよ、上の定義は、前半は狭すぎるし、後半は広すぎて、ちょっと違和感があります。

 例えば、最も身近に普及したAI応用製品と言われる「ルンバ」などのお掃除ロボットを見てみましょう。ルンバはMITの人工知能研究所所長を務めたロボット工学の権威、Rod Brooks博士の基本設計によるものです。センサーが察知して単純に障害物を避けるだけでなく、部屋の形状や家具の配置の地図を「頭の中」に作成し、無駄の少ない移動法を「考え」、かつ2度と同じところを通過せずに効率よく掃除します。人間でも同じところを(念入りに掃除するのでなく)、間違えて何度か掃いてしまうことがあるのに比べて、賢いかもしれません。また、充電器の位置を自分で探して充電されにいくなど、人間いらずの “自動性”が高まっていると言えます。

 それでも、掃除という作業、タスクには変わりありません。部屋の掃除に頭を使う余地は大いにあるとは思いますが、掃除のことを「人間の知的労働」と称する人はまずいないでしょう。お掃除ロボットの普及は、「こんなに考えて動いてくれるなら自動車の自動運転も任せて良いのではないか?」などの発想につながり、一般消費者がAIに肯定的になるのにも大いに貢献しているのではないでしょうか。

自動運転車の目標は「馬」だ!

 自動運転車のテストドライブに同乗する人に果たして保険が適用されるか寡聞にして知りませんが、一昔前なら、よほど勇気のある人しかそんな募集には応じなかったのではないでしょうか。おそらく、人工知能型のお掃除ロボットと日常暮らしている人ならば、自動運転車に不安なく乗ってみようと思う率がはるかに高いような気がします。ちなみに、自動車の運転って知的労働なのでしょうか? それを考える手がかりとして、車の運転と乗馬の違いについて少し考えてみ ましょう。

 自動車の性能が馬よりも落ちる点として、運転者が寝てしまったら終わり、というのがありました「馬のほうが自動車より賢くて高性能」という見解を初めて聞いたのは、筑波大駒場高校時代に漢文を教えてくれた高井先生がシベリア抑留時代の話をしてくれた時のことです。先生曰く「半分眠ってしまっても隊列の前の人馬に付いていってくれるので全く問題なく目的地に着くことができた。馬は素晴らしい!」と。極寒のシベリアで何度も生死の境をさまよった本人の語りでしたので、強烈な印象でした。

 私自身は5鞍しか乗馬の経験がないので到底その境地には至っていませんが、休ませておけば勝手にその辺の草を食べて自動的にエネルギー補給まで済ませてくれる点も車より優れているし、排せつ物は肥やしにこそなれ、排気ガスのように大気汚染で悪さすることがない点も優れていると言えるでしょう。

 かように、馬はセンサーと(3歳児並みの)知性を備え、危険を回避し、自動的に安全に目的地まで連れて行ってくれる点で自動車より優れていたわけです。AIはヒトばかりでなく、牛馬、犬猫、クジラなどの哺乳類や、一部のロボット研究者のように昆虫の知性を研究したりすることもあります。そこで、馬の知的能力を自動車に持たせるのが自動運転車の目標であり、これもAIなのだ、と言って良いでしょう。

 なお、お掃除ロボットには、あらかじめセットされたランダム、らせん、ジグザグなどのパターン通りに動くのが基本で、壁や家具にぶつかったときの方向転換の向きも一定、何度も通るうちにそのうち床全体がカバーされるでしょうという程度の、知性のかけらもないものもあります。このサイトでは4種類ほどに分類されていて、具体的な製品名があるので、製品選びに役立ちそうです。また、「必ずしも賢い自走式掃除機ばかりが、部屋を(低コストで)きれいにするという大目的にかなうとは限らない。2度拭きでよく汚れが落ちることもあるので。」などと理由付きで指摘している点、今後の「弱いAI」応用製品の設計思想を考える際に考慮すべきチェックポイントの1つとなりそうです。人間の場合も、賢い人ばかりが「使いやすい」とか「使って(互いに)快適」とは限らない、のと似ているかどうかまでは分かりませんが。

弱いAI の市場が花盛りとなる気配

 前節の記述は、ちょっとエコノミスト誌に意地悪だったかもしれません。ヒトの能力が実に多岐にわたり、汎用的であるように、機械にできることも実に多彩であり、タスクによっては、コンピュータの誕生以来、コンピュータの方がヒトより得意なものもたくさんあります。

 AI活用と称するには、何らかの知性を感じさせる作りになっていること。それは、ある種の「学習」だったり、単純な履歴データ活用を超えた「予測」だったり、もっと別種の知性の発揮だったりする。このあたり、個別に「何が新しくできるようになったか」精査する必要があります。安易に、「人間にしかできなかったことができるようになった。だからAIだ。」などとは言うべきではないでしょう。何も定義や切り分けができていないところへ「何にどれだけ役に立つのか」を評価することがますます難しくなってしまう危険があるからです。

 何か賢く「考えている」かの機能要素、原理により、従来は想定外だった水準の自動化率で、人手の仕事(知的労働に限りません)を代替し、省力化したり、人間以上のスピードや仕事量、仕事の質の高さを達成したものが人工知能応用システムと呼ばれるに値するのではないでしょうか。この意味で、エコノミスト誌2015.1.27号p.25以下の本題にある、「自動運転・AI・ロボットで注目の銘柄76社」はいいところを突いていると思います。

 残念ながら、まだ、私の会社・メタデータ社はこのリストに入っていませんが、近く、顧客の声(VoC=Voice of Customers)を分析するのに人間技では不可能だった膨大な意味抽出や、機械学習による自由テキスト記述の全自動分類などを新規搭載した製品を発表します。どうかご期待ください!

 76社の内訳ですが、3つの大分類のうち、自動運転を担う有望企業として、以下がリストアップされています:

  • 関連部品のメガサプライヤー3社(デンソー、日立、コンチネンタル)
  • 運転支援関連3社(日本電産、日信工業、アイシン精機)〜自動ブレーキや自動パーキング
  • 交通情報関連1社(住友電工)〜路上センサー情報から信号機の制御など
  • 車載半導体関連4社(ディジタルメディアプロフェッショナル、ルネサスエレクトロニクス、ザインエレクトロニクス、インフィニオン・テクノロジーイズ(独))
  • センサー8社(ソニー、アルプス電気、イリソ電子、オプテックス、日本セラミック、浜松ホトニクス、村田製作所、インターアクション)〜画像センサ、赤外線センサ、加速度センサ等
  • ソフトウエア4社(モービルアイ(蘭)他)〜立体動画解析、人工視覚他
  • 通信機器3社(OKI他)〜車車間通信他
  • カーナビ・地図関連2社(JVCケンウッド、クラリオン)〜クラリオンはGoogleカーナビに地図情報を提供
  • 入力・装置関連3社(アルパイン他)〜空中に画像を投影したり次世代タッチパネル、アップルの車載プラットフォーム「カープレイ」を手掛ける
  • 電子部品・半導体商社3社(ルネサスイーストン他)
  • 開発ツール1社(ZMP)〜AIを駆使した自動運転開発ツール「ロボカー」を販売。

 この他、自動運転と並ぶAIに大分類された訴訟支援(UBIC)、音声認識(アドバンストメディア)、コミュニケーションロボット(富士ソフト)、自動運転(ZMP)(物流ロボ「キャリロ」発売へ。マミヤOPの芝刈り機にもAIを供給)が挙げられています。

 ロボットという3つ目の大分類には、日本のお家芸、伝統の産業用ロボット14社に加え、新市場のサービスロボットが15社も(ホンダ、サイバーダイン、菊池製作所、パナソニック、セック、ソフトバンク、やまびこ、今仙電機、トヨタ、シャープ、大和ハウス、東芝(お掃除)、三菱重工(廃炉用)、グーグル、アイロボット(お掃除))、挙げられています。他に、ロボット用モーター、減速機、直動システム、センサー、建設機械の自動制御という分類に1〜3社が名を連ねています。

 次世代カー、自動運転車というと、「トヨタ対グーグル」などと、異業界の両雄一騎打ち、と揶揄されがちですが、幅広く産業全体を変革していくイメージが上記リストからだけでも浮かび上がってくるかと思います。非常に健全な、「弱いAI」の市場開拓の動きであり、ハードウエアやきめ細かな動き制御といった、日本企業が得意な領域でもありますので、個人的にも注目、応援しています。

“メタファの暴走”にご注意

 弱いAIの研究開発については、その性能の評価基準も多くの場合、明確なので、安心してその加速ぶりを眺めていくことができます。一方、先ほどのAIの定義に絡めて、「人間にしかできなかったことができるようになった」という言い方と同様、「人間のように仕事をするコンピュータ」という言い方も要注意です。

 以前のAIブームの時にも「人間がやるように何々ができるコンピュータプログラム」という言い方も流行りました。 中には、「人間がやるように形態素解析(分かち書き+品詞付与)をするプログラム」と堂々とうたった論文発表もあり、仰天した記憶があります。

 ヒトは、文章を読む際に「ここは動詞で始まる文節の切れ目で、その後に副助詞『も』、活用語尾、完了の助動詞が付いている」など考えながら、文を単語列に分解しているものでしょうか? 全部の単語について、分かち書きをちゃんと(機械がやるように)やっているのかも疑わしいし、品詞付与にいたっては、単語に品詞名を付与しながら母国語を聴いて理解している人など一人もいない、と断言して良いからです。学校で文法を教わっていない幼児なら「品詞ってなぁに?」と聞きますよね? 形態素解析というタスクはヒトの生得的能力とは随分違います。

 このようなエピソードなら、「研究者ってヘンね」と笑って済ませられるかもしれません。しかし、「知能」、「学習」、「予測」ということばが独り歩きし、知らず知らずのうちにユーザーに誤解を与えるとしたらそれは危険です。人間が幅広い教養と人徳を踏まえて知性を発揮したり、複雑高度な知識をその場で創造しつつ未知の問題を解決するような能力を学んだり、独創的な新経済理論を発案することで2025年の国際情勢を予測する、などの能力と混同されては困ります。これらは、「知能」、「学習」、「予測」などのことばが独り歩きしたことによる、メタファの暴走なのです。

 そもそも自動処理、自動で何かができる、というのはどういうことでしょうか? 蒸気機関の発明以来、いや、それ以前の、風車や水車の時代から、人力や牛馬の筋肉によらずに製粉や灌漑ができたり、人や物を動かしたりできるようになっています。梃子の原理で人力を拡大する装置でも、その動力源を見せなければ、「自動的に」動いているようにみえます。

「人工頭脳」の中枢には蒸気機関が…

 重力が動力源の面白い装置はピタゴラ装置ですね。自動的、自律的に見えるから面白い。風力が動力源で、本当に生き物のように見えてしまう、ストランド・ビーストというのもあります。

 無声SF映画「メトロポリス」をご存知でしょうか?

 マルクス主義が盛んだった時代に、制作年代1926年から100年後の2026年の未来都市は、一握りの支配者階級と、大多数の労働者階級に分かれ、主人公マリアが豹変して機械に支配された代弁者になってしまうくだり。そして暴かれた機械制御の中枢には、蒸気機関があり、すべての機械を制御していたのです。人工頭脳の象徴が、その当時の主力の自動機械だった蒸気機関であったことは大変示唆的なエピソードです。

 すなわち、それ以後も、その時代、時代の最先端の自動機械が比喩(メタファ)、象徴(メトニミ)として使われ、人の頭脳にすぐにでも取って代わるかのようなイメージを与えるようになるだろう、と示唆されたのであります。現在のコンピュータは、ディープラーニングなどのソフトウエアを載せたものも含め、ほとんど全部がプログラム格納方式、別名ノイマン型コンピュータです。これは、「0」(ゼロ)と「1」(イチ)の列を入力されたものが一部はデータとして、残りは制御を進め、切り替える「命令」として扱われ、粛々と機械的に、スイッチや、パチンコ台、そしてピタゴラ装置と同様に、厳密に「0」「1」の列の指示通りに動作する機械です。違いは、大規模、超高速に動作する点だけ、といっても良いでしょう。

 コンピュータには何らかのデータ保存装置があるので(紙テープやパンチカードも含め!)、そこにデータがある程度自動的に取り込まれたことをもって「学習」とか「記憶」と呼んでしまい、また勝手に妄想を膨らませる人もいるでしょう。ここにも「メタファの暴走」の罠がすぐそこに、ぱっくり大口を開けて待っています。さすがに、ハードディスクやUSBメモリにデータを保存しただけのことを「学習」と捉える人はいないでしょうが、プログラムの前回の実行履歴(ディスク装置に「記憶」されています)が自動で呼び出されただけで、「おー、学習機能があるのか、気が利いている」と感じる人は少なくないと思います。

 どんなコンピュータプログラムでも何か自動で動き、何がしかは賢く、あたかも自律的に動いているかに見えても不思議はない。これはコンピュータの誕生当初から、そう、半導体以前の真空管、あるいは天才・池田敏雄氏らが開発したFACOM-100のようなリレーを多数使った機械式コンピュータの時代から、どんなプログラムでも自動で、賢そうにふるまうことはできたという当然のことを意味します。「人工知能搭載だから賢い」というのもその内容、すなわち情報処理機械としての入出力と内部処理の仕様が具体的に定義されていなければ、自動処理機械だから自動で処理している、という同義反復しているような無意味な言説です。ジャーナリズムとしては控えるべきではないでしょうか。

 少し長くなりましたので、次回は、新世代の人工知能らしい「学習」とは何かについて、仮名漢字変換から、人工知能分野とは少し違う領域の研究者が取り組んでいた機械学習について、また、最適化のタスクや、そのためのビッグデータのモデル化などに触れてみたいと思います。



posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年08月19日

ビッグデータとAIは新しい消費市場を作りつつある

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の19回目です。


ビッグデータとAIは新しい消費市場を作りつつある

人工知能ブーム再燃の真実(その4)


 前回、「人類が生み出した超知能(神)が次の宇宙を生み出す??」など、究極のぶっ飛んだお話を書きました。今回は企業が保有するビッグデータの流通の話題などに大きくシフトしようかとも思いましたが、私自身、人工知能に再び取り組んでおり、健全に活用するスタンスの取り方が確定しきっていないので、引き続き現在の人工知能ブームに対して、様々な角度から冷静な目線を向けてみたいと思います。

20年前に予言されていた? ビッグデータによるシンギュラリティ

 昨今、急激に脚光を浴びている「超知能が全人類知を凌駕する」シンギュラリティに似た議論(その後見つけた例)は、30年位前にもありました。当時、自律的、自発的に学習する本格的な人工知能がなかなかできそうにないため、片端から機械に知識を詰め込んでやれば、いつか詰め込んだ以上の知識を類推などで学習できるようになるのでは、という意味での「臨界点」を目指す動きがありました。

 2つ前の連載の2ページ目「大規模知識ベースという副産物を生んだ当時の研究」でご紹介した、常識・知識ベース解プロジェクトの1つ、Cyc のDouglas B. Lenat教授は、(知識)量の違いが質の違いを生むと主張していました。FGCS第五世代コンピュータ国際会議の1つで、 Lenat教授は講演の最初に、「いつ機械は学習し始めるか?」(“When will machine learn?”)と大きく板書。その後、数10分、Cycプロジェクトの内容を紹介した後、当時のタイムスケジュール、ロードマップを聴衆が期待し始めたタイミングを狙って、

「199x年y月z日」と板書しました。

 すみません、確か、1994年12月あたりだったかと思うのですが、記憶、記録が定かでないので変数のままとさせてください。ポイントは、それがCycプロジェクトの(当時の)完了予定日であり、その日こそ、新規に人手で追加投入した知識量以上に機械が学び始める臨界点(割と堅実なシンギュラリティの定義と言えるでしょう)だ、とLenat教授が主張したところにあります。

 確かに、多様で膨大な常識・知識のストックがないと、新たに投入された記述から知識、情報(事実や意見)を取り込むことはできません。例えば次の例文を考えてみましょう:

例:彼は吠えて飛びかかってきた動物と向き合わざるを得なかった。

 「彼」は通常は人間の男性のことであり、人間は通常「吠えない」という知識を使って初めて、上記例文の中で「吠えた」のは「彼」でなく「動物だ」と判断できます。この知識がなければ、彼が吠えて、その後で、動物と向き合ったのかもしれないという可能性を排除できません。この曖昧さは、構文解析という、文の構造解析の結果に含まれる曖昧さなのですが、構文解析を正しく遂行するだけでも、膨大な量の常識知識を適切に表現して、正しく活用する必要がありそうです。また、それがかなり膨大になりそうであり、人間だからといっていつも正しく適切に知識をコンピュータに教えられるとは限らない。

 当時から、機械が常識を獲得できるようになるには何か大きなブレークスルーが必要だ、と感じていたのをお察しいただけるかと思います。もちろん、主に手動による知識のコーディングとその洗練、一定ボリュームになるまで歯を食いしばって実行する必要性を、天才人工知能研究者の名をほしいままにしたLenat教授らが確信していた事実は尊重されてよいでしょう。また、実際どの程度の量の知識を集めればよいのかをもっと研究すべしとか、人間の学習を真似るにはどの程度、人間と同様の脳の仕組みを真似る(=“強いAI”の発展)必要があったかとか、もっと執拗に追究すべきなのかもしれません。大規模知識ベース開発と並行して。

なぜ今、人工知能や高度な分析力がブームに? 〜ビジネス現場のニーズから考える

 現在なぜ、人工知能に関心と期待が集まっているのでしょうか? 前回までは、データ量や計算機の能力が何桁も増大したこと、また雌伏20年、当時の若手研究者が研究指導者になって、怖いもの知らずの若者に「取りあえず計算量のことは気にしなくてもいいから多層(4層以上)のニューラルネットで画像認識をやってみてくれ」などと示唆したなどのせいでブレークスルーが達成できてしまった、という事情もあるでしょう。

 しかし、全体としては「必要は発明の母」、ニーズの高まりが技術開発を促した側面が大きいように感じます。最大のポイントはやはり、ビッグデータ。昨年前半くらいまでに、大量データの収集とその“お掃除”、データの形式や網羅性の追求整備が進んだけれど、まだそれをあまり活かせていない。活かすためには、人手でも機械でも分析ができればよいのですが、本当にビッグデータなので、やはり全部は見きれない。目視できた範囲でも、それだけでは経営戦略に重大な影響を与える「何かを発見しろ!」「アイディアを出せ」と言われても何も出てこない。

 そこで、様々な角度で解析し、絞り込み、クロス集計などをかけるという統計的手法などを駆使してみたりします。しかし、次の場合は、人工知能的でない手法ではなかなか自動化が進みませんでした:

  • 元データが数値データではなくテキストや画像、音声などの不定形データの場合
    →人に代わって文章を代読したり、画像や動画中の物体や動きを認識する能力が必要
  • 数万〜数千万の生データを走査して、潜在するパターンや法則を発見する
  • どんなデータであるか皆目分からない大量データを自動分類し何らかの傾向、意味付けを与える

などなど。

 一方、マーケティング上、重要な役割を担うようになってきたソーシャルメディアを眺めてみたとき、例えばフェイスブックがその利便性、(企業にとっての)付加価値を高めるために、高精度な顔画像の自動認識を備えているのも重要です。これなどは、手動で友達をひもづけるインタフェースの上に、デフォルト(既定値)として自動認識結果が補完されかけているようにした、なかなか巧みな仕組みです。かつては人間にしかできなかった顔認識を自動化することで、友人、人間を「奴隷」のように機械に奉仕させることを回避できている、といえます。

 ゲーム中毒や個人情報の悪用問題など、IT自身の生み出した負の側面への対抗策にも、もはや人力では無理であり、ITをもってITを制するしかないのは、AIの懐疑派も認めるところではないでしょうか? まだまだ、出てきたばかりの新しい機能群のもたらす負の側面をコントロールしきるところまではいきません。しかし、このようなネガティブな気持ちになる作業を人が膨大な時間をつかって奴隷のように働くわけにはまいりません。やはり、人間の代行がある程度可能なAI的なITによって対応する、いわば、毒をもって毒を制する、というとになるでしょう。こんな表現ならば、IT懐疑派には歓迎されそうな気もいたします。

生活現場の興味・好奇心がロボットや人工知能に向かう

 モノは溢れかえり、サービスも、消費者のアテンションや時間、ひいてはお金を奪おうと手ぐすね引いてくれる。ウェブ検索を毎日行って情報や知識にアクセスする人々は必ずしも多数派ではなく、ソーシャルメディアの「友人」や、アマゾンをはじめとするECのソーシャルフィルタリングやレコメンデーションに従って、あまり考えずに買い物をして楽チンがしたい。でも時に、時間を節約しすぎて意図せざる商品が届き、失敗を悔やむ。

 こんな生活を続けていると、「あーあ、もっと自分の意図を賢く察してくれる忠実な召使いはいないものか? できればフレンドリーで、忍耐強く、優しくて、面白い奴が良いな!」と考えると、以前ご紹介したアマゾン製の円筒のようなロボットや、流行り始めたソフトバンクのPepperのパーソナル版が出てこないか、などの期待が募ってくることでしょう。

 TVからネットへ、という流れは、消費者、一般大衆が常に能動的に情報にアクセスしコントロールする方向へシフトしていることを必ずしも意味しません。周りの人もネットのサービスで連絡や相談をするようになったから、と引きずられて、何となく自然にネットを使うようになったユーザーも千万人単位でいるわけです。そんなユーザーは、少なくとも疲れている時、寛ぎたい時くらいは受け身でネットと接したいことでしょう。

 普段シビアにネットを使いこなしているヘビーユーザーだって同じかもしれません。TV時代のように、受け身で楽チンに接するあり方がそのままネットに移行するためには、現在のPCや、検索エンジンのインタフェースでは受け止めにくいわけで、そこに音声認識や対話型のスマホの新しいインタフェースが大発展する素地があります。そして、先ほどのロボットのような専用デバイスが大市場を築く可能性も大いにあります。

 先の連載の「クリックなしのネットショッピングをロボットが実現」 でご紹介した米アマゾンのEchoは、そのあたりのニーズの本命をずばり捕えている可能性があります。珍奇だからといって敬遠する理由はないでしょう。

マーケティングとしての「強いAI」

 私は一貫して「弱いAI」すなわち、人間の能力を拡大したり、人間と協力し合って互いの得意な能力を出し合って対話的に問題を解決するという人工知能を推進するという立場をとってきました。ところが、先のロボットでも、さりげなくアシストしてくれて楽チン、というのではなく、いかに人間らしく振る舞うかとか、人間の子供がするようなことが出来たり、わがままやジョークを言ったり、ということにも人々の多大な興味が集まります。

 これなどは、「見世物としてのAI」、「娯楽のためのAI」と呼ぶべきかもしれません。しかし、市場としてバカにできない大きさになる可能性があります。ゲームの裏側にAI的なプログラムがいるのも、ある意味自然です。一人だけで麻雀はできないので、他の3人のプレーヤーを用意してくれるプログラムは20年前からありました。プレーヤーに個性を持たせ、互いに喧嘩させることで「裏で3人が通じ合って八百長などしていない」ことを演出しているかのような麻雀ソフトもあったように思います。

 本物の人間並みのバリエーションで対話したり、本物の感情を持つには至らない対話ロボットであっても特定の個性的なキャラを持たせて、複数参加させることで時に予期せぬ(事前にプログラミングしきれない)対話の展開を生じさせることがあり得ます。直接のご利益や有用性はなかなか得られないかもしれませんが、少なくとも見ていて楽しい、3人以上の対話に参加して楽しい、という人間にとってのメリットは考えられるでしょう。

 翻って、NHKの「ネクストワールド」のような番組が高い視聴率をとって話題になるのも、1つには強いAI、人間みたいな知性を感じさせる技術、設計、デザインそのものに視聴者が大きな興味を持つからでしょう。この意味で、「強いAI」という、もともと科学技術、研究開発の方向性の哲学だったものがマーケティングの有望な概念としても機能していることが分かります。

 人工知能ブーム再燃の真実、まだ続きます。本稿末尾の負の側面として、「メタファの暴走」の話や、AIとは思われてこなかった機械学習の話、また、AI的な手法を用いながら全然そのように見えない、見せない問題解決の局面などご紹介してまいりたいと思います。



posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年08月05日

2045年、人工知能は人間を追い越す?

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の18回目です。


「2045年、人工知能は人間を追い越す?」

人工知能ブーム再燃の真実(その3)


 今回は、人工知能の進化をめぐる楽観論と悲観論について取り上げてみたいと思います。

 技術的な楽観が、人類にとっての悲観となることがあります。人工知能が人間の知能を追い越して進化するという設定で映画「ターミネーター」では未来世界で機械が人類を抹殺しようとしていました。また、最近の映画「トランセンデンス」では、アップロードされた人格が機械やITインフラを駆使して人間を支配しようとする。つまり、技術的には楽観的になることで人類にとって悲観的な未来を描く向きもあります。天才物理学者のホーキング博士まで、最近、そんな発言をしています。

 もっとも、実際に人工知能の研究開発や応用で苦労してきて、現場の最前線の技術を具体的に知悉している人はどちらかというと正反対の見方、すなわち、人間の素晴らしい能力はそんなに簡単には超えられないから心配には及ばない、と考えてきた人が多いように思います。

 ところが、20年近い沈黙を破って、人工知能研究者自身が超楽観的なストーリーとして、2045年に人工知能の知の総体が人類のそれを追い越し、自らを進化させ、超知能となっていく、といった発言が見られるようになってきました(例えば松尾豊氏の「シンギュラリティを超えないと言うのは、もはや難しいだろう」)。

 これは、検証不能の疑似科学かもしれません。しかし前回の人工知能ブームでも、「10年後の1998年には、人間と同じやり方で自ら学べる機械が出現する」などの予言が一部の書籍に見られたことを思い起こすと、人工知能の「ブーム」が本格化しつつあることの1つの証拠なのかもしれません。

シンギュラリティ問題:2045年に人工知能が人間を追い越す?

 情報処理学会の会員向け月刊誌「情報処理」2015年新年号の特集は、「人類とICTの未来:シンギュラリティまで30年?」というものでした。古くは、シュワルツェネッガー主演の映画「ターミネーター」で想定されたように、人工知能が何らかの本当の学習能力をいったん備えてしまえば、急速に自己進化を遂げてあっという間に人間の知能を超え、独自の(非)倫理観をもって、邪魔で非効率な人類の排除に乗り出すという臨界点も「シンギュラリティ」の1つのあり方です。

 一般には「特異点」ということで、人工知能の進化で何らかの後戻りできないポイントを通過すること。人間がコンピュータに教え込む知識量以上の知識をコンピュータが自ら獲得できるまでに学習能力が高まり、勝手に知識ベースを増大させられるようになることを指すでしょう。おそらくその次の段階で、知識の獲得、創造の仕方自体を自ら改善し進化させてしまうことが想定できますが、世間でのシンギュラリティ談義では、そのあたりが混同されているようにも見えます。

 この2つの特異点は区別したいです。ただ、実際に、コンピュータが本当に自ら知識を獲得したというのはどういうプロセス、状態なのか定義、判定するのは難しいでしょう。現在のGoogleさんの検索エンジンは、精度向上の仕事の相当部分が自動化されているはずですが、研究者が考案したアルゴリズム(計算手順)とデータ構造に基本的には依存しており、研究者のセンスを超えて気の利いた手法をコンピュータが勝手に「考え」たりはしていないはず。でも、その延長で、いつどのように「あれ、適合型の意味構造認識のアルゴリズム入れたけど、自分(研究者)の想定以上に賢くふるまっている」と判定できるのか、判断が難しいと思われるからです。

 2つ目の「(知識獲得・創造の仕組み自体を改変して)自らを進化させる」という特異点に至っては、お手本たるべき地球上の生物でさえ、自らの意思で自らを改造してきたわけではないので、さらに大きな疑問符が付きます。生物進化については、ダーウィンの自然淘汰説が主流なわけですから「機械が自らの意思で進化してしまうのはおかしいのではないか。少なくとも『強いAI』の立場で、とことん生物、人間をお手本に機械が進化する限りは」という説もあります。

 いずれにせよ、現時点で反証可能な仮説とは言い難く、個人的には、熱気とブームは認めますが、量子コンピュータや量子情報科学、そしてディープラーニングという名の古くからある多層ニューラルネットの原理や能力の解明がもっと進まないと、科学的な議論とならないように感じています。

SFとの境界線が消えた欧米のAIビッグプロジェクト

 「情報処理」2015年新年号では、さらに詳細に、シンギュラリティの肯定派、懐疑派(SF作家など)による詳細な議論のまとめと各国のプロジェクトなどが紹介されていますので、ご興味の向きは是非ご参照ください。京大の物理学博士(1970年)で神戸大学名誉教授の松田卓也さんによる「来たるべきシンギュラリティと超知能の驚異と脅威」には、様々な「超知能の作り方」が紹介されています。

  • 生物学的超人類:「高い知能を持つ男女を掛け合わせて…」あるいは遺伝子工学で
  • 知能増強:脳にチップを埋め込んだり赤血球大のコンピュータを脳内血管に常駐
  • 集合知能:「みんなの意見は案外(なぜか)正しい」の延長
  • 人工脳による集合知能:脳だけの人間を作り出して結合
  • 全脳エミュレーション:死んだ人の脳をガラス化して薄くスライスし、ニューロンとシナプスの3Dマップを作って機械上に再現してスイッチを入れたら故人の精神・魂が蘇るのではないかという研究プロジェクト。問題は、死の直前の、惚けた脳のコピーになること。
  • マインドアップローディング:よりソフトウエア的に、生きている人の意識からあらゆる脳内記憶、脳の活動をコンピュータに転送し、人を肉体から解放。
  • 機械人工知能:コンピュータでヒトの脳の働きをシミュレートする、古典的な、強いAIが目指してきた方向。現在のノイマン型コンピュータを前提とするEUのヒューマン・ブレインプロジェクトや、全く違うニューロモルフィックチップを開発して、従来型コンピュータの苦手な感性や感覚を担当させる。IBMがDARPA(米国防高等研究計画局)の協力下で遂行中のシナプス計画の手法。

 いかがでしょうか? SFと紙一重というか、SF的な予言、目標が10年後には実現しかねないくらい境界があいまいになってきている印象を受けないでしょうか? 

 EUのヒューマンブレイン計画は、2013年からの10年で12億ユーロほどの予算を90の研究機関に投じて脳を解明しようというものです。10万個のニューロンからなる新皮質コラム中で起こる現象を化学反応のあり方までコピーしてシミュレートするという、ブルーブレイン計画(2005年〜)は既に成功し、ネズミの知能は実現済といいます。その延長で、ネコの知能、サルの知能をクリアし、2023年頃に人間程度の知能を実現するとしているとのこと。いわゆる論理的思考だけでなく感情、感覚、そして、いまひとつ正体が分からない意識や自我まで、勝手に出現するだろうと当事者は予測します。

 この他の様々なプロジェクトが紹介された後、超知能は核兵器同然のものであり、人類を滅ぼすのでは、という心配が指摘されます。民間企業に任せていては倫理基準が働かないので、先のホーキング博士の心配が正夢になってしまうのではないか、しかし超知能の開発はかつての核軍拡競争に取って代わり、世界覇権を狙う各国がしのぎを削っているので誰にも止められないだろう、と。

 最後に、豪州出身のAI研究者 Hugo de Garisが、今世紀後半に、人類の知能の1兆倍の1兆倍の知能をもつ機械“Artilect”(超知性)ができると主張した話題が取り上げられます。de Garisは、圧倒的に愚鈍で足手まといの人類はその時点で滅ぼされると主張します。だから、そのような機械を作って良いかどうか賛成派と反対派が武力衝突を起こして超知性戦争という名の世界大戦が起き、どちらが勝つか分からない。さらに、“Artilect”(超知性)が誕生して人類が滅亡した後は、“Artilect”(超知性)が真空の揺らぎから新しい宇宙を作り出し、その中でまた100億年後くらいに人類のような知的生命体を生み出す、と。

 つまり、神が人間のような知的生命体を作ったのではなく、それは逆で、何らかの知的生命体が神(のような機械)を作り出し、その神(のような機械)が今の宇宙を作ったのではないか、と主張しているようです。半世紀後にも新しい神を人類が作り出して、その神に滅ぼされる。ここまでいくと、誇大妄想狂と言われても仕方なさそうです。

温故知新で30年後を予想

 ここで、中年以上の方には今や古典となったロバート・ゼメキス監督の映画「バック・トゥ・ザ・フューチャー」(1985年)を思い出していただきたいと思います。

 「バック・トゥ・ザ・フューチャー2」で舞台となった30年後の未来とはいつか? そう今年、2015年です。当時の予測、空飛ぶ自動車、空飛ぶスケートボード、しゃべる服(あれは当時から自然な音声合成を実現していたDEC Talkという発声エンジンを使って撮影されました)などは実現していません。必要もなかったからと言えるでしょうか。様々な本人認証システムなどは、銀行ATMでの掌紋認証や、網膜パターン認識による制限エリアへの入場許可、そしてノートPCに当たり前に指紋認証が付いてきたなど、より着実に幅広く浸透したといえるので、見事に予測が的中した、と言ってもいいでしょう。

 1985年当時は考えられもしなかった機器やサービスが現実世界に出現した例もあります。スマホアプリがクラウドと連携して便利なサービスを利用できる状況はごく当たり前になり、中高生達は、ごく最近出現したLINEのサービスがなければ生活が成り立たないくらいにさえなっています。

 とはいえ、たったの30年間ではこの程度の進化だったか、という印象が強いのではないでしょうか?

 シンギュラリティ論者は、2045年までの30年はこれまでと違ったすさまじい勢いで進化が加速するのだと言うでしょう。ただしそれには、1960年代から知られていたニューラルネットという手法が、1980年代に3層が実験されて数10の要素で表現できるモデルの学習は何とか実用化し、計算量がより多く結果も発散しそうと敬遠された多層ニューラルネット(実際には計算量が減る例もあることが最近示されたことを知って私はディープラーニングに肯定的に転じました)によるパターン認識や自動分類の精度向上という半世紀にわたる地道な進化の歴史を振り返ると、ブームやニーズに火がついて加速するとしても、シンギュラリティ論者の主張する進化の加速はにわかには信じがたいものがあります。

 思い出すのは、大変僭越ながら米MITの元“同僚”で、1993〜94年当時、よく音楽や自然言語の謎について議論した人工知能の父マービン・ミンスキーの名著『心の社会』です。これは同じ認知科学の巨人で現代言語学の父ノーム・チョムスキーに言わせれば反証可能性がなく、科学の産物ではない、とされましたが、重要な示唆に富んでいたと私は評価いたしました。『心の社会』出版記念シンポジウムに相当する「ミンスキー・シンポジウム」がマサチューセッツ州ケンブリッジ市のMITキャンパス内Cresgi Auditoriumで開催された際、彼のスピーチで鮮明に覚えているくだりがあります。

 「類人猿から決別して現生人類へ向けて確実な進化が始まった400万年前から、1万年に1種類ずつくらい、全く新しい、認知、理解、様々な知識、判断、行動の意思決定など(感情は猫にもあるのでもっと古いだろう)を司る新しいアーキテクチャ、脳内のサブ・システムの情報処理の仕組み、ハードウエアやソフトウエアの構造が誕生し、時に不整合なまま追加されていったのではないだろうか? 」

 自然言語の誕生は4万年ほど前と言われます。それ以後に4種類。400万年で、400種類もの異なる仕組みがヒトの脳に付け加わって、うまく機能した系統だけが生き残ってきたとするならば、多層とはいえ、単純で画一的な神経回路網上の結合度が教師データで変化するだけのニューラルネットですべての脳機能が表現できる、とする論法には無理があるように感じます。もちろん、違う仕組みのコンピュータ上で同じ機能が再現できる可能性は否定しきれないですが、その効率、実現可能性は必ずしも高いとはいえないと思います。

 というわけで、今後10年、20年、30年で、人工知能の匂いのする知的なソフトウエアやロボットは着実に普及するものの、2045年に機械の知性が人類を追い越すという第一のシンギュラリティは訪れないだろう、という予測に私は賭けます。生きていれば83歳ですので、掛け金を払うかもらうか、いずれにせよ、結果を確認できる確率は五分五分くらいかなと思いつつ(祖父が99歳、父が68歳に亡くなっているので自分はちょうど中間の83.5歳まで生きるつもりでいます)、楽しみにしています。

 そういえば、治療型のナノボットなど、医学の進歩によって、2045年の平均寿命が100歳になるという主張もあるようですね。その時点で生まれる赤ん坊についてのことであり、現在の国際紛争、テロや貧困が撲滅されていれば有り得ないことではない、というくらいに期待したいと思います。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年07月22日

AI応用はどこに向かっているのかをざっくり整理する

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の17回目です。


AI応用はどこに向かっているのかをざっくり整理する

人工知能ブーム再燃の真実(その2)


 新年の最初の記事を書いてから2週間の間、ディープ・ラーニングや量子コンピュータを含む、最近の人工知能関連の話題、研究の最前線について問い合わせを受けて調べ、考える機会が顕著に増えました。本業の合間にじっくり考えたり、若手研究者と話をしてきたわけですが詳細は別途お話しするとして、ここ四半世紀、計算量が爆発的に増えるため個人的には懐疑的なスタンスを取ってきた多層ニューラルネット(≒ディープ・ラーニング)について、肯定的に評価するようになったという変化がありました。

 お引き合いや問い合わせは、いわゆるビジネス応用についてのものが多いわけですが、人工知能応用の5年後、10年後を語れ、と言われた時に、研究の最前線、その勝算について考えないわけにいきません。とはいえ、基礎的なアルゴリズムの「勝ち筋」が仮に分かったとしても、産業に、生活に、ITインフラに、多彩な影響を与える応用がどうなるかが簡単に読めるわけではありません。

 そこで、具体的な応用テーマを眺める前に、人工知能にはどんな種類があるのか、どんな分類法をすれば見通しが良くな(った気がす)るか、元旦の初夢で思いついた「人工知能の3軸分類」を用いてご紹介したいと思います。

人工知能は万能にあらず。様々な種類、方向性がある

 ビジネスマンの会話の中でも、テレビ番組への取り上げられ方でも、人工知能には様々なニュアンスが伴います。画像や動き、音声を認識したり、人間の言葉や感情を僅かでも解釈するような技術要素が入れば人工知能だし、チェスや将棋、囲碁のように人間がプレイヤーとなって頭を使うゲームや作業も、全般に人工知能と呼ばれがち。少し気の利いた、進んだ会話を自覚する人々の間では、楽器の演奏など身体を駆使した、従来は人間にしかできなかった作業全般も人工知能、ロボット技術と認知されています。本連載で以前取り上げた対話ロボットというソフトウエアや、クイズに答えるソフトウエアはランキング、レコメンデーションと似た技術の延長にあるにもかかわらず、やはり人間臭いところから人工知能、と認識されていることでしょう。

 少し幅広く「知的なふるまいをするソフトウエア」と緩く定義しておいて、どんな種類の人工知能(以下、AIと略記) があるのか考えてみたいと思います。

 予告させていただいた「初夢」では、従来からある「強いAI」対「弱いAI」、「専用AI」対「汎用AI」に加えて、「大規模知識・データに基づくAI」対「小規模知識・データで動くAI」という3つの軸で分類し、様々な位置関係に色々な違ったタイプのAIがあるととらえてみよう、と思い立ちました。

 「強いAI」とは、「人間の脳と同じふるまい、原理の知能を作る」ことを目指すAI研究のことを指します。「弱いAI」は、「人間の能力を補佐・拡大する仕組みを作る」ことを目指すので、必ずしも人間の脳の構造や、機能さえも解明する必要はないということになります。

 汎用、専用というのは、相対的に取ることもできます。たとえば、チェスしかできない機械と、チェスも将棋も、囲碁もできる機械とを比べたら、後者のほうが汎用的と言えるでしょう。ただしAI研究の世界ではもっと次元の違う汎用性、例えば知識を新たに自分でその場で獲得しながら使いこなしていけるという、メタ知識をもって未知の事態にある程度対応できるAI、汎用の学習能力を持ったAIのことを汎用のAIと呼ぶことが多いようです。知識やデータの多いか少ないかの違いは、読んで字のごとくです。

人工知能(AI)の3軸分類

  • 強いAI vs 弱いAI
  • 汎用AI(万能、広い) vs 専用AI(個別、狭い)
  • 知識・データが多量 vs 知識・データが少量

「強−弱」「専用−汎用」「知識・データの量」の3軸で分類

 この3Dグラフ上のいくつかの位置について見てみましょう。

 まず、「強いAI」で「汎用的」で、「大規模知識・データ」を備えているAIなら、人間のような認知、理解、学習も全部できた上で、人間が苦労してプログラミングして教え込むことなく、何千種類もの専門家の知識を急速に自分で獲得して、全知全能のようにふるまうという機械となるでしょう。このようなAIが、いつか質的にも人間の理解や発想の能力を超えて、超・知性として進化し始める特異点がある、と考えるのが「シンギュラリティ(2045年問題)」論者です。

 次に、今度は具体例としてIBM社の初代「ワトソン」コンピュータがどんな種類のAIであるか考えてみましょう。まず、人間のクイズ王を凌駕するほどの大量知識を備えていることには誰も異論はないでしょう。次に、その構造や「理解の仕方」がどうかというと、確かに様々なジャンル(文学、歴史、地理、物理、化学、生物、地学、数学、音楽、映画、などなど)に通じているようには見えますが、各専門知識を、その専門にある程度合わせた構造で持つ場合もあり(数式や年号など)、それを足し合わせた仕組みということで、専用AIの集合体と位置付けるほうが適切でしょう。

 言語の構造、すなわち、主語と述語「***がどうした」、目的語と述語「***をどうする」のパターンが似ているという、浅い知識照合で解答候補をランキングしている部分は汎用的とも言えるのですが、逆にその分野の専門知識を備えているというには程遠いと言えます。検索エンジンのランキングや、ECサイトのレコメンデーションエンジンに近いと言えるわけで、IBM社自身が当初言っていたように、処理方式の主要部はAIではない、という評価が妥当かもしれません。

 ふくらはぎの辺りに電極、センサーを取り付けて、脳波が足の筋肉にどんな指令を出し、それがフィードバックされるかを刻々と測定して筋力をアシストし、寝たきりの人を歩行できるようにしたCyberdine社のHALはどうでしょうか。失われた能力を補完し復活を手助けするという機能は「人間の能力を拡充」に含まれるので、明らかに「弱いAI」に該当します。汎用的とは言えないので専門的。知識量が将来増えるのかもしれませんし、知識量の数え方、計り方もよく分かりませんが、百科事典の数百万項目やウェブ上の知識情報に比肩できる水準ではないでしょうから、小規模知識・データ、に該当すると言えるでしょう。

 アシストする臓器が「人間の脳」という事例も近い将来出てくるように見聞します。分かりやすく具体的に描いた例として、米国の近未来SF TVドラマ“Intelligence” の主人公ガブリエルの脳に埋め込まれたチップでネットに接続し、膨大な情報を自在に引き出して、「サイバー・レンダリング」と呼ばれる機能で脳内に3Dイメージを再構成し、それを通常の脳機能で“眺めて”、何かを解釈、発見するようなことが実現したとしましょう。「弱いAI」であり、超「大規模知識・データを活用」したものであり、脳がインターネットに直結するようなもので、汎用の仕組みで脳の能力を拡大するわけですので「汎用AI」と言っても良いのではないでしょうか。

IoTの人工知能はどこに位置付けられるか 

 年初にラスベガスで、過去最高の約17万人を集めて、世界最大級の家電展示会CES(Consumer Electronics Show)2015が開かれました。

 個人的には、Royal Gateの梅村社長がモバイル決済デバイス、システムを引っ提げてブースを構え、日本のベンチャーとして気を吐いたのが非常に嬉しかったですが、全体としてはやはりモノのインターネットIoT(Internet of Things)が最大の話題であったようです。

 あらゆる家電製品、デバイスがインターネットにつながると言っても、CES2015で注目されたのは次の4つです:

  • ウエアラブル
  • ドローン/ロボティクス
  • スマートホーム
  • 自動車

 四半世紀前の第2次人工知能ブームでは、人工知能はソフトウエアである、というのが通常の理解だったと思います。それがここへ来て、さまざまなハードウエアや、生体との連動、融合と言っていいような応用の動きが注目されたり、ドローンのように人間や、人間が操縦する航空機器では対応できなかったような問題解決や視点(新しい芸術的映像)も生まれています。

 これらは全般に、人間の能力、特に乳幼児が当たり前にできることを忠実に機械に真似させようとする(言葉の覚え方を含め!)といった「強いAI」の方向とは正反対の方を向いていると言えるでしょう。住宅や自動車など、ヒトより大きな人工物に知性を持たせたり、IoTと言わずに「ソーシャル・マシーン」と呼ぶ向きのように、かつての、一人の人間という単一個体についての科学的探究(認知科学ですね)から飛翔して、人間集団に機械の個体も加わって違和感のないふるまいをさせたりする方向性が注目されています。これも、第3次ブームの特徴ではないかと思います。

 次回は、人工知能の進化をめぐる楽観論と悲観論について取り上げてみたいと思います。人工知能がすぐにも人間の知能を追い越して進化するように見積もることで、映画『ターミネーター』や『トランセンデンス』のように機械が人間を支配しようとする、技術的には楽観的になることで人類にとって悲観的な未来を描く向きもあります。ただし現場の最前線の技術を具体的に知悉している人は、どちらかというと正反対の見方をする人が多いようです。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年07月08日

ネグロポンテさんの“既に行ってきた未来”

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の16回目です。


ネグロポンテさんの“既に行ってきた未来”

人工知能ブーム再燃の真実(その1)


 新年明けましておめでとうございます。

 新聞、雑誌の新年号は伝統的に、溜めておいた中から明るい話題を拾って新年の目玉記事にしたりするものですが、今年はそうでもなかったようです。その解釈はともかく、本記事は年が明けてから書いていますので、後出しジャンケンと言われぬようということもあり、10年、30年、さらにもっと先の未来まで視野に入れて人工知能の産業応用、生活への浸透をテーマに展望してみたいと思います。

 「ビッグデータが支える、25年ぶりの人工知能ブーム 〜ロボット、自動通訳、IBMの『次の柱』もビッグデータの賜物」で書いた「ブームの到来」は早計に過ぎないか? また、なぜ今、人工知能なのか? 四半世紀前と違ってなぜ今回はうまくいきそうなのか? これらの疑問にある程度答えておかないと、歴史や貴重な知識体系から学ばず、同じ失敗を繰り返す危険が無きにしもあらずだからであります。

未来を読むためには温故知新が重要

 私が米マサチューセッツ工科大学(MIT)人工知能研究所(通称“AIラボ”)に研究員としてお世話になった1993〜94年から20年が経ちました。MITのメディアラボにも1、2度表敬訪問しましたが、当時のニコラス・ネグロポンテ所長は私に対し、“Right Institution, but wrong Laboratory!”と言って、同じMITというニアミスなのになぜうちの研究所(メディアラボ)に来なかったのだ?と笑いました。

 そのネグロポンテ所長の言葉に対しては、「日本語や英語などの言語の研究は奥深く、シンプルな少数の手法だけではなかなか翻訳や検索などの実用システムは作れないので、デモ作り至上主義のメディアラボでは首になっちゃいますよ!」とおどけて答えたものです(当時のメディアラボは、“Demo or Death”というほど全研究員に対してデモ作りを重視しており、理論や分析は実際、後回しというスタンスの研究者が多かった気がします)。

 AIラボでは理論的ブレークスルーを目指し、言語について、今でいうビッグデータを構造化し、分析し、その妥当性を複数の認知科学的な手法で評価する仕事に、年間363日は没頭したものです(残りの2日は、フリーウェイを300km飛ばしてタングルウッド音楽祭に出向いたのと、日本からの客人への応対に費やしました)。

 ネグロポンテ教授は、昨年のTEDトーク (邦訳「スーパープレゼンテーション」でNHKが放映) の中で、過去30年間、およそ隔年で彼の話した内容を振り返り、“I have actually been to the future!(かつて私は実際に未来に行ったものだ)”と断言しました。それくらい当時から未来を先取りして、様々な21世紀のシステムやソフトウエアを試作し、動かして見せたということですね。

 『Being Digital』(物質=Atomより情報=Bitが経済社会の主役となる)という彼の「預言書」には20年後、30年後の生活様式、例えば電子端末を指でこすって新聞や雑誌を読むようになる、などと書かれ、「そんなことは絶対にありえない!」とジャーナリストに猛攻撃をくらったことを勲章のように感じる、と語っていました。グーグル・ストリートビューの撮影にそっくりなことをグーグルより20年以上前にやっていたビデオ映像など、先見の明の証明としてなかなか説得力がありました。

大規模知識ベースという副産物を生んだ当時の研究

 ネグロポンテ先生の足元にも及びませんが、それでも同じMITながら違う研究所で研究生活を送った者として、25年前の人工知能ブームと、今日の人工知能への期待とを対比し、取り巻く環境の違いなどを少々綴ってみたいと思います。

 四半世紀前、日本が国威をかけ、千数百億円の国家予算を投じて取り組んだ第五世代コンピュータ開発機構ICOTのプロジェクトは失敗に終わったとされています。これは知的なコンピュータ、推論マシンの開発や並列プログラミングに重きを置いていましたが、自然言語処理も重要な研究テーマの1つでした。

 人工知能的なコンピュータの実現には自然言語理解が不可欠、という主張は当時のICOTの予算配分も左右したし、最近では、機械の知的能力の総量が全人類の知的能力を超える「シンギュラリティ」の代表的論客Kurzweil博士(米グーグル社)も信奉するところと言われます。

 ICOTの判断に当時、機械翻訳開発に注力していた富士通、NEC等の大手メーカー8社が加わって、大規模知識ベース、特に計算機が言葉を”理解”するための辞書の開発プロジェクトがスピン・オフ。私自身も開発メンバーとなったEDR電子化辞書プロジェクトが立ち上がりました。これは機械翻訳に人工知能的要素を取り入れて言葉の意味をとらえ、文脈に応じておおよその訳し分け(例:bankは「銀行」?「(川の)浅瀬」?) ができることを目指した野心的なものです。日本語や英語などから独立の概念体系と概念記述を50万概念について構築しようとして、ある程度の知識資産を残すに至りました。

 この当時、他国では別のアプローチで2つ、大規模知識ベースの研究開発が走っていました。一般の社会人が当たり前に知っている様々な“常識” 知識を、専門の知識編集者が機械に入力する、Douglas B. Lenat教授らの“Cycプロジェクト”と、もっと実証性・客観性・再現性を重んじて「概念でなく単語(英単語)の間の関係ネットワーク」構築を目指した、George A. Miller教授らの “WordNet : An Electronic Database”(野村も”WordNet for Linguisticsの章”のアイデア発案者であり執筆者の一人として加わっています)です。

 EDRと合わせて、3つの大規模知識ベースとも、ビッグなデータという資産を残しました。当時の専用マシン向けのソフトウエアが現状はほとんど動作しなかったり、保守改良されない状態になっているのに対してずっと良く、予算投入した甲斐があった、ということができるでしょう。中でも、WordNetは、英語以外の言語にアレンジされて構築が進み、来る本格人工知能を開発するための強力な知識インフラとして、現在も成長を続けています。

インフラ、社会環境の激変

 冒頭の自問に戻ります。

「四半世紀前と違って、なぜ今回はうまくいきそうなのか?」

 1つの材料としては、上記のようにかつての人工知能研究ブームの遺産があり、その後、ノウハウ、経験を積んだから、という技術開発側の事情も確かにあります。しかしそれ以上に、ビッグデータと、それを組織化・活用してスマホのアプリなどの形で様々なサービスが提供され、またAPIという使いやすい部品がクラウドでいつでも使えるという状況によって、「真に役立つ」人工知能的なアプリを作りやすくなったという事情の方が大きいように感じます。

「なぜ、今、人工知能なのか?」

 ネット上のデジタル情報量が10年で1000倍と指数関数的に増える「情報爆発」が継続し、自分に必要な情報を読み切れない、選択肢が多すぎて全部トライしている時間がなくなってきた、という人々のニーズは重大です。情報は飛躍的に増えており、目下の判断、意思決定にとって肝要な、自分に最適な情報に行きつけず、情報洪水の中で溺れかけてしまう。だから、本当にベストの解でなくてもいいから、そこそこ使える、頼れる解を「友達」に聞こう、というソーシャルに向かう解決法もありました。しかし、皆が分野ごとに全知全能の友達をそろえているわけではありません。人とのコミュニケーションには膨大な時間がかかるし、ギブ・アンド・テイクの収支に気を遣うあまり疲弊していく人も出てきます。

 「届いたメールを全部読める人などいなくなっている。でも、庶民全員が秘書を四六時中控えさせておくわけにはいかない」という状況で、不都合を回避、軽減するほとんど唯一の解は「機械に代読させる」ことではないでしょうか。ここに、特に先述のKurzweil博士が主張する「自然言語理解」を中心とした人工知能的アプリケーションへのニーズがあります。

 文章を代読したり、さらには、そこから得られたパラメータ(メタデータ!)をもとに、細々とした雑用を、いちいちその詳細は報告せずに、自分でやり方を調べて、こなしてくれる。このような「代行者」としての人工知能がいてくれたら本当に便利ですね。かつての人工知能ブームの末期にも、ネット上をお出かけして他のコンピュータから教えを乞いて問題解決をするモバイル・エージェントが提案されました。エージェントを記述するTelescriptという名の言語も現れましたが、広く普及するには至りませんでした。

 ここ四半世紀で、パーソナルコンピュータの計算速度は何桁も速くなり、インターネットも大容量化して、無線で動画を見放題という、かつては想像もできなかったほどの利便性、体感速度を実現するに至りました。また、機械同士がコミュニケーションするインフラとして IoT (Internet of Things: モノのインターネット)のための軽量言語MQTTが普及し始めたり、そもそも大量データの供給源として、多彩なセンサーが使われるようになり、例えばスマホを振る“シェイク”動作のログを延々とクラウドに吐き続ける仕組みが当たり前のように普及してきました。3Dプリンターに象徴される多彩な出力デバイスが、アイデアを文字通りに具現化したり、サービスの形で供給する具体的な手段として現れ、年々、劇的に価格低下しています。

 計算機の速度が上がっただけで、かつては使いものにならないほど遅かったアルゴリズム(計算手順)が実用になってくる場合もあります。あるいは、たくさん計算できるようになった分、精度が低くて実用にならなかった診断や単純な予測処理が、実用的な精度にもっていけるようになった、ということもあります。

時は“命”なり!

 以上、ニーズとシーズの両面から「機は熟してきた」と論述しましたが、実は、ニーズとシーズは全く独立・分離したものではありません。「優れた道具は、持ち手に新しい使い方を閃かせ、もはや発明者、制作者の思惑を超えて独り歩きする」というアラン・ケイの言葉の通り、優れたインタフェース・デザインの道具は使い手の創造性を刺激し、新たな問題解決に使われ、新たなニーズ、ひいては市場を開拓していくものです。

 逆に、もちろん、伝統的な教訓「必要は発明の母」も然り。多彩なソーシャルメディアからごく短期間に吸い上げたニーズにこたえるサービスがすぐに実現し、使い手に渡ってフィードバックを受けて改良される。これを象徴する出来事の一つが、孫正義さんがツイッターで、フォロワーからの何らかの要望を含む書き込みを読んで「やりましょう!」と宣言し、2〜3週間後に「できました!」と言ってまたツイッターで報告したというエピソードです。これは2010年か2011年の流行語大賞になるのでは、とつぶやかれ、また、その後も、2013年のソフトバンク株主総会で「やりましょう」と言ってしまった事件などが記憶に新しい人もおられることでしょう。やらされる社員さんたちは大変ご苦労様ですが、ユーザーにとってはこのように迅速にニーズを吸い上げてもらえる環境、インフラは歓迎するしかない、と言えるでしょう。

 この他にも、四半世紀もの間には歴史的事件がいくつも起こり、ビジネス上のトレンドも何度も変化してまいりました。中でも、9・11や3・11を経て、人々はますます自分の時間の貴重さ、それがかけがえのない有限の資源であることを自覚するようになった変化は大きいと思われます。かつては、“Time is money”「時は金なり」と言われていた程度だったのが、いやはや“Time is life!”「時は命なり!」です。

 他人の時間を無為に奪うことは、文字通り、その人の命の一部=有限な人生の時間を奪っていく”partial murder”「部分的な殺人」である。こうした消費者の意識の変化を前提にした経済モデルとして、「アテンション・エコノミー」 が生まれ、様々なメディア間で、消費者の時間を奪い合う様子に注意が集まるようになりました。

 こうなってくると、新参者のサービスの多くが、「ユーザーの細切れの時間に使ってもらう」とか、「細切れの時間の集約に寄与する」とか、「ユーザーが迅速に適切に判断できるよう集約・要約する」とか、さらには、「たくさんの雑用を代行する」というカテゴリに該当するようになってきます。この「雑用」というのが曲者で、これぞ人間の得意分野である融通の利く対応や、優れた柔軟性を求められることが多いのです。だから、このようなニッチ時間を活用する雑用的なサービスが「人工知能的」な様相を呈してくるのに何の不思議もありません。

 少し長くなりましたので、元旦の初夢で思いついた、「人工知能の3軸分類」のご紹介など、次回にしたいと思います。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年05月27日

ビッグデータが支える、25年ぶりの人工知能ブーム 〜ロボット、自動通訳、IBMの「次の柱」もビッグデータの賜物


米グーグル、米フェイスブック、米ツイッターなど大手ネット企業が、大規模なユーザー作成コンテンツを構造化して利便性を高めたビッグデータ活用を奨励し、特にAPI(アプリケーション・プログラミング・インタフェース)の形で公開することにより、企業や団体の広義のマーケティング活動を変革してきた事例を紹介してまいりました。

 大量の構造化データは、一種の「知識」として様々な入力情報に多彩な加工(いわゆる有用情報の抽出、発見、集約などを含む)を施して出力させるのに役立ちます。この情報加工・生産を行う「知識」の役割モデルについては、以前の記事『ビッグデータが変えた「知識よりもデータが偉い」?』に簡潔に図解させていただきましたのでご参照ください。

半導体事業に代わるIBMの柱は「ツイッター分析」!

 今月見聞したビジネス関係の記事で最も感慨深かったのが、日経コンピュータ・浅川直輝記者によるこの記事です。『60年続けてきた半導体製造を手放すIBM、「Watson」に社運を賭ける』

 単に米IBMが米ツイッター社と提携した、というニュースリリースととらえた向きもあったようですが、その実態は、IBMの主力事業の1つの転換でした。

 人工知能的なビッグデータ解析、特に膨大な非構造情報の代表格であるツイッターのテキスト情報を解析して、経営指針を左右する発見や仮説の検証を行い、生データ分析に基づくコンサルティングサービスを行う。これは、弊社・メタデータ株式会社がやっていることとあまり変わりません!

 メタデータ社のような零細ハイテクベンチャーはもちろん、つい最近上場承認されたデータセクションさん(橋本大也さん、澤博史さん、おめでとうございます!)、一足早く上場されたホットリンクさんのように、売り上げが数億〜10億円規模の会社であっても、一般ビジネスマンの方々の感想は「なるほど新産業の芽生えなのかもしれませんね。しばらくはニッチの新規ビジネスでしょうが」というものにとどまりそうです。

 しかし、かつて「産業のコメ」とまで言われた半導体事業に取って代わり、次世代の高収益事業であるビジネス・コンサルティングに軸足をシフトしたIBMが中核事業に位置付けた、というニュースは、ビジネスマンの方々にとっても驚嘆に値するのではないでしょうか。上記リンク先記事1ページ目の下記引用と、3領域の重なりを示すベン図をご覧ください:

“さらに注目すべきは、ツイッターとの提携が、IBMが注力領域とする「データ」「クラウド」「エンゲージメント(モバイル+ソーシャル)」といった3領域すべてに関わる案件という点”

 本記事2ページ目の『無償版も提供、分析サービス利用者のすそ野を広げる』などは、零細ベンチャーとして脅威に感じる面もなくはないですが、それ以上にあのIBMが本腰を据えて主力事業と位置付けたくらい、まさに広大な潜在市場であることが世界に広く周知されたことはありがたいです。この連載が一貫して唱えている、「生データ(事実)に基づく俊敏な経営を目指して、より高度な分析、判断に注力すべし」と同じことを巨大な広報力で発信してくれて、多くの企業経営者のマインドが一斉に切り替わってくれることが期待されるからです。

 IBM自身の行く末が本当にこの舵切りにかかっている、とIT proの中村編集長も語っています。『IBMを変えるのは、Watsonかイェッター氏か』

 半導体事業売却の概要と、PCサーバー事業をLenovo社に売却など1月の発表についてはこちらの記事『IBM、赤字の半導体事業を15億ドル支払ってGLOBALFOUNDRIESに譲渡』にあります。やはり不退転の決意であることが伝わってきます。

クリックなしのネットショッピングをロボットが実現

 いくらIBMといえども、B2Bすなわち企業向けのビジネスですから、一般消費者として、ビッグデータの分析、活用が浸透してくるのかは水面下、背後の動きであり、いまひとつピンとこないかもしれません。

 一方これが、以前『ソーシャル・マシンの主役=アバター、対話ロボット』にてご紹介した、ウェブページ上の対話ロボット (上の図)だったり、ソフトバンクさんの感情ロボットPepperとなると、俄然幅広く、個人の興味をかきたててくれます。

 Pepperは少なくとも当面は店頭設置からお目見えするようですが、米アマゾンのEchoちゃんは、199ドル(お急ぎ便プライム会員なら99ドル)でいきなり家庭の中に入ってきます。実体は小さな黒い茶筒。時間や天気のことを聞いたら答えてくれるし、エベレストの標高を答えてくれたり、「(この音楽)ちょっとストップ!」などと言いながら対話的に好きなBGMを選んでリビングルームに流すのに付き合ってもくれます。もちろんアマゾンですからお買い物を指示することもできます。ギフトラッピングの指定等も受け付けてくれて、後は商品の到着を待つばかり。具体的な利用イメージ、機能の概要については、このリンク先記事の埋め込み動画をご覧ください。

 クイズ番組「ジョパディ」でクイズ王を破った初代ワトソンコンピュータは、インターネットにつながっていませんでした(リンク先記事)。しかしアマゾンのEchoは、動画中の子供が「全知全能みたい!」と驚愕しているように、インターネットにつながって、百科事典的な知識(構造化されたビッグデータの一種です!)を駆使して回答します。クラウド化された “頭脳” の大きな利点の1つに「常時最新の情報、知識にアップデートしつつリアルタイムで状況を教えてくれる」というのがあります。DVDカーナビがクラウドカーナビに到底かなわない(リンク先記事)のも、このメリットのためです。

リアルタイムの「自動通訳電話」がついに実現へ

 私が社会人になった1980年代に、NECの中興の祖、小林宏治会長が C&C (Computer & Communication) の象徴として必ず実現する、と宣言したプロダクトが自動通訳電話でした。私自身も音声認識、機械翻訳、音声合成の3つの要素技術を集約したC&C情報研究所メディアテクノロジ研究部の研究員として機械翻訳部分を担当していました。

 バブル経済の破綻や、ニューラルネット計算量爆発の破綻(後者はまだ未解決ですのでディープ・ラーニングには要注意!)などにより、いわゆるAIブームが終焉を迎える少し前から統計的手法、すなわち大量の生データに基づく音声処理、自然言語処理の研究が発展し始めました。

 人間の頭で考えて編集された膨大な文法、訳し分けノウハウを集積したルールベース機械翻訳などに取って代わり、あるいは補完する形で「なぜか分からないけどこう表現される」というレベルの膨大な言語知識が(半)自動学習された“事例ベース機械翻訳”として次々と実用化されていきました。まさに、ビッグデータ活用の音声処理、言語処理です。

 私の古い知人、米国の友人で、IBMやマイクロソフトに勤めた技術者の中には元言語学者もいます。言語学者の大半はノーム・チョムスキーの提唱した普遍文法の流れを汲んで、極めて抽象度の高い研究、すなわち英語、日本語のみならず数千のすべての言語に共通する少数の基本原理と、その差異を生み出すパラメータを探求する理論科学に従事しており、上記1980年代の人工知能研究時代のルールベース、知識処理以上に紙と鉛筆、頭脳だけで勝負しているところがありました。

 しかし、その元言語学者がIBMやマイクロソフトにて大量の実例、すなわちビッグデータ活用の自然言語処理に転向したおかげで、翻訳精度は目に見えて向上し始めました。その到達点の1つとして、米マイクロソフトのスカイプがリアルタイム自動通訳機能を提供開始、というニュースが最近流れました。『MicrosoftがSkypeで自動通訳のテスト開始へ―Live Translator、登録受付中』

 YouTubeのリアルタイム音声認識、自動翻訳字幕に馴染んでこられた方も、もし自動通訳電話が使えるようになったら世界の見知らぬ人と会話してみたいと思い、新しい世界が開けるかもしれません。私自身、英語・日本語間では使おうとは思いませんが、スワヒリ語やタガログ語しか話せない人からその場で何か情報を引き出しなさい、と言われたら、リアルタイム自動通訳に頼るしかないでしょう。このような機能が必要不可欠になる時代の到来をこの目で見られるよう、また、それに貢献できるよう、引き続き、楽しく精進してまいりたいと思います。


posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2015年02月07日

なぜ「データと対話」しなければならないか(その2) 東京五輪と言えば…どの東京五輪

某外食情報サイトの方から、「野村さん、うちのサイトの検索窓に一番多く投入される単語が何か分かりますか?」と聞かれたことがあります。

野村:「さぁ、何でしょう。飲み会の幹事さんが、仲間とリーズナブルにおいしく楽しめる場を見つけようというのですから、まずは場所と、個室があるか、禁煙か、逆に喫煙可か、みたいな条件ですかね。場所の指定なら、鉄道の駅くらいの粒度で指定しそうだから、一番乗降客が多くて飲み屋も多い“新宿” あたりが最多の検索キーワードでしょうか」

検索サイト担当者:「それが何と、“ビール”なんですよ! 全検索キーワードの20%超を占めることもあります」

野村:「えぇ!? そんな無意味な! 絞り込もうという目的意識で、検索の途中結果を眺めつつ条件を次第に増やし、候補を減らそうとしてシステムと対話するのが普通のユーザーではないんですか?」

検索サイト担当者:「いやぁ、普通の人は、そんなに合理的に理路整然と考えてネットを使うわけじゃないみたいですよ。いま、欲しいな、いいな、と思ったら、何となく頭に浮かんだ短い言葉を入れる、という人の方が多いみたいです」

 宴会場を選ぶその時、何となく頭に連想され、浮かんできたもの(例えば“ビール”)をそのまま検索ワードにする人が多い。この示唆を得た時の新鮮な驚きと衝撃は今でも鮮明に覚えています。IT屋がトップダウンに考えたモデルを、コンシューマー向けサービスに押し付けてはいけない、と悟った瞬間でもありました。

 データの母集団がどうなっているか分からない状況で、自分の狙いを他からどう差別化するか論理的に考え、その場で対話的に獲得した諸条件を総合的に最適に満たすために、中間結果を目視しながら最短距離で、効率よく絞り込む。そしてその結果と理由=「なぜ良い店であるか」を1ダースくらいの条件で表現するなどして同僚に説明し、判断を正当化する。このようなユーザーは「少数派」である、という前提でサービスは作らないと、そのサービス事業者は倒産してしまうことでしょう。

 とはいえ、検索試行を繰り返してみないとそもそもどんなデータ(上の例ではお店の種類、候補)があるのかも分からない、などの事情は変わりません。なので対話は必要です。もしかすると対話の味付けとして、システムがより賢く、ご主人様の意図や好み、制約条件を推察しながら、魅力的な候補を(時にはスポンサーの意向を反映して恣意的に)提示していく、といったチューニングがコンシューマー向けには求められているのかもしれません。いわば、同じ対話でもユーザー主導というより、ユーザーはより受け身で楽ちんできるようにシステムが饒舌、お喋りであるべきと言えますね。

 居酒屋選びでネットの検索窓に「ビール」と入れる人は、おそらく自分の理想の検索結果や、具体的な条件を描く前に検索サイトに来てしまったのではないのでしょうか。ゴール不在の検索。それが主流であるならば、最初から明確な目的、具体的な条件が定まった状態で、検索、絞り込みをするというより、検索の試行をしながらそれらを明確化していくのが一般ユーザーと言えるかもしれません。

実際に「どのイベントのことか」が曖昧

 前回の末尾に、
“「口パク」や「東京五輪」などの例を手掛かりに、単語切り出しの曖昧さも、同綴り異語の問題も、単語の多義性の問題もクリアしているにも関わらず、実際にどのイベントに言及しているかの曖昧性のせいで、データ収集にノイズが入る問題を取り上げます”
と書きました。

 例えば企業の商品プロモーション、キャンペーン等の際に、特定のイベントについてのネガポジ比率(ネガティブ=否定的な意見と、ポジティブ=肯定的な意見の比率)の推移を見たい、というニーズは切実なものです(実際にネガポジ比率を自動的に判定するソフトには、例えばこれがあります)。

 その際、対象となる膨大なクチコミのデータに対して投入する絞り込みキーワードによって、実は違うイベントに言及したクチコミが検索結果に多数混入してしまうと、キャンペーン等の効果測定の精度がガタ落ちになってしまいます。

 まず「東京五輪」というワードを取り上げましょう。「東京五輪」なら言及対象は一つに決まるのでは?という質問がありました。答は否、ノーですね。首都大学東京、渡邉英徳研究室の「東京オリンピック1964アーカイブ」も堂々ヒットしますし、温故知新で前回の例と比べる議論、そしてメインスタジアム建設の話題から現在の国立競技場を取り壊すなという議論など、1964年の東京五輪が主役の記事も多数あります。さらに、第二次大戦のためにキャンセルされた「幻の東京五輪1940」もあります。

 調査・分析対象のトピックを分類し、絞り込むのに、対象のイベント自体が雑然と混ざってしまってはまずいので、5W1H解析なども併用して、詳細な分析の前にデータを腑分けしておく必要があるでしょう。

 さて、「口パク」といえば、国内外で有名人が生出演、生演奏を装いながら実際にはコンディションの厳しいライブの現場では歌わずに録音を再生したり、極端な例では第三者に歌わせる(NHKの朝ドラ「あまちゃん」では、“シャドウ”と呼ばれていましたね)など、非難され、騒がれる事件が繰り返し起きています。

 「口パク」についての消費者の本音に目を通し、そのタイプごとの比率を知ることは、広報・マーケティング担当にとって極めて重要と考えます。イベント主催者側の過剰演出的なものを消費者がどの程度許容してくれるか、その境界線を具体的に知るヒントが得られるからです。そのためのテキスト・ビッグデータの情報源としてはやはり、辛辣な本音がさくっと書かれるツイッターが現状ではベストのように思われます。

 「口パク」に関連する事件、イベントが複数あるので、その記事の文脈をよく解読しないと、単に「口パク」といっても、どの「口パク」のことを言っているのか噛み合わず、そそっかしい人は誤解してしまうこともあるでしょう。

 「口パク」と一緒に、検索エンジンに投入されるキーワードの上位10件の表示を見ただけで、皆さん、特定のイベントに言及した「口パク」に絞ろうとしている努力が一目瞭然です。

口パクに関連する検索キーワード

perfume口パク akb 口パク
山下智久口パク 口パク 歌手
akb48 口パク 嵐 コンサート 口パク
山p 口パク ももクロ 口パク
mステ 口パク 少女時代 口パク

 私は、これらのイベントのほとんどを知りませんでした。上記だけでは検索ノイズの除去にはまだまだ不十分であると考えられます。そんな時は、「口パク」1語で上位にランクされた中から「まとめサイト」を見つけ、そこを開いてみると良いでしょう。今回、邦楽限定ながら、「口パクで歌っているなと思う歌手は誰?(日本人・外国人含む)」というサイトがヒットしたので開けてみると、6ページにわたって、数十人以上の名前が出てきました。これにより、特定のイベントや、自社所属のタレントに絞った評判分析などもできるようになります。

 記憶では、五輪の開会式や閉会式で「口パク」が世界的な大騒ぎになった事件がいくつかありました。これらについてはご興味に応じて調べていただくとして、ツイッター検索からの外し方です。例えば「口パク -ジャニーズ -アナ雪 -アナと雪(“-”は半角マイナス記号)」と、ツイッター検索窓に入力してEnterキーを押してみてください。単に、「口パク」とだけ入れた時とは、ガラリと変わった結果が出てきます。

「やらせ」的要素をいかにさじ加減するか

 上例の「口パク -ジャニーズ -アナ雪 -アナと雪」 の延長で(文字通り、検索式を「延ばし」ます)、最近多い具体的な出来事、特定の歌手、グループや流行りの動画を少しずつ外して検索してみてください。一般消費者が、イベント主催者、マーケティング情報提供者側のいわゆる「やらせ」的なものに、どんな感情、リアクション、許容度をもっているのかに関する、重要な生の声を多数拾うことができるでしょう。

 一歩踏み込んだ本音の企画を試みる際に、それが意図的な「炎上マーケティング」でない限り(いや「炎上マーケティング」なら、なおさらその制御のために)、少しは混入する「やらせ」的な要素のさじ加減を具体的にどう調整したら良いか、貴重な洞察を得ることができると思います。

 「データと対話」、まだまだ続きます。


posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年04月13日

iPad 触りました! 大ブレイクの予感

   昨日午後から、弊メタデータ株式会社の臨時株主総会を開催。引き続く取締役会に新たに加われた社外役員さんが、「米国帰りの社員にもって帰ってきてもらいました!」と、取り出したのがなんと iPad !  
 
  早速触ってみました。ニヤニヤを抑えることができません:
 

  くるくる回してみたら、画面が素早く回転していきます。それを止めるロック・スイッチが、1辺にあります。
  最初のメニューや入力画面は、予想通り、手元のiPodTouchとよく似ています。触ってみて初めて「へぇー!」とびっくりしたのが、画面正面下部の丸い黒いスイッチ(角の丸くなった白線の四角が描かれてるやつです)。これが、iPodTouchのものと全く同じサイズと、触感、押下感なのです。iPodTouchかiPhoneに馴れた人にはこれで良いでしょうが、マシン全体のバランスを考えると、もう少し大きめのボタンにした方が良かったかしれません。
   画素数は相当多いはずなのに、動作はきわめて軽快。初代iPodTouchの数倍は速い感じでした。さすが、CPUメーカを買収してGHz級のチップを投入しただけのことはあります。
 全体に非常に頑丈な印象。比べちゃうと600g台のノートPCなんかはペラペラの壊れ物で、おっかない気がします。しかし、高密度で重量感もある(持ち歩くと軽いのですが)ので、「1mの高さから落っことしたらどうなるだろう」と心配も出てきました。→他人の所有物なので、実験するわけにはいきません。
  数分触っただけなので、体感の感想は以上です。総じて、写真や動画で見たより好印象で、「これは使わねば!」という気にさせられます。純粋に新しいフィーチャーは少ないはずなのに、斬新なソフト、コンテンツが出てくる予感がしました。例えば:
鳥肌が立つ未来の電子書籍、Alice for the iPad
  セミ動画というのでしょうか。イラストや絵の内部の一部だけ動いたり(栃木のトリックアートミュージアムや、ハリーポッターのホグワーツ魔法学校の校舎内を思い出します)、といったアプリがどこまで流行るかはわかりません。でも、子供の絵本は大きく変わってきそうです。
  では、お年寄りはどうでしょう。こちらは弊社社外取締役で慶應大学名誉教授の齋藤信男先生で、1人で何台ものコンピュータを毎日使っておられるので、決して本人のことではありませんが、「これはPCが使えなかった高齢者の多くが使えますね」と発言されました。その通りだと思います。
 
 
  やはり、百聞は一見にしかず。実機を触ったことで、iPad上でのメタデータ連携、活用のアイディアもいろいろ出てきました。ごちゃごちゃした操作メニューを嫌うマシンがメジャーになればなるほど、コンテンツ間の自動連係、レコメンドなどのニーズは高まります。より良い未来を向いて鋭意仕事をするぞーっ、と決意を新たにしました。
   追記です。本当に猫でも使えるiPad!!

iPadで遊ぶ猫:
http://www.youtube.com/watch?v=Q9NP-AeKX40&feature=player_embedded

 

カテゴリー: business, social, semantic

Good!獲得数: 66

アクセス: 6450
 
 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年03月24日

情報大航海から次世代パーソナル推進コンソーシアムへ

 
自然言語処理応用、新しい画像インタフェースから、身にまとうセンサーや携帯の位置情報の出すメタデータをオンライン、リアルタイムで連携する様々なプロトタイプまでを生み出してきた情報大航海プロジェクトが年度末で閉幕します。
その成果を発展的に継承し、産業応用、新市場開拓に結びつけるべく、明日、経済産業省に以下のメンバー企業が参集して、一種の「引き継ぎ」を行ってまいります。

 【会議名】成果展開会議
【日  時】平成22年3月25日(木) 10:30〜11:30
【場 所】経済産業省 本館2階2東6共用会議室
【議事(案)】
     1.開会                  
     2.挨拶    
     3.パーソナル情報検討ラウンドテーブルの成果について
     4.次世代パーソナルサービス推進コンソーシアムの制度検討について
     5.総括               
      6.閉会


【ご参加企業(予定)】 ※順不同
ネットレイティングス株式会社
ビットワレット株式会社
株式会社イベントバンク
楽天株式会社
株式会社博報堂
インディゴ株式会社
株式会社DRUM
株式会社サーベイリサーチセンター
凸版印刷株式会社
デジタル・アドバタイジング・コンソーシアム株式会社
東京大学空間情報科学研究センター
情報セキュリティ大学院大学
ニフティ株式会社
富士通株式会社
株式会社タクサシステムズ
株式会社フライトシステムコンサルティング
株式会社ピコラボ
NECビッグローブ株式会社
株式会社シリウステクノロジーズ
株式会社NTTドコモ
メタデータ株式会社
アムドクス・インタラクティブ
株式会社キューデンインフォコム
三菱電機株式会社
株式会社ぐるなび
株式会社NKB
 

連続して、 同じメンバーにより、次の会合です:

【会議名】次世代パーソナルサービス推進コンソーシアム
ワーキンググループ活動報告会
【日  時】平成22年3月25日(木) 11:40〜12:30
【場 所】経済産業省 本館2階2東6共用会議室
【議事(案)】
     1.開会・資料確認
2.平成21年度制度検討ワーキンググループ活動報告および
 平成22年度制度検討ワーキンググループ活動計画
3.平成21年度サービス検討ワーキンググループ活動報告および
 平成22年度サービス検討ワーキンググループ活動計画
4.平成22年度技術検討ワーキンググループ活動計画
5.事務局連絡
6.閉会

 たとえば、SNSやTwitter上に溢れる、個人情報入りのメッセージ、行動情報から、個人情報のみ適宜自動でマスキング(「適宜」とは、k-匿名性という、個人をk人未満には特定できないようにDBを照合しながら自動で部分マスキングするような処置です)することにより、きめ細かなリアルタイム・マーケティング用のデータがとれたりします。行き着く先は、マイノリティ・リポートの映画の世界かもしれませんが、今後のビジネス、マーケティング活動は確実にこの方向に向かうでしょう。

 携帯デバイスがセンサーとして、且つ、人々の行動、発言に影響を及ぼす情報アクセス機器として、個人の行動にますます大きな影響を与えて参ります。こんな環境下でも、プライバシーを守り抜き、よりノイズの少ない、ニーズとピンポイントのマッチングを果たすべく、セマンティック技術カンパニーとして、上記「同志」の法人様達と連携して奮闘してまいる所存です。

 
by nomuran こと メタデータ 野村直之
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年03月15日

3/16- XMLセキュリティ、XMLとサービス、気象庁防災情報XML

 
今週はXMLコンソーシアム最終講演のパート2です。

またしても直前のご案内となりすみません。
16日午後は、私もIBM箱崎にて、下記を聴講いたします。

http://www.xmlconsortium.org/seminar09/100310-11+16-18/100310-11+16-18-info.html

 13:00-14:00 セキュリティ部会
-----------------------------
概要:
XMLセキュリティ技術の活用に焦点を当てて活動してきた成果を報告します。
暗号化・電子署名を始めとするツールの種類と利用方法および注意点。そしてXML署名については世の中の利用事例も報告します。

「セキュリティ部会活動報告」
松永 豊(東京エレクトロンデバイス)

「XMLセキュリティツール/製品調査報告」
林 正樹(富士通)

「互換性、課題と対策:暗号化/署名ツール検証報告」
大沼 啓希(日本IBM)、宮地 直人(ラング・エッジ)

「XML署名事例調査報告」
宮地 直人(ラング・エッジ)
 
-----------------------------
14:10-15:40 XML設計技術部会
-----------------------------
(1)XML設計技術講座開催結果報告
昨年の勉強会を引き継ぎ、今年は XML設計技術講座を開催しました。本講座の要とともにXML設計技術の学習方法をご紹介いたします。

(2)類似XMLメッセージ間の変換方法を検討して
気象庁防災情報XML(JMAXML)メッセージをCommon Alart Protocl(CAP)メッージに変換する方法を検討しました。検討をとおして得られたXML設計時の慮点をご紹介いたします。

-----------------------------
15:50-16:50 招待講演
-----------------------------

産業技術総合研究所 社会知能技術ラボ長 橋田 浩一様 「サービスの価値を相互運用する技術」
価値の高いサービスを実現するには、ステークホルダの間での目的と関連情報の共有による共同作業が必要ですが、実際にはそのような条件が整っていないケースもしばしばあります。サービス科学の観点から、データとサービスの相運用とそのための研究や標準化のあり方について考えたいと思います。

-----------------------------
17:00-18:30 パネル「社会とビジネスの明日を支えるXML」
-----------------------------
基調講演のテーマでもある「IT、ネットの技術の今後10年、社会とビジネスにどのようにインパクトを与えるか」を中心の論点に据え、XMLの歩みを振り返将来展望を交えて、産業界と学術界の識者が語り合います。

パネリスト(50音順):
小川 豊様(日本ユニシス 執行役員 総合技術研究所長、XMLコンソーシアム理事)
新 誠一様(製造業XML推進協議会 運営委員長、 電気通信大学 教授)
橋田 浩一様(産業技術総合研究所 社会知能技術ラボ長)
村上 敬亮様(経済産業省 産業技術環境局 地球環境対策室長)
山本 修一郎様(名古屋大学教授、前XMLコンソーシアム理事)
和田 芳明様(日本銀行金融機構局 金融データ管理担当総括 企画役、 XBRL Japan会員、XBRL International理事) モデレータ:
和泉 憲明様(産業技術総合研究所 社会知能技術ラボ主任研究員)

 
3/17-8は、 気象庁防災情報XMLを使った実証実験の報告です。とくにこちらにご注目を:

14:50-15:20 次世代Web活用部会
--------------------------------
次世代Web活用部会では,次世代の検索技術の1つとして意味を解釈する検索を実現する方法を検討しています。今回は雨の言い回しに関して,地方毎に異な雨量を対応させる方法として,セマンティックWeb技術を利用した実装の試を紹介します。

小林 茂 (日本ユニシス)
西 一嘉 (東芝ソリューション)
湯本 正典(日立システム)

当日のwalk in受付も可能です。どうぞよろしくお願いいたします。

 

 

 

カテゴリー: Mextractr, business, social

Good!獲得数: 9

アクセス: 907

 
 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年03月09日

3/10- XMLコンソーシアム最終講演 

 
先週金曜、5日のセマンティックWebコンファレンス2010は、多数のご来場、ありがとうございました。
本コーナーを読んでくださっている方々からも、100名くらいは来ていただいていた感じでした。
 Linked Object Dataによって、「こんどこそ!」常識ベースをボトムアップにつないで形成していきたい、という武田先生の熱い思いも感じ、いろいろ勉強になりました。まずは、御礼を兼ねて、当日の講演資料のご案内です:
◆「セマンティックWebコンファレンス2010」
http://s-web.sfc.keio.ac.jp/conference2010/index.html
予稿集ページ: 
http://s-web.sfc.keio.ac.jp/conference2010/proceedings.html
5. パネルディスカッション「セマンティックWebとLinked Open Dataクラウド」
野村 直之 (メタデータ株式会社)のパネル発表資料:
http://s-web.sfc.keio.ac.jp/conference2010/0404-nomura.pdf
 

3/10- XMLコンソーシアム最終講演 

 いま、 OSSコンソーシアムの運営委員会に出席しています。こちらは、一足早く昨年、Linuxコンソーシアムが10周年を期に発展解散して発足した団体です。
 XMLコンソーシアムが発足して10年たちました。昨今もクラウドなど、基盤層(誤解を恐れず書けば「下層」)でも十分まだまだ議論が必要なところもありますが、節目でもあり、発展的解散を目指して、今月でお開きとなる予定です。
 最後のセミナーシリーズを下記の要領で開催いたします:
・3月10日(水)-11日(木)、3月16日(火)-18日(木)
 第9回XMLコンソーシアムWeek
http://www.xmlconsortium.org/seminar09/100310-11+16-18/100310-11+16-18-info.html 
初日のアジェンダ作りと司会など担当しましたので、下記の通りご案内させてください。 
※遅すぎたご案内をお詫び申し上げます。 
 斎藤先生@W3C Associate Chairの講演が今から楽しみです。
=========================================

テーマ
=========================================

「社会とビジネスの明日を支えるXML」

=========================================
スケジュール
=========================================
-----------------------------------------
3月10日(水) 会場:日立ソフト(品川シーサイド)
-----------------------------------------
-----------------------------------------
13:00-14:00 基調講演:
「IT、ネットの技術は今後10年、社会とビジネスにどのようにインパクトを与えるか」
-----------------------------------------
斎藤 信男様
慶應義塾大学名誉教授
W3C Associate Chair for Asia

----------------------------------------

14:10-17:10 次世代Web活用部会
----------------------------------------
概要:
XMLコンソーシアム発足以来、基盤技術部会/テクノロジー部会のセマンティックWeb WG、ドキュメント・メタデータ活用部会Web2.0部会、そして最終年に世代Web活用部会として、アプリ寄り、先端的なXML、Web活用の動向を一貫して追及した軌跡を、本部会で活動してきた中心メンバーによるパネル討論形式で振り返り、今後を予想します。


=======================================
会場のご案内
=======================================
 日立ソフトウェアエンジニアリング 本社
 〒140-0002 東京都品川区東品川四丁目12番7号
 http://hitachisoft.jp/company/map_honsha2.html
 最寄駅:
  りんかい線 『品川シーサイド駅』より 徒歩1分
  京浜急行線 『青物横丁駅』より 徒歩8分

 

ps いまから決断され、ご来場された方、先着1名様に、
 先週5日金曜日のセマンティックWebコンファレンス予稿集
   
  の冊子を差し上げます。200部しか存在しない貴重品です。;-) 
  奮ってご参加ください。
 
 
 
   

カテゴリー: business, social, semantic

Good!獲得数: 23

アクセス: 9642
 
 
 
by nomuran こと メタデータ 野村直之
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年03月03日

『個人情報99』、『有害情報99』、3/5 慶應三田でご紹介

 
 ここのところ根を詰めて、標記ソフトウェアの提供へ向けて準備してまいりました。
これらは、情報の内容に踏み込んで解析し、人間による意味解釈の手間を軽減するセマンティック技術の産物です。

『個人情報99』 と『有害情報99』

メタデータ自動抽出エンジンがコアにあり、個人情報を識別して様々に処理・加工するAPIをもつ『個人情報99』紹介文を、インプレスのEnterprise Watchさんが簡潔に書いてくださいました:
メタデータ、個人情報を自動判別し伏せ字にする「個人情報99」など‎ -
 メタデータ株式会社は3月3日、フィルタリングソフト「個人情報99」「有害情報99」を発表した。同日より提供を開始する。 個人情報99は、文章内容を解析し個人情報を判別するフィルタリングソフト。テキストデータから個人名や住所といった個人情報を自動で、、

 個人情報99
 http://www.metadata.co.jp/privacy99.html

 『有害情報99』についてもポイントをおさえて書いてくださっています。
 有害情報99は、文章内容を解析し有害情報を判別するフィルタリングソフト。有害表現オントロジーを複数備えることで、高精度な有害情報検出を実現。また、文体適合システムを利用することで、コミュニティ内の文体にあわせた解析を行うこともできる。サーバー導入タイプとSaaSタイプを用意。

 有害情報99
 http://www.metadata.co.jp/yugai99.html

 日刊工業さんは、ほぼ全文を、丁寧にご紹介してくださいました:
http://www.nikkan.co.jp/newrls/rls0303o-07.html
 是非、図入りでご覧いただけたら、と思います:
http://www.metadata.co.jp/pdfs/Joho99-Metadata100303PressRel2.pdf
 

セマンティックWebコンファレンス2010

  慶應義塾大学SFC研究所主催のセマンティックWebコンファレンスが今年もやってまいりました:
http://s-web.sfc.keio.ac.jp/conference2010/
今年のテーマ、LODクラウドには疎いので、大部分の時間は、展示コーナーで本日発表の『個人情報99』『有害情報99』をご紹介させていただく予定です。自由に触っていただけますし、関連資料も贈呈いたします。
メタデータ株式会社
『個人情報99』『有害情報99』
[概要] 高精度な内容フィルタリング・ソフト,『個人情報99』,『有害情報99』を中心に,ご紹介いたします. 対象サイトごとに異なるフィルタリング・ポリシーや文章の特徴に応じて半自動収集した有害表現オントロジーを活用.文体学習可能な高精度な係り受け解析(中高生の携帯書込みから中高年の論文まで)や住所の文法,日本人の姓・名を数10万搭載した辞書,文脈内の名簿管理(未知語の意味を推定)等により実用性を高めました. 昨年展示の『メタデータ自動抽出ソフトウェア「Mextractr」』は,日付・曜日の対応誤りチェック,訂正機能を備え,進化しています.
 
 最後の時間帯は、慶應理工学部の非常に優秀な学生さん@弊社で時々仕事してもらっている、にお任せし、下記に登壇いたします。
 
16:30−17:55 パネルディスカッション「セマンティックWebとLinked Open Dataクラウド(LODクラウド)」
モデレータ: 萩野 達也 (慶應義塾大学 環境情報学部)
パネリスト: 武田 英明 (国立情報学研究所)
野村 直之 (メタデータ株式会社)
乙守 信行 (株式会社MetaMoJi)
細見 格 (日本電気株式会社)
長野 伸一 (株式会社 東芝)
主にビジネスの観点から聴き手、突っ込み役に回る予定です。
 
なお、 http://twitter.com/nomuranでつぶやきました通り、今ご案内してもご参加いただけなくなってしまいました:
 申込み締め切られていました。 すみません。;_;  この申込ページが実に情報性があり、セマンティック技術の導入や普及に関する背景や問題意識が垣間見えるもので有用でした。これも閉じていたのでキャッシュをご紹介です:http://bit.ly/dCndoJ 
 パネルやりながらつぶやけるか、、挑戦してみますね。
では!
 
 
 


 

カテゴリー: Cloud, Mextractr, business, semantic

Good!獲得数: 11
アクセス: 1285

 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年02月14日

リアルタイムに意味内容を伝えてくれるから有用で面白い

 
ご賢察のように、Twitterのことです。
 最近ハマってます。学会中継もやりました( #KM11 )。生活や仕事に影響出ている、、と言わざるを得ません。でも、ポジティブに評価すると共に、次々と気がつく「ここをこうしたらもっと便利。楽しい。」というあたりをセマンティック技術でなんとかならないかな、と考えたりしています。
 スポーツ選手は基本、有名人です。その彼らの日常、、いや本番の直前直後(さすがに本番の最中は無いだろうなぁ)の視点、真剣勝負の緊張感を共有できるとあっては、面白くないはずありません。
その意味で、ねおさんによる公式アカウント集は圧巻です:
Vancouver 2010 Winter Olympics
 

NHKもダダ漏れだぁ! 

↓このダダ漏れは素晴らしいです。
「バンクーバーオリンピック ライブストリーミング」 〜日本国内で生放送されない競技を中心に、国際信号をライブでお届けします。
 http://www9.nhk.or.jp/olympic-streaming/
 NHK広報局   NHK_PR  実況や解説はありませんが、逆に、本当にそこで見ているような感じがします。 QT @NHK_PR: RT @NHK_olympic: 【【ライブストリーミング】リュージュ 男子1人乗り 前半をお届けしています! http://bit.ly/bBvwuz #nhk_olympic 
  広報担当ご自身が上のように書いている、まさにその通り。何の音声解説も無いことが、こんなに迫力、臨場感を生み出す、というのは予想以上でした。
 特設アカウントからは、リアルタイムに勝負の状況のサマリーが告知されてます。
NHKバンクーバーオリンピック   NHK_Olympic  【ライブ情報】女子モーグル予選 里谷多英22.15点 現在10位 村田は予選通過 http://bit.ly/9avnOU #nhk_olympic 
 これをもとに、TVを点けるかどうか、判断する人が増えているようです。今回の五輪で初の現象、といえるでしょう。
  1. NHKバンクーバーオリンピック   NHK_Olympic  【ライブ情報】女子モーグル決勝 里谷多英12.85点 第2エアーで転倒 あぁっ残念.. http://bit.ly/9avnOU #nhk_olympic 
事実だけでなく、感想(感情)、コメントさえも簡潔に流されている。
そして、忙しい人のためにか、ハイライトシーンが準リアルタイムで編集され、Webでクリッカブルになっている!
NHK_Olympic 【サイト紹介】女子モーグルなど午前中に放送した競技動画を公開しました #nhk_olympic
http://www9.nhk.or.jp/olympic3/

TV欄、番組案内は「形式」:項目名のみ 〜見ようか決められなかった

  改めて、Twitterは何故面白いのか、考えてみます。表面的な現象としては、みんなで盛り上がる雰囲気、お茶の間の連帯感が日本中、世界中に拡がるから、みたいに、よく言われます。生中継が長時間連続するオリンピックなら、まさに体感しやすいことであります。
  もう少しシビアに時間の使い方の判断を迫られる状況で、なぜ有用か、考えてみますと、普通のTV欄のように「女子モーグル予選」とだけ書いてあっても、それを見るべきか判断する材料、意味内容がまるで不足していたことに気づきます。「自分にとって、今見る価値があるのか?」→例えば応援している選手が好成績を出しつつあれば、見る価値も上がるのではないでしょうか。
 正直、昨日深夜のジャンプ競技ノーマルヒルは、【日本選手が活躍してくれれば】 見たかったものでした。デジタル番組表をクリックして、生中継を録画。朝、60倍速で再生し、「あ、成績ふるわなかったのね。国際映像で、あまり大写しにされてないし。」で終わり。1分眺めて消去して終わりです。
 しかし、短く、「里谷早ぇー!」というフレーズが目に飛び込んできたらどうでしょう? とたんに「自分にとって見る価値ある意味内容だ。重要性が増している。今見ないと、『どうなるかな?上位に食い込めるのかな?』というワクワクどきどきがバカみたいで意味なくなる(旬でなくなる)から大画面を点けようか。」という気にもなります。
 きっかけとしてのサマリーの効果を超えて、「結果を知っちゃうと楽しみがなくなる」という域に達し、Twitter自粛すべし、という意見を出された方もおられました:
  1. Zhi-Ze zhi_ze Twitterは録画派には最強の敵ですよね。 RT @ru_ru_ru: twitter恐るべし。オリンピックの実況や結果でタイムラインがネタバレの嵐だよwww生中継で視聴してる時間以外、twitter自粛しようかな・
  より多くの人の心を掴み、インパクトが大きかった出来事については、自分がフォローしている人々から、打ち寄せるさざ波のようにツイートが寄せられます:

  1. shundora   ああーもったいない。おしい><。怪我大丈夫かな?
  2.  hellhammer_shin  あー里谷転倒...。
  3. nobmizz  ★僕のTL悲鳴だらけ。 #golin #followmejp #sougofollow
  4. a2yuki  里谷ーーー、良かったのにーーー、残念! #nhk_olympic #olympicjp
  5. sundaymel  うわーー!たえちゃーん!!  #nhk_olympic #gorin #isspo
  6. hujimiya 残念
  7. isoidev  里谷あああああああああ…
  8. yamaji  日本中が「あーーーーーーーーーーーー」

 これらを「まとめ」る意図か、よくつぶやかれた単語を、おそらくボットが自動で、下記のように「里谷 といえば」という書き出しで凝縮してくれるアカウントも登場しました:
 鮮度抜群のつぶやきを単語で巡る  t_cloud 里谷 といえば、 里谷、10位 里谷多英 多英 #olympic スピード #olympicjp エア 要素 期待 愛子 1 tps http://j.mp/dpFMjJ
 
  形式から意味内容へ。超ウルトラ鮮度の高い情報配信・共有の時代が突如訪れたような五輪鑑賞体験でした。
 

カテゴリー: business, social, semantic

Good!獲得数: 41

アクセス: 1294
 
 
by nomuran こと メタデータ 野村直之
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年01月29日

2010年はソーシャルを支えるセマンティックか

 

学会研究会もソーシャル花盛り

 本日は、情報処理学会の自然言語処理研究会&情報学基礎研究会の合同研に久々に出席しました。オフィスから徒歩圏内で助かりましたが、内容は1年前よりずっと充実している印象。ソーシャルメディアの解析が大きなセッションとなっていました。学会研究会の大きなテーマ、潮流を形成したくらい、多くの領域にソーシャルが影響を与えています。
  ソーシャルメディア研究の1つの流れが、人間のQ&Aや対話の研究、そしてその裏返しとも応用ともいえる、対話ロボット作りとその評価の研究です。後者は最近は「ボット」、少し以前ならEliza以来の「人工無能」といえば思い出される人が多いでしょうか。
 季節柄、院生さんの発表が多かったですが、中でも北大の荒木先生の研究室の人による、優れた(気の利いた、心のこもった、、)対話のできるボット作りの研究がおもしろかった。
 まず、人間なら有り得ない発話も含めて応答候補を、複数の方式(対話継続を目的としたEliza型や相手の発話を引用してコメントする受容/共感型、Webを知識源として面白い回答返す、など)で複数生成しておく。そしてそれらが過去の人間による対話、発話例のどれかとどれだけ似ているかを評価。良く似たものは自然な対話例に近いからそれを選んで発話して返す。このようなハイブリッド方式(演繹と帰納の融合)で、少しでも人間らしい対話ができるように、ということでナイス。敬意を表して「複数の方式による返答が混在すると人格が複数、交代してるみたいにならないか?」と質問したところ、今後、表現レベルや内容レベルで「スムージング」して解決したいとのこと。ともあれ、退出の際には、古巣の研究会が良い活動してて嬉しい、とTwitterにつぶやきました。
 

Twitter で俄然注目度が高まった"ボット"

 Twitterといえば、企業発Twitterで、担当者のTwitter疲れを回避するのにボット併用は十分有効と考えられます。それどころか、退屈な人間を超える珍回答でウケたりもできるでしょう。「Webを知識源として面白い回答返す」かわりに、「社内知識、商品/サービスについての網羅的な知識を張り合わせて回答返す」というまじめなボットなら、不勉強な人間を超えたパフォーマンスを発揮できる可能性すらあります。「燃え尽き症候群」の回避から、より気の利いた会話、手慣れた対話の知識(有限状態機械)を埋め込むことで、担当者のパーソナリティ、属人性に依存しがちなのを少しでもカバーできるかもしれません。
  そう、特徴的な属性をもった言葉を相手の言葉やWebから見つけてきてタイムリーに返答する、などは、やはりセマンティック技術なのです(どうかんがえてもシンタックス、形式的処理ではないですね)。優秀なボットに、企業発Twitterを「手伝わせる」というのは、 「ソーシャルを支えるセマンティック」の一構図であります。1年前は、両者を対置して、相互に補う構図を描きました。しかし、ここ1年のソーシャルの発展(日本では半年ちょっと前まではソーシャルアプリは無きに等しかった)、特にリアルタイムメディアの凄まじい隆盛に押されました。表に出て大ヒットするセマンティックサービスが今後は出現するかもしれませんが(弊社も挑戦します)、しばらくはソーシャルの勢いがとまりそうにありません。
 現在、Twitterには、数百くらいボットが生息していると推測されます.容易には人間かボットが区別のつかない、人間やボットもいます。 本日も、@NHK_PRさんが次のように書いてました。
@NHK_PR 修造さんがボットだと教えて下さった皆様、ありがとうございました。ずっとお話ししてしまうところでした・・・・orz 
 これが反響を呼びました:
  1. google000 本日のお前が言うな  QT @kamijou_touma: 修造bot絶対中に人がいるだろ!! RT @shuzo_matsuoka @NHK_PR 昔から「勝ってガットを張り直せ」というだろう!!駄目駄目駄目!油断禁物!勝負はおうちに帰るまで!遠足を忘れるな!! RT @NHK 
  2. yen_town @NHK_PR え、@nhk_prもbotでしょ?
  3. tkrdk @NHK_PR NHK広報さん可愛い…
  4. mutaguchi . @shuzo_matsuoka@NHK_PR のやり取りウケるw
  私はこのshuzo_matsuokaさんという超元気な「気合い入れ」ボットについて、昨日次のように書きました:
@nomuran #KM11 #twitterJP 課題:属人性の低減:ボットの活用 というサブテーマの詳細事例です: @shuzo_matsuoka さんというボットにフォローされました! おそらく手動だと思いますが、きっと定期的に自動的にフォロー返ししているボットも出てきているかと思います。
  一方、人間というふれこみ(現職の自民党議員さんが敬語使って話しかけていた。これが冗談だったら相当ギャフンだ)のハマコーさんは、私は実はボットではないか、と疑ったのですが、はぐらかされました:
@555hamako 「ニセモノかホンモノかが大事なのではなく、そこに本当の、ホンモノの「魂」が入っているかどうかが問題なのである!」
@nomuran  ↑なんて格言をシャッフルして出しているボットみたい。でも、元気出そうなので、生身でもどっちでも良いや! これからフォローしますね。わくわく。。( 6:00 PM Jan 28th  555hamako宛)
 

ソーシャルを支えるセマンティックアプリの実用化

 続いて、Evri というセマンティックサービスのエージェント機能みたいなEvriBotのこととか、LinkedIn会員の旅行計画をたてやすくした、TripItというセマンティックサービスのソーシャルアプリ版のことも書きたかったのですが長くなりすぎました:
ご参考:TripIt! は5W1Hを元に旅程を最適化、提案してくれるサービス 
 個人情報や有害情報をチェックするのもセマンティック技術です。続きは、有料で恐縮ながら、2/3 のPAGE2010コンファレンス「Webはどこまで賢くなれるか」でお話します。 事後に感想を交えて一部の図版をこちらにも書かせていただくかと思います。
 

Twitterで #KM11 に来れ! 

 この日は、上記に先立って午後イチに、BM学会KM研究会も開催いたします。
 2010/2/3 第11回KM研究会「リアルタイムCRM!」 Twitter中継!
この研究会のTwitterハッシュタグは、#KM11 です。
 敢えてUST中継はやらず、会場にいるひとがとことんつぶやきまくって、主な内容はほとんどTwitterでオンライン、リアルタイムで把握できるようにさせていただく予定です。2/3 13:00-15:30 は、 http://twitter.com/nomuran から #KM11 をクリックしていただきたく、どうぞよろしくお願いします。事前にも事後にも書き込み大歓迎です。すでに相当、リアルタイムCRMについてのメッセージがたまっています。
http://twitter.com/#search?q=%23KM11
例; パネリストの日本IBM根本さんからのメッセージを引用して:
  1. 114101_2928994_normal nomuran #KM11 日本IBM根本さん曰く:「最近はTwitterアカウントをいくつか使用してマーケティングしております。段々アカウント数が増えてきて、今は10アカウントくらい同時に動かしており、運営もけっこう自動化しております。」凄い!#kaishanohoshi #twitterJP 
 
  オフラインの定員は36名ですが、オンラインは無制限。10倍超のご参加を期待いたしております。どうぞよろしくお願いもうしあげます。
 
ps 上記で、記号の類や、Twitterの用語でご不明な点、3月のセミナー等で承りたいと存じます。適宜、Twitterでコメントしたり絡んでいただけるとさらに喜びます。どうぞよろしくお願いいたします。
 
 
 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年01月21日

同義語検索はシンプルなセマンティック検索

Switch on → スイッチオン 
 20日午後、慶大の坪田知巳教授がオフィスに来られ、メタデータとセマンティック技術が拓く、「編集」の新次元について、大変有益な議論ができました。それについては、おいおい、進捗に合わせて公表してまいるとして、このとき、編集者のスキルを養成する「スイッチオン・プロジェクト」が話題となりました。
 カタカナが正式名称らしいですが、 Switch onプロジェクト でGoogle検索。ヒット結果の要約文の中で、「スイッチオン」  などと太字で表示されました。英単語の和訳というか、ローマ字化した単語が検索語として上位にひっかっかったわけであります。
 

Google、検索結果の概要で同義語も強調表示に

  http://www.itmedia.co.jp/enterprise/articles/1001/20/news082.html
Googleは1月19日、そうした結果の概要部分(スニペット)で同義語を強調表示し始めたことを明らかにした
 例として、 「photo(写真)」を検索すると「photos」「photograph」のように、スペルが近い言葉のみならず、「picture(写真)」もヒットさせていく、とのこと。ノイズ、勇み足もしばらくは増えるでしょうが、従来路線の延長で、もっともらしいランクを出そうとする中で、同義語によるヒット結果を高ランクにしていく路線を決定した、ということでしょう。
 
 以上は、紛れもなく、セマンティック検索です。
Bingに統合されたPowersetは、単語の語義を区別して、余計なヒットを抑止するという「適合率向上」 を主眼としていました。しかし、本来ヒットすべき、意味的に類似の文書(しかし一致文字列は皆無!)を上位に出せるという「再現率向上」を主眼としたセマンティック検索にGoogleは乗り出した、ということであります。
 下記の関連記事のうち、リアルタイム検索以外は、全部セマンティック検索と呼んで良いように思います。

関連記事

 
 昨年12月の怒濤の発表と違い、Googleも2010年は、いよいよセマンティック技術の本格応用、サービスインをメインにすることにした、という感じを受けます。
 
 
 
 
 
by nomuran こと メタデータ 野村直之
 
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2010年01月10日

「10大 セマンティック製品 2009」

 少々遅まきながら、昨年末、ReadWriteWebから発表された「10大 セマンティック製品 2009」を概観します。
 
 、、と思ったら、SBI HGさんが、たんたんと和訳してくださってました。感謝です!
 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic

2009年12月31日

2009初頭の10の予想・期待は当たったか?

 ソーシャルの大波に洗われた2009年が終わろうとしています。
私も、3年近く前にとった Twitterのアカウントnomuranを再開。Mashup Award 5thの土壇場で、Twitter APIで応募できるようになりました。OpenSocial APIなどと並んで一大トレンドとなりました。Metadata社提供の4 APIのうち、有害情報フィルタAPIを活用した某作品も、Twitter APIで取り出した情報を加工する、というマッシュアップ作品でした。
その一方、セマンティックAPIと呼べるAPI、機能部品も地味ながら増えたと思います。前回紹介のYahoo! Search Monkeyは、シンプルなアプリで、セマンティックの御利益を見せてくれたし、2009年前半は、Microsoftが、後半は、Googleが目を見張る進歩を見せてくれました。
標記は、ReadWriteWebに約1年前にあげられた、次の記事を意識しています:
Semantic Web Wish List 2009
 2008年のセマンティック製品10+10を踏まえ(2009年版も最近発表→後日紹介します)、上記の期待が書かれました。編集部によるものと、ハンガリーの博士課程の学生さんによるものと、5+5があげられています。
筆頭は、Microsoftが、PowerSetの意味弁別エンジンを取り入れて、Google検索を超える検索エンジンを出すこと、そして、その挑戦を受けて立ったGoogle検索がまた進化を遂げることへの期待でした。競争こそ素晴らしい、と。
この期待は、6月のBingのデビュー、それが最新イベントの検索などで、実際にGoogleの精度を上回ったことで実現。さらに、12月になって、Googleが様々な拡張で応えたことで、見事にかなえられた、といえるでしょう。
2番目は、Dapperのような仕組み、もしくはその競合があらわれて、セマンティック広告を配信するアプリケーションが立ち上がること。これは、AdModsが750億円でGoogleに買収されたことによって、水面下に潜行したような感じです。しかし、見えないところで激しい競争が既に始まっているような気がします。
 個人会計(家計簿)は、全員が確定申告する欧米特有のものなので、ちょっと省略。医療関係の応用は、SemTech2009ではフィーチャーされたものの、研究を超えて大きなビジネスの流れにはなりきっていない印象を受けます。
 ハンガリーの博士課程学生Zoltán Andrejkovics氏の期待は下記でした:
  1. Smart notes; 自然言語処理による、見つけやすいメモ帳。
  2. Smart RSS; いちいち手動管理しないで済む、目下の興味を解析するRSS 
  3. Mind writing; オントロジー活用(?)で、単語指定でなく、おもいついた概念をコンピュータに伝えられるアプリ
  4. Assistant; 自分の執筆やネット上の行動を反映する自分の分身。仕事やスケジュール調整を自動で代行してくれる。
  5. Smart bookmarks; 上のSmart notesのように使えるブックマーク
これらは、技術面で具体的な注文を付けているので、次回以降、2009年版Top 10 Semanticアプリの評価に合わせてご紹介したいと思います。
以下は、おまけです。
ReadWriteWeb版のTwitter回顧と、50以上の Semantic Web関係者のTwitterアカウント:
http://www.readwriteweb.com/archives/twitter_trends_in_2009_a_retrospective.php
http://www.readwriteweb.com/archives/50_semantic_web_pros_to_follow_on_twitter.php
 

 
by nomuran こと メタデータ 野村直之
 
posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic