2015年10月14日

「賢いコンピュータ」が繰り出した、まさかの反則技

Dr.ノムランのビッグデータ活用のサイエンス」連載(初出:日経ビジネスOnline)の23回目です。

「賢いコンピュータ」が繰り出した、まさかの反則技

人工知能ブーム再燃の真実(その8)

2015年10月16日野村 直之

 SF作家アイザック・アシモフのロボット工学三原則に私が初めて触れたのは、1973年頃に読んだ『鋼鉄都市』(原題:The Caves of Steel)でした。感情をむき出しにするニューヨーク市警刑事と、人間そっくりのロボット刑事が「2人」がペアとなって互いの長所を生かして、何十年ぶりに起きた、論理的に考えて不可能と思われる殺人事件を解決していきます。

 昨今流行りの「人工知能脅威論」が気になる方や、人間の仕事が機械に奪われて失業者が溢れるのではないかと心配される方は、この『鋼鉄都市』やその続編の『はだかの太陽』(原題:The Naked Sun、「剥き出しの太陽」の方が原意に近いと思います) を読んでみることをお勧めします。後者の『はだかの太陽』では、理想郷を目指して地球人が進出した惑星ソラリアで、わずかな人口の人類が広大な土地に離れて暮らしており、立体視覚通信システム(今でいう仮想現実VRシステム) で必要な時だけ瞬時にコミュニケーションしています。そして、1人ひとりが2万体ものロボットにかしずかれ、豊かな暮らしを享受するという1つの極端な未来イメージがその副作用とともに描かれています。

アシモフの「ロボット工学三原則」

 アシモフが一連のロボットSF小説シリーズを30年にわたって執筆する中で一貫して前提とされてきたロボット工学三原則は、次の3カ条からなります。

  • 第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
  • 第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
  • 第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

 ―2058年の「ロボット工学ハンドブック」第56版 、『われはロボット』より。

 初期の比較的単純なロボットの場合、次のような行動が見られたことが描かれました。第一条に従って倒れた人間を救いに近づこうとしたら、有害ガスに阻まれ、第三条が作動して元の場所に戻る。そこで自己への危険が去ったので、再び人間を救いに近づこうとするが再び有害ガスに阻まれて…というのを延々と繰り返した、というものです。

コンピュータが「反則技」を繰り出した!

 このロボット工学三原則は、技術がいくら進歩しても実現できないかもしれない、などと伝統的に議論されてきました。

 各条を守るために、ほぼ無限の可能性を検討して評価し尽くさなければならない、という『フレーム問題』というのがあります。この問題を回避するために、汎用的にさまざまな事態に対処することを諦めて、特定の問題解決に絞った人工知能(もどき)しか当面は作れないだろう、という議論もありました。

 目的を、将棋に勝つことだけに狭く絞ったコンピュータプログラムでさえ、この問題に突き当たったように見えた出来事が最近起こりました。ある将棋プログラムが、対戦中の計算量を節約するために、過去の膨大な対戦履歴データ中に存在せず、常識では考えられない反則技に陥るプロセスの評価を省略してしまいました。このため、対戦相手(人間)のある手をきっかけに、反則技を繰り出して人間に負けてしまったという珍事です。

 これについて、複数の棋士・関係者による見解が述べられているのを見ると、自分に王手がかかっているにもかかわらずそれを放置したということで、確かに、人間が盤面を見ていれば一目瞭然で、まず犯さない過ちだったろうというのが印象的です。王手を回避する、というのは、将棋の基本中の基本原則。自分を守る原則ということで、ロボット工学三原則の第三条に似ているといえるでしょう。開発者によれば、毎回ゼロからプログラムを作っているので、今回はたまたま作りこみ忘れていて、それを本番まで気づかなかったということです。

 コンピュータ科学の分野では、何かの制約条件を守りながら最適な解答を見つけ出すための問題解決手順(アルゴリズム)が多数考案されてきました。しかし、1日に訪問する客先を最短ルートで回るにはどうしたらいいか?(『巡回セールスマン問題』)など、一見単純・簡単そうな問題でも、計算量が爆発し、数十、数百の要素になっただけで、現在のスーパーコンピュータでも、太陽系の寿命の何百倍の時間の計算をしても計算が終わらないことが証明できてしまった問題もいくつもあります。

 その解決には、現在のディープラーニングや、発売されたばかりの単純な量子コンピュータがもっと高度に進化して、現在と全く違う原理で問題解決できるようにならなければならない、と考える研究者が多いです。あるいは、良い意味で人間のように「適当に」常識の範囲で、少ない解決案の検討ですませることになるかもしれません。この場合、ロボット工学三原則を機械に守らせることは実際上、不可能になってしまうことでしょう。

 Wikipediaにも解説されているように、アシモフによれば、ロボット工学三原則が適用されるのは自我を持って自分で判断を下せるロボットに限られています。

 "ロボット工学三原則が適用されるのは自意識や判断能力を持つ自律型ロボットに限られており、ロボットアニメに登場する搭乗型ロボットなど自意識や判断能力を持たない乗り物や道具としてのロボットに三原則は適用されない。現実世界でも無人攻撃機などの軍用ロボットは人間の操作によって人間を殺害している道具であるが、自意識や判断能力を持たないため三原則は適用されていない。"

 ところが、現時点で自意識、自我とは何であるかの定義は不明確であり、その実態は科学的に解明されていません。そこでこの制約をはずして、家電製品を含むあらゆる機械にこれらの原則を適用できるよう個別に設計してやればいいじゃないか、という議論が説得力を持ちます。しかし、どんな機械が相手としても、ロボット工学三原則を守らせる、すなわち、実装することは容易にできるのでしょうか?

ロボットが「ロボット工学三原則」を守るのは困難!

 最近、第一条を守らせる実験によればロボット工学の原則を守らせるのは実際的に困難だ、という記事が出ました:

「実験の結果ロボットがロボット工学三原則を守るのは困難だと判明」

 人間役のロボットが穴に落ちるのを、第一条を実装された「倫理ロボット」が防ぐことができるかどうか。英ブリストル・ロボティクス・ラボラトリーのロボット学者のアラン・ウィンフィールド氏とそのチームが実験したところ、守る相手が1体のときはうまくいくが、2体の人間役ロボットを相手にした途端に倫理ロボットは混乱をきたし、相手をうまく守れなくなったそうです。2体のうちどちらを守るかの決断を迫られたときに、機械らしく、「厳密に考え」ようとして迷って時間をロスし、2体とも救えなかったケースがあったといいます。

 もちろん人間でも、同じように混乱して文字通り二兎を追う者一兎をも得ず、という結果に終わることも多いでしょう。しかし、これは価値観の違いや、論理的な思考(計算)の速度がコンピュータよりはるかに遅いせいであり、コンピュータ(人工知能)ならそんな問題はないのでは? という楽観的な予測もあったことでしょう。実験結果を見ると、実際の日常世界で起こる多様な出来事において、ロボットに三原則を守らせることが非常に困難ではないか、と予感させるものがあります。

 ロボットに三原則を守らせることが困難ということは、自動運転車が実用化されようとしている昨今、深刻な問題といえます。例えば次のような事態をイメージしてみましょう。

・走行する道の横断歩道を、黄信号や赤信号になってから横断してくる人の安全を確保しながら、自分が進路をそらして電柱にぶつかって搭乗者に怪我させないようにもしなければならない。

 瞬時に膨大な思考(計算)と様々な判断をやってのけなければならないのは明らかだと思います。

 相手に怪我をさせることでより多くの命だけは救える、という難しいケースを想定してみましょう。こんなとき、あらかじめその通りのシナリオをプログラムされることなく、未知の事態で学習しながら適切な判断を下せる自動運転車ができるのは遠い未来のことのように思えます。

「自動運転」は交通事故を減らせるか?

 先日、ドイツの航空会社の副操縦士が自ら搭乗機を墜落させた事件の直後、「人間よりも機械に乗り物を操縦、運転させた方が安全なのでは?」という論調が流れました。しかし、仮にも何十年と教育を受け、暗黙知なども身に着けながら経験値を上げてきた人間なみに安全遵守能力(安全性能)を向上させるのは、かなり難しいのではないでしょうか。航空機の操縦だけの知識やテクニックに絞った専用人工知能を開発したとしても、先の将棋の反則技を繰り出すようなことは起こり得るわけです。このときの「反則」が想定外だった事態、例えば、計算の結果、海中に潜って空中の障害物(光線の加減を誤認した場合を含め)を回避する、などの手を繰り出してしまう可能性を根絶できるのでしょうか?

 実際に人命を左右するような応用を行う前に、さまざまな実験を徹底的に行って解決策を講じる必要があるでしょう。そして製品のリリース後も、別の人工知能を備えた交通制御システムなども協調的に支援する、などの対策を追加していくことになるのではないでしょうか。

 以上のように安全性を深く考えるのは必須だと考えつつも、やはり最終的には体調や精神状態が怪しい人々が多数、車を運転している現状よりも交通事故は減ってくれるだろう、と楽観しています。もちろん「自動運転車は馬を目指すべき」と提案させていただいた稿でも示唆しましたように、最終の意思決定を下す人間と機械の役割分担、インタフェースをとことん考え抜き、テスト、評価し抜いて、より適切な知性と感覚(センサー)を装備していくべきです。

 新たな発想も必要になり、社会的な合意も必要になってくるので、伝統的な日本のメーカーがあまり得意ではない領域かもしれませんが。それでも冒頭の『鋼鉄都市』が1950年代に描いていたように、人は人の得意なこと、機械は機械の得意な能力を巧みに結び付け、協調させることで、より良い問題解決、安全性の向上になることは間違いないでしょう。

 ヒューマン・エラーをどう低減させるか、というだけの一面的な発想では、機械の位置づけについてのダイナミックな発想が出にくいと思われます。この点、人工知能、あるいは人工知能的な哲学が、新たな視点、発想を提供することができると思います。

posted by メタデータ at 00:00| Comment(0) | TrackBack(0) | semantic
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

認証コード: [必須入力]


※画像の中の文字を半角で入力してください。
この記事へのトラックバックURL
http://blog.sakura.ne.jp/tb/169064158

この記事へのトラックバック