国際シンポジウム:テクノロジーの進化とリーガルイノベーション
第2部 テクノロジーの進化に対する工学×経営学×法学のアプローチ②
パネリスト ケンブリッジ大学法学部教授 Simon Deakin ケンブリッジ大学法学部教授 Felix Steffek 学習院大学法学部教授 小塚荘一郎 産業技術総合研究所人間拡張研究センター生活機能ロボティックス研究チーム主任研究員 梶谷 勇 一橋大学大学院経営管理研究科准教授 野間幹晴 ファシリテーター 一橋大学大学院法学研究科教授 角田美穂子 電気通信大学大学院情報理工学研究科准教授 工藤俊亮 株式会社レア共同代表 大本 綾 |
第2部 テクノロジーの進化に対する工学×経営学×法学のアプローチ②
● ドイツ・EUではどうか?
Steffek:
ありがとうございます。私も喜んでドイツの視点から少しお話をしてみたいと思います。そして、まず最初にレギュラトリー・サンドボックスの話、ドイツ、EUでの状況についてコメントをしたいと思います。そしてまた、ヘルスケアの分野においてロボットがどのように使われているかという話をします。
ドイツ、EUレベルでは、現時点では、レギュラトリー・サンドボックスは、金融の分野にはまだありません。特にドイツの場合、また他のEU諸国にも言えることだとは思うのですが、状況を見ていると他のやり方で新しい技術やその他の手法を使おうと、もしくは促進しようとしているように思えます。「国が」新しい技術に貢献できるか、使用の普及に貢献できるかという問題もあると思います。一般的には、民間のアクター、例えばイノベーターがイノベーションを牽引すると考えられていますが、国も一役買える場面があるのではないかと思います。国のサービスとの接続性を担保するという点においてです。
例えば、技術イノベーションがこの会社法の領域であったとします。そして、革新的な商品のイノベーターが株式の譲渡をしようとしたら――? それをするには、旧来型の株式譲渡の手続を履む必要があるわけです。というのも、株主名簿に革新的なテクノロジーをダイレクトに接続することを認めている国はあまりないからです。これは不動産登記についても同じことが当てはまります。個人的には、国としてはほかにもイノベーションを促進する方法はあり、受け身ではなくて能動的に考えて、国がそういったことをするには何ができるのか、特に福祉の促進について何ができるかを考えていくべきだと思います。
また、先にDeakin先生が指摘された金融も大きな役割を果たすことになるでしょう。私はOECDでの仕事を通して様々な国を訪れましたが、中小企業の金融へのアクセスの問題が金融サービスのイノベーションを妨げている例にしばしば出くわします。ということは、これまでの伝統的なビジネスのやり方、例えば現代的な金融ストラクチャーを国が許可するといった方法で、国がイノベーションを継続させることも可能ではないでしょうか。従業員の自己株式オプション取得を困難にしている国もあります。
従来型のメカニズムでもテクノロジーのイノベーションを大いに促進させる機能をもつこともあります。ヘルスケアはその例だと思います。先ほども出ましたが、共通項というのもあると思います。倫理的ガイドラインを導入する時にもあるように、人間がその中心にあるべきです。イノベーションの中心には人間があるべきで、テクノロジーの側面からみても、法律の面からみても、皆、それぞれが生活を良くするという点において役割を果たしたいと思っているわけです。
次に、ヘルスケア分野のロボットについてです。ドイツの場合、ドイツでも研究されているのですが、お年寄りの人々に、ロボットに何をして欲しいかと聞いていくような調査があります。お年寄りのケアについて「あなたがロボットに望むことはありますか」とお年寄りに聞いてみると、驚くべきことに、ロボットによる支援についてお年寄りがかなりオープンであったりします。年寄りだからテクノロジーが苦手なのではないかと思われるかも知れませんが、ヘルスケアの分野において、またお年寄りのご家庭にもすでにテクノロジーは存在しています。また、ひと言にケアと言っても、人間的な面とテクノロジーの面があると思います。例えば、心の安寧のためにロボットを使うという方法もあるでしょう。いずれにしても、それぞれの国のそれぞれの人々のニーズをつかんでいく必要があると思います。
ヘルスケア分野におけるテクノロジーに関する認識は、日独の間でも違うでしょうし、ドイツ側の方が、例えば感情ケアということに関しては日本よりも積極的ではないかも知れません。いずれにしても、ロボットに関しては意外なほどにオープンであるという場合があります。
それから、私からの最後の発言としては、共通のゴールがテクノロジーと法律の間に見いだせるかどうか、それが非常に大きな問題ではないかと思います。
テクノロジーが社会実装される場面での課題とは?
● 19世紀のイギリス赤旗法から学ぶべきこととは?
角田:
ありがとうございました。 次に、少し視点を変えて、新しい技術に国あるいは立法がどのような角度でコミットしていくかという問題について考えてみたいと思います。
話題としては自動運転車を取り上げたいのですが、その前に少し昔話をさせていただきたいと思います。イギリスをゲストに迎えておきながら、ちょっと失礼な話になってしまうかも知れないのですが、寛容なゲストだということで、紹介させていただきたいと思います。
イギリスではレッドフラッグアクトという、赤旗法という法律が1865年に作られました。レッドフラッグアクトというのは、自動車、当時はまだガソリンではなくて蒸気自動車だったわけですが、その自動車の前に赤い旗を持った方がいて、必ずこういう赤い旗が先導する必要があった。蒸気自動車ですので、運転をする人と蒸気をコントロールする機関士がもう一人いて、三名が必ず必要とされていて、なぜこの赤旗を持った人が先導する必要があるかというと、それは人を守るため。そして、当時は馬車が走っていましたから、馬車、人の安全を守るためにできた法律でした。正式名称は、ロコモティブアクトでした。
この法律によって自動車のスピードは非常に厳格に制限されていました。郊外でも6キロ、市街地では時速3キロということだったのです。この法律がなぜできたのかということを考えてみますと、先ほど言いましたように、馬車を守る、人を守りたい、そういう極めて社会にとっては大事な法益を守るための社会のリアクションであったということです。
しかし、このレッドフラッグアクトに対する評価はどうかというと、つまりイノベーションが起きた時にいち早く反応したイギリスの立法だったのですが、評判がいいかというとよろしくない。なぜかというと、ドイツ、フランスにイノベーション競争に負けてしまったのはあの法律があったためではないかという、法律家に対するネガティブな評価というのがあるわけです。
ここで少し、考えていただきたいのは、この図というのは、実はイノベーションの方向性を示した図としてとらえられるのではないかということです。つまり、この赤旗を持っている方がやっている仕事は、今はセンサーがやっている。自動化されたということです。そして、今や運転をしている人間がシステムによって担われようとしている。イノベーションを予言する、何がイノベーションの目的として設定されるべきなのかというのを象徴する図だといえるかと思います。評判が良くないということを申し上げましたが、今日、我々が議論したいことというのは、イノベーションに対して法律がどう関わっていくべきか、どのようにすれば上手い形で関わっていけるかということがテーマですので、ちょっと歴史から教訓を得たいと、そういう視点から議論をしていただきたいと思います。
ということで、後半は社会実装の場面に移りまして、自動運転のタクシーを配車していたところ事故が起きてしまったという、そういう場面を考えていただきたいと思います。システムが何か変な振る舞いを起こして事故が起きたとき、なぜ事故が起きたのか、システム内部で何が起こったのかということが大変気になるわけなのですが、ご承知のように、そこにはAIのブラックボックス問題というのが出てきます。どうも工学の分野でもAIのブラックボックス問題に対して非常に意欲的な研究が次々出てきているということでございます。このブラックボックス問題と並んで、AIのアカウンタビリティーということも非常に大事なテーマかと思います。その辺の話についてファシリテーターの工藤先生が詳しいので、工学における試みと社会という点から、少し議論を紹介していただけますでしょうか。
● AIのブラックボックス問題とアカウンタビリティ
工藤:
私はロボティクスの研究をしています。基本的には物体のマニピュレーションを研究していて、自動運転はやっていません。ただ学会などに行くと、やはり今はとりあえずAIネタを入れておかないと様にならないよいうような雰囲気があったりして、AIについても勉強せざるを得ないという感じになっております。
何年か前までは、AIの新しい手法を使って「こんなことができるようになりました。あんなことができるようになりました」ということが議論の中心でした。もちろん今でもそのような方向性はあるのですが、AIが判断するのは、あくまでもあるインプットに対してそれらしいアウトプットが出るということだけなので、なぜもっともらしい結果が出てくるのかというその仕組みや、あるいは、時々思わしくない結果が出るが、それはなぜ、どこで間違えたから思わしくない結果が出たのかということがさっぱりわからない点が問題になってきています。そこで、なんとかAIの中で起こっていることを理解しようという研究が注目されています。これをAIのインタープリタビリティーと呼んだりします。それらの研究がすべて上手くいっているわけではないのですが、ある程度AIの中でどのような理由によってこういう判断がなされたのかというのがわかるようになってきている部分もあります。ただここで問題にしたいのは、工学的にみれば「AIの中で何が起きているかがだいぶわかるようになってきたぞ。もっと研究を進めてどんどんAIの中身がブラックボックスじゃなくなればいいだろう」というように考えて終わりになりがちなのですが、おそらく受け入れる社会であるとか、あるいは法的な話をした時には、それだけでは十分ではないだろうということです。どうしてエラーが出たかの理由がわかったとしても、その理由が人間にとってちょっと信じがたいものであるかもしれません。例えば、これは午前中にも講演いただいた新井紀子先生が別の機会に出された例なのですが、AIが、人間の子どもとポテトチップスの袋がAI的には非常に似ていたので見間違って、ポテトチップスの袋を守るために子どもをひいたという事件が起こったとします。工学的には「こういう理由で見間違いました」ということを明らかにできればある意味、満足なわけです。ただ、「……という理由ですよ」と言われて、果たしてみんなが納得できるのかということは非常に大きな問題になってくると思います。そういう意味では、言葉の上からいうと工学の世界でも「ブラックボックス問題に対して様々なアプローチで取り組んでいる」と言えるのですが、それがアカウンタビリティーの問題とか、そういう法律の方で言われている問題と同じようなことを取り扱っているのかと言えば、実はわりと違っているかもしれなくて、もう少し深い議論が必要であろうと思っています。
角田:
ありがとうございました。先に工学の方からお話をいただいたのですが、法学の方からコメントをいただきたいと思うのですが、小塚先生、お願いできますか。
小塚:
これは、「なぜ起きてしまったのか」という質問の意味の問題なのです。この言葉の意味が、多分、その専門家と一般の市民、一般の消費者とで違うということではないかと思うのです。角田先生が最初に出された設例は、自動運転車がなんらかの理由で事故を起こしてしまったというものです。その時に、なぜ事故が起こったのかというのは、例えば、被害者や被害者の家族が言ったと考えますと、別に事故が起こったメカニズムを知りたいと言っているわけではないのです。どうして防ぐことができなかったのか、逆に言えばどうすれば防げていたか、なぜ自分がこのような目に遭わなければいけないのかということを言っているわけです。その時に、技術の専門家が「いや、機械がやったので何もわからないのです。だから我々にはわかりません」と言うと、非常に不信感が募って「まずどういうことが起こったのか、あなたたちは説明もできないのですか」というようになっていくのですが、では説明したら納得できるかというとそうでもなくて、次には、どうしてその間違いが、そのメカニズムとして説明されたその間違いがなぜ起こったのか、それを防ぐ方法はなかったのか、というようなことを次には問い詰めてくるということです。
法律家として見ますと、それをどこまで受けとめるべきかということなのです。法律家は、一般市民の感情をそのまま繰り返していたのでは法律論になりませんので、例えば過失とか、例えば製造物責任法における開発水準とか、そういうものに当てはめて、「これは当然メーカー、あるいはサービス提供者の方で予期して対処すべきであった」とか、「これは予見できなかっただろう」とか、そういう議論をしていく。理屈を言えばそういうことになります。
ただ、やはり法律家の一つの仕事として、社会の中にこういう新しい技術が受け入れられるような、そういう土台を作っていきたい。先ほど、Steffek先生が「Peopleがやはり最終的なゴールだと」と言われたわけですが、そこがゴールだとすると、やはり、「どうしてこのようなことが起こって私が悲しい目に遭わないといけないのか」と言っている人たちに対して、なんらかの制度的な対応をしたいと思うわけです。そうすると今度は技術の方々からは、「それは結局後付けで、事故が起こってしまったら常に責任問われるのではないですか」「そんなことは怖くてできません」というふうに言われてしまう。しかし、それは逆に言いますと、そこでエンジニアの方々が満足できるような、安心できるような答えを出すと、逆に社会の方から「いや、そんな怖いものをどんどん入れていくようなことは望ましくない。そんなことだったらやめてくれ」「どうしてもやりたいと言うのだったら、さっきの絵ではないけども前に赤旗を持った人が歩く、そういうことにしてくれ」と言われてしまう。それでは結局自動車の意味が何もなかったわけです。ということなので、私は、事故が起こって現に苦しむ人が出てしまった場合に責任を負うことがあり得るというのは、むしろ新しい技術を開発して導入しようとする組織や企業の方としては、覚悟しなければいけないのではないか、そういう覚悟がなければそもそも社会に使ってもらえないのではないかなと、こう思うのですが、なかなかそれはそれで技術の方に理解していただけないという苦労があります。
③につづく