最終更新日:
2018.01.29 取材・編集:おざけん@ozaken_AI
その中で、産業技術総合研究所の赤坂亮太さんが自律的なAIが社会に浸透した場合の責任についてニュージーランドの無過失補償制度を例に、AI・ロボットの法整備について発表されていました。
ロボット法研究者 産業総合研究所 特別研究員
1983年生まれ、東京都出身。
学生時代の多くの期間において情報技術と法・制度に関する研究を行っていたが、2012年にテレイグジスタンスロボット「TELESAR V」に出会う。ロボットが社会進出した時の責任問題を中心に研究活動を行いながら、ロボット法学会設立準備会を組織し、幅広い観点からロボットと法が関わる場面に関する研究に携わっている。
AIとロボットに対する法律の研究
AIやロボットによって生じる法的な問題はどのようなものが想定されるでしょうか?
強いAI(自律して判断するAI)は今はまだ存在しておらず、AIやロボットの法律について考える場合は、まだ起こっていない仮説事例について議論を進めなければなりません。
赤坂さんによるとロボット技術と法律の問題に次の3つの特徴があるとする論者がいるようです。
- 具現性(embodiment)・・・具体的な物であることに伴うような問題
- 創発性(emergence)・・・自律的に動作することに伴う問題
- 社会性(social valence)・・・人間との相互作用・交流があることに伴う問題
では、この中で創発性と法的責任について考えていきます。
AI・ロボットの創発性と法的責任について
AI・ロボットに対して、法的責任を追求する場合は、ロボットをどのように捉えるかが重要になってきます。
単なる損害源と捉える場合・・・これはロボットに人格などを与えず、最小限と捉えた考え方です。損害源としか考えられず、責任はそこまで追求されません。
適格な行為者と捉える場合・・・人ほどの権利は有しておりません。しかし一定の法律行為を起こしてしまう存在として捉える場合です。
法的人格を認める場合・・・子供の人格権は制限されているが一定の法的責任があるようにロボットにも人格権を認める場合です。(AIはネットワークにつながっていて、責任の所在が親だけに集中しないことが課題)
ではロボットや、その関係者はどのような法的責任に直面するのでしょうか。
ロボット・ロボット関係者の責任
自動運転は、加入が強制されている自賠責保険はこれまで同様に加入する事になりそうです。しかし、システムの欠陥による事故の場合はメーカーにも賠償責任があるそうです。
ロボット関係者は以下の責任に直面する可能性があります。
- 故意・過失責任
- 無過失責任
- 免責条項(責任を免除または制限することを定めた、法律上の条項。)
AI自体に法的責任を追求できるかと考えたときに、赤坂さんは「現在の基準では、基本的には製造業者が責任を取ることになるでしょう」とおっしゃっていました。
また、動物が殺人を起こした場合には多くの国で一定の基準のもとに飼い主が責任を負うこととなっており、それをもとにするとロボットを購入した人に責任を追わせる考えもあるようです。また、人間とロボットが共同で責任を負うという考えもあります。
いずれにせよ、今まで人間社会で築いてきた動物や子供、あるいは奴隷に対する責任論がAIやロボットに対する法律を考えるときに重要になりそうです。
コミュニティで責任を負う無過失補償制度とは
ここまで記事を進めてきましたが、疑問点が残ります。
人であれ、ロボットであれ、誰かの責任を問うことができるのでしょうか。そもそも「故意なのか過失なのかが立証できるのか」という議論や、無過失責任制度も必ずしも被害者側に何らかの負担がないわけではありません。
そこで、赤坂さんが紹介していた制度が無過失補償制度です。
ニュージーランドでは、ACCという公団が運営する総合的な無過失補償制度があります。
国民の給与や、国の財源をもとにした社会保障制度で、事故や怪我に関して治療費だけでなく生活保障などを含んで幅広く生活を支える制度です。国民だけでなく、滞在中の外国人にも適用される特殊な制度です。
この制度のもとでは、不法行為訴権(不法行為に対して訴えを立てる権利)が廃止されています。
ウッドハウスレポートというレポートがもとになっており、そこにコミュニティの責任が記載されているといいます。
事故などは、あくまでも統計的に一定の確率で起きてしまうものだと仮定して、コミュニティ内で発生するコストはコミュニティ全体で負担すべきという考え方で、働きたくても働けない人などに対してもコミュニティ全体で責任を負い、補償するという制度です。
日本でも加藤雅信という人物が「総合救済システム」という制度を発案しています。
交通事故や公害、薬害等、悲惨な人身被害が多発している現代社会の中で、充分な救済を受けられない被害者が多いという現実がある。
これらの被害者が、確実かつ公平、迅速に救済を受けられるように伝統的な人身被害の損害賠償訴訟を廃止し、社会保障的な救済システムにとって代えようという制度。
無過失補償制度の問題点
無過失補償制度には課題もあります。
日本では事故を起こすと自らが賠償責任を負うことがあります。これは一定の事故を予防する機能を有しています。
賠償責任を負うかもしれないという緊張によって、一定の事故が抑止されているという考え方です。
死刑も殺人事件に対する一定の抑止力を有していますよね。
この課題を解決するために、ニュージーランドにおいては、懲罰的存在賠償を廃止していません。
加害者の行為が強い非難に値すると認められた場合、裁判所などの裁量で加害者に制裁を加えて、実際の損害の補償に上乗せして支払う賠償のこと。将来の同様の行為を抑止する目的がある。
引用:フリー百科事典『ウィキペディア(Wikipedia)』 (2018/2/06)
また、前述の加藤雅信による「総合救済システム」では、危険行為に課徴金を課したり、故意の事故に関しては損害賠償を請求できるようにするようにしています。
他には、責任が希薄化してしまうのではないかという批判もあります。
コミュニティの一員として損害保険の少額の掛け金を予め支払うだけでは責任感覚が薄れてしまうのではないかという指摘です。
最後に
今存在する仕組みを拡張したり、類推することでロボットやAIの責任は考えることができそうです。
しかし、日本に既にある私たちに馴染みのある規範を適用するのか、それともニュージーランドなど普段馴染みのない“遠い”規範を適用するのかなども検討しなければなりません。
また、冒頭で述べた通り、まだ起きていない問題について考えなければならず、仮説になってしまうということも認識しなければなりません。
編集後記
いずれにせよ、AIやロボットが発達するにあたって社会全体で法制度を考える必要があります。それぞれの技術が大きく産業構造を変えてしまう可能性を有しているからこそ、自分ごととしてAIやロボットについて考えてほしいですね。
※イベント取材にご協力いただいたのは慶應義塾大学SFC研究所リーガルデザイン・ラボさんです。
(1)先端領域における「法・社会制度」や「人と法の相互作用(Human Law Interaction)」のブループリントを素描するとともに、先端領域における法・社会制度整備・実装のプロトコル(方法論)を開発すること
(2)テクノロジーやデザインを活用した、次世代のための法律・契約のインフラやインタフェースあるいはシステムを開発または構築すること
(3)法を単なる規制として捉えるのではなく、イノベーションを促進する潤滑油として捉え、HLIのデザインを行える人材(リーガルデザイナー)の育成とそのようなマインド(リーガルデザインマインド)を社会に醸成していくこと
以上の3つを目的とした研究団体
詳しくはこちら[/btn]2018.01.29 取材・編集:おざけん@ozaken_AI
■AI専門メディア AINOW編集長 ■カメラマン ■Twitterでも発信しています。@ozaken_AI ■AINOWのTwitterもぜひ! @ainow_AI ┃
AIが人間と共存していく社会を作りたい。活用の視点でAIの情報を発信します。