HOME/ AINOW編集部 /AIと倫理 – いまAI倫理が議論されている3つの理由を踏まえて、倫理を考える
2020.02.20

AIと倫理 – いまAI倫理が議論されている3つの理由を踏まえて、倫理を考える

最終更新日:

AIと共存する社会が実現しつつある今、私たちはAIとどのように向き合っていくのかという重要な岐路に立たされています。

中でも「AIの倫理問題」は、AIに関する議論において重要な論点となっています。特に2020年12月の「GoogleがAI倫理学者を解雇した」というニュースは多くの関心を集めました。

AIが自律的に動き、社会の中で多くの役割を果たす時代、AIとどのように向き合っていくのか、私たち一人ひとりが考えなければなりません。

本記事では「AIと倫理」に焦点を当て、AIのあり方について考察していきます。

日本企業におけるAI導入の現状

世間のAIへの関心とは裏腹に、日本企業ではAIの導入があまり進められていません。総務省の情報通信白書(令和二年度版)によると、IoTやAI等のシステム・サービスを導入している企業の割合は約14%、導入予定の企業を含めると全体の約2割となっています。

また2019年米ライブパーソン社は、「日本企業でAIガイドライン策定に取り組んでいる割合は4割に留まる」と指摘しました。この割合は調査対象のアジア5か国の中で最低です。

出典:https://www.nikkei.com/article/DGXMZO46585670W9A620C1000000

いまAI倫理の議論が交わされる理由

現在、AIを導入する企業は少ないものの、今後さらにAIが普及していくうえで、議論しなければならないのが倫理の問題です。世間で問題意識が高まるにつれて、日本でも企業や学術機関でAI倫理に対する取り組みがや、議論が徐々に増え始めています。。

AI関連の事件が日々報道されているから

1つ目の理由は、現にAIの倫理的な問題が社会で浮き彫りになっているということです。「AI倫理の問題は未来予測やSF映画などで扱われているものだろう」と具体的なイメージに結びつかない方もいるかもしれませんが、現在進行形でAI倫理の問題は発生しています。

AIが持つ「バイアス / 偏り」

機械学習の過程では、膨大な入力データからAIが自らデータのパターンを認識していくのですが、人と人との外見や能力を区別する認識システムに機械学習を導入する場合、AIが結果的にジェンダーや⼈種を「差」として表現してしまうことがあります。

性差別 – Amazonの人材採用AIが女性を差別

Amazonは、2014年ごろから人材採用システムにAIを搭載することを検討していました。履歴書を入力すれば採用すべき人材をAIが判別してくれるというものでしたが、2017年にプロジェクトは中止されました。AIが男性ばかりを高評価にして、女性に対して不公平な扱いをすることが問題となったからです。

Amazonが人材採用AIを開発する段階で、学習に使用した履歴書の大半を男性が占めていたため、AIは「女性差別」をするようになってしまったのです。結果的に人材採用AIは、履歴書に「女」や「女子大」といった単語が出現した場合に評価を下げるように動いてしまいました。

人種差別 – 顔認識システムの人種の「偏り」

2015年、Googleの提供するサービスGoogleフォトが黒人カップルの写真に「ゴリラ」のタグをつけていたことが問題になりました。Googleフォトの自動タグ付け機能は、AIが写真に関連するタグを自動で選択して貼り付ける技術です。ところが、このAIは黒人カップルの写真を肌の色で「ゴリラ」に分類してしまったのです。

また、GoogleだけではなくAmazonやIBMといった大手IT企業がAIによる汎用顔認識技術からの撤退を表明しています。顔認識システムは非白人の認識精度が低くなってしまうことが撤退の大きな要因です。教師データに白人の割合が大きいことが理由の一つとして挙げられますが、非白人の認識精度を向上させる画期的な技術はまだ存在しません。多くの大手IT企業は、この問題が技術的に解決する見込みがない限り顔認識システムの販売を凍結する姿勢を示しています。

▼AIのバイアス問題について詳しくはこちら

事故の責任問題

AIを搭載したロボットやシステムが事故を引き起こした場合、その事故の責任を誰に帰属させるべきかという問題があります。

通常の事故では法的責任に応じて賠償請求がなされますが、AIシステムが事故を起こした場合は誰が賠償金を払えばいいのでしょうか。AIを搭載した自動車が事故を起こした場合、メーカーやAIを作ったエンジニアに責任はあるのでしょうか。これから益々AIを搭載したロボットやシステムによる事故が増えていくことが予想されているにもかかわらず、いまだに判例が少なくまだ結論の出ていない議論です。

自動運転車による死亡事故

現在までに自動運転車が起こした死亡事故は3件発生しています(テスラが2016年と2018年に2件、ウーバーが2018年に1件)。今現在、自動運転は「レベル3」の段階にあると言われています。

つまり、基本は自動車のシステムが運転を行うのですが、緊急時には運転者が操作をしなければなりません。〜では、「運転者がスマホに夢中で前方注意義務を怠っていた場合、自動運転車が事故を起こした際の責任は運転者にあるのではないか」という裁判が今でも続いています。

事故原因 メーカーの責任
テスラ
2016年
日差しが強かったために、AIも運転者も歩行者を認識できなかった。 刑事訴追なし
ウーバー 2018年 自動運転車のAIが歩行者を人間だと認識できずに轢いてしまったが、運転者はスマホに気をとられて反応できなかった。 刑事訴追なし
テスラ
2018年
自動運転車が勝手にハンドルを切ったが、運転者はスマホゲームに夢中で反応できなかった。 刑事訴追なし

▼自動運転の「レベル3」について詳しくはこちら

AIによる医療ミス

相次ぐ自動運転車の死亡事故を受けて、医療用AIが医療ミスを起こしたときに責任をどうすればいいのかという議論が過熱しています。まだAIによる医療ミスが具体的に問題となった事例はありませんが、すでに医療現場においてAIの導入は進められています。議論が未熟なまま、医療用AIの実用化が進んでいく現状を危惧するような意見もあります。

企業倫理に対する批判が増えているから

2つ目の理由は、企業倫理に対して世間の批判が増えているということです。AI倫理に関する議論では、AIを扱う会社の企業倫理も問われています。企業の目的は利益の追及ですが、人権の保護や社会・環境に対する配慮といった道徳的な事柄を抜きにして利益を追及することは、会社の信頼を損ねかねません。そのため、会社は企業倫理というかたちで自らが守るべき規範を定めることが重要視されます。

2019年のリクナビ問題

リクナビ問題とは、就職情報サイト「リクナビ」から算出された学生の内定辞退率の予測データを、運営会社のリクルートキャリアが無断で企業に販売していたとされる問題です。

「AIによって内定辞退率を算出し、採用に活用しよう」というアイデアは企業から大きな注目を集めています。しかし、リクナビ問題のように、本人の同意なしで個人データを売買するのは、倫理的に問題があると言えるでしょう。実際に、リクナビ問題は世間から大きな批判を浴びました。

GoogleによるAI倫理学者の解雇

2020年12月、Googleに務めていたAI倫理学者ティムニット・ゲブル氏が突然解雇されました。

彼女が解雇されたのは、Googleの主な収入源である検索エンジンのサービスに潜む倫理的な問題を指摘したことが原因です。指摘内容は、「Googleが検索エンジンに用いる大規模言語モデルは、巨大すぎるあまり、AIのバイアス が酷くなるのではないか」というものでした。

彼女は、この論文の社内審査を巡って上層部と対立し、解雇されてしまったと主張しています。ゲブル氏はエチオビア人というバックグラウンドを持ち、自身が社内でも数少ない黒人であることから、特にAIのバイアスとその影響に関心を持っていました。Google社内では、そんな彼女を擁護する動きが広がり、2000人以上の従業員が彼女を支持する署名活動に参加しました。

Googleの親会社で労働組合結成の動き

米大手IT企業では、その多くが労働組合を持ちません。そんな中、Googleの親会社であるAlphabetとGoogleの従業員は労働組合結成へ向けて動きを見せました。組合は会社に対して、労働者が差別などの価値観に対して意義ある発言力を持てるように要請しています。

ゲブル氏の解雇に端を発したこの抗議活動ですが、過去には2018年に3000人を超える従業員が共同でAIの軍事利用に反対する署名活動を行った結果、Googleが国防総省にAIの提供を打ち切るまでに至ったこともあります。米大手IT企業に対して従業員が企業倫理を求めていく動きは、これからさらに広がっていくでしょう。

AI倫理の問題に対する取り組みが活発になっているから

上述のようなAIに関するさまざまな倫理的問題が浮き彫りとなる中、社会ではそのような問題に対する取り組みが活発になっています。AIを規制するか否かといった議論だけでなく、「私たちとAIは社会でどのように共存していけばいいか」という議論を深めていくことは、近い将来に起こりえる諸問題に対して有効な対策を講じることに繋がります。そのような動きは企業や国家を超えた規模まで拡大し、世界的な枠組み作りに向けて関心が深まっています。

AIに関する原則

以前から、「AIと私たちが共存をするためには、解決しなければならない問題があるのではないか」という指摘がありました。その多くはAI特有の問題としてではなく、ネットと社会が結びつくことによって生じる問題に端を発しています。

例えば、「電子投票システムは公平性や透明性に欠けるのではないか」という疑惑は、ネット上の手続きに対する不信感を表していますが、AIに対する不信感もこれと類似した構図となっています。こうした問題に対処しながら技術を社会に応用するためには、何かしらの原理・原則を取り決める必要があります。

FATの原則

FAT(Fairness、Accountability、Transparency)とは、AIを社会で運用するにあたり、遵守しなければならないとされている設計思想の3つの原則です。

1つ目は「公平性 (Fairness)」で、AIが不当なバイアスを社会に反映させることがないように配慮するものです。後述するように、このようなAIの偏りは人種・性別・民族・文化等に対する人間の差別感覚がAIに反映された結果であるので、設計者は機械学習モデルを作成する段階で不公平さを排除しなければなりません。

2つ目は「説明責任 (Accountability)」で、AIを社会に導入するうえで関わる人々に、AIを用いた業務の内容や目的、不祥事が生じた場合に誰がそのAIの責任をとるのか、といったことまですべてを開示しなければならないというものです。AIの利用者は自分が納得できるまで、そのAIに関するいかなる説明をも求めることができます。

3つ目は「透明性 (Transparency)」で、複雑なプロセスを採用しているAIであっても、AIの仕組みやプロセスが明瞭に理解できるようになっていることです。AIの透明性の確保は、ディープラーニングの普及によって増々困難になっていると指摘されています。

AIに何かエラーが起こった際に、学習データのどこにミスがあったのか、何十、何百と重ねられたニューラルネットワークの層のどこに欠陥があるのかを特定することは現実的ではありません。現時点では、なぜAIがこの判断を下したのかは完全にブラックボックス化しているといっても過言ではない状況ですが、この問題を解決してAIの品質を高めるために日々研究がなされています。

人間中心のAI社会原則

日本政府は、AIが社会において実用されるうえで留意されるべき基本原則を「人間中心のAI社会原則(Principles of Human-centric AI society)」として公表しています。AIを実装しようとする社会、特に国などの行政・立法機関は、「人間の尊厳」「多様性・包摂性」「持続可能性」の3つの価値観が向上するように努めなければならないとしています。

機械学習と公平性に関する宣⾔

2019年12月、人工知能学会倫理委員会は、日本ソフトウェア科学会、電子情報通信学会との共同声明として「機械学習と公平性に関する宣⾔」を発表しました。公平性を欠くようなAIが急増している現実を受け、「機械学習は道具にすぎず、人間の意志決定を補助するものである」として、「機械学習によって公平性に起きうる問題を防ぐだけでなく、機械学習をきっかけとして公平性のあり方を定義、議論すること」を社会に求めています。

出典:http://ai-elsi.org/archives/888

AI倫理の問題に向けた企業の取り組み

こうした学会や学術機関らの動きと並行して、企業単位でも独自にAI倫理の問題に向けた取り組みが模索されています。AI導入を実現している企業が少ない中、まだまだ企業としてAI倫理に向き合っている例は数多くはありませんが、ここ数年で確実に大手企業を中心として規範を策定する動きが加速しています。

富士通やNEC、AI利用のポリシーを策定

2019年3月、富士通は「富士通グループAIコミットメント」、同年4月にNECは「NECグループ AIと人権に関するポリシー」を発表しました。両社とも、社内でAIを利用する際に倫理的価値観に照らして遵守するべき項目を明文化したものです。

また、NECは同年12月に「NEC AI品質ガイドライン」を発表し、AIシステムの品質を保つためにAI案件に適用すべき項目をさらに具体的に策定しました。AIシステムのフェーズごとにチェック項目を設けることで、できる限りAIシステムがブラックボックス化しないことを目指しています。

ABEJA、倫理委員会を設置

2019年7月、ABEJAは「Ethical Approach to AI」という有識者委員会が発足したことを発表しました。社内にAI業務に関する倫理委員会を設置するというのは他社に先駆けた取り組みです。ABEJAのAI業務に対して倫理に関係した課題を専門家が討議・提言し、業務の実現や改善に繋げていきます。

▼ABEJAの「Ethical Approach to AI」について詳しくはこちら

ソニー、全AIに倫理審査を行う方針

2020年12月、ソニーは自社のAIを用いるすべての製品に対して倫理審査を行う決定を下しました。AI製品が差別やプライバシーの侵害に配慮しているかどうかを審査し、場合によってはプロジェクト自体の中止を勧告することも可能です。このようなAIの品質を維持するための大規模な取り組みは、企業間でますます広がっていくことが期待されます。

AI倫理の問題に向けた横断的な取り組み

AI倫理に対して、啓蒙活動や具体的な提言を行うような組織がすでにいくつか運営されています。AI倫理に対しては、企業の個々の取り組みに加えて、国家や世界といった舞台で横断的に問題に取り組むような機関が生まれています。将来的には、より包括的な枠組みの樹立が期待されています。

人工知能学会倫理委員会

日本では2014年頃から松尾豊氏らを中心に、AIに関する倫理委員会を日本で発足しようという動きがありました。「人工知能学会倫理委員会」は、そのような経緯で設立された団体です。さまざまなシンポジウムを開催し、政府機関に提言を行うなど、日本のAI倫理に対する取り組みで中心的な役割を果たしてきました。

特に前述の「機械学習と公平性に関する声明(日本ソフトウェア科学会機械学習工学研究会と電子情報通信学会情報論的学習理論と機械学習研究会との連名)」は、AI倫理の問題に対して世間の関心が高まるきっかけとなりました。

JDLA公共政策委員会

日本ディープラーニング協会(JDLA)は、ディープラーニングによって日本の産業競争力を向上させることを目指して設立された組織です。その協会内で2018年7月に発足した公共政策委員会は、主に勉強会や他の機関との協力を通じてAIが社会に与える法的・倫理的な影響の調査と政策的な発信を行っています。

▼JDLAについて詳しくはこちら

Open AI

Open AIは、2015年に設立された非営利組織で、イーロン・マスクなどをはじめとする著名な実業家たちが参加・支援していることで知られています。Open AIでは、最先端のAI研究が行われるのと同時に、営利目標ではなく全人類に対する利益を追及することを目標にしています。倫理的なAIの開発を目指して、世界のトップIT企業と協力しながら開発を行っています。

AI倫理を考える

今まで見てきたAI倫理の具体的問題の事例を踏まえて、そもそもAI倫理とは何か、深く掘り下げていきます。AI倫理とは、端的に言ってしまえば「AIが関連して生じる倫理」のことです。では、「倫理」とは一体何なのでしょうか?

倫理とは

倫理とは、簡単に述べると「社会生活を送る上での一般的な決まり事」「社会で行為をする際に善悪を判断する根拠」のことを指します。

私たちの社会には、倫理の価値観が「法律」や「正義」といったかたちで反映されています。しかし、この倫理は他の価値観との対立や不確かさをもたらす場合があります。それが倫理的問題です。倫理的問題の中で最も有名な例は「トロッコ問題」でしょう。

トロッコ問題 – 倫理同士のジレンマ

線路を走っていたトロッコの制御が不能になりました。このままでは前方で作業中だった5人が猛スピードのトロッコに避ける間もなく轢き殺されてしまいます。A氏はこのトロッコの進路を操縦レバーを思いっきり引くことで、1人が作業している別路線に切り替えることができますが、すると確実にその人は犠牲になります。A氏は操縦レバーを引くべきでしょうか。

考え方 答え
功利主義 結果的に死者数の少ないほうを選ぶべき。社会にとっての最大幸福を追求する。 レバーを引いて1人を殺す 結果を重視する倫理
義務論 誰かを道具のように用いてはならない。他人を「単なる」手段として用いてはならない。 レバーを引かないで5人を殺す 動機を重視する倫理


このように、トロッコ問題は「功利主義」と「義務論」という二つの倫理が対立する様子を描き出しています。あなたならどちらを選ぶでしょうか。あるいは、何か別の選択や理由を考えるでしょうか。

自動運転車版トロッコ問題

これはそのまま自動運転車の問題に置き換えられます。このまま直進すれば5人の人を轢き殺してしまう状況で、自動運転車のAIは壁にぶつかる選択をして運転手1人を殺して5人を助ける選択をするべきなのでしょうか。トロッコ問題と同じ状況が道路上で生じた場合に備えて、エンジニアはどのように自動運転車が動作するようにAIを設計すればいいのでしょうか。

AI倫理は人間の倫理を揺さぶる

上記のトロッコ問題を通して、「AI倫理とはAI特有の問題というより、人間の倫理的問題の中にAIが関係しているのだ」という視点を持つこともできます。つまり、人間の倫理が盤石でないがゆえに、AIを用いた際にも同様の問題が出てきてしまうということです。

AI倫理はパラドキシカルな人間倫理の現れである

「自動運転車で事故が起こった場合に誰が責任をとるべきか」という問題は、そもそも「責任」という概念がしっかりしていないことに起因しています。人間は自由な存在で、自分の行うことはすべてコントロール下にあることを前提に社会はでき上がっています。しかし、実際には自分ではどうしようもない出来事や偶然といったものに影響されながら行為しています。これは哲学者のネーゲルやウィリアムズが「道徳的な運」という言葉で示している倫理のパラドクスです。

エンジニアの為したことは、多くの彼のコントロール下にないことに影響されているため、彼は責任のあることに関しても責任のないことに関しても、道徳的責任がないことになります。しかし実際は、彼の作ったAIが事故を起こした場合に、彼はある程度の道徳的責任を負います。メーカーに視点を移しても同様です。このような両立主義的な「重なり」がパラドクスを生むのです。

AIのバイアス問題は人間の差別の現れである

もちろん、テクノロジーは価値中立的なものではないため、AI自体にも固有の問題があります。しかし、その多くは人間に起因しているのではないかということは、既に多くの人が指摘しています。その最たる例は、AIのバイアス問題です。

AIが性差別的・人種差別的な出力をするということは、人間社会が持つバイアスが反映された結果であるという指摘があります。つまり、人間社会のバイアス問題が改善してはじめて、AIのバイアス問題も改善しうるということです。AI倫理は、AIに関係する人々すべてに問題を投げかけます。「機械学習によって公平性に起きうる問題を防ぐだけでなく、機械学習をきっかけとして公平性のあり方を定義、議論すること(「機械学習と公平性に関する声明」より)」が社会に求められているのです。

まとめ

ここまで、現在関心が高まっているAI倫理について、その具体的な取り組みも交えながら紹介してきました。AIを有意義に活用する社会を実現するためには、AIを作る側ではだけではなく、利用する側にもAIに対するリテラシーが求められます。この記事がAI倫理について考えるきっかけになれば幸いです。

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【後編】(TensorFlowでの比較)

ZホールディングスとLINEの経営統合が完了|サービス拡充のため、AIに5年間で5,000億円を投資

【流通・小売業界×DX】生き残るための鍵「所有から利用へ」とは?

Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【前編】(CreateMLでの比較)

AIが活用するデータは誰のもの?AIビジネスで見落とす法的な観点を紹介

2020年のAI研究ランキング:アメリカは中国をリードし続けられるのか?【後編】(米中覇権争いの行方)

2020年のAI研究ランキング:アメリカは中国をリードし続けられるのか?【前編】(各種ランキング)

Kaggleで勝ちっぱなしのデータサイエンティストに話を聞いてみた

空きスペース 活用 アイキャッチ

空きスペースをうまく活用するには?ビジネスシーンでの活用方法もご紹介!

【Microsoftリサーチ公式ブログ記事】チェス用AIの人間的な側面

あなたにおすすめの記事

Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【後編】(TensorFlowでの比較)

ZホールディングスとLINEの経営統合が完了|サービス拡充のため、AIに5年間で5,000億円を投資

【流通・小売業界×DX】生き残るための鍵「所有から利用へ」とは?

Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【前編】(CreateMLでの比較)

AIが活用するデータは誰のもの?AIビジネスで見落とす法的な観点を紹介

2020年のAI研究ランキング:アメリカは中国をリードし続けられるのか?【後編】(米中覇権争いの行方)

2020年のAI研究ランキング:アメリカは中国をリードし続けられるのか?【前編】(各種ランキング)

Kaggleで勝ちっぱなしのデータサイエンティストに話を聞いてみた

空きスペース 活用 アイキャッチ

空きスペースをうまく活用するには?ビジネスシーンでの活用方法もご紹介!

【Microsoftリサーチ公式ブログ記事】チェス用AIの人間的な側面