昨今、様々な製品やサービスに広まりを見せるAI(人工知能)の技術。
しかしながら、その広まりの裏でAIに対する信頼性や倫理についての議論も盛んに行われています。
そんな中、2022年8月にパナソニックホールディングスは「AI倫理原則」を発表し、企業がどのようにAI倫理と向き合うべきかについての方針を打ち出しました。
そこで今回のインタビューでは、「AI倫理原則」の策定に関わったパナソニックホールディングス丸山氏と佐藤氏にAI倫理原則発表までの道のりや、企業が今後AI倫理をどのように捉えていくべきかについて伺いました。
目次
パナソニックグループの『AI倫理原則』
パナソニックグループは、「くらし」、「モビリティ」、「B2B」といった3つの大きな領域にAIを導入し、製品やサービスへと活用しています。
そして、AIの活用が広まる中で製品・サービスの利用者や社会から信頼されるAI活用を行っていくために、パナソニックグループ独自のAI倫理原則を公表しました。
概要としては、1条の部分で大きな目標である「より良いくらしとより良い社会を実現する」といったことが宣言されています。
2・3条ではそのために必要となる安全や人権、公平性といった部分を遵守していくことが述べられています。
4・5条ではさらに具体的な取り組み内容として、透明性の担保、説明責任、プライバシー、セキュリティなどを遵守していく旨が述べられるという構成です。
AI倫理の実践に向けた3つの具体的な施策とは
パナソニックグループは、公表したAI倫理原則の実践に向けて3つの具体的な施策を開始しています。
①AI倫理委員会の設置策定
まず1つ目としては、「AI倫理委員会」の設置です。このAI倫理委員会は、2022年4月からホールディングス体制となった、パナソニックグループの全事業会社を横断した取り組みとなっています。
具体的には、パナソニックホールディングス内にAI倫理委員会を設置し、そこに各事業会社から選出されたAI倫理担当者が参画するという形です。
技術部門に加え、法務、知財、情報システム、品質など多方面の部門が参画し、全社でAI倫理の実践に向けた取り組みを推進しています。
②リスクチェックシステムの運用
具体的な施策の2つ目としては「リスクチェックシステムの運用」が挙げられます。
パナソニックのリスクチェックシステムは、「AIの開発現場で効率的にAI倫理のリスクチェックを行う」ことを目的として、独自に開発されたものです。
パナソニックグループの幅広い事業領域に対応すべく、AIの開発現場で効率的にチェックが行えるよう設計・構築されています。
一般的に非常に複雑とされているAI倫理リスク項目のチェックを、なるべくセルフチェック可能な形にするために、チェックの負担軽減策を提供している点が最大のポイントです。
チェックの負担軽減策には、大きく2つの特徴があります。一つ目は、「製品やサービスの特性に合わせて、チェックリストを自動的に生成する機能」です。
製品やサービスの内容によってチェックすべきAI倫理の項目が変わってくるため、各々のリストを必要十分な形で自動生成できる仕組みを実装しています。
二つ目は、「チェック中に、ユーザが充実した解説や対応策を確認できる機能」です。「具体的にどのようにリスクチェックを行えばよいかが分からない」という現場の声に応えて実装した機能で、各自で事例から学びながら、チェックを推進することができます。
チェックのフロー自体はシンプルです。まずAIに関する製品情報や使われている技術をシステムに入力すると、入力した情報に基づいて、必要なチェック項目をシステムが自動生成してくれるので、あとはそのチェック項目に基づいたセルフチェックを行えばよい、という流れになっています。
③社内人材のAI倫理教育の実施
また、三つ目としては社内人材に対するAI倫理教育を推進しています。
基本的なAI倫理を全社員に教育することに加え、開発に携わる社員に対してはAI倫理の実践研修を行うことによって、全社でAI倫理を推進できる環境を整えています。
現段階としては、これら三つの施策を通じてAI倫理活動の実践が可能な体制を構築しているところだといえるでしょう。
そして、ここからはそのAI倫理原則の策定に携わった丸山氏と佐藤氏へのインタビューを行っていきます。
『AI倫理原則』を作るきっかけと運用方法
AI倫理原則を作るきっかけとは
・AI倫理原則を作り始めたのはいつ頃でしょうか。
佐藤-今の形となる倫理原則を本格的に作りはじめたのは昨年からですが、社内におけるAI倫理の啓蒙発動は2019年の段階で行なっていました。
AIの分野を強化する中で、パナソニックグループにはAI開発関係者からなるコミュニティが存在していますが、そこではかねてからAI製品やサービスに対するAI倫理的リスクが共有され対応が議論されていました。
このような状況において、経営幹部からの後押しもあり、2019年から正式なAI倫理委員会が発足、強力に推進していこうという動きが昨年あたりから本格化し、現在は社内教育などにも注力しています。
AI倫理チェックリストの運用におけるルールとは
・AI倫理チェックリストの運用におけるルールを教えてください。
佐藤-AI倫理チェックリストの運用においては、強制力をもって開発や製造を止めるものではなく、リスクを洗い出して可能な限り低減するために用いるということを基本的には目指しています。
また、AI倫理の重要度自体も案件によってばらつきがあります。例えば、OCRや特許文書の分類など人を分析対象とせず、人に与える影響も大きくない場合、そこまでAI倫理リスクは高くないと考えられます。
一方、人の行動認識や与信管理などは、分析対象が個人に関するデータであり、人に与える影響も大きいため、AI倫理リスクを十二分に考慮した開発が求められます。
したがって、案件に合わせてチェックの濃淡をつけることで、適切にAI倫理リスクを管理しながら、AI開発を阻害しない効率的なチェックの仕組みを実現しています。
企業とAI倫理の向き合い方
独自のAI倫理原則だけでは足りない
・現状、企業独自のAI倫理を発表している企業は一握りですが、今後各企業が独自のAI倫理を持っていくべきでしょうか。
丸山-企業にとって、AI倫理原則は、人権に配慮されたAI製品を責任をもってお届けするというお客様との約束と考えられますので、その目的に沿って十分な内容のAI倫理原則の策定が重要であり、必ずしも独自性は必要ではないと考えています。
むしろ、その約束をしっかり果たすために、AI倫理リスクをチェックするプロセスはしっかりと作って機能させていかなければならないと思います。
とはいえ、現時点で我々も含め多くの企業では、AI倫理に対する経験が浅く、例えば”自分たちの製品が差別を助長するか”などの倫理的な判断を行える高位平準化されたプロセスが十分ではないと感じます。
したがって、事例を積み重ねて、例えるなら裁判の”判例”のようなものを作っていくことが必要であると考えます。
AI倫理に対する注目度の低さという課題
・世間のAI倫理に対する注目度はいかがでしょうか。
丸山- 昨今、注目は高まってきていますが、AI倫理の重要度に対して十分とは言えないと感じます。AIが社会や人々の生活へ浸透していく中で、例えば公平性やプライバシーに関する問題などがより顕在化し、企業には責任ある対応が今以上に求められてくると思います。
AIと人権侵害には社会全体が関心を持っていくべきだと感じています。
パナソニックで働くAI人材
AI人材の定義
・パナソニックグループでは1200人の”AI人材”を抱えていますが、この”AI人材”の定義を教えてください。
佐藤-AI人材に関しては各社公表していて、その基準にもバラつきがあると思いますが、パナソニックグループでは“独力でAIを開発できる人材”という形でAI人材を定義づけています。
1200名の方がAI開発を行えるスキルを持っていて、その中のかなりの割合の方が業務においても活用しているという形です。
AI倫理の必要性の高まりはAI普及の証
・現場にAIが浸透しているからこそ、AI倫理原則の必要性が生まれたということでしょうか。
佐藤-その通りです。実際、2019年の段階ではAI倫理のリスクと自分が担当するAI製品を結び付けて考えることが難しい状況でした。
ただ、人材の育成や事業でのAI活用が進む中で、AI倫理の必要性が増し全社で倫理原則を遵守しようという風土が醸成されてきたことを実感しています。
今後のAI人材育成
・今後のグループ全体としてのAI人材の育成の方針について教えてください。
佐藤-具体的に”次は何人を目指す”という数字を公表しておりませんが、AI人材のニーズは依然高いので、年間150人から200人ほどのペースで育成が進んでいる状況です。
加えて、Kaggle Grandmasterという世界トップレベルのデータ分析スキルを有する社員を講師に据えた独自講座の開講など、より応用的なスキルを学ぶことが出来る研修も強化し、既存のAI人材のスキル向上へ向けた取り組みも行っています。
したがって、既存の1200人のAI人材に関してもスキルの向上へ向けた取り組みを行なっています。
パナソニックでAI開発を行うメリット
・AIの研究開発に関心のある方がパナソニックグループでAIの研究開発を行うメリットを教えてください。
佐藤-様々な事業を持っているという点がメリットとして大きいと思います。AIの実用化にあたって、多様な事業領域それぞれに、挑戦しがいのある課題と豊富なデータがあるので、興味関心にフィットするデータと研究開発テーマが見つかると思います。
社会実装にあたっては当然難しい部分や課題がありますが、世の中の役にたてているという実感を持つことが出来る環境でもあると思います。
さらに、先ほど述べたように応用先がかなり広いので、所属している技術者や研究者のバックグラウンドもバリエーション豊かです。多様な分野のプロがいるので、スキルの向上を目指すうえでもかなり、刺激的な環境だと思いますよ。
また、パナソニックグループではスタンフォード大学やカリフォルニア大学バークレー校など、国内外のトップのAI研究機関とも密に連携しています。アカデミアに負けないほどの挑戦ができると言っても過言ではない環境を備えていることも、大きなメリットであると思います。
まとめ
今回はパナソニックグループが発表したAI倫理原則に関して、発表までの道のりや企業とAI倫理の向き合い方についてのお話を伺いました。
今回のインタビューでは、AI倫理原則を発表するだけでなくリスクチェックシステムの構築など、その後の取り組みが最も重要であることが強調されました。
したがって、私たちも引き続きAI倫理の動向をチェックすることや、他人事ではなく自分事としてAI倫理について考えていく必要があるといえるでしょう。
AINOW編集部
難しく説明されがちなAIを読者の目線からわかりやすく伝えます。