HOME/ AINOW編集部 /「差別を植え付けるデータ」MITが大規模データセットを削除 -問われるデータの公平性
2020.07.03

「差別を植え付けるデータ」MITが大規模データセットを削除 -問われるデータの公平性

最終更新日:

MIT(マサチューセッツ工科大学)は、人種差別用語や女性差別を助長するとして、大規模なデータセットを削除しました。

このデータセットは、高度な物体検出技術を開発するために2008年に作成されたもので、8000万枚の画像が使われた「Tiny Images」という画像ライブラリです。機械学習モデルに静止画中の人物や物体を識別するための学習モデルを教えるために使用されてきました。

8000万枚のTiny Imagesの欠点を発見したのは、プライバシーに特化したスタートアップ「UnifyID」のチーフサイエンティストであるVinay Prabhu氏と、ユニバーシティ・カレッジ・ダブリンの博士号候補であるAbeba Birhane氏です。「Tiny Images」にはアジア系や黒人、女性の差別につながるラベル付けがされていたといいます。

ディープラーニングでは、ラベルつけされた画像を大量に学習することで、画像とラベル(言葉)の関連付けをしています。「Tiny Images」の画像をディープラーニングで学習することで、ラベルに含まれた差別的な表現を学習してしまい、結果として偏ったモデルが構築されてしまうおそれがあります。

データセットには、売春婦や水着姿の女性など、不必要に日常の画像を差別的な言葉にリンクさせ、将来的にAIモデルに偏見を植え付ける可能性があります。

MITは「TinyImages」のデータセットを削除し、研究者や開発者にライブラリの使用を中止しています。また、そのコピーをすべて削除するよう促しています。また、公式声明と謝罪文をサイト上で発表しました。

Tiny Imagesのデータセットには、カテゴリや攻撃的な画像などの軽蔑的な用語が含まれていることが判明しました。
(中略)
このことを大変心配しており、影響を受けた可能性のある方々にお詫び申し上げます。

 

AIが人種や性別の偏見や差別を示す例は数多くあり、学習させるデータをいかに公平公正な品質に保つのがが大きな課題となっています。特にディープラーニングでは、膨大なデータを学習するため、わずかな偏見でも差別表現を助長して誇張してしまう可能性があります。

過去にもGoogle Photo上で、黒人を「ゴリラ」と認識してしまったり、米アマゾンに導入された採用システムが、女性差別を行うなど倫理的な問題に問われるケースが多くあります。

国内では人工知能学会に「倫理委員会」が設けられるなど、AIの倫理性を向上させる取り組みが行われていますが、AIの発展に伴い、社全体で議論が行わていくことが望まれます。

 

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

株式会社ABEJAはwithコロナの時代に即してオフィスを移転−社員のライフスタイルに合わせた勤務が可能に

伝説的ピアニストグレン・グールドの音楽表現を学んだAIがピアノ演奏を披露−世界最大規模のメディアアートの祭典でも会場を満員に

【G検定奮闘記】非エンジニア大学院生が、ゼロから一ヶ月でG検定に合格するまで

2020年8月のAI関連イベントまとめ【オンライン含】

AIセキュリティ超入門-イントロダクション~AIをとりまく環境とセキュリティ~

先週のAI関連人気ツイートTOP20!【2020/08/03更新】

世界初のAI恋愛ナビゲーションアプリが関東を中心に事前登録を開始−3つのナビゲーションで恋愛をアシスト

LINEがAIブランドを「LINE CLOVA」に統一 -議事録生成ツールの構想も発表【LINE AI DAY】

まだ間に合う!「Deep Learning Digital Conference」 が明日開催!Google BrainのShane Gu氏も登壇

あらゆる機械の自動化に挑むDeepXが総額16 億円の資金調達 ー少数データ学習や説明可能性、現場での頑健性をさらに追求