HOME/ AINOW編集部 /WEEKLY人工無脳(2018.10.8~10.14)
2018.10.15

WEEKLY人工無脳(2018.10.8~10.14)

最終更新日:

① AIから学ぶ、「公平」を創ることの難しさ

今週の個人的一番の話題はこれかなと。かつての黒人を”ゴリラ”とラベルしてしまった画像システムに通ずる、面白くて、議論すべき事が顕在化した話。
Amazonで開発中だった、採用を助けるAIシステムが男性志願者を女性志願者よりも優位にレーティングしていたのでシステムを廃止したという話。
このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。
この話は知り合いのデータサイエンティストの間でも話題になっていて、結局は、作成されたモデルは過去の採用傾向を再現しようとするだけだから、過去の採用が差別的処遇なら当然それを再現しようとする。だから、記事の「公平性を欠いたAI人材採用プログラム」という「悪いAI」みたいな表現にとれる書き方はキビシイ。おかしいのはamazonの過去の選考傾向なわけで、みたいな話をしていました。
ただ、そもそもバイアスの入らない「公平な」システムなどできるのだろうかということには疑問です。学習データを用意するのは人間で、すべての人間は(悪意がなくても無意識のうちに)あらゆる物事の判断にバイアスをかけているのは事実です。
アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。
正しい判断だなと思う。「性別」や「人種」「学歴」など、差別に関与する可能性が高そうな変数を除外したところでおそらく他の複数の変数の組み合わせから擬似的に同じような意味を持つ情報が学習されてしまう可能性が高いから。作成する特徴量に「人間的倫理性」を加味すべきかどうかという難しい問題も入っている。
「性別」や「学歴」を敢えてモデルに組み込みつつも、それらを「公平に」扱うようにスコアに重みのようなものを付けるのもまたそれはそれで「逆差別」だという考え方をする人が出てくるのも必然な気がします。そしてその重みに本当に悪意のない「公平さ」があるかどうかはおそらくどんな人にも判断できない。
結局の所、「本当は差別しているけど差別していると公言しないことによって差別していないことにする」という現在人間が行っているのと同じディストピア的採用方式にAIも回帰するのかもしれない…。そうはなってほしくないが。
一方で、こういった事例をテストする手法の研究なども行われているらしい。
AI的な何かを作るために、人間とは何か、社会とは何か、正義とは、公平とは何か? を考えさせられるの非常に面白いですね。

② 日本の社会人勉強不足問題、というだけな気もしなくはない

AIの最低限の知識も持たずにシステム開発をアウトソースしてもダメだぜ。やべえAIベンチャーも少なくないし。発注者もちゃんと勉強しようぜ。日本はSIer丸投げ文化のままやりすぎ という話。
全体的に同意である。
受託分析の会社でデータサイエンティストとして”AIシステム構築”にも関与している身として、特に共感したのは
業務知識については深い理解があるけれどAIが分からない依頼者、AIには詳しいが業務知識が欠落しているAIベンダーの間に溝があるのです。そのため、仕事のプロセス自体をAIで置き換えることができず、業務フローに合わせてシステムをカスタマイズするような結果になってしまうのです。
自動で動くシステムの中で人間が介在して一部手動オペレーションを行う、「ヒューマン・イン・ザ・ループ」というのがあり、機械学習システムに人間が介在する事自体は絶対に悪というわけじゃないと思いますが、その介在する人間がAI的な技術について無知な人だと過剰に業務フローに合わせたシステム構築が必要になり、「ヤバイ感じのAIシステムの入り口」って感じがします。
マスクドさんも文中で何度も「勉強し続けることが大切」と言ってますが本当にそうだと思います。
向き不向きや役割があるので全員がプログラミングや数学や統計を勉強する必要はなくても、ある程度のAI関連知識くらいは勉強すべきだなーと。
「”ある程度”のって、そんなちょうど良い本があるんかい」という人たちの為に、弊社のデータ分析官たちが書いた最近ジリジリと「これは良書」と噂される本をおいておきますね(ステマ)

③ “豚のしっぽ噛み検知AI”(かわいい)。けどこういうのが農業分野にはマジで必要

表題の通り。農業分野でITを使おうというアグリテックの一つ。
AI構築までのアイデアや方法が面白いなと感じたので概要メモ。
  • ブタはお互いの尻尾を噛むという習性があり、噛み傷からの感染により約30%のブタが食べれなくなるものになる
  • シッポ噛みの兆候がわかれば、ロープや藁などを替わりのもので気を紛らわすなど防止策を講じることが可能
  • しかし遺伝的な気質や食事、飼育密度や温度や照明など無数のきっかけがあるため予測が難しい
  • ドローンおよび固定カメラを用いて、667頭のブタの様子を52日間にわたって記録。ドローンによる撮影では、赤外線を照射してブタの姿勢も追跡。
  • 正解ラベルとしてシッポ噛みがあるかを最低1日2回検査
  • それらのデータでAI構築。結果として、ブタがシッポ噛み行為に及ぶ際の、シッポによる特定のしぐさを発見し、73.9%の精度で検出できた。
つぶさなデータの取得(動画による監視)を行うことで、人間が認知できていなかったパターンが見つかる可能性はアグリテック分野に限らず絶対にたくさんあって、こういった発見もAIの醍醐味かもしれない。個人的には人間の子育て(BabyTech)分野でこういった発見があればいいのになと思っている。

④ 無人決済の波がいろんなところでジワジワ

日本で、しかもJRの駅でAmazon Go的なスポットができるのはニーズがあるし面白い。実証実験らしいがこれを試すためだけに赤羽駅に行きたいくらい。開発会社はサインポストというベンチャーらしい。
日本での無人決済と言えば、九州の業務スーパー「トライアル」が先行しているイメージがあるが、普通にバーコードを自身で読み取るカートとの合わせ技?のようで、AmazonGoのような「カメラ動画だけで」決済認識をしている感じではなさそう。日本ではどこが本当の実用システムとして覇権を握るのか楽しみ。

⑤ A.I.対A.I. の戦いはすでに起きている

人工無脳 第11回の記事でも話題にしたフェイク動画の話。当然といえば当然の流れとして、AIが作ったものを見抜けるのはもはやAIだけ、という状況になってきてますね。
ディープフェイクと呼ばれるこうした映像は、激化するデジタルのフェイク情報競争のなかで最も新しい、そしておそらく最も厄介なものだ。
たかが偽物動画で、という方。ちなみにこれがAI(DeepFake)が作るフェイク動画

本物にしか見えないフェイク動画が地政学的緊張を高めたり、動揺を招いたり、犯罪を激化させたり、といった事態につながることは十分に考えられる。
このクオリティーなら十分に世論を動かす糸口になりえたりするので、実はこういったフェイク技術を見破るアルゴリズムの開発はかなり重要だったりする。
この記事では「瞬きの頻度」に着目することでフェイク動画を高精度に見破るAIを作成できたとしているが、この後は作る側と見破る側の完全にいたちごっこになる。
戦争が技術を進歩させる、というアイデアがあるが、AI的なものはあまりにも戦力として露骨にヤバイので表立って「軍事用AI開発」を進める国はいない。そのかわりに、こういった間接的に紛争や戦争のトリガーとなる可能性の大きい分野でAI技術が磨かれていくのがデジタル戦争時代なのかもしれない。
願わくば、AIの進化はもっと純粋な人間の好奇心やユーモラスから生まれていってほしいですね。

⑥ PFNさんが異常検知AIビジネスにぶっ込んできた

日本でいくつか成功しているAI事例は製造現場での画像系が多めです。(というより他の成功事例をあんまり知らない)
特に製造現場におけるAIによる異常物の自動検知に関するサービスは大きなITイベントなどに行くとたくさん見かけます。ある程度の現場ノウハウと実装能力と根性(膨大な画像をがんばって溜める・アノテーションする)があれば意外と高精度なものができるからだと思われます。
そういうニーズの多い領域に日本のDeepMindことPFNさんが、「良品画像100枚と不良品画像20枚で高精度なモデル作れるで」という恐ろしく賢そうなソリューションを発表した話。この領域でビジネスしていたAI系会社は冷や汗ものである。
といいつつ、PFNはこの外観検査ソフトウェアをパートナー企業へライセンス提供という形で売るようなのでPFN自体が現場で手を動かすわけではないようです。日本の多くの製造現場でPFNの超賢い異常検査装置が可動する日は近い…?
10/18(木)に開催されるCEATECでもこの製品発表が行われるそうなので気になりますね。

⑦ 築地のおっちゃんたちが画像系AIシステム作るときに出てくるのと同じ問題に直面しててウケる

移転後の築地市場では照明環境が変わり、まぐろの目利きに影響を与えていて困っているという話。わかりみが深い。
豊洲が開場した11日以降、生マグロ売り場では「明る過ぎて断面の赤身が白っぽく見える」「魚が光って、微妙な劣化が発見しにくい」など、違和感を訴える声が相次いだ。
一つ上の話題のように、異常検知AIシステムは当然現場で何らかの形で検査対象の画像撮影を行うわけですが、どんな画像でも良いわけではなく、やはりソフトウェアが受け入れを想定する形で安定的に撮影される必要があります。(Data Augmentationである程度ばらつきを考慮できますがそこまで柔軟ではない)自分もかつて、リアルタイムに画像を撮影して処理する深層学習で動く展示を作ったことがありますが、そのときに一番困ったことは展示会場の照明環境です。
照明の方向や強さによって対象物に影を作ったり白飛びしたりするとアルゴリズムが正しく処理できずに目的を達成できません。安定的な撮影環境を作成することは画像系AIシステムを構築するときの一つの課題です。
それと同じことに築地市場のマグロ目利きのプロたちも困っているという心温まる話です。ということはマグロ目利きAI…ワンチャンある…
上述のAmazon採用AIの話もそうですが、「あぁこれは機械判別しようとすると地獄見るやつ…」「これは人間オペレーションを機械側に寄せた方が楽なやつ…」みたいなことを思うのはきっと職業病なんでしょう。

⑧ 心が汚れている人は別のことを考えてしまうAI背景ぼかしビデオ会議システム

リモートワークする人がビデオ会議時に、見られては困る通話画面の背景をAIでボカしてくれるサービス。
うーん、なんとなくニーズはわかる気もするのですが、お金出すほどか…?背景ボカす計算処理をローカルPCでされるとちょっと嫌なんだけど…。リモート会議はもうVTuberみたいなアバター使ったらあかん…?などなど、いろんな疑問が湧いてくるサービス。技術の使い所って難しいですね。でも(前から他でもあるサービスですが、)自動で良い感じに化粧したっぽい顔にしてくれる機能はいいなぁと。実用に堪えるかはさておき。

⑨ 「 信用スコア」の日本版にYahoo!JAPANが着手

記事タイトル表題通り。中国でやられているやつの日本版をYahoo! JAPANが着手するとのこと。
自分が使っているY!のサービスなんだろう…すごくよく探してみるとiPhoneの天気アプリとカーナビアプリが入ってました(Y!のカーナビアプリは便利なのでオススメ!)
自分みたいなユーザーは信用スコアを数値ができないと思うのですが、逆に数値化できるユーザーはY!系のサービスをたくさん使っている人となり、独断と偏見で言えば情◯な方々な気がするのですがどうなのでしょう…他のサービスとの連携で結構データが取れたりするのでしょうか。なんだかAlibabaのように「国民全員使ってる」みたいなサービスであることが前提な気がするのですが、でも逆に日本ではY!J以外ではできないサービスでもあることは確か。先行きが楽しみな話です。

最近の与太話

「機械学習を使ったエンタメ」に興味があって個人的にもいろいろ作ったりしています。
最近、会社の元先輩たちが作ったデザインスタジオ会社にもサブでジョインし、そこのメンバーと、友人結婚式をデジタルから全力でサポートするプロダクトを作りました。
全力でやったわりに思ってたよりも反響がなくてちょっと落ち込んでるので良かったらゼヒ読んでください!個人的には最高の仕事したと思っています!
あと!
弊社データサイエンティストメンバーと運営している勉強会の第三回目が10/15から募集開始しました!募集期間が1週間しかないのでぜひ急いでご応募ください!
今回は初めて社外からも登壇者を募りました。「匿名登壇者」という謎枠が今回の個人的激アツ ポイントです笑

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

生成AIで“ウラから”イノベーションを|学生起業家が描く、AIを活用した未来

特許技術×AIでFAQを次のステージへ|Helpfeel

GPUの革新からAI時代の主役へ|NVIDIA

あなたにおすすめの記事

生成AIで“ウラから”イノベーションを|学生起業家が描く、AIを活用した未来

特許技術×AIでFAQを次のステージへ|Helpfeel

GPUの革新からAI時代の主役へ|NVIDIA