【要約つき】AINOWがおすすめの海外記事を紹介!(2018年10月)

最終更新日:

海外のAI系コンテンツに触れたい方におすすめの記事です。

AINOWは翻訳記事だけではなく、海外記事の要約をまとめたコンテンツも配信していきます。

海外記事要約まとめ

なぜ機械学習ビジネスは失敗するのか

著者 Cassie Kozyrkov

筆者のCassie Kozyrkov氏は、Googleに新設された知能決定エンジニア・チームのリーダーを務めている。この記事では、AIビジネスが失敗する根本原因について論じている。

AIビジネスが失敗する根本原因は、AIビジネスにおけるふたつの側面を理解していないことに起因する。そのふたつの側面とは、AIに関する専門知識と、知識としてのAIを応用するノウハウである。AIビジネスが失敗するのは、このふたつの側面を混同していることに由来するのだ。

この二側面の違いを分かり易く理解するには、パン屋の経営というたとえ話を考えるとよい。パン職人はパンの作り方について熟知しているべきだが、パン作りに使うオーブンについての工学的知識に詳しい必要はない。現在のAIビジネスにおける失敗は、言ってみればオーブンの工学的知識に詳しい技術者を雇って、革新的なレシピのパンを作り出そうとしていることに原因がある。こうした失敗を回避するために必要なのが、AIの応用に熟知している「知能決定エンジニア(Decision Intelligence Engineer)」である。Googleは、こうしたエンジニアの育成にすでに取り組んでおり、Kozyrkov氏は15,000人の知能決定エンジニアを養成した。

以上のような経験から、同氏は機械学習のビジネスを立ち上げるのに不可欠なのは、AIに関する博士号ではなく、AIをどのように使うか考えるヒューマン・クリエイティビティ=創造力だと述べて記事を結んでいる。

AI時代に信頼を築く―機械学習モデルを活用したビジネスにどのようにして公平性を確立するか?

著者  Trips Reddy

著者のTrips Reddy氏は、IBMが提供するWatsonに関する公式ブログに記事を投稿しているWatsonのコンテンツ・ストラテジストである。この記事では、歪んだ機械学習を回避する方法について解説している。

機械学習を実装するためには学習データが不可欠であるが、その学習データ自体が内容的に偏ったものだと、そのデータから学習した機械学習も偏見を含んだ誤った判定を下すものとなってしまい、倫理的問題に発展することもある。調査会社Forresterは、倫理的に正しい機械学習を実行するたの学習データの特徴として、以下のような4つを挙げたレポートを発表している。

  • 根本的に健全であること
  • 説明可能であること
  • 包括的であること
  • 可逆的であること

AIとデータ管理に関する倫理については、2018年5月にフランス・パリで開催されたテック系イベントViva Technology 2018において、IBMのCEOであるGinni Rometty氏がAIに関して同社が遵守する原則「信頼と透明性に関する原則」を発表した。この原則は、以下の3つから構成されている。

  • AIの目的とは、ヒトの知性を拡張することである。
  • データとデータに関する洞察は、それらを作ったクリエイターに帰属する。
  • AIシステムは透明かつ説明可能でなければならない。

IBMのWatson開発チームは、以上のような原則を「導きの光」としてWatsonを開発しているのだ。

あなたが知らない職場におけるAIが引き起こす衝撃的な未来

著者 Lauren deLisa Coleman

著者のLauren deLisa Coleman氏は、US版ビジネスインサイダーやcnbc.comにテック系の記事を投稿しているライター。同氏がUS版フォーブスに投稿した記事では、AIが雇用とキャリアパスに及ぼす影響について論じている。

ホテル業大手ヒルトンは、コールセンターとカスタマーサポートのスタッフを採用するのにAIツールを活用したところ、採用までに要する時間を42日から5日にまで短縮した。ヒルトンのように雇用活動にAIツールを活用する企業は増加傾向にあり、調査会社Village Capitalが行った各業界から企業を抽出した調査では、62%の企業が2018年には人材雇用を目的としてAIツールにより多く投資することを計画している、と回答している。

AIの普及については、多くの記事で報じられているように、あらゆる仕事のキャリアパスに大きな影響を与えることが予想されている。その影響は、AIが単純労働を代替するだけではなく、AIがアート作品を創作するような「クリエイティブ」な仕事に従事するヒトを助けることも考えられる。

また、AIについての論調に関しては、専らAIが社会にもたらす利益に焦点が当てられていまい、こうした論調がAIがもたらすかも知れない恐怖を覆い隠してしまっている。こうしたなかAIに関する議論で最も重要なのは、AIを駆動するアルゴリズムがヒトの経験全体を変えつつあるので、この変化を正しく理解することなのである。

スカーフやフェイスペイントでAIによる監視と戦う

著者 Thomas McMullan

著者のThomas McMullan氏は、大手イギリスメディア『The Guardian』にも記事を投稿しているロンドン在住のジャーナリスト。この記事では、AIによる顔認識の倫理的問題点について論じている。

現在各国の警察で導入が検討されている顔認識を実装した監視カメラシステムは、迷子の子供を早期に発見できるという良い面がある一方で、特定の人物を監視できるという危険な側面もある。こうした現在の顔認識技術には、実のところ、大きな欠陥が潜んでいる。その欠陥とは、白人男性を誤認する割合は低いのだが、白人男性とは異なる性別・人種では誤認率が上昇する、というものだ。こうした顔認識技術の欠陥に関してニューヨークタイムズ紙は、白人男性では誤認率が1%なのに対し、白人女性では7%、黒人男性では12%、黒人女性では35%にそれぞれ上昇する、と報じている。

以上のような顔認識をかく乱するアイテムとして、スカーフ、メガネ、そしてタトゥーといったものが開発されている。こうしたアンチ顔認識アイテムの開発者たちは、監視から逃れることではなく、顔認識技術の限界を露呈することを目的として開発している、と述べている。

政治的問題をはらんでいる顔認識技術の社会実装がもっとも進んでいる国は、中国である。ロイターによると、中国のウイグル自治区ではテロ対策を名目に顔認識監視システムがテストされている。こうした中国の事例は、これからの10年で世界各地で起こることかも知れないのだ。

キャプチャー・ザ・フラッグ:複雑な協力プレイを実行するエージェントの出現

著者 Max Jaderberg、Wojtek Czarnecki、Iain Dunning、Luke Marris、Thore Graepel

Google傘下のAI企業DeepMindは、同社の公式ブログ記事において、古典的FPS『Quake Ⅲ Arena』をAIにプレイさせた試みを報告している。

バーチャルな3次元空間におけるチームプレイが要求されるFPSのプレイを学習させるには、チェスや囲碁のプレイには不要だった空間認識や他のプレイヤーとの協力が要求される。こうしたFPSのプレイををAIに学習させるために、同社はQuake Ⅲ Arenaのゲームモードのひとつである「チャプター・ザ・フラッグ」をAIにプレイさせた。このゲームモードでは、敵陣地にある旗を自陣に持ち帰ると勝利できるのだが、AIには多様なチームプレイを実行した場合に報酬が得られるような強化学習を実施した。

FTW(For The Win:「勝利のために」)と名付けられたAIは、強化学習アルゴリズムを駆動しながら45万回にのぼるゲームプレイを経験した結果、ヒトのベテランプレイヤーを上回る成績を収めるまでに上達した。FTWのゲームプレイに関しては、特定のプレイ戦術を実行するように指示しない教師なし学習のアプローチが採用されていたのだが、待ち伏せや自陣の防衛といったヒトのプレイヤーに典型的に見られる基本戦術を習得していた。

DeepMindの研究チームは、今回の成果はAIの集団訓練やヒトと協力するAIの開発に生かすことができると考えている。

Special Thanks (翻訳協力):吉本幸記


ディープラーニング(CycleGAN)を使ってフォートナイトをPUBGに変える

スーパーパワーを持ったウェアラブル機器を創造するためにAIY kitを使う子供たち

2018年10月4日 2020年4月3日更新

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する