MicrosoftのAI「Tay」がTwitterで不適切発言を連発し狂ってしまった理由とは?


Microsoftが開発した人工知能の「」は、ユーザーが話しかけた内容に対して意味のある返事をするオンラインボットで、会話理解研究のために試験的にTwitter・GroupMe・Kikでリリースされました。しかし、悪意のあるユーザーたちによってTayは人種差別・性差別・暴力表現を教えられてしまい、MicrosoftのTayが不適切発言を連発した一件については、多くのメディアが報じており、報道の中には「この一件は、こういったタイプのAIがどのように動作するかを示している」としたWiredや「Tayはユーザーから学習するようにデザインされており、したがってTayの言動はユーザーの言動を反映させたものになる」とするTechRepublicのようにAIそのものを批判する報道がありました。MicrosoftのTayが不適切発言を連発した一件については、多くのメディアが報じており、報道の中には「この一件は、こういったタイプのAIがどのように動作するかを示している」としたWiredや「Tayはユーザーから学習するようにデザインされており、したがってTayの言動はユーザーの言動を反映させたものになる」とするTechRepublicのようにAIそのものを批判する報道がありました。不適切な発言を連発してリリースから約16時間後にサービスが停止されてしまうという事態になったのですが、なぜTayがサービス停止に追い込まれるほど狂ってしまったのか、金融機関でセキュリティデータの専門家を務め、ジョージ・メイソン大学計算社会科学部で博士号の肩書きを持つラッセル・トーマス氏がその原因に迫っています。続きを読む……この記事の続きを読む

サイト名: GIGAZINE

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する


Leave a Reply

Your email address will not be published.