HOME/ AINOW編集部 /AIの問題点まとめ|雇用の減少・過失責任の在処・軍事利用など解説
2022.01.27

AIの問題点まとめ|雇用の減少・過失責任の在処・軍事利用など解説

最終更新日:

近年のAIの普及は目覚ましく、私たちの身の回りにはAIが活用されたもので溢れています。

私たちの生活を豊かにしてくれるAIですが、一方で問題点も数多く存在します。そこで、今回はAIの問題点について紹介します。

AIとは

AIとは人工知能(Artificial Intelligence)の略称です。機械学習をはじめとしたAI技術により、翻訳や自動運転、医療画像診断や囲碁といった人間の知的活動に、AIが大きな役割を果たしつつあります。

このように、AIはさまざまな分野で活用されていますが、数多くの問題点もあります。

▼AIについて詳しく知りたい方はこちら

AIにおける7つの問題点

AIにおける問題点は以下の7つです。

  1. 人間の仕事を奪う
  2. 不具合が起こった場合の責任問題
  3. AIによる判断に伴う問題
  4. プライバシー問題
  5. シンギュラリティ問題
  6. 軍事利用される危険性
  7. データのセキュリティ問題

それぞれ解説していきます。

①人間の仕事を奪う

一つ目のAIにおける問題点は、人間の仕事を奪うことです。この問題は雇用減少問題といいます。

機械であれば人間のように給料を払う必要がなく、それに加えて人間よりもミスが少ないため、一般事務や会計など、誰がやっても同じ結果になるような仕事は機械に代替されています。

このように、AIが発展していくことで人間の仕事をAIが代替していくことになり、雇用が減少してしまうという問題点があります。

AIに仕事を奪われないために、どうすれば私たちの仕事をAIに代替できないようなものにしていくかを考えていく必要があります。

▶AIの発達によってなくなる仕事って?-今すぐするべきこと3選>>
▶人間にしかできないこと一覧|人間の能力とAIの能力を比較して解説!>>

②不具合が起こった場合の責任問題

2つ目は、AIがミスを犯したときに誰が責任を取るかという問題です。

例えば、AIを搭載した自動運転自動車が事故を起こした場合、運転していた人が責任をとるのか、それとも自動運転システムを作った人が責任をとるのかという問題があります。

このように、AIの不具合による過失を扱った法律はまだ整備されていません。今後、法律によりはっきりした線引きを行っていく必要があります。

▶自動運転とは? 各レベル説明と15の実例を紹介>>

③AIによる判断に伴う問題

3つ目はAIによる判断に伴う問題です。具体的には以下の2つの困難に分けられます。

判断の根拠がわからない

まず、AIが何か判断を下したとき、その根拠が分からないという問題点があります。この場合、人間はなぜそのような結論に至ったのかが不明なままAIが最善であると判断したことを実際に行うことになります。

倫理的問題

そして、倫理的な問題もあります。AIは合理的な計算に基づいて決定を行います。

例えば、安い方の時計が誰かにとって大事なものであっても、高価な時計と安価な時計であれば高価な方を優先させる可能性があります。また、人命にかかわる決定においてもAIがより重要であると考えた人物などを優先させる可能性もあります。

人間ではなくAIが倫理的判断を下すことは、このようにいびつな結果につながりやすいということがわかります。

▶AIと倫理 – いまAI倫理が議論されている3つの理由を踏まえて、倫理を考える>>
▶AIと人権の関係性を解説【問題や取り組みを紹介】>>

④プライバシー問題

4つ目の問題点は、プライバシーの問題です。AIはどこまでプライバシーに関わる情報を集めてよいかという問題は、近年盛んに議論されているテーマの一つです。

実際、Webサイトに掲載される広告やYouTubeのおすすめ動画などはすでにAIの力を借りています。ユーザーがこれまでに見たサイトや検索履歴などのデータがなくては適切な広告やおすすめ動画は表示できません。

企業がどの程度まで利用者の個人の情報を集めていいのか、どのように集めた個人情報を管理すればいいのかという点は、これから考えていかなくてはならない課題です。

⑤シンギュラリティ問題

5つ目は、シンギュラリティと呼ばれる問題です。2045年にはAIが人間の知能を超えるシンギュラリティを迎えるといわれています。

現在、AIに感情はありません。しかし、将来技術の進歩に伴いAIが人間のように感情を持ち思考するようになるかのしれません。

もしこのようなロボットが人間とともに生活することになったら、ロボットも同じ人間とみなし、人権を与えるべきなのでしょうか。この問題は将来人間が直面する問題であると言えます。

▼関連記事
2045年問題について詳しく知りたい方はこちら>>
シンギュラリティについて詳しく知りたい方はこちら>>
AIの今後について詳しく知りたい方はこちら>>

⑥軍事利用される危険性

6つ目の問題点は、AIが軍事利用される危険性です。

無人でも自律的に動くことができるミサイルなどの兵器は、現在はほとんどの軍隊で導入されています。このような自立した無人戦闘機の普及によって戦闘が機械同士となり、戦争がしやすくなってしまうかもしれません。

その他にも、AIに人間を直接攻撃させることもできるようになります。その時点でAIの知能が人間を上回っていたらどうなるでしょうか。人間には太刀打ちできず、今までよりも大きな被害になる可能性もあるでしょう。

さらに、軍事利用ではありませんがAIの不具合がきっかけで本格的な戦争が始まる可能性もあります。AIは軍事的な意味ではとても危険なものです。

▶AIが人の代わりに戦場へ! 軍事で活用が進むAI>>

⑦データのセキュリティ問題

7つ目の問題点は、セキュリティの問題です。

AIを活用する場合、ネットワークを利用して顧客情報などの機密情報を取り扱うことになります。AIによる正確な分析を可能にするためには、ビッグデータと呼ばれる膨大なデータ群が必要です。

問題は、このデータの管理です。適切な管理がされていないと一気に大量の機密データが盗まれてしまいます。

AIにおける問題の事例5選

次に、実際にAIを搭載した製品やサービスが起こした問題の事例を紹介します。今回紹介するのは以下の5つです。

  1. ゴールドマン・サックス社のトレーダーの減少
  2. UberのAI車による死亡事故
  3. Googleフォトで黒人をゴリラと自動分類
  4. ナゴルノカラバフ紛争でAI搭載ドローン使用
  5. キーン・セキュリティラボによるテスラ車のハッキング

それぞれ解説していきます。

①ゴールドマン・サックス社のトレーダーの減少

まずはAIが人間の仕事を奪った実際の例を紹介します。

ニューヨークにあるゴールドマン・サックス本社の米国株の取引部門には、最盛期の2000年に600人のトレーダーが在籍し、大口顧客の投資銀行の注文に応じて株を売買していました。2017年の時点で、この部門の人数はたった2人にまで減少しました。

このように、株式売買の自動化プログラムがトレーダーの職を奪ったのです。

▶AI(人工知能)で仕事がなくなるって本当?AI失業について考察してみた>>

②UberのAI車による死亡事故

次に、AIの不具合により起こった実際の事故の例を紹介します。

米国家運輸安全委員会(NTSB)は、2018年3月に米アリゾナ州フェニックス郊外で起きたウーバー(Uber)の自動運転車による歩行者死亡事故に関する報告書を公表しました。自動運転車による死亡事故で歩行者が犠牲になったのは、この事件が初めてでした。

このUberの車に搭載されたAIは車道に歩行者がいることをそもそも想定していなかったため、衝突の寸前まで対象を「歩行者」と認識できていなかったことが問題だったとされています。

③Googleフォトで黒人をゴリラと自動分類

3つ目はAIの識別能力に伴う問題の例を紹介します。

2015年、Googleフォトでアフリカ系アメリカ人の顔を「ゴリラ」と自動分類していたことがわかり、グーグル側が当人に謝罪する事態となりました。

Googleフォトは機械学習の技術を使い、利用者が投稿した写真に写っている人の顔や動植物、食べ物などを自動的に分類し、タグ付けして検索しやすくする技術が使われています。

この問題では、ニューヨーク在住の男性が友人と2人で撮った写真をこのアプリで保存したところ、黒人であった友人がゴリラと分類されたことから発覚しました。

▶「AIによる差別」の現状とは?事例、原因、世界各地の取り組みを紹介>>

④ナゴルノカラバフ紛争でAI搭載ドローン使用

4つ目は軍事的に利用されてしまった例を紹介します。

ナゴルノカラバフ紛争とは、2020年、アゼルバイジャンとアルメニアがアルファツ共和国をめぐって争った紛争です。

この紛争で戦局に大きな影響を与えたAIドローンは、アルメニア側の兵士や戦車の存在を見つけ出して攻撃するというものでした。

これまで洞穴の中などに隠れている兵士は上空から判別できませんでしたが、このAIドローンは兵士の持っている電子機器などの存在から兵士の存在を発見して攻撃できます。

火薬や核兵器など、兵器は世界史を大きく変えてきました。今回のAIドローンは、軍事史を変えるものになるかもしれません。

▶AI搭載のドローンって何?|できること・活用例・今後など詳しく解説!>>

⑤キーン・セキュリティラボによるテスラ車のハッキング

5つ目はセキュリティ問題に関する実際の例を紹介します。

中国のインターネット企業テンセントの傘下にあるキーン・セキュリティラボの研究チームが、テスラモーターズの電気自動車「Model S」のハッキングに成功したことを公表しました。

研究チームは、無改造のModel Sのドアやトランクを遠隔操作で開けたほか、ディスプレイを乗っ取ることや、走行中のModel Sのブレーキを遠隔操作により作動させることにも成功しています。

このキーン・セキュリティラボによる攻撃は、Model Sに組み込まれたウェブブラウザの脆弱性を突いたもので、Wi-Fiホットスポットに車両を接続させれば作動させることができるというものでした。

このように、現在流通しているAIを搭載した製品は、簡単にハッキングされてしまうことがあり得るのです。

▶AIの活用事例について詳しく知りたい方はこちら>>

今後AIの問題点は解決できる?

これまで見てきたように、AIには解決が必要な問題が多くあります。しかし、AIを活用することには作業効率の向上や労働力不足の解消など、多くの利点もあります。そのため今後もAIの普及は積極的に進められるでしょう。

AIを活用した製品やサービスの普及とともに、AIをプログラミングする人間の技術も進歩していきます。プログラムを改良していくことで、これらの問題を解決できる時が来るかもしれません。

▶AIのデメリットと解決策について解説した記事はこちら>>

まとめ

この記事ではAIの問題点について具体例も合わせて紹介してきました。

AIの普及に伴う問題と、それらを解決していく必要があることがわかりました。この問題は技術者だけでなく私たちも改善のために考えていく必要があります。

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!