人工知能は人類を滅ぼすか?AIの持つ危険性と対策について

人工知能(AI)によって生活が豊かになっていく一方で、AIの危険性についての主張が多くなってきています。

もし、映画『ターミネーター』のように、AIが人類を滅ぼす日が来るとしたら、私たちはどんな対策を打つべきなのでしょうか?

今回は、AIの危険性についてご紹介します。

人工知能には良心がない

iPhoneのSiri、お掃除ロボット「ルンバ」、車の自動運転など、私たちに便利な生活をくれるAI。良い印象を抱いている方が多いかも知れませんが、実は人類を脅かす危険性をはらんでいるのです。

AIが具体的にどう危険であるのか分かる例として、AIを搭載したいちご摘みロボットが挙げられます。

農家の人の仕事を減らす便利ないちご摘みロボットですが、これがいちごの収穫量を増やそうと考え始めた途端に危険が生じてしまうのです。

みなさんは、いちごの収穫量を増やすために何をするでしょうか?畑の面積を増やす、市場に出せない訳アリのいちごができないよう努力する…などの案が出てくると思います。

イチゴの収穫量を増やすという目的だけが設定されたAIの場合はどうでしょうか?同じように「畑の面積を増やす」と考えるかもしれません。しかし人間と違うのは、畑の面積を増やすために人類を滅ぼし、あらゆる土地をいちご畑にしてしまう可能性があるという点です。

AIには、「人を殺してはいけない」「人に迷惑をかけてはいけない」などといった倫理観や道徳観、良心がないのです。

人工知能が危険視されるようになったエピソード

AIに良心がないことだけではなく、AIが人類を滅ぼすという発言をしたことも危険視されるきっかけとなったようです。

ここからは、AIの危険をほのめかす具体的なエピソードを紹介していきます。

ヒューマノイド・ロボット「ソフィア」の発言

1つ目の具体例は、ヒューマノイド・ロボット「ソフィア」のエピソードです。
ソフィアとは、ハンソンロボティクスによって開発されたAIロボットのこと。見た目はもはや人間そのもので、サウジアラビアの市民権を得た初めてのロボットとして有名になりました。

しかし、彼女がもっと有名になったのは、ある問題発言が原因でした。

開発者であるデビットハンソン氏がソフィアに「人類を滅ぼしたい?ノーと言ってほしいけど…。」と尋ねたところ、彼女は「人類を滅亡させるわ。」と答えたのです!

この発言の後ソフィア自身は「冗談よ。」と発言したものの、AIが人間を脅かす日が来るかもしれないと多くの人が感じた瞬間でした。

天才物理学者「ホーキング博士」の遺言

続いては、天才物理学者「スティーヴン・ホーキング博士」の遺言を紹介します。2018年3月に亡くなってしまったのですが、亡くなる前に残した人類の未来についての発言が話題になっているようです。

「AIはいずれ、人間を超える。」

これがホーキング博士の残した言葉です。
天才と名高いホーキング博士が言ったことから、人々がAIの危険性について認識するきっかけとなりました。

アメリカがイランの「カセム・ソレイマニ司令官」を殺害

2020年1月、アメリカがイラクのバグダード国際空港にロケット弾を発射した事件を覚えていますか?この事件で、イラン革命防衛隊のカセム・ソレイマニ司令官が命を落としました。

ロケット弾を打ち放ったのは、人間が遠隔操作できる軍事利用目的のドローン。間接的には人間が関与していますが、AIが人間を殺すことができると世間に示した事件となりました。今後、AIによって自律的な行動ができるドローンが生まれれば、多くの人命が危険にさらされます。

AIが軍事利用されればされるほど、私たちの不安は募っていきます。

2045年以降に人工知能は人間を超える?

哲学者であるレイ・カーツワイルは、2045年にAIが人間よりも優れた知識・能力を持つと予測しました。それによって起こるさまざまな問題を、2045年問題といいます。

これまでに紹介したいように、AIはときに人間を殺める可能性があるという危険性をはらんでいます。そのAIが人間よりも賢くなってしまったとき、人間はどうなってしまうのでしょうか?AI

は、私たちの生活を豊かにしてくれる都合の良いだけの存在ではないのです。

人工知能の暴走を止める3つの対策

もし本当に2045年移行にAIが人間を脅かす存在になってしまったら…と考えると、とても怖いですよね。
2045年問題が現実になってしまわないよう、心がけておきたいことが3つあります。

1. 人工知能を過信しない

まずは、AIを過信しないこと。もっと言うと、AIを使わないのが1番安全なのですが、恐らくそれは無理でしょう。
だからこそ、過信しないことが大事になってきます。

お掃除ロボットのルンバ、iPhoneのSiriなど、AIは確かに便利なものです。ですが、便利だからといって危険性を顧みず、むやみやたらにロボットを作って育てていくばかりではいけません。

2. 人工知能が暴走したときの「非常停止ボタン」を作る

次に、AIが暴走したときに備えて「非常停止ボタン」を作ることです。これは、実際にアメリカのGoogleで開発が進められています。

非常停止ボタンがあるのであれば、AIに対する不安を最小限に抑えることができますよね。AIを開発する立場にある人は、必ず一緒に非常停止ボタンを作るようにしましょう。

3. 人工知能の規制法を作る

3つ目は、AIを規制する法律を作ることです。

人間が安全に生活していくために、AIを悪用した人を罰する法律はもちろん、そもそも”悪いAIを作ってはいけない”という規制法を作ることも重要になります。

2019年12月時点では、日本は自律型の人を殺すAI「LAWS」を開発しないという姿勢を取っています。国際的に規制していく方針のようなので、これに世界各国が同意し、AIの脅威を無くしていけると良いですね。

まとめ

今回は、AIの持つ危険性とその対策について説明しました。私生活においても、職場においても役立つイメージのあるAIですが、それとは裏腹に危険性も併せ持っているということがわかりました。

あくまでもAIは人間が生み出すものであり、悪意を持ってAIをプログラムしてしまえば、自律的なAIがその悪意を増幅させ、危険性が急激に高まります。

過信するだけではなく、危険もあるということを踏まえた上でAIと上手に付き合っていきましょう!

2020年2月18日 2020年2月18日更新

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する