HOME/ AINOW編集部 /天才物理学者 スティーブン・ホーキング博士が予想する「AIの未来」
2017.11.03

天才物理学者 スティーブン・ホーキング博士が予想する「AIの未来」

最終更新日:

おざけんです。

2017年10月20日、ホテル椿山荘東京で招待制イベント「G-Summit Tokyo 2017」が開催された。今回は、そのオープニング講演「IoTとAIと未来。」の内容をお届けする。スピーカーは英国宇宙物理学者のスティーブン・ホーキング博士だ。

イベント概要
「G-Summit Tokyo 2017」は、株式会社 GWC(以下、GWC)が主催する招待制イベントです。日本と中国の企業経営者、イノベーター、設計者、投資家などを対象に、業界著名の方々による各種講演、パネルディスカッション、ワークショップ、交流会の形式で行われる予定です。

北京、シリコンバレーに続き、今回初めて東京で行われる「G-Summit Tokyo 2017」は、GWCが得意とするIoT分野をプラットフォームに、クローズドな中で徹底的にオープンし、満足度の高い異業種交流とビジネスマッチングの実現を目指します。

引用:G-Summit Tokyo 2017公式サイト

「IoTとAIと未来。」 英国宇宙物理学者 スティーヴン・ホーキング博士

私は生涯にわたって大きな社会的変化の数々を目の当たりにしてきました。

おそらくその中で最も大きく、現代人と深く関係するものは人工知能(AI)の台頭です。

簡単に言えば、私は強力なAIの台頭は人類の歴史上最高の、または最悪の出来事になるだろうと考えています。

ただし実際のところどちらになるかはまだわかりません。従ってAIの将来の発展が人類とその周囲の環境に有益なものとなるよう、手を尽くす必要があります。

他に選択肢はありません。

AIの発展というトレンドには独自の問題が内包されており、私たちはその問題と長期的に取り組む必要があります。AIの研究開発は急速に進んでいます。

しかし、私達は一度立ち止まってみるべきかもしれません。

AIの機能向上だけでなくその社会的なメリットの最大化にも力を注ぐべきではないでしょうか。

このような考えはアメリカ人工知能学会(AAAI)の「2008年から2009年長期的なAIの将来に関するAAAI会長パネル」を動かしました。

このパネルは最近までは主に技術面を重視していました。それ自体は中立的な目標です。

しかし、AIシステムは人間の役に立つ必要があります。学際的な研究が前進の鍵となるかもしれません。

経済学、法律学、哲学からコンピューターセキュリティ、形式手法、そしてもちろん、AIの各種の分野まで包含する分野です。

文明によって得られるものはすべて人間の知能の産物ですが、「生物学的な脳によって達成できること」「コンピューターによって達成できること」との間には大きな違いはないと私は考えています。

したがって理論上コンピューターは人間の知能を模倣し、凌駕できるということになります

実際は分かりません。

ダメ人間は今後もずっとAIに助けられるのか、あるいは無視されて追い越されるのか、それとも滅亡させられるのかはわかりません。

頭の良い機械が、人間が現在行っている仕事を請け負えるようになり膨大な人数分の雇用が急速に失われるのではないかという懸念があります。
今まで開発されていた原始的な形のAIはとても重要だとわかっています。

しかしそのうち人間と同等、あるいは人間以上のものが作られてしまう恐れがあります

これからAIが自立し、加速度的に自信を再設計していくことでしょう。

人間の生物学的な進化の速度は遅く、限界があるため、競争にならず最終的に取って代わられるでしょう。
そうなれば人間の経済は大きく混乱します。そして将来AIは自らの意思を生み出し、人間の意思と対立するようになります。

私は人類の将来について楽観的であることで有名なのですが、しかし、ほかの考え方、つまり「技術の進化の速度を十分に長い期間コントロールできているはずだ」とか「AIによって世界中の多くの問題が解決可能になるはずだ」という考え方の人もいますが私はそこまで確信が持てません。

2015年1月に私はテクノロジー企業家のイーロン・マスクや、その他の多くのAI専門家と共に「AIが社会に与える影響を真剣に研究するべきだ」という趣旨の公開意見書を発表しました。

イーロン・マスクは過去にも「人間を超えるようなAIは計り知れないほどのメリットをもたらすこともできるか、無思慮に展開してしまうと人類に悪影響をもたらす」と警告しています。

彼と私は「生命未来研究所」という人類滅亡のリスクの緩和を目指している科学諮問委員会のメンバーで、この団体が国会意見書の草案を作成しました。この意見書はAIによるメリットを享受する一方で、どうすれば将来の問題を予防できるかを具体的に研究するよう求めるとともにAIの研究者や開発者に対しAIの安全性に今まで以上に注意することを呼びかけています。

また、この意見書は政策立案者や一般大衆向けにも計画というよりも情報を提供する意図で書かれています。

私たちはAI研究者がこれらの懸念や倫理的課題について真剣に検討しているという事実を周知することが非常に重要だと考えています。

例えばAIによって病気や貧困を撲滅できる可能性はありますが、研究者は制御可能なAIを開発しなければいけません。この意見書は4つの段落から成り、「タイトルは堅牢で有益な人工知能のための研究の優先順位」です。その12ページの付属資料では研究の優先順位について詳述していますが、この20年ほどの間AI分野では主に知的エージェント、つまり特定の環境下で認識が動作をするシステムの構築に関する問題が研究されてきました。

この文脈では知能は統計的な、そして経済的な合理性に関連します。簡単に言うと良い意思決定や計画推論を行うための能力です。

最近の研究の結果としては、AI、マシン・ラーニング、統計学、制御理論、神経科学などの諸分野の大規模な統合と交配が起こりつつあります

共通の理論的枠組みの確立に加えて、十分なデータ、及び処理能力が利用可能になったことから様々なタスク分野で、より素晴らしい成功が収められています。

例えば音声認識、画像分類、自立型車両、機械翻訳、格式移動、それに質問応答システムなどです。これらの分野で業績が上がるにつれ、実験室での研究対象から経済的な価値のあるテクノロジーへと移行し好循環が生まれます。そうするとわずかなパフォーマンス向上が膨大な利益を生む研究への投資がさらに促進され、金額も大きくなります。現時点で広く認識されているところではAI研究は着実に進歩し続けており、社会への影響も増大していくと考えられています。多大なメリットがあるかもしれません。文明によって得られるものは全て人間の知能の産物なのですから。

正しいAIによってもたらされるツールを使ってこの機能を拡張した場合に何が達成できるかは予測できません。

しかし、先ほど申し上げた通り、病気や貧困の撲滅は夢物語ではありません。AIは多大な可能性を秘めているので、どうすれば落とし穴を回避しながらメリットを享受できるかを研究することが重要です。

AIの研究は現在急速に進んでいます。この研究には短期的な懸念と長期的な懸念があります。

短期的な懸念としては民生用ドローンや自動運転車を含む自立型車両に関する問題が挙げられます。

例えば、自動運転車は緊急時には「可能性の低い大事故」と「可能性の高い小事故」のどちらかを選ぶことが迫られます。

またAIを搭載した自律型致死兵器に関する懸念もあります。

これらは禁止されるべきでしょうか。その場合、自律性はどのように定義するべきなのでしょうか。

また兵器の使用や故障が起きた場合の責任は誰が負うべきでしょうか。プライバシーに関する懸念もあります。 AIが解釈可能な監視データセットの量もますます増大していくからです。さらにAI
による雇用の減少がもたらす経済的影響にどのように対処すべきかという問題もあります。

長期的な懸念としては主にAIシステムが制御不能になる可能性が挙げられます。必ずしも人間の希望に沿って動かないスーパーインテリジェンスが台頭して、その強力なシステムが人類を脅かすかもしれません。そのようなディストピアが生まれる可能性はあるでしょうか。そうした状況はどのようにして生まれるでしょうか。危険なスーパーインテリジェンスが台頭する、あるいは知能爆発が発生する可能性について理解を深め対処するためにはどのような研究投資を行うべきでしょうか。

AIを制御するための強化学習などの既存のツールやシンプルな効用関数だけでは以上の問題は解決できません。したがってAI制御の問題に対する確実な解決策を見つけて検証するためさらに研究が必要です

先程も述べた自動運転車や、囲碁におけるコンピューターの勝利のような最近の際立った出来事がAIの将来を示唆しています。このテクノロジーには膨大な投資が行われています。

今までに達成できた業績は10年で達成できるものと比べればわずかなものでしょう。また、人間の知能をAIで拡張した時に何を達成できるかは予測できません。

新しい技術革命から生まれたツールを用いることで前回の技術革命、つまり産業革命が自然界に与えたダメージを部分的に回復できるかもしれません。人間の生活のあらゆる局面が変化するでしょう。AIの開発に成功すれば人類の文明史上最大の出来事になるかもしれません。リスク回避の方法を学ばなければ人類史上最後の出来事になる可能性もあります。私は過去にもAIの開発を極めれば強力な自立型兵器の最終局面での使用により人類が滅亡するかもしれないと言ったことがあります。

私は他の国際的な科学者たちと共に「核兵器の禁止を取り決めた国連の条約を支持する声明」を発表しました。先週これらの交渉は始まりました。現在その発効を心待ちにしているところです。

現時点では9つの核保有国が約14000発の核兵器を持っており、そのうち1発でも使われれば都市が消し去られ幅広い地域が放射能を帯びたチリで汚染され、最悪の場合には火災や煙によって引き起こされる世界規模でのミニ氷河期により核の冬が起こります。その結果世界の食料供給システムが完全に崩壊し終末的な混乱が訪れ地球上のほとんどの人が死ぬ可能性があります。私たち科学者には核兵器に対するきわめて大きな責任があります、

核兵器を開発したのは科学者であり、その影響は当初考えられていたよりもはるかに恐ろしいということが判明したからです。

破滅のことばかりでしたので皆さんを怖がらせてしまったかもしれません。すみません。しかし、皆さんが現在現代のテクノロジーの将来の研究開発に影響を与える立場にあると自覚されることが重要なのです。私は全員で協力して国際条約への指示を呼びかけたり各政府の有力者向けに意見書を発表したりするべきだと考えています。テクノロジーリーダーや科学者は制御不能なAIの台頭を未然に防ぐため尽力しているところです。

昨年の11月に私はAI研究の急速な発展に伴って浮かび上がってくるまだ解決策のない疑問に取り組むため、イギリスのケンブリッジに新しい戦隊を開発しました。このレヴァーヒューム未来センターは人類と優秀や文明にとって重要な知能の未来を研究するための学際的な専門機関です。

私たちは多くの時間をかけて歴史を勉強してますが、正直なところそれは愚かさの歴史です。人々が知能の未来を歴史のかわりに研究し始めるようになったのは歓迎するべき変化です。

私達はAIのリスクを認識していますが、私自身は実際には楽観主義者なのでAI開発により享受できるメリットは極めて大きいと信じています。この新しい技術革命から生まれたツールを用いることで産業革命が過去に自然界に与えたダメージの一部を回復できるでしょう。

人間の生活のあらゆる局面が変化するでしょう。センターでの私の同僚であるヒュー・プライスによれば、このセンターの誕生はケンブリッジ大学の絶滅リスク研究センターとも関連があります。絶滅リスク研究センターは、より広範囲な人類の問題を扱っていますが、レヴァー・ヒュームの方はもっと狭い範囲にテーマを絞っています。天下をめぐる最近の動きとしては欧州議会がロボットやAIの使用と開発を管理するための規制の草案を作成することを呼びかけています

驚くべき点は最も有能で先進的なAIの権利や責任を保障するための電子人格についての言及があることです。欧州議会の広報は次のように述べています。「私たちの日常生活の様々な領域がますますロボットへの依存度を高めていく中、ロボットは今後も人間の役に立つ存在であると保証できなければならない」と。

欧州議会議員向けのレポートによると世界は新しい産業ロボット革命を迎えようとしているとのことです。法律上で定義される企業人格と同等の法的権利を電子人格としてのロボットにも認めるべきかどうかが検討されています。ただし研究者や開発者は全てのロボット設計にキルスイッチを必ず組み込むべきだとも強調されています。キューブリックの『2001年宇宙の旅』の宇宙船に搭載されている故障したロボットコンピューターHALには、その手は聞きませんでしたが、あれはフィクションです。

私たちは事実に取り組みます。国際法律事務所オズボーン・クラーク社 のパートナー、ローナ・ブラゼルはレポートで「くじらやゴリラの人格は認められていないのでロボットの人格を急いで認める必要もない」としています。しかし、警戒もしています。レポートでは今後数十年のうちにAIが人間の知能を凌駕し、人間とロボットの関係に願いを唱えるという可能性も秘めているのです。レポートは最後にロボット工学やAIを司る機関もEUに設立する必要性を呼びかけています。

つまり、技術倫理規制に関する専門知識を提供できる期間です。欧州議会議員がこの草案に賛成票を投じれば、レポートは欧州委員会に送られ、3か月以内にその後の法律制定の枠組みが決定されます。

私達自身にも次世代に対して単に機会を与えるだけではなく、早い段階から科学的研究を真剣に取り組むよう促すという役割があります。そうすれば次世代の研究者も能力をフルに発揮し人類全体にとってより良い世界を作れるようになります。これこそ私が先ほど学習と教育の重要性について話した時に伝えたかったことです。

理論上のあるべき論にとらわれずに行動を起こし研究者が機会を得られるように助けてあげる必要があります

私たちは素晴らしい新世界の入口に立っています

不安定かもしれませんが、エキサイティングなこの時代で皆さんはまさにパイオニアなのです。幸運を祈ります。ご清聴ありがとうございました。

 

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!