最終更新日:
2020年6月にOpenAIが公開した巨大言語AI「GPT-3」は、ヒューマンライクな文章を生成することで世界を驚愕させました。同モデルは、ディープラーニングモデルを巨大化していけば人間の知性と同等なAGI(汎用人工知能)の実現に近づくという「スケーリング仮説」にもとづいて開発されました。
OpenAIがGPT-3をさらに巨大化してGPT-4を開発するにあたっては、巨大言語AIの学習に必要な演算能力の確保が不可欠となります。こうした膨大な演算能力を確保するには、元々はグラフィック処理のために開発されたGPUでは困難となります。この困難を克服するためにOpenAIが注目したのが、AI演算用チップを製造しているCerebras Systemsでした。現在、両社は業務提携の交渉を進めており、Cerebras社チップによってGPT-3の500倍以上となる100兆のパラメータをもつ言語AIの実現が可能と見られています。
100兆のパラメータとなるかも知れないGPT-4が獲得する能力に関して、Romero氏はGPT-3から質的な飛躍があると予想しています。具体的には(テキストを画像に変換する)DALL-Eや(自然言語をプログラミング言語に変換する)Codexのような専門的能力と、「GPT-3」のような一般的言語能力を併せ持つだろう、と同氏は述べています。
GPT-4のリリースは数年先と思われますが、GPT-3のように世界を驚愕させる言語AIとなる可能性は極めて高いでしょう。
なお、以下の記事本文はAlberto Romero氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
大規模なニューラルネットワークには限界があるのか?
OpenAIは、人間ができることは何でもできるAI、すなわちAGI(Artificial General Intelligence)を実現するための課題に取り組むために創設された。
こうした技術は、私たちが知っているような世界を変えるだろう。適切に使用すれば私たち全員に恩恵がもたらされるが、間違った使い方をすれば最も破壊的な兵器になるかも知れない。だからこそ、OpenAIはAGIを実現するクエストを引き受けた。誰もが平等にAGIの恩恵を受けられるようにするために。「私たち(OpenAI)の目標は、人類全体に最も利益をもたらす方法でデジタル・インテリジェンスを進化させることです」(※訳註1)。
しかしながら、この問題の重大さは、人類が手をつけた科学的な事業の中でも最大級のものと言っても過言ではない。コンピュータサイエンスや人工知能が進歩しても、どうやって解決するのか、あるいはいつ実現するのかは誰にもわからない。
AGIの実現には、ディープラーニングだけでは不十分だという意見がある。バークレー校のコンピュータサイエンス教授で、AIのパイオニアであるスチュアート・ラッセルは、「生の計算能力に注目することは、完全に的外れである (中略)たとえ計算能力が宇宙の大きさと同等であったとしても、本当に知的な機械を作る方法を我々は知らない」と主張している(※訳註2)。
対してOpenAIは、大規模なデータセットを与えられ、巨大なコンピュータで訓練された大規模なニューラルネットワークこそが、AGIへの最良の道であると確信している。OpenAIのCTOであるグレッグ・ブロックマンは、Financial Timesのインタビューで次のように述べている。「最も大きな利益を得るのは、最も大きなコンピュータを持っている人だと考えています」(※訳註3)。
そして、OpenAIは自分たちが考えたようにした。ディープラーニングに秘められた力を呼び覚ますために、より大きなモデルの訓練を始めたのだ。その最初の地味なステップが、GPTとGPT-2のリリースであった。これらの大規模な言語モデルは、今回の主役であるGPT-3の基盤となるものだ。GPT-3はGPT-2の100倍、1750億個のパラメータを持つ言語モデルである。
GPT-3は発表当時、史上最大のニューラルネットワークであり、今でも最高密度のニューラルネットワークである。その言語の専門性と無数の機能は、多くの人々を驚かせた(※訳註4)。また、一部の専門家は懐疑的な見方をしていたが(※訳註5)、大型の言語モデルはすでに不思議なほど人間らしく感じられた。こうした成果はOpenAIの研究者たちが自分たちの信念を強化し、AGIとはディープラーニングの問題であると納得するのに十分な大きな前進だった。
ちなみに、同モデルにチューリングテストを実施してその能力の限界を明らかにした試みについては、AINOW翻訳記事『GPT-3にチューリングテストを試してみる』を参照。
・・・
聖なる三位一体 – アルゴリズム、データ、コンピュータ
OpenAIは「スケーリング仮説」を信じている。スケーリング可能なアルゴリズム、一般言語モデルのコンテクストで言えばGPTファミリーの基本的なアーキテクチャであるTransformerがあれば(※訳註6)、このアルゴリズムにもとづいてますます大きなモデルをトレーニングすることで、AGIへの直接的な道筋ができるかも知れない。
しかし、大規模なモデルはAGI問題を解くパズルの1つのピースに過ぎない。それらを訓練するには、大規模なデータセットと大量のコンピューティングパワーが必要だ。
データがボトルネックにならなくなったのは、機械学習のコミュニティが教師なし学習の可能性を明らかにし始めたからである。さらに生成的言語モデルと数ショットのタスク転送が加わり、OpenAIの「大規模データセット」の問題は解決した。
OpenAIは、モデルを訓練して実装するための巨大な計算資源さえあれば、それで十分と思っていた。2019年にMicrosoftと提携したのはそのためだ。大手ハイテク企業にライセンスを供与して、OpenAIのモデルの一部を商用利用できるようにする代わりに、OpenAIが必要としているMicrosoftのクラウドコンピューティングインフラと強力なGPUを利用できるようにしたのである。
しかし、GPUはニューラルネットの学習に特化して作られたものではない。ゲーム業界がグラフィック処理のために開発したチップを、AI業界が並列計算に適した形で利用しただけなのだ。OpenAIは最高のモデル、最高のデータセット、そして最高のコンピュータチップを求めていた。GPUだけでは不十分だったのだ。
多くの企業がこのことに気付き、ニューラルネットの学習に特化したチップを効率や容量を落とさずに内製するようになった。しかし、OpenAIのような純粋なソフトウェア企業では、ハードウェアの設計と製造を統合するのはほとんど不可能だ。そのため、彼らは別のルートを取った。サードパーティ製のAI専用チップを使うのだ。
こうしたわけでCerebras Systemsが巨大言語モデル開発に参入してきた。このチップ企業は、2019年に大規模なニューラルネットワークを訓練するための史上最大のチップをすでに構築していた。今回、彼らは再び巨大チップの製造を成し遂げた。OpenAIは、この素晴らしいエンジニアリングの産物をうまく利用するだろう。
・・・
チップとモデル – WSE-2とGPT-4
2週間前、WIREDは2つの重要なニュースを明らかにする記事を掲載した(※訳註7)。
1つ目のニュースは、Cerebras社はチップ市場で最大の「WSE-2(Wafer Scale Engine Two)」を再製造した。WSE-2は一辺が約22cmで、2.6兆個のトランジスタを搭載している。これに対して、テスラの新しいトレーニングタイルは1兆2500億トランジスタを搭載している。
Cerebras社は計算能力を効率的に凝縮する方法を発見したので、一般的なGPUが数百個であるのに対し、WSE-2は85万個のコア(計算ユニット)を搭載できた。また、新しい冷却システムによって発熱の問題を解決し、データの効率的な入出力フローもなんとか実現した。
WSE-2のような超専門的でありながら超安価なメガパワーチップの用途はそれほど多くない。大規模なニューラルネットワークの訓練がそのひとつである。そこで、Cerebras社はOpenAIに相談した。
ここで2つ目のニュースである。Cerebras社のCEOであるアンドリュー・フリードマン氏がWIREDに次にように語った。「OpenAIとの会談から、GPT-4は約100兆個のパラメータになるでしょう。(中略)それは数年以内には準備されないでしょう」。
GPT-3以来、OpenAIと同モデルに続くリリースには多くの期待が寄せられている。今では数年後にはリリースされることがわかっており、それは非常に大きなものになるだろう。それはGPT-3の500倍以上の規模になるだろう。読み間違いではない、まさに500倍だ。
GPT-4は、昨年世界に衝撃を与えた言語モデルの500倍の大きさになるだろう。
・・・
GPT-4から期待できることとは?
100兆個のパラメータはとても大きい。この数字がどれほど大きいかを理解するために、私たちの脳と比較してみよう。脳には、約800〜1,000億個(GPT-3の桁)のニューロンと、約100兆個のシナプスがある。
GPT-4は、脳のシナプスの数だけパラメータがあることになる。
このようなニューラルネットワークの規模は、ただ想像できるに過ぎないがGPT-3から質的な飛躍をもたらす可能性がある。現在のプロンプティング手法では、このシステムの可能性を十分に試せないかも知れない(※訳註8)。
しかし、人工ニューラルネットワークと脳を比較するのは難しい。一見、公平な比較に見えるが、そう見えるのは人工ニューロンが少なくとも生物学的ニューロンに大まかにもとづいていると仮定しているからに過ぎない。Neuron誌に掲載された最新の研究は、そうではないことを示唆している。研究チームは、1つの生物学的ニューロンの動作をシミュレートするためには、少なくとも5層のニューラルネットワークが必要であることを発見した。つまり、生物学的ニューロン1個に対して、人工ニューロンが約1,000個必要なのだ。
GPT-4が人間の脳ほど強力ではないにしても、いくつかのサプライズを残すことは確かだろう。GPT-3とは異なり、それは単なる言語モデルではないだろう。OpenAIのチーフサイエンティストであるイリヤ・スツケバーは、2020年12月にマルチモダリティについて書いたときに、GPT-4の可能性を示唆していた。
「2021年には、言語モデルが視覚的な世界を意識し始めます。テキストだけでも世界に関する多くの情報を表現できますが、私たちは視覚的な世界にも生きているので、言語だけでは不完全なのです」
GPT-3の小型版(パラメータ数120億)でテキストと画像のペアに特化して学習させたDALL-Eには、すでにマルチモーダルの一端をうかがえた(※訳註9)。OpenAIは当時、「言語を介して視覚的な概念を操作することは、もはや手の届くところまで来ている 」と述べていた。
OpenAIはGPT-3の隠された能力を利用するために、ノンストップで取り組んでいる。DALL-EはGPT-3の特殊なケースで、Codexとよく似ている(※訳註10)。しかし、これらは絶対的な改善ではなく、特殊なケースに近い。GPT-4は、特殊ケース以上の成果を約束する。それはDALL-E(テキストから画像の変換)やCodex(コーディング)のような専門的なシステムの深さと、「GPT-3」(一般言語)のような一般的なシステムの幅を併せ持つだろう。
また、推論や常識など他の人間らしい機能についてはどうだろうか。この点について、サム・アルトマン(※訳註11)は、確信はないが「楽観的」であると述べている。
AGIに関して多くの疑問があるが、ほとんど答えられていない。それが可能かどうかは誰にもわからない。それをどうやって作るのかもわからない。より大きなニューラルネットワークがAGIに近づいていくかどうかも、誰にもわからない。しかし、何かを否定できない。GPT-4は、今後も目が離せない存在になるだろう。
ソフトウェア制御の歴史的変遷における3段階
|
以上のソフトウェア3.0で動作するソフトウェアを活用するには、期待する出力を得るためのプロンプトの使い方あるいは文法が必要となる。そして、GPT-3がナンセンスな文章を生成するのは正しい「プロンプトの文法」を知らない人間にこそ原因がある、とRomero氏は述べている。こうしたプロンプトの文法の確立なしには、GPT-4のポテンシャルを測定することは不可能かも知れない。
・・・
この記事を気に入ってくださった方は、私の無料週刊ニュースレター「Minds of Tomorrow」の購読をご検討ください。人工知能に関するニュース、リサーチ、インサイトを毎週月曜日にお届けします!
また、ここにある私の紹介リンクを使ってMediumメンバーになれば、私の仕事を直接サポートし、無制限にアクセスできるようになります!:)
原文
『GPT-4 Will Have 100 Trillion Parameters — 500x the Size of GPT-3』
著者
Alberto Romero
翻訳
吉本幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1取得)
編集
おざけん