HOME/ AINOW編集部 /OpenAIの「プロジェクト・ストロベリー」を紹介
2024.09.05

OpenAIの「プロジェクト・ストロベリー」を紹介

最終更新日:

ソフトウェアエンジニア兼イラストレーターで、AI専門メディアGenerative AIZeniteqを運営するジム・クライブ・モンジュ(Jim Clyde Monge)氏(詳細は同氏のLinkedInページを参照)が2024年7月にMediumに投稿した記事『OpenAIの「プロジェクト・ストロベリー」を紹介』では、OpenAIが極秘裏に開発していると噂されている次世代AIが解説されています。

ブルームバーグやロイター通信が報じたところによると、OpenAIは極秘裏に「プロジェクト・ストロベリー」と名づけられた次世代AI開発プロジェクトを推進していると見られます。同プロジェクトでは既存AIより強力な推論能力を備えたAIが開発されており、その能力は「高度な数学や科学の問題」を解けると言われています。

プロジェクト・ストロベリーでは、スタンフォード大学らの研究チームが2022年に発表したAI技法「Self-Taught Reasoner (STaR:自己教育推論器)」が活用されていると言われています。この技法を簡単に説明すると、間違った推論から正しい推論を自己学習することで、AIの推論能力を向上させるというものです(同技法の詳細は以下の翻訳記事本文を参照)。

GPT-4oに続くGPTモデルについては、OpenAIのミラ・ムラティCTOが2024年6月に「博士号レベルの人間のような知性を持つだろう」と発言しており、次世代GPTモデルが水面下で開発されていることを示唆しています。

以上のようなプロジェクト・ストロベリーが、アルトマンOpenAI CEOが突然解任された「OpenAI騒動」の際に噂された先進的AI「Q*」を後継するものなのかは不明ですが、OpenAIは着々と次世代GPTを開発していると推測されます。そうした推測の根拠として、2024年8月29日、OpenAIとAnthoropicがアメリカ政府機関であるAI安全性研究所と公開前AIモデルに対して安全性評価を実施することに合意したり、2024年9月3日に開催されたKDDI主催のビジネスイベント「KDDI SUMMIT 2024」において、OpenAI Japanの長﨑 忠雄代表が「いずれ出てくる『GPT Next』というAIモデルは、過去の実績から見て100倍近く進化していく」と発言したりしたこと(出典はITmedia AI+記事)が挙げられます。

なお、以下の記事本文はジム・クライブ・モンジュ氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
以下の翻訳記事を作成するにあたっては、日本語の文章として読み易くするために、意訳やコンテクストを明確にするための補足を行っています。

画像制作:ジム・クライブ・モンジュによる

はじめに

OpenAIは、未発表の新しいAIモデル「プロジェクト・ストロベリー(Project Strawberry)」で、再びAIの限界に挑んでいる。この取り組みは、以前はQ*として知られており、AIモデルの推論能力を飛躍的に向上させることを目指している。

ブルームバーグロイターが最近リークした情報によると、OpenAIは、AIモデルが計画を立て、自律的にインターネットを探索し、OpenAIが「ディープ・リサーチ(deep research:深層検索)」と呼ぶものを実行できるように、研究を進化させている(※訳注1)。

(※訳注1)この翻訳記事の出典となっているロイターが2024年7月15日に公開した記事では、同年1月に公開されたビル・ゲイツとサム・アルトマンの対談に言及している。その対談では、ゲイツがアルトマンに対して今後2年間で重要なマイルストーンとなるものは何か、と尋ねたところ、アルトマンはマルチモーダル以上に推論能力の向上と答えた。

さらにアルトマンは、現在のGPT-4は1万回質問すれば1回くらいはかなり良い回答を出力するに過ぎない一方で、ユーザは毎回最高の回答を求めているだろう、とも回答した。

また、前出のロイターの記事は、翻訳記事で言及されているSTaRを執筆したスタンフォード大学のノア・グッドマン(Noah Goodman)教授の発言も引用している。同教授はSTaRを活用すれば、AIは人間をはるかに凌駕するスーパーインテリジェンスに到達する可能性があると述べたうえで、しかし、この可能性は「エキサイティングであると同時に恐ろしいことだと思います。このままこの方向に進むのであれば、人間として(AIとの関係を)深刻に考えなければならないことがあります」と発言した。

ブルームバーグによると、火曜日に開催された社内全体会議で、OpenAIは人間のような新しい推論能力を備えたと主張される研究プロジェクトのデモを行った、とのこと。(※訳注2)

(※訳注2)以上の引用は、ロイターが2024年7月15日に公開した記事を出典としている。それゆえ、この引用における「火曜日」は、7月9日と推測される。

基本的に、OpenAIはAIがより人間らしく考えるように努めている。

一部の情報筋によると、OpenAIは内部でモデルをテストし、AIの数学能力テストで90%のスコアを達成したという。しかし、これがプロジェクト・ストロベリーに関連しているかどうかは確認できなかった。

一方、さらに異なる2つの情報源は、Q*プロジェクトのデモを目撃したと報告しており、そこでは、今日の主要な商業用AIの能力を超える高度な数学や科学の問題を解くモデルが紹介されていた。

OpenAIがこれらの能力を強化するために使用した正確な方法は、依然として不明である。ロイターの報道によると、プロジェクト・ストロベリーでは、広範なデータセットで既にトレーニング済みのOpenAIの既存大規模言語モデルのファインチューニングが行われているという。

以上のアプローチは、スタンフォード大学の研究者による2022年の論文「Self-Taught Reasoner (STaR:自己教育推論器)」で概説されているものと同様であると報告されている(※訳注3)。

コモンセンスQAにおけるSTaRの概要とSTaRが生成した根拠

上の図では、ファインチューニングの外側のループが破線で示されている。質問と正解はデータセットに存在することが期待され、根拠はSTaRを使用して生成される。

(※訳注3)STaRとは、誤った推論から正しい推論を学習できるAI技法を意味する。以上の概要図は、以下のような同技法によって推論能力を改善するプロセスを可視化している。

STaRの処理プロセス
  1. 常識的推論能力を問うデータセットCommonsenseQAを活用して言語モデルを訓練する場合、このデータセットから選んだ任意の質問(Question)を言語モデルに入力する。
  2. 言語モデルは、入力された質問に対する回答と回答の根拠を生成する。
  3. 回答と根拠が正しかった場合、それらを使って言語モデルをファインチューニングする。
  4. 回答が間違っていた場合、正しい回答をヒントとして入力して、正しい回答を出力するための根拠を言語モデルに生成させる。この処理は「合理化(Rationalize)」と呼ばれる。
  5. 合理化によって生成された根拠と正しい回答と、その回答に対応する質問をセットにして言語モデルをファインチューニングする。
  6. 以上のように質問に正解した場合は正解した際のデータを使ってファインチューニングし、不正解だった場合は合理化を経たうえでファインチューニングするプロセスを繰り返す。

上記のプロセスを繰り返せば、不正解における根拠からも学習できるので、STaRによって推論能力が向上する結果となる。

・・・

では、ストロベリーとは何なのか?

数週間前、YouTubeチャンネルのダートマス・エンジニアリング(Dartmouth Engineering)におけるインタビューで、OpenAIのCTO(最高技術責任者)であるミラ・ムラティ氏は次世代AIについて語り、そのAIは博士号を持つ人間のような知性を持つと説明した(※訳注4)。

(※訳注4)2024年6月19日にYouTubeで公開されたダートマス・エンジニアリングにおける対談において、ムラティ氏はChatGPTの進化について質問された時、GPT-3は幼児レベル、GPT-4は高校生レベル、そして1年から1年半後に登場する次のGPTは博士号レベルの知能になる、と答えた。

さらに3年後のAIの在り方について尋ねられると、AIは自律的なエージェントとなり、自由にインターネットにアクセスし、他のエージェントや人間と協働しているだろう、とムラティ氏は答えた。

ミラ・ムラティの画像

ストロベリーとは、彼女が言及しているモデルのことだろうか。

「最も重要な進歩の領域は、推論能力の周辺になるだろう」 — OpenAI CEO、サム・アルトマン

現在のAIモデルは、テキストの生成や特定のタスクの実行には優れているが、複雑な推論、長期的な計画、自律的な意思決定には苦戦している。

しかし、より幅広い文脈を考慮することは重要である。

イリヤ・サツケバーがOpenAIを去り、アライメントチームの主要メンバーも退社したため、OpenAIの研究の方向性や、一般公開される製品について安全性への懸念が高まっている。

私はOpenAIが描いている現在の軌道について深く懐疑的だが、AIの専門家ではない。私の懸念は、開発のペースが速いことと、これらの高度なテクノロジーがもたらす潜在的な影響から生じている。

以前はQ*(Q-Star)と呼ばれていた

プロジェクトQ*は、サム・アルトマンとイリヤ・スツケバーのドラマ(※訳注5)により、2023年に広く注目されるようになったが、実際の開発業務は2022年初頭から進められていた。

(※訳注5)「サム・アルトマンとイリヤ・スツケバーのドラマ」とは、2023年11月17日に起こったアルトマンが突如OpenAI CEO職を解任されたいわゆる「OpenAI騒動」を指している。この騒動が起こった直後の2023年11月23日に公開されたロイター通信の記事によると、同社の研究員が理事会宛てに「人類を脅かす可能性があるという強力な人工知能の発見を警告する手紙を書いた」。この人工知能が、Q*と呼ばれるものであった。

OpenAI騒動はアルトマンがCEOに復帰することで急速に収束したが、2024年3月8日、OpenAIは新ガバナンス体制と騒動に関する調査結果をまとめたブログ記事を公開した。その調査は、アルトマンがCEOを解任されたのは「前理事会とアルトマン氏とのあいだの信頼関係の崩壊」が原因であり、「製品の安全性やセキュリティ、開発のペース、OpenAIの財務、投資家、顧客、ビジネスパートナーに対する声明に関する懸念から生じたものではなかった」と報告している。つまり、Q*のような先進的人工知能の開発をめぐる対立はなかった、という公式見解を示している。

サム・アルトマンとイリヤ・サツケバー

主な開発スケジュールは以下の通りである。

  • 2022年初頭:OpenAIがAIシステムの推論能力向上に向けた取り組みを開始
  • 2022年半ば:OpenAIに所属していた著名な研究者であるイリヤ・サツケバーが、後にプロジェクトQ*となる取り組みを開始
  • 2022年後半:Q*チームが簡単な数学問題を解くモデルを開発
  • 2023年初頭:プロジェクトを巡り、Q*の研究者たちとCEOのサム・アルトマンとのあいだで対立が生じる

Project Q*のアーキテクチャは、大規模言語モデル、強化学習、検索アルゴリズムを組み合わせたものとなる。それは、ChatGPTに見られるディープラーニング技術と人間がプログラムしたルールを統合したものでもある。このAIモデルは、Q学習とA*探索(※訳注6)を組み合わせたものとなる可能性がある。

(※訳注6)A*探索とはグラフ探索アルゴリズムのひとつであり、あるスタート地点からゴール地点に向かう最短経路を出力する。

なぜQ*と呼ばれるのか?

OpenAIからの公式な声明はないが、「Q*」という用語は、強化学習におけるDeepMindの歴史に由来する可能性がある。当初、DeepMindはQ学習を用いてニューラルネットワークを訓練することを通して、AtariのビデオゲームをプレイするAIを開発していた。具体的には、試行錯誤しながら学習し、さまざまな行動から報酬を推定するQ関数と呼ばれる関数を最適化していた。

以上の技術的基盤にもとづけば、Q*はおそらく大規模言語モデルとAlphaGoスタイルの検索技術を統合し、強化学習を用いてモデルを強化しようとする試みであると見られる。その目標は、言語モデルが複雑な推論タスクにおいて「自分自身と対戦」することで能力を磨き、言語モデルが達成できることの限界を押し広げるようなシステムを開発することであろう。

・・・

最終的な考察

まだすべての詳細が明らかになっているわけではないが、OpenAIが大きな目標を掲げていることは明らかである。Q*、またはプロジェクト・ストロベリーがAGIにつながる画期的な進歩であるかどうかは疑わしい。私は、AGIが人類にとって脅威となるとは思わない。しかしながら、プロジェクト・ストロベリーが一般的な推論能力を持つAIの開発に向けた大きな一歩となる可能性はある。

重要なのは、知能は人間であれ人工であれ、連続体として存在することを認識することだ。

人間の推論能力がIQなどの要因によって異なるように、AIシステムも設計や訓練によって能力のレベルが異なる。多くの産業や専門的な用途では、現在のAIシステムはすでにAGIのような能力を発揮しており、データ分析、パターン認識、論理的推論を伴う特定のタスクでは、ほとんどの人間を凌駕している。

しかしながら、一般的な推論、常識、創造性、感情的知性といった分野では、依然として人間が優位を保っている。AIがもっているかもしれない真の変革的潜在能力を解き放つ鍵は、AIと人間の知性を競わせることではなく、それらを組み合わせることにある。


この記事は Generative AIに掲載されたものです。LinkedInZeniteqもフォローして、AIに関する最新情報を入手しよう。

ニュースレターYouTubeチャンネルに登録して、生成AIに関する最新ニュースとアップデートを入手しよう。AIの未来を一緒に形作っていこう!


原文
『OpenAI Introduces “Project Strawberry”』

著者
ジム・クライブ・モンジュ(Jim Clyde Monge)

翻訳
吉本 幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1、生成AIパスポート、JDLA Generative AI Test 2023 #2取得)

編集
おざけん

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

倫理と安全性を重視し、Claudeで世界を席巻|Anthropic

あなたにおすすめの記事

倫理と安全性を重視し、Claudeで世界を席巻|Anthropic