HOME/ AINOW編集部 /サム・アルトマンとレックス・フリードマンがAIについて話す
2023.05.10

サム・アルトマンとレックス・フリードマンがAIについて話す

最終更新日:

著者のRichmond Alake氏はイギリス在住の機械学習アーキテクトであり、以前に紹介したAINOW翻訳記事『研究論文の読み方:機械学習実務者のための実用的アプローチ』の著者でもあります(同氏の詳細は同氏LinkedInページを参照)。同氏がMediumに投稿した記事『サム・アルトマンとレックス・フリードマンがAIについて話す』では、サム・アルトマンOpenAI CEOの対談が紹介されています。
マサチューセッツ工科大学でAIを研究するかたわらポッドキャストを運営するレックス・フリードマン氏は2023年3月26日、同氏とサム・アルトマンOpenAI CEOとの対談動画をYouTubeで公開しました。2時間半を超えるこの対談について、Alake氏はそのハイライトを以下のようにまとめています。

レックス・フリードマン氏とサム・アルトマン氏の対談のハイライト
  • 人類史に名を刻むAI:大規模言語モデルへの平易なアクセスを可能にしたChatGPTは、人類技術史における文字の発明などに並ぶような重要な出来事であった。
  • 人間の価値観を学習したGPT-4:GPT-4は、生成する回答が人間の価値観と合致するように人間のフィードバックを組み込んだ強化学習によって訓練された。その結果、同モデルの回答を人間の価値観に近づけられた
  • AI開発と安全性のバランス:AI開発の推進とAIの安全性の両立が重要。今後の課題として、偽情報の判別に取り組む。
  • AIの雇用に対する影響とその対処:AIは雇用や産業に対して、正負両面の大きな影響を与える。悪影響に対しては、社会制度を改革することで被害を緩和できる。
  • AI時代に必要な能力:GPT-4のような高度なAIが普及する未来においては、個人の批判的思考力こそが重要となる。

以上のように対談のハイライトをまとめたうえで、AIが普及すること自体は社会にポジティブな影響を与えるものも、同時にAIの安全性に関してはすべての立場の人々が議論に参加して取り組むべき、とAlake氏は述べています。

なお、以下の記事本文はRichmond Alake氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
以下の翻訳記事を作成するにあたっては、日本語の文章として読み易くするために、意訳やコンテクストを明確にするための補足を行っています。

レックス・フリードマン氏とOpenAI社CEOのサム・アルトマン氏の対談から注目すべき点を紹介。

はじめに

「これ(AI)は道具であり、生き物ではないということを説明し、教育することが本当に重要だと思う。」

― サム・アルトマン

毎週面白い人と会話をする個人、レックス・フリードマン(Lex Fridman)と、毎秒数百万人の人間と会話するAIを開発したOpenAIのCEO、サム・アルトマン(Sam Altman)。

レックス・フリードマン・ポッドキャストの最近のエピソードで、OpenAIのCEOであるサム・アルトマンは、AIの現在の状況、GPT-4、AIアライメント、AIの安全性、人間のフィードバックによるAI改善の反復プロセス、AGI汎用人工知能)など、多くの関連テーマについてじっくりと話した。

対談は2時間以上にわたって行われたが、この10年で最も重要な企業であると言っても過言ではないCEOの頭の中を垣間見れる。この記事では、この対談の主なハイライトを探り、議論されたトピックとリスナーにとっての重要なポイントを簡単に要約する。もちろん、ここで紹介する情報は、ポッドキャストの全編を聴く必要性を代替するものではないので、この記事は対談動画の予告編として使って頂きたい。

大いなる知性の萌芽、人類社会への影響、そしてこの大いなる知性を安全に開発し人間性を導入する方法について、2人の頭脳が議論した。

サム・アルトマンがレックス・フリードマン・ポッドキャストに登場

・・・

GPT-4とその進化

人工知能(AI)はメディア、投資家、そして一般人からも新たな関心を集めている。2012年のCNN(Convolutional Neural Network)の人気上昇から、Transformerで動作するニューラルネットワーク・アーキテクチャを搭載した高度なAIモデルまで、AI分野は短期間で大きく進歩した。

OpenAIのGPT-4は、LLM(Large Language Model:大規模言語モデル)や生成AIに支えられた、この新しい波の最前線にあるモデルの1つである。

サムとレックスの会話の焦点のひとつはGPT-4である。サムはGPT(Generative Pretrained Transformer)と、GPTの基礎となるLLMが持つ知識へのアクセスを可能にしたChatGPTのインターフェースの開発は、人類史において極めて重要な瞬間である、という意見を述べた。

「振り返れば、これ(GPT-3とChatGPT)こそがAIと言えるものだったのです」

― サム・アルトマン、レックス・フリードマン・ポッドキャストにおかる発言

🗣️著者(Richmond Alake)コメント

人類の歴史を振り返り、重要な瞬間を特定する時、私たちは人間の世界に対する見方や取り組み方が変わるような出来事に注目する。そうした瞬間には文字の発明、ルネサンス、産業革命、第一次・第二次世界大戦などがある。

そして今、そのリストにおそらく私たちはChatGPTがリリースされたというデータを意味する2022年11月30日という日付を加えられるだろう。私の個人的な意見だが、ChatGPTは必ずしも世界の見方を変えたわけではないが、うまく説明する言葉がないものも、(強いて言うならば)ChatGPTは生産性をウェブサイトにもたらした。


2007年6月に発売されたiPhoneは、パーソナルコンピューティングとテレコミュニケーションを一変させるデバイスとして、テクノロジーという観点から見た最近の人類史のなかで重要な出来事であった。ChatGPTのリリースは、これと同じようなインパクトを与えるかも知れない、あるいはすでに与えていると思われないだろうか。

・・・

人間のフィードバックの役割とAIシステムと人間の価値観との整合性

GPT-4ではより使いやすく、より安全にするために、新しいアライメント技術が取り入れられている。サムの説明によると、人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback:略して「RLHF」)とはLLMを訓練するために人間のフィードバックを得るシステムである。このプロセスでは、人間が2つの選択肢からクエリに最も適した応答を選ぶことで、ChatGPTの回答をより人間の価値観に近づけ、このAIが人間の意図を理解できる能力に向上させる(※訳註1)。

(※訳註1)RLHFの詳細については、AINOW特集記事『ChatGPTだけではない。大手テック企業による会話AI開発の最前線』の「人間が評価した報酬によって強化されたChatGPT」を参照のこと。同技術は、ChatGPTとGPT-4の両方の開発に活用された。

人間からの入力を取り入れることで、AIシステムは人間の価値観により合致し、より適切で正確な出力を生み出せるようになる。このような改善を繰り返すことで、GPT-4のようなAIモデルは、ユーザにとってますます役立つツールになる。

🗣️著者コメント

イノベーションのスピードは、今日、AIと人間の価値観との整合性について議論するのが必要なほど速い。この事態ははある人々にとってはエキサイティングな一方で、恐ろしいと思う人々もいる。私はどちらかというと「エキサイティング」派に寄っている。

昨年行われたAI の安全性に関する専門家Jeremie Harrisと私の興味深い対談を視聴してみてください。

・・・

安全性、透明性、継続的な改善のあいだのバランス

ここ数年ほどのあいだにOpenAIが純粋にオープンな非営利組織から、資本主義の一部を受け入れ、営利企業としての性格を強めてきたことを私たちは見てきた。そしてOpenAIは、モデルの開発や訓練の内部機構を公開しない運営へのシフトに対して批判を受けてきた(※訳註2)。サムは、このシフトがGPTとOpenAIの最先端モデルを推進する継続的な研究開発をサポートし、AI技術の進歩を保証すると説明している。

(※訳註2)OpenAIがクローズドなAI開発に転向した事情については、AINOW特集記事『GPT-4解説:その性能、応用事例、安全対策、そしてリスク評価を眺望』の「学習データとアーキテクチャは非公開」も参照のこと。

OpenAIが広範なAIコミュニティに対する最初の約束を覆すかのように方針を再検討したのに付随して、AIの急速な進歩、安全性への懸念、透明性の問題などのより一般的な問題がある。OpenAIは依然としてAIの安全性と透明性を確保することに専念しており、イノベーションと発見をより広いAIコミュニティと共有する方法を模索している、とサムは語っている。

生成AIの応用が一般的になる未来では、誤報や明らかな偽情報から真実を見分けることが、議論して取り組むべき妥当なトピックとなる。

サムの説明によると、正確な情報を提供することと検閲を避けることの適切なバランスを取ることが重要である。そしてOpenAIは、ユーザに情報源やAIが生成したコンテンツの論拠を理解してもらうことで、透明で説明責任のあるAIシステムの構築を目指している(※訳註3)。

(※訳註3)OpenAIのAIの安全性に対する取り組みは、同社公式ブログ記事『AIの安全性への取り組み』でまとめられている。その取り組みは、以下のような6項目から構成される。

OpenAIのAIの安全性に関する具体的な6つの施策
  • ますます安全なAIシステムの構築:新しいAIモデルをリリースする前には厳格なテストを実施するとともに、外部の専門家に意見を求める。GPT-4のテストには6カ月以上を費やした。
  • 実際の使用から学んでセーフガードを改善する:開発段階ですべての悪用事例を検証するのはほぼ不可能なので、実際にユーザに使ってもらうことを通じて、AIモデルの善用と悪用に関する知見を深め、悪用に対する対策を講じていく。
  • 子供をAIの悪用から守る:子供をAIの悪用から守るためにAIツールの利用を18歳以上、または保護者が承認済みの13歳以上に限定しており、認証オプションも検討中。
  • プライバシーを尊重する:学習データ中には個人情報が含まれているが、学習時には個人情報を削除している。
  • 事実関係の正確性の向上:事実とは異なる情報を生成する幻覚の減少に取り組むと同時に、幻覚が生じることをユーザに知ってもらう努力を続ける。
  • 継続的な研究とエンゲージメント:AIモデル開発におけるAIの能力と安全の両立を目標として継続的に研究すると同時に、AIの安全性に関してオープンな議論も続ける。

以上の取り組みのさらなる詳細は、上記ブログ記事を参照のこと。

・・・

AIがもたらす雇用と社会への影響

AIが雇用や社会全体に及ぼす潜在的な影響については、正当な懸念がある。サム・アルトマンはAIによる経済や政治の変革は可能だと考えているが、そうした変化に適応することの重要性を強調している。

サムが言及したことで私も同意しているのは、教育、リスキリング(※訳註4)、社会的セーフティネットに注力することで、AIが雇用に及ぼす悪影響を軽減し、より公平な未来を確保できるという意見だ。

(※訳註4)リスキリングとは、リクルートワークス研究所が定義するところによると「新しい職業に就くために、あるいは、今の職業で必要とされるスキルの大幅な変化に適応するために、必要なスキルを獲得する/させること」である。この概念はIT人材にのみ適用されるものと考えられがちだが、AI導入によって業務内容が変化する職種全般に当てはまるものである。

サムはAIが産業や雇用を変革する可能性に大きな影響を与えることを認めつつ、AIやAGIが多くの弊害をもたらす可能性があること、また、もたらすであろうことも指摘している。

OpenAIの一般的な目的はAIによって引き起こされようとしている一定のダメージを最小限に抑えつつ、AIツールの恩恵を最大化することであり、こうした取り組みが同社の目的を果たすカギとなる。そして、AIの恩恵を実現するには、優れたチームを雇用し、Microsoftとのようなパートナーシップを育み、より安全で有用なAI技術の開発に貢献することから始まる、とサムは述べている。

自立した思考と個人の幸福の重要性

「何が私に喜びをもたらすのか。何が私に幸福をもたらすのか」

2時間に及ぶ対談の終盤、サムはAIによって徐々に形作られる世界では、個人が独立して考え、個人の幸福と充実を優先しなければならないと述べたうえで、批判的思考を育み、本当に重要なことに集中することで、AI技術の課題とAIがもたらす機会をうまく扱える、とも指摘した。

結論

レックスとサムの会話は、以下のような時事的な話題にも触れている:

  • シリコンバレー銀行の破綻
  • FTXの崩壊
  • Microsoftのサティア・ナデラCEO
  • 運営組織からのプレッシャーへの対応
  • イーロン・マスク

全体として、GPT-4や同様のAIモデルを開発することは、人間の生産性や創造性に大きく貢献できる、と私は彼らの会話から感じた。しかし、AIの安全性と整合性、特にこれらのシステムを導入することによる社会的影響を測る際には、有意義な議論を行う必要がある。

AIやAGIをめぐる対話は、AI実務家、非技術者、政府関係者などのあいだで寛容に行われるべきである。

こうした会話では、誰もがAIの力を活用したり利用できたりする未来を確保するための重要な人間的価値を優先させるべきである。AIの規制はAIのイノベーションに追いつく必要があり、AIの進歩と規制のギャップは、規制当局がAIの影響を誤解してイノベーションを止めてしまうかも知れないほど大きくなっている。また、AI実務者は、社会からの圧力と期待がAIツールの開発を形成するうえで重要な役割を果たすことを認識しなければならない。

オープンな対話を行い、人間的価値を優先して協力することで、私たちはより良い、より公平な世界を創るためにAIの力を活用できる。今後もAIの可能性が追求され続けるのだが、グローバルなコミュニティが一丸となってAIの問題に取り組み、有意義な進歩を実現するだけの能力が私たち人類にはあると楽観視できるのではなかろうか。

お読み頂き、ありがとうございます。

・・・

記事の内容が参考になりましたら幸いです。

私とつながったり、この記事と似たようなコンテンツを探したりするには、次のようにしてください:

右記からMedium会員になることで、私の執筆を支援する
LinkedInで私とつながる
YouTubeチャンネルを登録する
ポッドキャストを購読する ApplePodcastsSpotifyAudible
私のニュースレターを受け取るためのメールリストに登録する


原文
『Sam Altman and Lex Fridman Talk AI』

著者
Richmond Alake

翻訳
吉本幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1取得)

編集
おざけん

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!

あなたにおすすめの記事

動画生成AI『Sora』とは|映像業界にとどまらないインパクトを解説

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!