最終更新日:
マサチューセッツ工科大学でAIを研究するかたわらポッドキャストを運営するレックス・フリードマン氏は2023年3月26日、同氏とサム・アルトマンOpenAI CEOとの対談動画をYouTubeで公開しました。2時間半を超えるこの対談について、Alake氏はそのハイライトを以下のようにまとめています。
レックス・フリードマン氏とサム・アルトマン氏の対談のハイライト
|
以上のように対談のハイライトをまとめたうえで、AIが普及すること自体は社会にポジティブな影響を与えるものも、同時にAIの安全性に関してはすべての立場の人々が議論に参加して取り組むべき、とAlake氏は述べています。
なお、以下の記事本文はRichmond Alake氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
以下の翻訳記事を作成するにあたっては、日本語の文章として読み易くするために、意訳やコンテクストを明確にするための補足を行っています。
目次
レックス・フリードマン氏とOpenAI社CEOのサム・アルトマン氏の対談から注目すべき点を紹介。
はじめに
「これ(AI)は道具であり、生き物ではないということを説明し、教育することが本当に重要だと思う。」
― サム・アルトマン
毎週面白い人と会話をする個人、レックス・フリードマン(Lex Fridman)と、毎秒数百万人の人間と会話するAIを開発したOpenAIのCEO、サム・アルトマン(Sam Altman)。
レックス・フリードマン・ポッドキャストの最近のエピソードで、OpenAIのCEOであるサム・アルトマンは、AIの現在の状況、GPT-4、AIアライメント、AIの安全性、人間のフィードバックによるAI改善の反復プロセス、AGI(汎用人工知能)など、多くの関連テーマについてじっくりと話した。
対談は2時間以上にわたって行われたが、この10年で最も重要な企業であると言っても過言ではないCEOの頭の中を垣間見れる。この記事では、この対談の主なハイライトを探り、議論されたトピックとリスナーにとっての重要なポイントを簡単に要約する。もちろん、ここで紹介する情報は、ポッドキャストの全編を聴く必要性を代替するものではないので、この記事は対談動画の予告編として使って頂きたい。
大いなる知性の萌芽、人類社会への影響、そしてこの大いなる知性を安全に開発し人間性を導入する方法について、2人の頭脳が議論した。
サム・アルトマンがレックス・フリードマン・ポッドキャストに登場
・・・
GPT-4とその進化
人工知能(AI)はメディア、投資家、そして一般人からも新たな関心を集めている。2012年のCNN(Convolutional Neural Network)の人気上昇から、Transformerで動作するニューラルネットワーク・アーキテクチャを搭載した高度なAIモデルまで、AI分野は短期間で大きく進歩した。
OpenAIのGPT-4は、LLM(Large Language Model:大規模言語モデル)や生成AIに支えられた、この新しい波の最前線にあるモデルの1つである。
サムとレックスの会話の焦点のひとつはGPT-4である。サムはGPT(Generative Pretrained Transformer)と、GPTの基礎となるLLMが持つ知識へのアクセスを可能にしたChatGPTのインターフェースの開発は、人類史において極めて重要な瞬間である、という意見を述べた。
「振り返れば、これ(GPT-3とChatGPT)こそがAIと言えるものだったのです」
― サム・アルトマン、レックス・フリードマン・ポッドキャストにおかる発言
人類の歴史を振り返り、重要な瞬間を特定する時、私たちは人間の世界に対する見方や取り組み方が変わるような出来事に注目する。そうした瞬間には文字の発明、ルネサンス、産業革命、第一次・第二次世界大戦などがある。
そして今、そのリストにおそらく私たちはChatGPTがリリースされたというデータを意味する2022年11月30日という日付を加えられるだろう。私の個人的な意見だが、ChatGPTは必ずしも世界の見方を変えたわけではないが、うまく説明する言葉がないものも、(強いて言うならば)ChatGPTは生産性をウェブサイトにもたらした。
2007年6月に発売されたiPhoneは、パーソナルコンピューティングとテレコミュニケーションを一変させるデバイスとして、テクノロジーという観点から見た最近の人類史のなかで重要な出来事であった。ChatGPTのリリースは、これと同じようなインパクトを与えるかも知れない、あるいはすでに与えていると思われないだろうか。
・・・
人間のフィードバックの役割とAIシステムと人間の価値観との整合性
GPT-4ではより使いやすく、より安全にするために、新しいアライメント技術が取り入れられている。サムの説明によると、人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback:略して「RLHF」)とはLLMを訓練するために人間のフィードバックを得るシステムである。このプロセスでは、人間が2つの選択肢からクエリに最も適した応答を選ぶことで、ChatGPTの回答をより人間の価値観に近づけ、このAIが人間の意図を理解できる能力に向上させる(※訳註1)。
人間からの入力を取り入れることで、AIシステムは人間の価値観により合致し、より適切で正確な出力を生み出せるようになる。このような改善を繰り返すことで、GPT-4のようなAIモデルは、ユーザにとってますます役立つツールになる。
イノベーションのスピードは、今日、AIと人間の価値観との整合性について議論するのが必要なほど速い。この事態ははある人々にとってはエキサイティングな一方で、恐ろしいと思う人々もいる。私はどちらかというと「エキサイティング」派に寄っている。
昨年行われたAI の安全性に関する専門家Jeremie Harrisと私の興味深い対談を視聴してみてください。
・・・
安全性、透明性、継続的な改善のあいだのバランス
ここ数年ほどのあいだにOpenAIが純粋にオープンな非営利組織から、資本主義の一部を受け入れ、営利企業としての性格を強めてきたことを私たちは見てきた。そしてOpenAIは、モデルの開発や訓練の内部機構を公開しない運営へのシフトに対して批判を受けてきた(※訳註2)。サムは、このシフトがGPTとOpenAIの最先端モデルを推進する継続的な研究開発をサポートし、AI技術の進歩を保証すると説明している。
OpenAIが広範なAIコミュニティに対する最初の約束を覆すかのように方針を再検討したのに付随して、AIの急速な進歩、安全性への懸念、透明性の問題などのより一般的な問題がある。OpenAIは依然としてAIの安全性と透明性を確保することに専念しており、イノベーションと発見をより広いAIコミュニティと共有する方法を模索している、とサムは語っている。
生成AIの応用が一般的になる未来では、誤報や明らかな偽情報から真実を見分けることが、議論して取り組むべき妥当なトピックとなる。
サムの説明によると、正確な情報を提供することと検閲を避けることの適切なバランスを取ることが重要である。そしてOpenAIは、ユーザに情報源やAIが生成したコンテンツの論拠を理解してもらうことで、透明で説明責任のあるAIシステムの構築を目指している(※訳註3)。
OpenAIのAIの安全性に関する具体的な6つの施策
|
以上の取り組みのさらなる詳細は、上記ブログ記事を参照のこと。
・・・
AIがもたらす雇用と社会への影響
AIが雇用や社会全体に及ぼす潜在的な影響については、正当な懸念がある。サム・アルトマンはAIによる経済や政治の変革は可能だと考えているが、そうした変化に適応することの重要性を強調している。
サムが言及したことで私も同意しているのは、教育、リスキリング(※訳註4)、社会的セーフティネットに注力することで、AIが雇用に及ぼす悪影響を軽減し、より公平な未来を確保できるという意見だ。
サムはAIが産業や雇用を変革する可能性に大きな影響を与えることを認めつつ、AIやAGIが多くの弊害をもたらす可能性があること、また、もたらすであろうことも指摘している。
OpenAIの一般的な目的はAIによって引き起こされようとしている一定のダメージを最小限に抑えつつ、AIツールの恩恵を最大化することであり、こうした取り組みが同社の目的を果たすカギとなる。そして、AIの恩恵を実現するには、優れたチームを雇用し、Microsoftとのようなパートナーシップを育み、より安全で有用なAI技術の開発に貢献することから始まる、とサムは述べている。
自立した思考と個人の幸福の重要性
「何が私に喜びをもたらすのか。何が私に幸福をもたらすのか」
2時間に及ぶ対談の終盤、サムはAIによって徐々に形作られる世界では、個人が独立して考え、個人の幸福と充実を優先しなければならないと述べたうえで、批判的思考を育み、本当に重要なことに集中することで、AI技術の課題とAIがもたらす機会をうまく扱える、とも指摘した。
結論
レックスとサムの会話は、以下のような時事的な話題にも触れている:
- シリコンバレー銀行の破綻
- FTXの崩壊
- Microsoftのサティア・ナデラCEO
- 運営組織からのプレッシャーへの対応
- イーロン・マスク
全体として、GPT-4や同様のAIモデルを開発することは、人間の生産性や創造性に大きく貢献できる、と私は彼らの会話から感じた。しかし、AIの安全性と整合性、特にこれらのシステムを導入することによる社会的影響を測る際には、有意義な議論を行う必要がある。
AIやAGIをめぐる対話は、AI実務家、非技術者、政府関係者などのあいだで寛容に行われるべきである。
こうした会話では、誰もがAIの力を活用したり利用できたりする未来を確保するための重要な人間的価値を優先させるべきである。AIの規制はAIのイノベーションに追いつく必要があり、AIの進歩と規制のギャップは、規制当局がAIの影響を誤解してイノベーションを止めてしまうかも知れないほど大きくなっている。また、AI実務者は、社会からの圧力と期待がAIツールの開発を形成するうえで重要な役割を果たすことを認識しなければならない。
オープンな対話を行い、人間的価値を優先して協力することで、私たちはより良い、より公平な世界を創るためにAIの力を活用できる。今後もAIの可能性が追求され続けるのだが、グローバルなコミュニティが一丸となってAIの問題に取り組み、有意義な進歩を実現するだけの能力が私たち人類にはあると楽観視できるのではなかろうか。
お読み頂き、ありがとうございます。
・・・
記事の内容が参考になりましたら幸いです。
私とつながったり、この記事と似たようなコンテンツを探したりするには、次のようにしてください:
右記からMedium会員になることで、私の執筆を支援する
LinkedInで私とつながる
YouTubeチャンネルを登録する
ポッドキャストを購読する ApplePodcasts|Spotify|Audible
私のニュースレターを受け取るためのメールリストに登録する
原文
『Sam Altman and Lex Fridman Talk AI』
著者
Richmond Alake
翻訳
吉本幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1取得)
編集
おざけん