HOME/ AINOW編集部 /ニューヨーク・タイムズ vs OpenAIは単なる法廷闘争ではない
2024.02.21

ニューヨーク・タイムズ vs OpenAIは単なる法廷闘争ではない

最終更新日:

スペイン在住のAI技術批評家アルベルト・ロメロ(Alberto Romero)氏がMediumに投稿した記事『ニューヨーク・タイムズ vs OpenAIは単なる法廷闘争ではない』では、ニューヨーク・タイムズ紙がOpenAIを著作権侵害で訴えた事案の意義を考察しています。
同紙の記事が許可なく生成AIの学習データに使われたとするこの訴訟に関して、ロメロ氏は3つのレイヤーがあると指摘したうえで、それぞれのレイヤーを以下のように説明しています。

ニューヨーク・タイムズ vs OpenAI訴訟の3つのレイヤー
  • 法的レイヤー:ニューヨーク・タイムズ紙が提出した訴状には、GPT-4が同紙記事をほぼ逐語的に出力する事例が掲載されていた。この事例は、著作権侵害の動かぬ証拠のように見える。
  • 技術的レイヤー:AI専門家によれば、LLMはインターネットの全情報を非可逆的に圧縮するJPEGのようなものであり、入力プロンプトによっては学習データの一部をほぼ正確に出力するのは想定内である。こうしたLLMの挙動に対して、司法は著作権に関する何らかの変更をもって対応すべき、とAI専門家たちは主張している。
  • 道徳的レイヤー:今回の訴訟における真の争点は、技術的進歩にはポジティブな側面とネガティブな側面の両方があり、人類の幸福増進のためにどの程度ネガティブな側面を許容するのか、という道徳的決断なのである。

以上のように述べたうえで、ロメロ氏自身はAIテクノロジーを無条件に許容するわけではなく、またネガティブな側面があるからといってそれらを全面的に拒否することにも反対しています。そして、AIテクノロジーに関する道徳的決断に目を向けることを訴えています。

なお、以下の記事本文はアルベルト・ロメロ氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
以下の翻訳記事を作成するにあたっては、日本語の文章として読み易くするために、意訳やコンテクストを明確にするための補足を行っています。

この複雑な対立には3つのレイヤーがあり、そのすべてを理解しなければならない

この記事は、AIと人間のギャップを埋めることを目的とした教育プロジェクト「The Algorithmic Bridge」からの抜粋である。すでに到来した未来をナビゲートする方法を一緒に学ぼう(新春キャンペーン:1/7まで30%オフ

・・・

もう2024年だ。新年の抱負や、悪い習慣に逆らってより良い習慣を築こうと新たに決意する一方で、過去の恨みを持ち越してしまったことによる窮状が際立ってくる(※訳注1)。しかし、持ち越された争いが単なる過去の恨みではなく、1週間前に始まった生死をかけた戦いであれば、それは積年の恨みのようには見えないだろう。

(※訳注1)原文記事は、2024年1月4日に公開された。

私が話している恨みとは、ニューヨーク・タイムズ紙(NYT)のOpenAIに対する訴訟のことだ。

このトピックについて知るべきことはすでにすべて知っていると思ってログオフしようとする読者に前もって言っておくが、この記事は法的な対立やNYTをめぐる争いの根底にある技術的な議論についてではない(それについては触れるが)。

私が話したいのは、一方を支持する人々から他方を支持する人々を ―おそらくは絶望的に― 隔てる、より深い根本的な意見の相違についてである。その相違とは、道徳と進歩の関係をめぐるものだ。

私はまだ自分の立ち位置がわからない。はっきりさせておきたいのだが、私はOpenAIが行っている行為(訴訟の概要)を知っているからといって、自動的に私がNYTを擁護する立場に立つわけではない。

このトピックは、多くの人が自発的に興味を持っている範囲よりも、もっと詳しく見る必要がある。この記事はそうした意図にもとづいて書いており、AI、私たち、そして私たちの未来にとってこれが何を意味するのかについて声を大にして考えている。

法的レイヤー:NYTだけではない。OpenAIだけではない。

この記事は、より広範に問題を俯瞰するものである。

NYTは、一連の文書で徹底的に説明された問題の影響を受けている唯一の被害者ではないし、OpenAIもMicrosoftも、NYTを動かすような行為に関与していると非難されている唯一の存在ではない。

2023年における生成AIの展望は、(オープンとクローズド両方の)大量の新しい研究開発と開発イニシアチブによって定義される。こうした展望と関連性と激しさの点で匹敵する唯一のトレンドとは、NYTがOpenAIに対して行ったのと同じような言葉で、それらのイニシアチブを糾弾する人々の数であろう。

また、糾弾の影響を受けるAIシステムは言語モデルだけではない。Midjourney(※訳注2)のような画像生成モデルやPika Labsのような動画生成モデルも一線を越えている可能性があることが、最近の(そして最近ではないものも含めて)調査で明らかになっている(このような例は他にもたくさんある)。

(※訳注2)アメリカ在住のコンセプトアーティストのレイド・サザン(Reid Southen)は、Midjourneyに6ワードのプロンプトを入力しただけで、映画『DUNE/デューン 砂の惑星』の1シーンを出力することを発見し、同モデルの著作権侵害の証拠となるとXにポストした。

レイド・サザンのポスト


AI企業がスポットライトを浴びるようになったのは、怪しげな合法行為の目新しさよりも、技術の急速な品質向上が悪行をより明白にしたためだ。生成AIをめぐる法廷闘争はしばらくのあいだ続いていたが、この1ヶ月で臨界点に達した。

NYTの訴訟は、何よりもラクダの背を折る藁となるだろう(※訳注3)。

(※訳注3)「ラクダの背を折る藁(わら)」とは、耐えられる限度を超える最後の問題が生じることを形容する英語表現。

以上のようなAI企業が抱える問題は一般的なものなのだが、この記事ではNYT対OpenAI(およびMicrosoft)のケースに焦点を当てる。そうするのは第一に最も顕著な例であり、誰もがこの件について話しているからであり、第二に、最も関連性のある例だからである。9月に書いたように、もし誰かが訴訟でOpenAIを潰せるとしたら、それはNYTなのだ。

私は法的なレイヤー(例えば、言語モデルのほぼ逐語的な出力が著作権侵害にあたるかどうか、Napster事件(※訳注4)が同等の判例となるかどうか等)を分析するつもりはない。主張の妥当性や強さ、潜在的な結果とその影響については、私よりもはるかに優れた他の人たちがコメントしている。興味があれば、セシリア・ジニティ(Cecilia Ziniti)(※訳注5)を読むことをお勧めする(もちろん訴状も)。

(※訳注4)Napster事件とは、音楽ファイル共有サービスのNapsterがアメリカレコード協会から著作権侵害で訴えられて敗訴した事件のこと。
(※訳注5)セシリア・ジニティとは、法務業務向けAIを提供するGC AIを創業した弁護士兼起業家。同氏は2023年末、NYTの訴状を精査したうえで自身の見解をXにポストしている。この訴状にはGPT-4がNYTの記事をほぼ逐語的にコピーしている証拠画像がされているのだが、こうした証拠をふまえて同氏はOpenAIにNYTとの和解をすすめている。

セシリア・ジニティのポスト


参考までに、NYTの訴状をざっと読んでみた。同紙が提供している例は、私の素人目にも説得力がある。著作権で保護されたテキストデータのほぼ逐語的なコピーをGPTモデルに出力させることに成功しているのには驚いた。私には、これがNYTの最も強力な主張のように感じられる。

GPT-4は新聞記事の逐語的コピーの生成などすべきではない-法的にも(私はコメントできないが)技術的にも。ChatGPT/GPT-4は著作権で保護されたデータをどこかに保存し、それが同意や帰属なしに容易にアクセスできるようにしているのだろうか。

私が代わりに注目したいのは、次のような部分である。AI業界外の人々によるAIへの批判に対する、AI業界人の法的ではない反論はどういうものなのか。

技術的なレイヤー:AIはどのように機能するのか?

(「重要でない」という意味ではなく、「目に見える」という意味での)最も表面的な法的レイヤーを含め、この会話が展開されているさらに2つのレイヤーも理解する必要がある。どちらもAI推進派が程度の差こそあれ利用している。

2つ目のレイヤーは技術的なもの、つまりGPTがボンネットの下でどのように機能するかというものだ。このレベルの議論が興味深いのは、一方では弁護士やジャーナリストが言語モデルの複雑な構造や機能の詳細に精通していないことが多いため、技術的には些末な反論に終始してしまうところである。

そしてもう一方では、AI推進派はこの知識のギャップを利用しているが、彼らのほとんどは、その見かけの自信に裏打ちされるほどテクノロジーを理解していない。理由は簡単だ。生成AIシステムは、AI推進派にとってもその大部分が不可解で、非常に斬新で、時には不気味なほど異質だからだ。

AI推進派が、言語モデルとは何かについて何も知らないわけではない。言語モデルが内部でどのように入力を処理して出力に変換するのか、正確には誰も知らないが、言語モデルに何が可能で何が不可能なのか、私たちはきちんと概念化できている。

私はフランソワ・ショレ(François Chollet)のこの説明が特に好きだ(※訳注6)。この説明を借用すると、次のようになる。非可逆圧縮器である言語モデルは、学習したデータをすべて保存できない。しかし、適切な入力が十分に忠実に描写された出力を生成する方法において、学習データのごく小さなサブセットを保存することを妨げるものは何もない。

(※訳注6)Google社員のフランソワ・ショレは2023年末、LLMが学習データを処理する仕組みをJPEGの非可逆的圧縮に喩えた説明をXにポストした。そして、圧縮されたデータからJPEG画像が復元できるように、LLMは学習データを復元できるように保存している、と述べた。

このような場合、NYTが示したように、出力はどう考えてもコピーである。つまり、盗作であり、著作権侵害の可能性がある。

ChatGPTは確かに「ウェブのぼやけたJPEG」(※訳注7)かも知れない。当然のことながら、ウェブの隅から隅まで同じようにぼやけているわけではない。学習データセットのある部分については、まったくぼやけていないかも知れない。もしそうであれば、ダニエル・ジェフリー氏(Daniel Jeffries)が指摘しているように、ウェブブラウジングや他の種類の検索拡張生成(RAG)メカニズムを使って、既存のテキストのほぼ逐語的なコピーを得る必要はなくなる(※訳注8)。

(※訳注7)SF作家のテッド・チャン(テッド・チャン)は2023年2月、LLMの仕組みを圧縮アルゴリズムの比喩で説明する記事をThe New Yorkerに投稿した。この比喩では、インターネットの全情報を個人用サーバに保存することが想定される。個人用サーバの容量は限られているので、インターネットの全情報を圧縮しなければならない。そして、圧縮した情報を復元する時、その圧縮が非可逆的圧縮であれば、正確な復元は不可能である。

以上の比喩におけるインターネットの全情報がLLMの学習データに該当し、復元処理がLLMの出力と見なせる。LLMは完全な復元ができないので、「ぼやけたJPEG」となる。

(※訳注8)作家のダニエル・ジェフリーは2023年末、NYTの訴状に関する考察をXにポストした。その考察によれば、同紙の記事を逐語的に出力したGPT-4の処理は、RAGを使わなければ実行できないもの、と指摘している。こうした通常ではない処理による出力を証拠としている今回の訴訟はナンセンスであり、OpenAIが和解してNYTにライセンス料を支払えば、悪い前例を作ることになる、と述べた。

新聞記事の逐語的コピー生成は、NYTの法的主張を支持する強力な技術的詳細である。(別の問題は、ユーザと企業のどちらに責任を負わせるべきかであり、この記事の焦点ではない。)

興味深いことに、AIの伝道師たちは、逐語的コピーの事例が著作権侵害の事例ではないと信じているわけではないように思われることだ(例えば、AIシステムがNYTの記事からインスピレーションを得ているだけだからであり、著作権侵害を訴えるのはAIの仕組みに対する誤解であり、著作権法に対する誤解でもある、とAI推進派は訴える)。

もし私の解釈が正しければ、彼らが真に主張しているのは、このようなケースに対応できるように法律を変えるべきだということである。そして、AIシステム、企業、あるいはユーザが被る可能性のあるその他の違法行為についても、裁判所がどのような判決を下そうと、そうした訴えに対応して法律を変えるべき、ということだ。

AI推進派が自分たちの意見に強く固執している理由は、私が思うに次のとおりである。彼らが既存の証拠に対して(法的にも技術的にも)弱いと思われるスタンスを維持せざるを得ない理由は、自分たちが法的に正しいとか、技術的に詳しいと信じているからではなく、何か別のことにある。もっと強力な何かだ。

AI推進派が拠り所にする思想は、この問題の第3の、そして最も深いレイヤーにつながる。これこそもっと報道陣が注目すべきものであり、私たちの真摯な考察に値するほど魅力的だと思うものである。

最後のレイヤー:進歩の道徳

このレイヤーは、道徳と進歩の複雑な関係に関する意見の相違に関係している。

AI専門家側が表明する法的・技術的な議論とは、議論の根底にある道徳と進歩の維持しがたい複雑さに踏み込むことを避けるためのものに過ぎない、と私には思える。そして、道徳と進歩の複雑さに言及するのは、最後の手段としてのみ用いるべきなのだ。

訴訟の根底にある道徳と進歩の問題は、おそらくNYT対OpenAIの戦いの重層的な性質が持つ最も重要な意味だ。つまり、この問題に関するAI専門家側の人々は、盗作や著作権侵害を単独で分析すれば問題ないと本気で考えているわけではない、と間違いなく結論できる。

それどころか、AI専門家たちにとっては、OpenAIや他のAI企業がやっていることは、それがたまたま、悲しいことに我々の文明を前進させることと引き換えに犠牲にしなければならない集団的価値であるからこそ、容認されるに過ぎないのだ。

この犠牲は、(AI技術が著作権侵害してしまうという悪と文明の進化と引き換えにAIの著作権侵害を容認するという悪という)2つの悪のうち、より小さいものなのだ。

もしAI専門家たちが私のような見解を述べないのであれば、そうした見解を主張するのが社会的に賢いやり方ではないからだ。法律用語(例えば、それはフェアユースだ)や技術用語(例えば、それはコピーではなくインスピレーションだ)で戦う方が簡単だ。しかし、進歩の道徳に関する相違こそが、真の対立点なのだ。法律は、私たちが人間や人類にとって道徳的であると考えるものを形式的に反映させるための道具にすぎない。進歩が法の変更を求めるのであれば、法律は変わらなければならないと彼らは言うだろう。

道徳的なレベルについて、以下ではより微妙に、しかしより明確に展開する。まず、NYT紙の側に立つ人々は以下のように言うだろう。

「OpenAIのやっていることは、違法かどうかを超えて、不道徳なことだ。というのも、陰湿で皮肉な言い方をすれば、この技術が存在する唯一の理由である多くのクリエイターの生活に損害を与えているからだ。」

対して、OpenAIに味方する人々はこう答える。

「実際、NYTこそが不道徳なのだ。なぜなら、自分たちの知的財産を守ろうと利己的に戦うことで、人類に大きな利益をもたらすイノベーションの発展を妨げているからだ。歴史が示しているように、テクノロジーの発展に逆らう者は間違っている傾向がある。」

以上がNYTとOpenAIの対立を解き明かすカギなのだ。そして、この対立はまったく単純なものではない。

歴史的なレンズは後者の見方を支持する。進歩、特にテクノロジーのおかげで起こる進歩は、幸福の向上の主な原因となってきた(※訳注9)。そして、テクノロジーのよる幸福の向上はわずかなものではない。その流れに逆らうのは悪い考えだ。

(※訳注9)認知心理学者のスティーブン・アーサー・ピンカーは2018年4月、TEDで『データで見ると、世界は良くなっているのか、悪くなっているのか?』と題したプレゼンで、現代が過去より良い時代であることをデータにもとづいて主張した。このプレゼンで言及されたデータには、以下のようなものがある。

ピンカーが挙げる世界がよくなっていることを示すデータ
  • 現在の平均寿命は70~80歳だが、250年前は子供の3人の1人が5歳まで生きられなかった。
  • 200年前は世界人口の90%が貧困に窮していたが、現在は10%に満たない。
  • 19世紀、ヨーロッパ諸国では週に60時間以上働いていたが、現在は40時間未満である。

しかし、同時代的なレンズ、つまり現在をそれ自体から見ることで、異なる認識が生まれる。技術的進歩に対する認識の相違は、進歩の列車が私たちの種を連れ去りながら、前進し続けるために必要なだけの個人や集団の価値を置き去りにしていく、というかなり悲しい光景に伴うものだ。

「物事とはそういうものだ。」と人々は言う。

「しかしそれは非人道的だ」と他の人々は言う。

残念ながら、どちらも正しい。

未来へのより良い移行を共に作る

技術的進歩には犠牲が伴うという考えが著作権問題でAIを擁護する人々の核心的な主張であり、おそらく他のすべての過去と未来の問題でも同様だろう。NYTが法的にも技術的にも正しいとしても、それは問題ではない。

私たちは、AI企業が全人類のために成し遂げようとしている進歩に障壁を設けるべきではない。

しかし、より洗練された分析を行えるだろう。テクノロジーによる進歩は幸福の向上をもたらすと言ったが、それは確かに正しい。しかし、別の疑問も生じる。すべてのテクノロジーは幸福を向上させるのか。すべてのテクノロジーは平等に幸福を向上させるのか。すべてのイノベーションは、それがイノベーションであるというだけで、批判を免れないのだろうか。

肯定的に答えるのは、マーク・アンドリーセン(Marc Andreessen)のような人々だ。彼はテクノ・オプティミスト宣言の中で、この視点を雄弁に擁護している。

「テクノロジーの容認は、その内容による」と考える人々は、私と同意見である。

もっと深い真実を見つけられるかどうか、考えてみよう。

テクノロジー、進歩、科学は文明の原動力であり、(あらゆる指標を鑑みても)過去200年間の幸福度の飛躍的な向上の主な理由であると私は信じている。

テクノロジーがなければ、私たちはもっと悪くなっていただろう。

それは後から考えれば明らかなことだが、現在進行形であるとそうでもない。何世紀もの間、テクノロジーによる変化への恐怖は不変だった。もし過去にタイムスリップすることができたなら、現状に対するほんの些細な挑戦に関する批判を見つけられるだろう。小説自転車テディベア(※訳注10)……これまでで最も無難で、最も便利で役に立つ発明に対する反発が見つかるだろう。それが人間だ。それはまた、我々の恥ずべき歴史の一部でもある。私たちは何度も何度も、恐怖心だけで動き出した進歩に不当に反対してきた。

(※訳注10)リンク先にあるウェブサイト『悲観主義者のアーカイブ(Pessimists Archive)』とは、テクノロジーに反発した人々の記録を残す目的で立ち上げられたもの。アーカイブのなかには、テディベアを「若い女性の母性本能の発達を台無しにし、私たちを恐ろしい運命へと導くもの」というものもある。

しかし、デフォルトですべてのテクノロジーに反対するのが間違いであるのと同様に、何が何でも盲目的にテクノロジーを受け入れるのも間違いだ。

この2つのスタンスのあいだに、私たちが着地するために努力すべき中間地点がある。多くのイノベーションは素晴らしいものも、不当に攻撃されている。同時に、すべてのイノベーションが社会にプラスの価値をもたらしているわけでもない(それが有益なものであることを証明するのに十分すぎる時間が与えられた後でさえも)。核兵器がなければ、私たちはより良い生活を送ることができたという非常に合意できる例がある(核エネルギーを操作する能力は別だが)。

任意の技術的進歩が有益と有害のスペクトラムのどこに当てはまるかを評価するのは難しいが、すべての技術が実質的に有益な側に属するため、そのようなスペクトラムは存在しないという見解を擁護するのは難しい。

テクノロジーのトレードオフについて考えるとき、ソーシャルメディアがよく頭に浮かぶ。その価値は否定できないが(私はSubstackで記事を書いている)、若者(特に10代の少女)に対するソーシャルメディアの影響に関するジョナサン・ヘイト(Jonathan Haidt)や他の研究者の徹底的な研究を読んだ後では、InstagramやTikTokが若者の精神的健康に与えているダメージを、私がSubstackで記事を書くことで埋め合わせられると主張するのは難しい。それらは同じプラットフォームではないが、同じアイデアにもとづいている。

以上のように考えると、ソーシャルメディアは文明にとって実質的にマイナスとしか言いようがない。その価値を否定はしないが、それが生み出す害に対しては対策が不十分だと考えられる。

進歩の道徳をほのめかすAI専門家の議論に対して、私が好きになれない理由は次の通りである。彼らは、まだそれほど価値があるとは証明されていない生成AIの仮定の利益を、それをよりポジティブなものにするために、私たちにできるどんな試みよりも優先しようとする(NYTがそれを望んでいるとは言っていないが)。私は、AIを殺そうという試みについて話しているのではなく(それは馬鹿げていると思う)、現時点で理にかなっている方法で、私たち全員を集合的により良くする試みについて話しているのだ。

OpenAIに、クリエイターが行った仕事に対して相応の報酬を支払うよう法の力で強制すべきなのだろうか。そうすれば、AIの進化は止まらないまでも遅くなるだろう。それとも不確実な未来をより早く実現するために、同社の行く手を阻むあらゆる制度的障壁を一掃させる方が良いのだろうか。

以上のような疑問を投げかけると、読者諸氏はこう言うかもしれない。OpenAIにクリエイターへの支払いを課すと、同社の技術がユーザにとってより高価な技術になってしまう。まさしくそうである。それでいいではないか。もしOpenAIがその余分なお金で、(所有者を恐れている部分だけではなく)モデルの学習に使用するすべての著作権が保護されたデータのライセンスを取得するのであれば、私は喜んでGPT-4に2倍のコストを支払うだろう。私は、(営利目的のクローズドなスタートアップになった今では)OpenAIのポケットマネーを最後の1セントまで増やすよりも、不安定なクリエイターにお金を回す方がいいと思っている。

AIの時代はやってくる、それは避けられない、とだけは言いたい。しかし、その避けられない未来への移行をどうするかが重要なのだ。私たちは決まった道を歩いているわけではない。人類は常に決断を下している。この決断は、私たちがコントロールできるものだ。そして、私たちが向かう未来を形作る決断でもある。

私たちは、進歩の道徳とその決断に大いに注意を払ったことなどない。ほとんどの人は変化に断固として反対するか、無条件に変化を求めて戦う。しかしAIに関しては、今度こそ、より良くすることを選べる。

もし何らかの適切な決断ができれば、同時代の人々の権利を守る上でも、子孫の健康を保証する上でも、私たちは先人たちよりも道徳的に優れていることになる。

私にとって、ある面で技術的進歩を切望しても、それと同じくらい重要な他の面で後退するのであれば、技術的進歩は道徳的に意味がないのだ。


原文
『The NYT vs OpenAI Is Not Just a Legal Battle』

著者
アルベルト・ロメロ(Alberto Romero)

翻訳
吉本幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1、生成AIパスポート、JDLA Generative AI Test 2023 #2取得)

編集
おざけん

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する

あなたにおすすめの記事

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!

「Yahoo!知恵袋」でも活用、LINEヤフーの生成AI活用戦略

あなたにおすすめの記事

基調講演だけではない。OpenAI、Microsoft、Metaもビジョンを語ったGTC2024セッションまとめ

ChatGPTもGeminiも忘れて、これらの(信じられない)次世代AIツールをチェックしてみよう!

「Yahoo!知恵袋」でも活用、LINEヤフーの生成AI活用戦略