最終更新日:
同紙の記事が許可なく生成AIの学習データに使われたとするこの訴訟に関して、ロメロ氏は3つのレイヤーがあると指摘したうえで、それぞれのレイヤーを以下のように説明しています。
ニューヨーク・タイムズ vs OpenAI訴訟の3つのレイヤー
|
以上のように述べたうえで、ロメロ氏自身はAIテクノロジーを無条件に許容するわけではなく、またネガティブな側面があるからといってそれらを全面的に拒否することにも反対しています。そして、AIテクノロジーに関する道徳的決断に目を向けることを訴えています。
なお、以下の記事本文はアルベルト・ロメロ氏に直接コンタクトをとり、翻訳許可を頂いたうえで翻訳したものです。また、翻訳記事の内容は同氏の見解であり、特定の国や地域ならびに組織や団体を代表するものではなく、翻訳者およびAINOW編集部の主義主張を表明したものでもありません。
以下の翻訳記事を作成するにあたっては、日本語の文章として読み易くするために、意訳やコンテクストを明確にするための補足を行っています。
目次
この複雑な対立には3つのレイヤーがあり、そのすべてを理解しなければならない
この記事は、AIと人間のギャップを埋めることを目的とした教育プロジェクト「The Algorithmic Bridge」からの抜粋である。すでに到来した未来をナビゲートする方法を一緒に学ぼう(新春キャンペーン:1/7まで30%オフ)
・・・
もう2024年だ。新年の抱負や、悪い習慣に逆らってより良い習慣を築こうと新たに決意する一方で、過去の恨みを持ち越してしまったことによる窮状が際立ってくる(※訳注1)。しかし、持ち越された争いが単なる過去の恨みではなく、1週間前に始まった生死をかけた戦いであれば、それは積年の恨みのようには見えないだろう。
私が話している恨みとは、ニューヨーク・タイムズ紙(NYT)のOpenAIに対する訴訟のことだ。
このトピックについて知るべきことはすでにすべて知っていると思ってログオフしようとする読者に前もって言っておくが、この記事は法的な対立やNYTをめぐる争いの根底にある技術的な議論についてではない(それについては触れるが)。
私が話したいのは、一方を支持する人々から他方を支持する人々を ―おそらくは絶望的に― 隔てる、より深い根本的な意見の相違についてである。その相違とは、道徳と進歩の関係をめぐるものだ。
私はまだ自分の立ち位置がわからない。はっきりさせておきたいのだが、私はOpenAIが行っている行為(訴訟の概要)を知っているからといって、自動的に私がNYTを擁護する立場に立つわけではない。
このトピックは、多くの人が自発的に興味を持っている範囲よりも、もっと詳しく見る必要がある。この記事はそうした意図にもとづいて書いており、AI、私たち、そして私たちの未来にとってこれが何を意味するのかについて声を大にして考えている。
法的レイヤー:NYTだけではない。OpenAIだけではない。
この記事は、より広範に問題を俯瞰するものである。
NYTは、一連の文書で徹底的に説明された問題の影響を受けている唯一の被害者ではないし、OpenAIもMicrosoftも、NYTを動かすような行為に関与していると非難されている唯一の存在ではない。
2023年における生成AIの展望は、(オープンとクローズド両方の)大量の新しい研究開発と開発イニシアチブによって定義される。こうした展望と関連性と激しさの点で匹敵する唯一のトレンドとは、NYTがOpenAIに対して行ったのと同じような言葉で、それらのイニシアチブを糾弾する人々の数であろう。
また、糾弾の影響を受けるAIシステムは言語モデルだけではない。Midjourney(※訳注2)のような画像生成モデルやPika Labsのような動画生成モデルも一線を越えている可能性があることが、最近の(そして最近ではないものも含めて)調査で明らかになっている(このような例は他にもたくさんある)。
レイド・サザンのポスト
I consider this a smoking gun for Midjourney's flagrant copyright infringement. A 6-word prompt can replicate a Dune still nearly 1:1 every time. These aren't variations, it's the same prompt run repeatedly.
Try it yourself. Merry Christmas Midjourney. pic.twitter.com/2wpeTwxS0Q
— Reid Southen (@Rahll) December 24, 2023
AI企業がスポットライトを浴びるようになったのは、怪しげな合法行為の目新しさよりも、技術の急速な品質向上が悪行をより明白にしたためだ。生成AIをめぐる法廷闘争はしばらくのあいだ続いていたが、この1ヶ月で臨界点に達した。
NYTの訴訟は、何よりもラクダの背を折る藁となるだろう(※訳注3)。
以上のようなAI企業が抱える問題は一般的なものなのだが、この記事ではNYT対OpenAI(およびMicrosoft)のケースに焦点を当てる。そうするのは第一に最も顕著な例であり、誰もがこの件について話しているからであり、第二に、最も関連性のある例だからである。9月に書いたように、もし誰かが訴訟でOpenAIを潰せるとしたら、それはNYTなのだ。
私は法的なレイヤー(例えば、言語モデルのほぼ逐語的な出力が著作権侵害にあたるかどうか、Napster事件(※訳注4)が同等の判例となるかどうか等)を分析するつもりはない。主張の妥当性や強さ、潜在的な結果とその影響については、私よりもはるかに優れた他の人たちがコメントしている。興味があれば、セシリア・ジニティ(Cecilia Ziniti)(※訳注5)を読むことをお勧めする(もちろん訴状も)。
セシリア・ジニティのポスト
2/ The visual evidence of copying in the complaint is stark. Copied text in red, new GPT words in black—a contrast designed to sway a jury. See Exhibit J here.
My take? OpenAI can't really defend this practice without some heavy changes to the instructions and a whole lot of… pic.twitter.com/c15glvBNqd
— Cecilia Ziniti (@CeciliaZin) December 27, 2023
参考までに、NYTの訴状をざっと読んでみた。同紙が提供している例は、私の素人目にも説得力がある。著作権で保護されたテキストデータのほぼ逐語的なコピーをGPTモデルに出力させることに成功しているのには驚いた。私には、これがNYTの最も強力な主張のように感じられる。
GPT-4は新聞記事の逐語的コピーの生成などすべきではない-法的にも(私はコメントできないが)技術的にも。ChatGPT/GPT-4は著作権で保護されたデータをどこかに保存し、それが同意や帰属なしに容易にアクセスできるようにしているのだろうか。
私が代わりに注目したいのは、次のような部分である。AI業界外の人々によるAIへの批判に対する、AI業界人の法的ではない反論はどういうものなのか。
技術的なレイヤー:AIはどのように機能するのか?
(「重要でない」という意味ではなく、「目に見える」という意味での)最も表面的な法的レイヤーを含め、この会話が展開されているさらに2つのレイヤーも理解する必要がある。どちらもAI推進派が程度の差こそあれ利用している。
2つ目のレイヤーは技術的なもの、つまりGPTがボンネットの下でどのように機能するかというものだ。このレベルの議論が興味深いのは、一方では弁護士やジャーナリストが言語モデルの複雑な構造や機能の詳細に精通していないことが多いため、技術的には些末な反論に終始してしまうところである。
そしてもう一方では、AI推進派はこの知識のギャップを利用しているが、彼らのほとんどは、その見かけの自信に裏打ちされるほどテクノロジーを理解していない。理由は簡単だ。生成AIシステムは、AI推進派にとってもその大部分が不可解で、非常に斬新で、時には不気味なほど異質だからだ。
AI推進派が、言語モデルとは何かについて何も知らないわけではない。言語モデルが内部でどのように入力を処理して出力に変換するのか、正確には誰も知らないが、言語モデルに何が可能で何が不可能なのか、私たちはきちんと概念化できている。
私はフランソワ・ショレ(François Chollet)のこの説明が特に好きだ(※訳注6)。この説明を借用すると、次のようになる。非可逆圧縮器である言語モデルは、学習したデータをすべて保存できない。しかし、適切な入力が十分に忠実に描写された出力を生成する方法において、学習データのごく小さなサブセットを保存することを妨げるものは何もない。
このような場合、NYTが示したように、出力はどう考えてもコピーである。つまり、盗作であり、著作権侵害の可能性がある。
ChatGPTは確かに「ウェブのぼやけたJPEG」(※訳注7)かも知れない。当然のことながら、ウェブの隅から隅まで同じようにぼやけているわけではない。学習データセットのある部分については、まったくぼやけていないかも知れない。もしそうであれば、ダニエル・ジェフリー氏(Daniel Jeffries)が指摘しているように、ウェブブラウジングや他の種類の検索拡張生成(RAG)メカニズムを使って、既存のテキストのほぼ逐語的なコピーを得る必要はなくなる(※訳注8)。
以上の比喩におけるインターネットの全情報がLLMの学習データに該当し、復元処理がLLMの出力と見なせる。LLMは完全な復元ができないので、「ぼやけたJPEG」となる。
新聞記事の逐語的コピー生成は、NYTの法的主張を支持する強力な技術的詳細である。(別の問題は、ユーザと企業のどちらに責任を負わせるべきかであり、この記事の焦点ではない。)
興味深いことに、AIの伝道師たちは、逐語的コピーの事例が著作権侵害の事例ではないと信じているわけではないように思われることだ(例えば、AIシステムがNYTの記事からインスピレーションを得ているだけだからであり、著作権侵害を訴えるのはAIの仕組みに対する誤解であり、著作権法に対する誤解でもある、とAI推進派は訴える)。
もし私の解釈が正しければ、彼らが真に主張しているのは、このようなケースに対応できるように法律を変えるべきだということである。そして、AIシステム、企業、あるいはユーザが被る可能性のあるその他の違法行為についても、裁判所がどのような判決を下そうと、そうした訴えに対応して法律を変えるべき、ということだ。
AI推進派が自分たちの意見に強く固執している理由は、私が思うに次のとおりである。彼らが既存の証拠に対して(法的にも技術的にも)弱いと思われるスタンスを維持せざるを得ない理由は、自分たちが法的に正しいとか、技術的に詳しいと信じているからではなく、何か別のことにある。もっと強力な何かだ。
AI推進派が拠り所にする思想は、この問題の第3の、そして最も深いレイヤーにつながる。これこそもっと報道陣が注目すべきものであり、私たちの真摯な考察に値するほど魅力的だと思うものである。
最後のレイヤー:進歩の道徳
このレイヤーは、道徳と進歩の複雑な関係に関する意見の相違に関係している。
AI専門家側が表明する法的・技術的な議論とは、議論の根底にある道徳と進歩の維持しがたい複雑さに踏み込むことを避けるためのものに過ぎない、と私には思える。そして、道徳と進歩の複雑さに言及するのは、最後の手段としてのみ用いるべきなのだ。
訴訟の根底にある道徳と進歩の問題は、おそらくNYT対OpenAIの戦いの重層的な性質が持つ最も重要な意味だ。つまり、この問題に関するAI専門家側の人々は、盗作や著作権侵害を単独で分析すれば問題ないと本気で考えているわけではない、と間違いなく結論できる。
それどころか、AI専門家たちにとっては、OpenAIや他のAI企業がやっていることは、それがたまたま、悲しいことに我々の文明を前進させることと引き換えに犠牲にしなければならない集団的価値であるからこそ、容認されるに過ぎないのだ。
この犠牲は、(AI技術が著作権侵害してしまうという悪と文明の進化と引き換えにAIの著作権侵害を容認するという悪という)2つの悪のうち、より小さいものなのだ。
もしAI専門家たちが私のような見解を述べないのであれば、そうした見解を主張するのが社会的に賢いやり方ではないからだ。法律用語(例えば、それはフェアユースだ)や技術用語(例えば、それはコピーではなくインスピレーションだ)で戦う方が簡単だ。しかし、進歩の道徳に関する相違こそが、真の対立点なのだ。法律は、私たちが人間や人類にとって道徳的であると考えるものを形式的に反映させるための道具にすぎない。進歩が法の変更を求めるのであれば、法律は変わらなければならないと彼らは言うだろう。
道徳的なレベルについて、以下ではより微妙に、しかしより明確に展開する。まず、NYT紙の側に立つ人々は以下のように言うだろう。
「OpenAIのやっていることは、違法かどうかを超えて、不道徳なことだ。というのも、陰湿で皮肉な言い方をすれば、この技術が存在する唯一の理由である多くのクリエイターの生活に損害を与えているからだ。」
対して、OpenAIに味方する人々はこう答える。
「実際、NYTこそが不道徳なのだ。なぜなら、自分たちの知的財産を守ろうと利己的に戦うことで、人類に大きな利益をもたらすイノベーションの発展を妨げているからだ。歴史が示しているように、テクノロジーの発展に逆らう者は間違っている傾向がある。」
以上がNYTとOpenAIの対立を解き明かすカギなのだ。そして、この対立はまったく単純なものではない。
歴史的なレンズは後者の見方を支持する。進歩、特にテクノロジーのおかげで起こる進歩は、幸福の向上の主な原因となってきた(※訳注9)。そして、テクノロジーのよる幸福の向上はわずかなものではない。その流れに逆らうのは悪い考えだ。
ピンカーが挙げる世界がよくなっていることを示すデータ
|
しかし、同時代的なレンズ、つまり現在をそれ自体から見ることで、異なる認識が生まれる。技術的進歩に対する認識の相違は、進歩の列車が私たちの種を連れ去りながら、前進し続けるために必要なだけの個人や集団の価値を置き去りにしていく、というかなり悲しい光景に伴うものだ。
「物事とはそういうものだ。」と人々は言う。
「しかしそれは非人道的だ」と他の人々は言う。
残念ながら、どちらも正しい。
未来へのより良い移行を共に作る
技術的進歩には犠牲が伴うという考えが著作権問題でAIを擁護する人々の核心的な主張であり、おそらく他のすべての過去と未来の問題でも同様だろう。NYTが法的にも技術的にも正しいとしても、それは問題ではない。
私たちは、AI企業が全人類のために成し遂げようとしている進歩に障壁を設けるべきではない。
しかし、より洗練された分析を行えるだろう。テクノロジーによる進歩は幸福の向上をもたらすと言ったが、それは確かに正しい。しかし、別の疑問も生じる。すべてのテクノロジーは幸福を向上させるのか。すべてのテクノロジーは平等に幸福を向上させるのか。すべてのイノベーションは、それがイノベーションであるというだけで、批判を免れないのだろうか。
肯定的に答えるのは、マーク・アンドリーセン(Marc Andreessen)のような人々だ。彼はテクノ・オプティミスト宣言の中で、この視点を雄弁に擁護している。
「テクノロジーの容認は、その内容による」と考える人々は、私と同意見である。
もっと深い真実を見つけられるかどうか、考えてみよう。
テクノロジー、進歩、科学は文明の原動力であり、(あらゆる指標を鑑みても)過去200年間の幸福度の飛躍的な向上の主な理由であると私は信じている。
テクノロジーがなければ、私たちはもっと悪くなっていただろう。
それは後から考えれば明らかなことだが、現在進行形であるとそうでもない。何世紀もの間、テクノロジーによる変化への恐怖は不変だった。もし過去にタイムスリップすることができたなら、現状に対するほんの些細な挑戦に関する批判を見つけられるだろう。小説、自転車、テディベア(※訳注10)……これまでで最も無難で、最も便利で役に立つ発明に対する反発が見つかるだろう。それが人間だ。それはまた、我々の恥ずべき歴史の一部でもある。私たちは何度も何度も、恐怖心だけで動き出した進歩に不当に反対してきた。
しかし、デフォルトですべてのテクノロジーに反対するのが間違いであるのと同様に、何が何でも盲目的にテクノロジーを受け入れるのも間違いだ。
この2つのスタンスのあいだに、私たちが着地するために努力すべき中間地点がある。多くのイノベーションは素晴らしいものも、不当に攻撃されている。同時に、すべてのイノベーションが社会にプラスの価値をもたらしているわけでもない(それが有益なものであることを証明するのに十分すぎる時間が与えられた後でさえも)。核兵器がなければ、私たちはより良い生活を送ることができたという非常に合意できる例がある(核エネルギーを操作する能力は別だが)。
任意の技術的進歩が有益と有害のスペクトラムのどこに当てはまるかを評価するのは難しいが、すべての技術が実質的に有益な側に属するため、そのようなスペクトラムは存在しないという見解を擁護するのは難しい。
テクノロジーのトレードオフについて考えるとき、ソーシャルメディアがよく頭に浮かぶ。その価値は否定できないが(私はSubstackで記事を書いている)、若者(特に10代の少女)に対するソーシャルメディアの影響に関するジョナサン・ヘイト(Jonathan Haidt)や他の研究者の徹底的な研究を読んだ後では、InstagramやTikTokが若者の精神的健康に与えているダメージを、私がSubstackで記事を書くことで埋め合わせられると主張するのは難しい。それらは同じプラットフォームではないが、同じアイデアにもとづいている。
以上のように考えると、ソーシャルメディアは文明にとって実質的にマイナスとしか言いようがない。その価値を否定はしないが、それが生み出す害に対しては対策が不十分だと考えられる。
進歩の道徳をほのめかすAI専門家の議論に対して、私が好きになれない理由は次の通りである。彼らは、まだそれほど価値があるとは証明されていない生成AIの仮定の利益を、それをよりポジティブなものにするために、私たちにできるどんな試みよりも優先しようとする(NYTがそれを望んでいるとは言っていないが)。私は、AIを殺そうという試みについて話しているのではなく(それは馬鹿げていると思う)、現時点で理にかなっている方法で、私たち全員を集合的により良くする試みについて話しているのだ。
OpenAIに、クリエイターが行った仕事に対して相応の報酬を支払うよう法の力で強制すべきなのだろうか。そうすれば、AIの進化は止まらないまでも遅くなるだろう。それとも不確実な未来をより早く実現するために、同社の行く手を阻むあらゆる制度的障壁を一掃させる方が良いのだろうか。
以上のような疑問を投げかけると、読者諸氏はこう言うかもしれない。OpenAIにクリエイターへの支払いを課すと、同社の技術がユーザにとってより高価な技術になってしまう。まさしくそうである。それでいいではないか。もしOpenAIがその余分なお金で、(所有者を恐れている部分だけではなく)モデルの学習に使用するすべての著作権が保護されたデータのライセンスを取得するのであれば、私は喜んでGPT-4に2倍のコストを支払うだろう。私は、(営利目的のクローズドなスタートアップになった今では)OpenAIのポケットマネーを最後の1セントまで増やすよりも、不安定なクリエイターにお金を回す方がいいと思っている。
AIの時代はやってくる、それは避けられない、とだけは言いたい。しかし、その避けられない未来への移行をどうするかが重要なのだ。私たちは決まった道を歩いているわけではない。人類は常に決断を下している。この決断は、私たちがコントロールできるものだ。そして、私たちが向かう未来を形作る決断でもある。
私たちは、進歩の道徳とその決断に大いに注意を払ったことなどない。ほとんどの人は変化に断固として反対するか、無条件に変化を求めて戦う。しかしAIに関しては、今度こそ、より良くすることを選べる。
もし何らかの適切な決断ができれば、同時代の人々の権利を守る上でも、子孫の健康を保証する上でも、私たちは先人たちよりも道徳的に優れていることになる。
私にとって、ある面で技術的進歩を切望しても、それと同じくらい重要な他の面で後退するのであれば、技術的進歩は道徳的に意味がないのだ。
原文
『The NYT vs OpenAI Is Not Just a Legal Battle』
著者
アルベルト・ロメロ(Alberto Romero)
翻訳
吉本幸記(フリーライター、JDLA Deep Learning for GENERAL 2019 #1、生成AIパスポート、JDLA Generative AI Test 2023 #2取得)
編集
おざけん