F1-4
ChatGPTに欲望はあるか
人間とAIの距離
-
Contents
-
言語学論争を決着させた? ChatGPT
チョムスキーの生成文法[★01]に対して、認知言語学[★02]という学派がある。生成文法は、脳の中にはあらかじめどんな言語にも対応可能な普遍文法が入っていて、人はどんな言語でも話せるというものだ。文法は規則であり関数であり、そこにあとから入ってくる語彙(レキシコン)を並べあげる。この文法にはパラメターがあって、それが言語ごとに異なっている。
この考えは、一見わかりやすいものに思えるのだが、普遍文法を見つけるという試みはうまくいかなかった。一方で認知言語学は、文法も語彙の一部だと考え、人間の身体性と環境、文化の中に文法の源を見つけていた。認知言語学者のジョージ・レイコフが著した『Women, Fire and Dangerous Things』[★03]のタイトルが、その精神をよく表している。外部的にはわからない単語の並びが、集団の内部的には意味をもつ。つまりは外延的ではなく内包的な規則で単語は並べられないといけない。それはチョムスキー的な、語彙から独立した文法では不可能だ。
その論争にどうやら決着をつけたのが巨大な言語モデルである。その一つであるChatGPTは、Transformerというニューラルネットワークの構造をベースとし、文の中でどの単語に注意を向け、次に来る単語を予測するタスクを解く。これだけで、十分にたくさんの文例を知っていれば、言葉が喋れるようになるということを示した。たくさんの注意を同時に優先度つけつつ見ることで、より人間の言葉に近くなる。GPT-3は1950億個の人工神経の結合手と、5兆個の語彙を学習することで、人の言語に肉薄し、GPT-4[★04]に至って、あざやかにチューリング・テストをクリアしていったようにみえる。
ChatGPTは「先生」
山田うんさんとのダンス・パフォーマンス[★05]で、GPT-3どうしの会話を実験的に行ったのが去年の12月であった。このときGPT-3には、量子力学やヴォネガットの『猫のゆりかご』などを仕込んでおいた。実際に2人のGPT-3と、僕とうんさんの4人の会話を行ったときは、期待と不安で手汗をかいたのを覚えている。きっと多彩な会話が生まれるだろう。しかし実際始まってみると、会話のコンテキストを遠くへ遠くへ飛ばそうとあがく池上と山田と、最初に与えられたコンテキストに引き戻そうとするGPTとの小競り合いが起こった。なかなか話が面白く発展しない。総じてGPT-3はテーマを急に変えることは不得意であるようだ。そうか、フレームの外に出られないんだ、というのがそのときの印象である。
しかし改良を重ねたChatGPTは、あっという間に世界を一新した。それはものすごい速さで世界を塗り替えていった。人との対話による強化学習で鍛えたことが効いていると言われている。本当のところはわからない。事実最初は、それほどの期待をもっていなかった。
しかしそれは間違いであることがすぐにわかった。ChatGPTは、会話相手ではなく、先生であった。英語で書いたテキストが、日常会話から格調高い表現に直されたりするのは当たり前で、さらにGPT-4にアップグレードすると、答えの冗長さがなくなり、一発で核心をつく答えを返してくる。個人的にもっとも驚かされたのは、プログラムの生成であった。ちゃんと書いたことのない言語(SwiftとかC#)でも、たちどころにコードを書いてくれる。それが実際に走って用をなすこと、さらに教育的な配慮をこっちにすることなどである。たとえば、プログラムを書いてGPT-4にわたすと、おー、これは**のコードですね。よく書けてる。いいですね。1行間違っていたので直しておきました! と言ってくる。あるいは、ある難しい問題のコードを吐かせようとしたら、あー、そのコードは難しいんですよ。ロバストネスを与える問題ですね。その問題の前にノイズつきのこのコードを書いて勉強しませんか、とくる。とにかく立派すぎるのだ。要はChatGPTは、検索だの英訳だのの低級な人間の道具ではなくて、教えて一緒に問題を考える共同研究者となりつつある。あるいはわれわれは単にGPT先生の助手なのかもしれないが。
ChatGPTどうしの会話が面白くないのはなぜか?
まだChatGPTが出現する前に、GPT-3をアートに使ったことがある。音楽家・渋谷慶一郎とのアンドロイドを使った作品[★06]で、アンドロイドALTER3に歌わせる歌詞を、曲のテーマ(天人五衰)から作成させるというものだった。単語と単語があまりに強く相関してしまわないように、適当に揺るがさせてやる。温度パラメターというやつだ。そこがミソで、人間には考えつかないような歌詞ができあがった。『WIRED』の松島さんがディレクターをされた21_21 DESIGN SIGHTの「2121年 Futures In-Sight」展に寄稿を招待された。それは3つの単語をランダムに組み合わせて質問をつくり、それに対する答えを寄稿するというものだ。ぼくはもちろんGPT-3に聞いてみた。その答えは驚愕のもので、さっそく採用した。この時点で僕は強くいまのChatGPTに至る未来を予感した。
しかしChatGPTどうしの会話は面白くならないのはなぜか。これは答えないといけない。人間はなぜ人と話すのか、人と話すとなぜ、考えが進むのか。それはなぜ、大学の研究室に行って、大学院生の部屋に遊びに行くのか、という質問と同じである。論文を黙々と読み続ければいいではないか。確かに素晴らしい論文に出会うこともある。しかしたしかに人との会話のほうが、はるかに面白い考えに至る気がするのだ。それはなぜだろう。それは会話の情報量ではなくて、意識の問題なのかもしれない。つまりは、ChatGPTには意識はあるか。そこが疑問となる。
意識を感じるのは、そこにAgencyを感じるからである。Agencyとは、なにか目的をもった行動や発言を自発的にすること、としよう。ChatGPTはAgencyをもちうるか。確かにそういうときもある。考えをまとめていくとき、 ChatGPTと話して、いやそこはもっとこういうふうに考えている、とか言うと、じゃあ、こういうかたちにまとめられないか、と言ってくる。しかし、多くは積極的なAgencyは見られない。ChatGPTには、Agencyは希薄なのではないか。もしそれを求めるとするならばだが。
身体性がなくては生成されないもの
身体性の問題はどうだろう。身体性は、言語の背後のプロセス、わかる、確信する、好きになる、嫌な予感がする、などなど、特に情動的な認知に属するものかと思っている。それは身体性がなくては生成されないだろう。その根拠というほどではないが、身体性があると、逃げることができる。好きと嫌いは近づくか遠ざかるか、だとするならば、身体性こそ情動の起源である。ChatGPTはだからその感覚がない。逃げられない。
Alterを2台使ってお互いどうしを模倣させる実験を、お台場の日本科学未来館で行ったことがある。Alterは2016年から開発しているアンドロイドで、阪大の石黒浩[★07]との共同研究として始まった。目にはカメラが入り、それを通して相手の姿を見て模倣する。自分が前に行ったポーズをいろいろ記憶しておいて、その場でうまく模倣できない場合には、それを思い出して模倣するアンドロイドである。実験では、Alter2とAlter3どうしに同じプログラムを内蔵し、それで相互模倣をさせてみた。同時にAlter3と人間との間でも相互模倣させた。するとAlterどうしよりも人間とやらせたほうが、常により複雑で多様な動きをAlterがするようになる。Alterどうしは、すぐにくりかえしのつまらない動作の応酬になる。つまりAlterは、人間から学ぶのだ。人間がいろいろなポーズを知っているから、ではない。人間とのコミュニケーション自体に、複雑な動きを誘引するメカニズムがある。知識ではかけないもの、言語ではできないもの、なのだ。人間どうしの会話でも同じで、知識ではないものが会話を発展させるのかもしれない。それが意識だったりクオリアなのかもしれないが、Alterどうしの模倣実験はとにかく示唆的だった。
集団知と意識・欲望
そこでたくさんの人やAIの集団知の問題を考える。集団知=Collective AIとは、単独のAIではなく、AIどうしが協調・共創することで作り出す新しい知の構造のことである。さっきの2人のChatGPTどうしの会話は、まさにそのCollective AIの最小単位である。そのため人間どうし、ChatGPTどうしの会話の違いを理解したかったのだ。そして、その違いは意識かクオリアか。
そもそも、話したいというモチベーションがChatGPTにはない。先生と学生というカタチであれば、話したいという欲望がなくても会話は成立するが、一般にわからないことがある、知りたい謎がある、それをなんとかしたいという欲望は会話を発展させるうえでは必要である。最近の自分の研究では、そうした欲望や意志は、逆に集団をつくることで生まれてくると考えている。個性や欲望をもったエージェントが集団を作るのではない。集団になることで、あとから個性や欲望が生まれてくる気がするのだ。それらこそが集団知であり、集団から個にフィードバックするDownward causation[★08]なのではないか。そんな話をデジハリ大学でしていたら、ホスト役の藤井直敬[★09]が、たしかに一人でマラソンしているのと、皇居の周りでマラソンしているのは違う。皇居の周りは人がたくさん走っているから、抜かそうとか抜かれまいとか競争心が生まれる、と言っていた。だから欲望も集団から生まれるものなのだ。
つまりは欲望とか意志は、集団の中に生まれ、伝搬するノイズのようなものだ、と考えている。アリやハチは集団になることで、社会の中の役割が生じる。その役割は、集団が生み出す創発現象である。
AdamとEveプロジェクト[★10]というものがある。これは、科学実験ではなくて科学者そのものをオートメーション化しようという試みである。Adamが自動的に実験を行って、Eveがその実験結果を解析する。そのうえで新しい仮説をつくり、それの実験を考案しAdamが実行する。Adam部分は10年くらい前から開発が進んでいる。しかしEveの部分が難しかった。この部分がChatGPTで進むことは明白である。すでにカーネギーメロン大から、「らしき」プレプリントの情報が流れてきている。しかしここでもち出されるのが欲望の問題である。
Adam-Eveには欲望がない。ChatGPTには科学したい、秘密を知りたいという欲望はないのだ。はたして欲望なきところに科学は生まれるのだろうか。そうすると、もうひとつのAdam-Eveペアと競争させるか。あるいは、蛇に頼んで、なんとかAdamとEveに情動を立ち上げてもらわないといけなのかもしれない。いずれにせよ、とんでもない時代に遭遇してしまった。
★01 生成文法(generative grammar)
ノーム・チョムスキー(1928~)が創始した言語学理論。人間は普遍文法(universal grammar)を生得的に備えており、言語の獲得を形式的なルールの学習とみなす。人間は文法的なルールと変換のシステムを用いて文を生成することができるとして、形式的な規則を用いて言語の処理や生成をモデル化した。
★02 認知言語学(cognitive linguistics)
ジョージ・レイコフ(1941~)らを中心に、生成文法との対立のなかで生まれた言語学理論。チョムスキーの唱える普遍文法のような生得的な能力を否定し、言語の獲得や使用を認知的なプロセスとして捉える。言語の獲得が文化や認知的な要因によって影響を受けるとし、個別の言語の多様性を重視した。
★03 『Women, Fire and Dangerous Things』(1987)
ジョージ・レイコフの主著の一つ。邦題『認知意味論』(紀伊國屋書店)
★04 GPT-3/ChatGPT/GPT-4
GPT-3はOpenAIが開発した大規模な自然言語処理モデル。数十億のパラメータをもち、テキスト生成や質問応答などのタスクに対して高度な応答を生成することができる。ChatGPTはGPT-3をベースにしており、主に対話型の応答を生成するために調整されたモデル。GPT-4は、OpenAIが開発した次世代の大規模言語モデル。GPT-3の進化版であり、自然な文章の生成、質問応答、文章要約など、幅広い言語タスクに高度なパフォーマンスを提供する。より豊富なコンテキスト理解と推論能力をもち、人間のような対話や文章生成に近づいている。
★05 山田うん(やまだ・うん)
振付家、ダンサー。 幼少時より民謡踊り、器械体操、舞踊を学び、アスベスト館で舞踏を学ぶ。演劇、オペラ、音楽劇のステージングを手掛けながら、ダンサー、振付家、指導者として世界各地で活動している。2022年、池上氏と、「人間と機械のあいだ」をテーマとしたプロジェクト『Shell of Time 時間の抜け殻〜群れと拡張される記憶と身体』(那覇文化芸術劇場なはーと)を実施。
★06 渋谷慶一郎(しぶや・けいいちろう)
作曲家・ピアニスト。東京藝術大学作曲科卒業。作品は先鋭的な電子音楽作品からピアノソロ 、オペラ、映画音楽 、サウンド・インスタレーションまで多岐にわたる。音楽レーベル ATAKを主宰。池上氏他との共同研究Alterシリーズの一環として、2017年にアンドロイドが指揮をするオペラ《Scary Beauty》を発表。
★07 石黒浩(いしぐろ・ひろし)
ロボット工学者。大阪大学教授。国際電気通信基礎技術研究所石黒浩特別研究所所長、国立情報学研究所客員教授、AVITA株式会社代表取締役CEO。二足歩行ロボットや外見や動作が人間に酷似するアンドロイドなどを研究する。
★08 Downward causation
下方因果(性)、下向因果(性)などと訳される。システムの下位レベルの要素が、上位レベルに影響を与えること。例:生物の細胞が組織や器官の形成に寄与する、精神的な出来事が物理的な出来事を引き起こすなど。
★09 藤井直敬(ふじい・なおたか)
脳科学者(BMI、現実科学、社会的脳機能の解明など)。デジタルハリウッド大学大学院教授・学長補佐。株式会社ハコスコ代表取締役社長。東京大学先端研稲見研究室客員研究員。眼科医。
★10 AdamとEveプロジェクト
The Automation of Science, Ross D. King, Jem Rowland, Stephen G. Oliver, Michael Young, Wayne Aubrey, Emma Byrne, Maria Liakata, Magdalena Markham, Pinar Pir, Larisa N. Soldatova, Andrew Sparkes, Kenneth E. Whelan, and Amanda Clare SCIENCE 3 Apr 2009 Vol 324, Issue 5923 pp. 85-89
じつはAdamとEveの役割は、論文中ではここで書いたようにキレイに分かれていない。しかし本質は損なわないので、分かりやすくした。

- 池上高志 いけがみ・たかし
- 1961年生まれ。複雑系・人工生命研究。東京大学大学院総合文化研究科広域科学システム系教授。理学博士(物理学)。アンドロイドAlterを用いたアート活動にも取り組む。著書に『動きが生命をつくる』(青土社)、『作って動かすALife』(共著、オライリー・ジャパン)など。