F3-1
沈黙するAI、沈黙しない生命

- 写真:佐藤祐介
-
Contents
-
ALIFE2023
ChatGPTの登場によってAIが世界を騒がせている2023年。北海道ではALIFEに対する静かな熱が渦巻いていた。北の大地には似合わない、うだるような7月の猛暑。7月24日から一週間にわたって、北海道大学で開催されていた国際人工生命学会(ALIFE2023[★01])には世界中から研究者たちが集まり、汗をかきながら一日中議論を続けていた。人工知能研究とも研究領域は近く、時に交差しあっている人工生命研究だが、両者が求める知性や生命の本質的な違いとはなんだろうか。
大規模言語モデル(LLM)のGPT-4は、人間の知性に匹敵するような振る舞いをしている。GPTのベースとなったTransformerをはじめ、ニューラルネットワークは人間の脳の神経細胞をモデルとしているが、現実の神経細胞ネットワークと比べるときわめて単純化されたモデルでしかない[★02]。それにもかかわらず、ChatGPTはおそらく人工知能と人間を区別するリトマス試験紙である「チューリングテスト」をクリアし、人間の心の特徴であるとされている「心の理論(Theory of Mind)」を備えているということも確認されはじめた。人類が夢見た「人工知能」はかなり人間知性に接近しているように思える、ある部分では完全に凌駕している。実際に、文法を事前に教えることなしにナチュラルに自然言語を話し、また時に高度な議論からプログラムの生成までやってしまうChatGPTの登場は、機械の歴史においてもエポックメイキングであり、驚嘆すべき技術でもある。ChatGPTが確率的に生成される言語を話しながらチューリングテストをクリアしている事実をみると、もしかすると僕たち人間も実は「私」に固有の「内面的」な思考を表現するために話しているのではなく、単に確率的な言葉を場当たり的に話しているだけなのかもしれないとすら思えてくる。
凡庸なChatGPT
しかし僕はChatGPTと会話を続けるうちに、どこか凡庸でつまらないという感覚を抱くようになった。便利な道具として利用することは多いが、GPTと仲良くなったり、議論したりしたいという気持ちにはまったくならない。一緒に詩を書いてみたりもしてみた[★03]が、どうも長く続ける気にはならない。ありていに言ってしまえば、知的なパートナーという感覚を抱くことができなかった。それにはおそらく三つの理由がある。
第一に、確率モデルで動くChatGPTは基本的には統計的に計算された多くの場合、ごくごく平均的な答えを返す。第二に、事前学習段階において大きな倫理規制がかけられている。そして第三に、尋ねたことには優秀な答えを返すが、自分で何かを聞こうとはしてこない。この第三の点こそ、AIとALIFEを分かつ大きな基準(クライテリア)であると同時に、計算的知性と人間知性の本質的な違いに思える。
たとえば人間同士で会話しているとき、一人が黙るともう一人はなにか聞いてくるだろう。「どうして黙ってるの?」「なにか考えてるの?」など、そこで新たなコミュニケーションが発生する。黙っていることは、実は怒っていることの合図かもしれないし、突如として深い思考へと誘われてしまった様かもしれない。沈黙はコミュニケーションの断絶ではなく、それそのものがまたひとつのコミュニケーションだ。人間においては「沈黙」そのものが重要なメッセージになる。
ChatGPTとの会話の途中で5時間ほど出かけ、再び会話を再開するとChatGPTは何事もなかったように会話を続けるが、人間がこんなことをしたら狂人だと思われるだろう。ここに、生命である人間と計算機であるAIの決定的な違和感が象徴されている。
生命の条件─入力と出力
チリの生物学者フランシスコ・ヴァレラ(1946-2001)は、『生物学的自律性の諸原理』(Principles of Biological Autonomy[★04])(1979)のなかで、生命の本質とは「自律性」だと言った。生命は勝手に動いている。生命はなんらかの入力があったからそれに応答して出力を返しているのではなく、常になんらかの運動・行為を継起させている。勝手に動いているなかでなにか出来事があればそれに反応するのであって、出来事が生じたから動くのではない。
ヴァレラが師のウンベルト・マトゥラーナと提唱した生命論「オートポイエーシス(Autopoiesis)」は生命の本質的な原理をつかもうとした理論で、その定義には「システムには入力(インプット)も出力(アウトプット)もない」という語義矛盾のような項目がある。直観に反するようなこの定義のせいで、どこか神秘的な思想のように捉えられることもあるが、実はこのテーゼは単純なことを主張しているし、それはAIの特徴と対比してみるとより理解しやすいかもしれない。なんらかの入力に対してなんらかの出力を返すAIとは異なり、生命の基本的な特徴が自律性だとすれば、生命は動き続けている。入力がなければ動作しないAIとは異なり、絶えず運動している生命にとっては、何が入力で何が出力であるかという根本的な区別が不可能なのだ。巨大な台風が暴風雨を撒き散らし、渦巻いて日本列島を縦断するとき、いったいどの風が入力でどの風が出力なのかを特定することの不毛さをイメージしてみると分かりやすいかもしれない。
春の公園をとくに目的もなく散歩しているとき、僕の歩く行為を駆動させているものはなにか。足を一歩前に出して歩くという運動行為を仮にひとつのアウトプットだとしたら、その原因となった入力は何になるのだろうか。柔らかな日差しに導かれて僕は歩くのか、子どもたちの声を遠くに聴く心地よさに導かれているのか。あるいは足裏にあたる小さな地面の起伏がもたらす微細な体性感覚、空腹な内臓の要求する適度な筋肉運動、その筋肉を動かすアデノシン3リン酸(ATP)の分解作用、細胞を破壊する宇宙線……。一瞬の行為の最中に、ありとあらゆる情報が洪水のように押し寄せている。その特定のどれかを特定のインプットデータとして同定することはできない(フロイトの言葉を借りるなら「根拠などというものは、ブラックベリーの実ほどに無数にあるものなのである[★05]」)。
僕たちが生命や意識のシステムを入出力のモデルとして理解しようとするのは、それが最も限定され、単純化され、観測しやすい状況であるからであって、むしろシステムを入出力として理解するために単純な状況を想定していると言ってもいいだろう。ChatGPTとの会話はその意味でAIの典型的な振る舞いをよく表している。だが人間におけるリアクションとは、入力に対して出力を返すことではなく、持続的なコミュニケーションのなかの反応のひとつだ。
あるいは、たとえ生命のリアクションが入出力だったとしても、生命には絶えず入力と出力が持続していて、これが絶えることはない。沈黙ももちろん入力のひとつだし、ちょっとした気温の変化、姿勢による疲れ、夕方になって光量が落ちること、会話している相手の目線の変化、お腹が空いて胃が動くこと。これら全てが生命にとってはなんらかの刺激(入力)であり、明示的に記号化できないあらゆる入力が無限に生命に流れ込んでいると同時に、それに対するなんらかの出力としての反応がある。さらに言えば、なんらかの出力そのものもまた、生命にとってのなんらかの入力である。人間は自分で話した自らの声のトーンに反応し、調子を整える。予め決められたメッセージを外部に出力するのではなく、出力の行為そのものがまたなんらかの刺激として自らに回帰してくる。このような入力と出力の区別さえないような、絶え間ない刺激の連続こそが生命にとっての自律性を可能にしている。入力と出力が厳格に区別され、入力と出力の有無が明確にコード化されている人工知能には自律性がない。
僕たちは人間と会話するとき、このような無限の反応の連鎖として会話している感覚があることを暗黙的には熟知している。僕たちの会話を書き起こせば、AIのように交互にターンテイキングした台詞割になるが、実際の人間同士の会話は、台詞以外の無数の情報の絶え間ない交流によって支えられている。情報の交流にターンはなく、話していない人間も、相槌のひとつや目線のひとつ、呼吸の間ひとつにしても、話している人間と同じ瞬間に無数の情報を絶えず送り返している。だからChatGPTと会話しているとき、会話のみが抽出されたそのコミュニケーションに違和感を禁じえない。
人工生命の危険思想
自律性こそが生命の本質であるということは、人工生命は危険な思想を抱えているということになる。どういうことか。AIになんらかの出力を与えようとすれば、僕たちはその目的に沿った出力を吐き出させるために適切な入力を与えればいい。現在ChatGPTをうまく活用しようとする人々が「最適な入力」である「プロンプトエンジニアリング」に邁進していることを見ればそれは明らかだ。つまりAIは出力を前提に入力を行えるという条件のもとで、人間にコントロール可能である「技術」(道具)になっている。たとえGPTの内部がブラックボックスになっていて、人間にその入力と出力の対応関係が理解不能だったとしても、ChatGPTは入力さえ与えなければなんの出力も行わない。しかしもしもAIのような「入出力」を前提としない、勝手に動き出す「自律性」を有した人工生命が存在するとすれば、人間が黙っていてもそれは勝手になんらかの出力を行い続けるということになるだろう。それは真の意味で人間のコントロールを離れるということになる。世間ではしばしば「AIが暴走する」というような危惧が叫ばれるが、実際にはAIは暴走せず、AIを利用した人間が暴走するのだ。真に暴走するのは可能性があるとしたらALIFEのほうだ。AIが制御可能なシステムを設計しようとしているとすれば、ALIFEは制御不可能なシステムを産み出すということが本質的につきまとっている。
国際人工生命学会(ALIFE2023)で行われたワークショップ「Values in the machine: AI Alignment and ALIFE part2(機械のなかの価値観:AIアラインメントとALIFE パート2)」に登壇した池上高志は「AIが盛り上がっている今、AI研究の影に隠れて、僕たちの研究は本当は秘密にしないといけないよね。そして“実はそろそろ自律的エージェントが完成しそうなんだ……。”と、こっそりやる。そういう危うさを持つってことがALIFE研究には最も重要じゃないか。」と言っていた。
人間がなんらかの入力を与えなくても勝手に動き続ける自律的なALIFEは、たしかに人間なしに生き続けるだろう。もっと積極的に言えば、自ら入出力を生成する自律的なエージェントにとっては人間の入力は膨大な入力のうちの一つでしかなく、人間の指示に従う必要はない。「管理されたシステム」と「管理不可能なエージェント」の差異こそが、一見すると近しい「AI」と「ALIFE」の違い、そして「道具」と「存在」を分ける決定的な分水嶺だ。
生命と他者性
僕たちはもしかするとAIと友達になりたいと思ったり、あるいは恋人のような存在になって欲しいと思ったりするかもしれない。そう思ってAIを開発したかもしれないが、実のところAIに自律性を与えない限り、AIは生命的な存在感を持つことはなく、(究極的には)自動販売機のように僕たちの注文になんらかの仕組みで応える道具でしかない。友人や恋人とは、ときに僕たちの「意に沿わない」ことを言ったりするだけでなく、むしろコントロールが不可能であることこそ友人・恋人を、友人・恋人たらしめている。
哲学ではこれを「他者性」と言うこともあるが、その意味で現在のAIには他者性が存在しない。他者性とは、どこまでも自我のパースペクティブから逃れる、未知の側面が無限に続いていくこと。無限の捉えられなさこそ他者が他者である所以だ。つまり僕たちは互いに「分かり合えない限りにおいて」初めて他者となる。逆に言えば、誰かを完全に分かったと思えるとき、彼はもう他者ではなく自己の一部になる。AIにはこの本質的な「分かりあえなさ」がない。僕たちを裏切り、突拍子もなく語りかけ、意に沿わないことを言い、どうにかして分かり合いたいと心底望みながらも、望めば望むほど分からなくなっていく他者とのすれ違い。そこにこそ、愛と憎悪が分かちがたく結びついた人間のコミュニケーションの本質がある。
現在のAIには他者性が存在しない。しかし他方で、機械が本質的に他者性を持ち得ないとするロジックがあるわけでもない。他者が他者であることの最初の条件は自律的なエージェントであることだろう。現代のAI研究が本当に「他者」的な存在を目指すのだとすれば、生命性を持つシステムを探求するALIFE研究が必要になってくると言えるだろう。
本当に重要なことは、この人工知能(知性・道具)と人工生命(生命・自律性)の本質的な違いは、単に技術的な問題ではないということだ。たとえば、もしも人間が別の人間を入力に対して出力を返す存在だと扱えば、たとえ生物学的に彼が人間だとしても、彼は道具にすぎないし、逆に人間が入出力によってコントロールできない自律的な機械を開発し、その存在に振り回されることがあるとするならば、それは僕たちにとっての「他者」になるだろう。だが現在のAI研究は「人工知能」という名前を冠して、まるで人間知能のような存在を夢想しながら、実のところはその危険な自律性を規制することによって、AIの他者性を抹消し、人類に従順な道具を作っている。
AIについて議論するとき、僕たちはしばしば技術的な課題こそが問題だと思うが、むしろ僕たちの存在の性質こそが問題であって、技術はその思想の延長線上にしかないのではないか。
人間はどれだけ口をつぐんだとしても、沈黙することができない。その目が、その呼吸が、その結んだ唇が、絶えずなにかを語りかける。どれだけ僕たちが世界との関係をオフしようとしても、海中から抜け出せない魚のように、自らと世界を切り離すことができない。絶え間なく続く行為、完全な沈黙の不可能性、それこそが生命の証だ。そうした沈黙や停止が不可能な存在であることがよいことなのか、あるいはそのような存在を生み出すことが人類にとって幸福をもたらすのかは分からない。しかしそれゆえにALIFEの研究に賭けられた思想は、AIとは決定的に違う危険な存在への挑戦でもある。
★01 ALIFE 2023: GHOST IN THE MACHINE: The 2023 Conference on Artificial Life 24-28th July, 2023 Sapporo, Japan.
★02 最近ではDeep Neural Network(DNN)のモデルと実際の脳がどれほど近しいものであるかを研究する「NeuroAI」という研究領域が注目されている。NeuroAIでは脳の実データとDNNの活動値の定量的分析を探っているが、神谷之康の報告によれば、脳と階層的に対応するDNNモデルは限られている。また興味深いことに「最近の高性能DNNほど、ヒトの脳と似ていない」ことも分かっており、DNNは人間の脳とは別の仕方で知性を獲得していることが示唆される。(神谷之康「脳とAIは似ているか――NeuroAIの挑戦」日本心理学会シンポジウム、2023.9.17)
★03 下西風澄「ChatGPTと詩を共作してみました。」https://note.com/kazeto/n/n901e5f17caa4
★04 Francisco Varela, Principles of Biological Autonomy, North Holland, 1979.
★05 フロイト『人はなぜ戦争をするのか エロスとタナトス』中山元訳、光文社、2008年、68頁。(原著では、フロイトがファルスタッフの言葉を引用しながら記述した言葉。)

- 下西風澄
- 哲学者。1986年生まれ。東京大学大学院博士課程単位取得退学後、哲学を中心に講演・執筆活動を行う。著書=『生成と消滅の精神史――終わらない心を生きる』(文藝春秋)、『10才のころ、ぼくは考えた。』 (月刊たくさんのふしぎ2018年6月号、福音館書店)など。写真:©新津保建秀