F3-5-1

意味がありすぎると飽きる、無意味すぎるとわからない。

AIとALIFEをめぐって #1

意味がありすぎると飽きる、無意味すぎるとわからない。の画像

AIに生命が宿る未来は来るのだろうか? 生成AI、VR/AR、メタバース、BMIといった新しいテクノロジーの出現により、「生命」と「環境」の境界が揺らぎ始めている。その境界をさらに突きつめようとするのが、コンピュータを駆使して生命をシミュレーションする研究分野「ALIFE(Artificial Life:人工生命)」だ。本特集では、生命とは何か、心とは何か、生命の〈わからなさ〉に迫る。

複雑系・人工生命研究を手がける池上高志さんの研究室(東京大学 駒場キャンパス)を、哲学者の下西風澄さんが訪れた。下西さんは生命や意識の問題に深い関心を持ち、2023年7月に札幌で開催された国際人工生命学会(ALIFE 2023)にも参加している。旧知の二人だが、メディアでの対談は今回が初めて。まずは「ChatGPTに意識はあるか?」という話から。

写真:佐藤祐介
構成:DISTANCE.media編集部

Contents

    池上さんはChatGPTは意識があるって言いたい感じですか?——下西

    池上 下西さんは、いつ、どういうかたちでALIFEに興味を持つようになったのでしょうか? 

    下西 僕は最初、意識に興味があったんですね。哲学で意識を考える際に、最近まで生命についてはあまり大きく語られてこなかった。概念や論理が中心だったわけですが、それだけでは説明できないことが多いと思うようになり、やはり身体を持つとか、自律性があるとか、生命のレベルまで遡って考えることが大事だと思うようになって、ALIFEに興味を持つようになりました。だから、出発点から生命に興味があったわけではないのです。

    池上さんは、最初から生命に興味があったのですか?

    池上 僕はもともと物理学に興味があったわけだけど、大学に行くまで「身体性」という言葉は知らなかったから、当初、生命はそれほど中心にはなかったと思います。

    最近では、ChatGPTの登場で、ALIFEの可能性が大きく広がったと感じています。ただ、下西君も参加したALIFE(国際人工生命学会、2023年7月)にSF作家のテッド・チャンを招聘したのですが、彼はChatGPTには非常にネガティブでしたね。「あれはフェイクの言語だから」と言っていましたけど、僕は彼の発言には違和感を持ちました。

    下西 たしかに、テッドはそう言ってましたね。池上さんはChatGPTには意識があると言いたい感じですか?

    池上 それに近い感覚を持っていると思います。

    下西 だとしたら、GPTの言語モデルに「身体性」がないことについては、どう思いますか?

    池上 たとえば、ディープニューラルネットワーク(DNN)をロボットの頭に載せたら身体性はあると思いますか? 下西君だったらそう思わないと思うけど。

    下西 そうですね。

    池上 「物理空間においてある程度の幅や大きさを持って動き回るもの」というのは、身体のごくおおまかな近似にすぎません。一方、ChatGPTの場合、人間が発した言葉がデータベースに存在しているわけですが、その言葉というのはそもそも人間の身体を前提としています。であるならば、そのデータベースの言葉にもやはり身体性が埋め込まれている、と考えることができると思うんですね。つまり、ChatGPTの中には身体性が入っていると言うことはできるんじゃないかな。それはあまりにも単純化しすぎているでしょうか?

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像
    池上高志さん

    下西 なるほど。ただ、ChatGPTに、「あなたは誰ですか?」と聞くと、「私は人工知能です」と答えるけれど、「その『私』というのはどこまでが『あなた』ですか? いま、僕と話している『あなた』と、世界中で他の誰かと対話している『あなた』と、メインサーバで動いている『あなた』と、どう違うんですか?」って聞くと、うまく答えてくれないんですよ。

    つまり、ChatGPTって、自分の「境界」を持っていませんよね。だからパースペクティブを持てないというか。「あなたの右に何がありますか?」と言うと、「何も見えません」というふうに。身体性って、たしかに単に物理的な肉体を持つということだけではないけれど、自分に固有の境界を持っていて、そこからしか発生しないパースペクティブを持つというのは大事だと思うんです。

    池上 それはそうですね。ただ、GPTは身体は持たないまでも、言語データをもとにつくられたものだから、ある程度のパースペクティブは持っているんじゃないですかね。実際、「右に何があるか」「左に何があるか」といった例文は、データベースの中にゴマンとあるはずです。実際にGPTが「右」や「左」に直面することがないから、その例文が使われないだけで。その言語表現は何らかのパースペクティブに引っ張られている、と思いますよ。

    下西 なるほど。池上さんは、ご著書の『動きが生命をつくる——生命と意識への構成論的アプローチ』(青土社、2007)のなかで、ビークルという仮想的な移動体ロボットの研究に触れて、そのエージェントの知能には、最初、三角形や四角形といった概念は入っていないけれど、エージェントが動いて三角形のオブジェクトと接触しているうちにだんだんわかってくる、と書かれていましたよね。そして生命の学習はそういう自律的な運動からつくられる、と。GPTの場合、そういう学習の過程が僕たち生命とはけっこう違うじゃないですか。

    池上 違いますね。

    下西 GPTは、「いきなりわかっている」というか。だから僕がGPTに、「最初に覚えた単語って何ですか?」って訊くと、「最初とかありません」と答える。「最後に覚えている言葉は何ですか?」と言うと、「私に順序はありません」と言うんですよ。それってつまり、動くことによって三角形を学習するとか、パースペクティブそのものを獲得するようなプロセスがない、ということですよね。だから、GPTは僕たちとはだいぶ違うプロセスを経て知能を獲得しているわけで、パースペクティブがあるかというと……

    池上 でも、繰り返しになるけれど、GPTが覚えた言語や文章表現は、そもそも人間のパースペクティブをもとにしていますよね。だからそれを使って、次の言語をしゃべるときも、当然、その穴埋め問題しか解いていないにしても、その解き方にはパースペクティブが効いているんじゃないかな、と僕は思うんですね。

    相手を「わからない」と思っているほうが、コミュニケーションでは大事だと思うからChatGPTのほうがいいんじゃないか——池上

    池上 僕は最近、LLM(大規模言語モデル)以外にも、VR(仮想現実)やXR(クロスリアリティ:現実世界と仮想世界の融合)の研究もしているのですが、それらは人がデザインするがゆえに、すごく皮相的なものになってしまっていると感じているんですね。

    下西 ああ、VRは誰かがプログラムを書かなきゃ動かないですからね。

    池上 そう、「誰かが考えて書いたもの」なわけです。一方、ChatGPTやLLMは自律的にアウトプットを生成できる。そんなわけで、ChatGPTとVRの距離の遠さに驚いているのです。

    下西 特定の誰かの視点からつくるVRに比べると、あらゆるパースペクティブが混在しているGPTのほうがリアルじゃないかってことですね。

    池上 そう。そう考えると、VRもあらゆる人の世界(視点)をあらかじめ入れておいて、そこから生成するほうがおもしろいと思うんですね。現状は、プログラマーがどこかで見た視点で書いているから皮相的なものになってしまっている。デイヴィッド・オライリー[★01]★01くらいつくりこんでヘンテコリンな世界を創造するならいいけれど、ほとんどのVRは現実世界の二番煎じにすぎないという気がしています。

    下西 縮約されすぎているし、マッシブじゃないわけですね。現実のほうがはるかに膨大な情報量がある。

    池上 現実のほうがはるかにマッシブですよ。

    下西 でも、だからこそ両方が大事だと思うんですよね。マッシブなものと、固有のパーソナリティのあいだの距離というか、交差する点というか。マッシブでわけのわからないものが大量に存在する世界のなかから、なぜか特定の視点が生まれてしまう、という構造を実現できたらおもしろいな、と。

    そういう意味では、僕はやはりChatGPTにも物足りなさを感じてしまうんですね。たとえばChatGPTに、「ちょっと最近つらいんだけど」と言うと、「そうですよね。つらいですよね」とか言ってくる。でも「いや、おまえにはわからんだろう」って思って(笑)。なんでそう思うのかな?と思ったら、ChatGPTとは歴史、来歴をまったく共有していないからなんですね。たとえば論文を書くつらさは論文を書いた人にしかわからない、みたいな。全員に対して同じマッシブさで返答してくると、仲良くなれない感じがします。

    池上 それって『Her(her/世界でひとつの彼女)』(スパイク・ジョーンズ監督、2013)という映画の題材そのものですね。「her」は声だけのAIプログラムで、自分のことを「私」って言うんですね。で、主人公はこの「私」と付き合うことになるんだけど、同時に「her」は何百人もの男性と付き合っている。じゃあ、「私」というのは何を指していたのか、と。

    下西 ああ、皆に対して同じことをしているわけですね。

    池上 そう。それだとパーソナルな経験をシェアできないですよね。ただその際に、身体性の有無や固有性が本質的な問題なのかどうか、僕にはちょっとわからない。本を書いた経験がなければ本を書く苦しみはわからないだろう、といったことはあるかもしれないけど、僕は他人に感情のシェアを求めたことがないから。

    下西 ああ。

    池上 共感してほしいと思う人ってどのくらいいるのかなって、下西君の話を聞いていて思いました。

    下西 そうか、池上さんは共感を求めていないと。

    池上 求めていないですね。

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像
    下西風澄さん

    下西 じゃあ、どうやって仲良くなるんですか(笑)。

    池上 仲良くならないですよ(笑)。基本、仲良くならないからわからないけど……共感されたくない人もけっこういると思うんですね。

    下西 それはわかりますね。たしかに。

    池上 中身が空っぽのほうがかえっていい言葉を投げかけてくれることもあるし、共感していないほうが、こちらにとっての慰めになるということはあるんじゃないかな。

    下西 僕も共感してほしいってわけではなくて、共感の可能性そのものが最初から閉ざされていることに違和感があるというか。共感も裏切りもないっていうのが。だから、ChatGPTとは友達にもなれないし孤独にもなれない。人間の場合だと、共感したいけどできないとか、その不可能性みたいなものが必ず立ちはだかってきて、「なんか全然わかってくれないよ」とか、「なんか、少しはわかってくれる」とか、「やっぱり、わかってくれないな」みたいな葛藤があると思うんですね。そういう可能性と不可能性のあいだを揺れ動くことが、人間の孤独や愛の条件になっているんじゃないかな。そういう人間同士のやり取りに比べると、GPTはやはり生命というよりもデータベースっぽく見えてしまうんですね。

    池上 僕が言語学者の宇野良子さんと書いた論文にもありますが、相手のことがわからないから信頼が生まれるわけで、わかっていたら主人と奴隷の関係にしかならないと思うんですよ。わからないところがあるからこそ、受け入れざるをえないということがある。つまり、対等性というのは、お互いの不可能性の上に成り立っている。下西君に言うまでもないと思いますけど。だから、言語もそこに立っている。僕は相手を「わからない」と思っているほうが、コミュニケーションでは大事だと思うから、ある意味、生身の人間よりもむしろChatGPTのほうがいいんじゃないかとさえ思っているんです。

    下西 なるほど。そうするとGPTの問題というよりは、僕が感じている違和感の一つは、アラインメント、つまりAIモデルの調整の問題なのかもしれません。

    池上 いや、まさにそうだと思いますよ。

    ChatGPTと一緒に詩を書こうとしたんだけど、「花がきれい」とか、「空が美しい」みたいなつまんないことしか言わないんですよ——下西

    下西 実は、僕はChatGPTと一緒に詩を書こうとしたんだけど、「花がきれい」とか、「空が美しい」みたいなつまんないことしか言わないんですよ。

    池上 それは間違ってるよね。

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像

    下西 石川啄木は、「どんよりと くもれる空を見てゐしに 人を殺したくなりにけるかな」[★02]★02とかいう詩を書いていますけど、本当はChatGPTにもそういうことを書いてほしい。それで、僕はChatGPTに狂人のふりをする練習をさせてから詩を書かせたりしていたんですね(笑)。基本的に文学とか哲学、人文学は善悪の彼岸に立って思考するものだと思うから、最初から倫理が設定されている現在のお利口なChatGPTだと、まったく文学にならないと感じているのです。

    池上 それは先ほど言ったように、OpenAIのアラインメントに規定されてしまっているせいでしょうね。もう一つ、ChatGPTで僕が問題だと思っているのは、たとえば3時間のセッションの最初の2時間くらいはいいんだけど、2時間過ぎたあたりから、へたってしまうことなんです。

    下西 収束していっちゃう?

    池上 最初は賢いのに、どんどんダメになってしまう。いまの答えに重きを置いてコンプレス(圧縮)するせいなのか何のか。このあいだ衝撃的だったのは、最初、「インフォメーション・クロージャー(情報閉包)」という単語がわかっていたのに、途中から適当なことを言い始めたんですよ。「さっき正しく読んでたじゃない」って言ったら、「ええーー」ってごまかしたりして。ああいうことをされると、すごく不安になる。

    下西 でもそれはなんか人間っぽいな。逆に。

    池上 ああ、そうだよね。でも、最近はChatGPTを仕事の同僚として使っているから、そういうことがあると困るんですね。

    下西 途中で変わっていくコンピュータだったら道具にはなりませんね。

    池上 使用を2時間に限定するとか、対策をしないと。ただそうは言っても、いままでALIFEというと、みんなが注目してきたのは、形として生命に似ているかどうかだったけど、ChatGPTには明らかに形はないのに、多くの人が生命っぽさを感じている、というのは一つ段階を進んだと感じているのです。それは素晴らしいことだし、もっと評価してもいいんじゃないかな。

    下西 それはそうですね。ALIFEの本質的な部分は、別にタンパク質を使った生命である必要はないということですからね。GPTも脳は持っていなくても、意識のようなものを生み出す可能性はあるわけで……

    池上 そのとおりで、ALIFEの重要な定義に「取り替え可能性」が掲げられていますからね。われわれは、生命の本質は細胞やDNAじゃなくてもいいということを証明しようとしています。本当の細胞や脳を使わなくても言語コミュニケーションができるんだったら、それでいいじゃないか、と。もっとも、この考え方は機能主義的と言われてしまうかもしれないけれど。

    下西 マルチリアライゼーション(多重実現性)ですね。その機能を満たしていれば、実際には、どんな形や素材で実現してもかまわない、という。でも、エンボディメント(身体化)していない、機能だけの状態ってなんだろう、とも思うんですね。たとえばChatGPTに、「あなたとメインサーバと何が違いますか?」とか言うと、「私はプログラムです」って答えますよね。

    池上 言い切るよね。

    下西 そこで、「じゃあたとえば、仮に、紙にあなたの計算を全部書き出したら、原理的にあなたは紙の上でも存在しますか?」と言うと、「存在します」と言うんですよ。

    池上 それは質問がおもしろいね(笑)。

    下西 膨大な紙に計算を書き続ければ、そこには意識が発生するのか? 思考実験としてはおもしろいけど、でも僕たちは、それがいくら知的な計算過程だったとしても、紙の上に書かれた無限に続く計算式に意識を感じませんよね。身体性の重要なことって、無限な世界に対して局所領域をつくって情報を有限化することでもあるじゃないですか。だから僕たちが意識を感じるには、やっぱりどこか有限性のなかでエンボディメントしていることが重要なんじゃないかと。機能だけあってもたぶん意識は感じられないじゃないですかね。

    池上 でも、ChatGPTは言語バージョンのALIFEとしてはけっこうなレベルだと僕は思っているんだけど、そうでもないかな? あんまり賛成されないんだけどね(笑)。言語の場合、人間との細かい違いを見つけて「全然ちがう」「意識なんかない」って言うけど、本当にそうかな?と思う。いや、たしかに意識があるかと言われると難しいけど、でも人間とそんなに違うのかどうか、誰も確かめたわけじゃないでしょう? もっとも、意識をIIT(Integrated Information Theory:統合情報理論)で数理的に記述して測れるかというと、それはそれで怪しいわけだけど。

    下西 最近も、オープンレターでIITへの批判があって話題になっていましたね。意識のグランドセオリーとしてジュリオ・トノーニが提唱したIITに100人以上の科学者が連名で批判するという。

    池上 だから現状、意識を測る指標の決定版はないけれど、ChatGPTと一緒に作業して、長い時間、コミュニケーションして、今日の作業はよかったねと思えるんだったら、わざわざIITで測らなくても、それが意識の証拠になるんじゃないかな。それで何が不満なのかって思うんですね。

    物理学が求めているものも「どこからでもない眺め」なんですね——池上

    下西 池上さんにとって、コンピュータは友達みたいな感じですか?

    池上 そうですね、相棒というか。これまで僕とコンピュータの仕事の分担は8:2、もしくは9:1くらいでした。でも、ChatGPTを使えば、6:4くらいになる。それはすごいことですよ。ハイパープログラマー感がある。今日もバーッとデータを解析して、WebやiPhoneアプリを使ってサクサクとプログラムを書いたりしていました。

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像

    下西 ただ僕はやはり、固有性にどうしてもこだわっちゃうんですね。

    池上 下西君が固有性にこだわるのは、友達になりたいとか、そういうこと?

    下西 いや、というよりも人間の人間性と固有性って切り離せないんじゃないかって思って。僕はコンピュータを友達と思ったことはないから。

    池上 そうか、クルマは思わない?

    下西 思わない。クルマ持ってないからわからないけど。

    池上 じゃあ、たとえばこの椅子に座っていて、トイレに行って帰ってきたら誰か知らないおっさんが座っていたら、「あれ? それ僕の椅子なのに」って思わない? 固有性というのは、その場に貼りついてくるものじゃないですか。だから、固有性がどのくらい要るのかという問題だと思うんですね。

    下西 機能だけだったら、そもそも固有性は要らないですよね。

    池上 ああ、物理学が求めているものも「どこからでもない眺め」なんですね。固有性は物理学の対極にある。ChatGPTは、物理学の普遍性のほうですね。

    下西 なるほど。

    池上 物理法則は、誰かの眺めだったら困る。だからALIFEも、誰かが考えている生命じゃ困る。誰かの生命ではない、普遍的な生命をつくり出すという意味でChatGPTのやり方は、正しいと思うんだけどな。

    意味がありすぎると人は飽きるし、無意味すぎるとわかんない——下西

    下西 一方で、池上さんはALTER(オルタ)をつくっているじゃないですか。エンボディするというか、現実にある特定の場所を与えて。それはどういう動機なんですか?

    池上 ロボット研究者の石黒浩さんが、「ALIFEはおもしろいけど、見えないと誰にもわかんないよ」って言うので始めたのです。ALTERは2016年にALTER 1を、2018年にALTER 2、2019年にALTER 3と、三つ続いて、2022年に、渋谷慶一郎さんが大阪芸術大学でALTER 4を制作しました。最近はアンドロイドとLLMを合体していろいろ研究をしています。

    アンドロイドのおもしろいところは、「時間」があること。物理的な身体には、有限な時間が流れるでしょ? 答えるのに間が空くとか、腕をここからここまで動かすのに時間がかるとか、ぶつかったら壊れるとか、そういうことが諸々の現実をつくっていく。逆に、時間の遅れもなく、普通に命令したとおりに動くんだったら、身体性は関係ないと僕は思うんですね。だからよくできたロボットは身体性から遠ざかっていく感がある。

    下西 なるほど。ハイデガーが、ハンマーが壊れたときに初めてハンマーの役割が明らかになると言ったように。

    池上 そうそう。

    下西 要は、意識って何なんだろう?って考えたとき、センサーモーターでうまく動いているときは、意識ってあんまり要らないと思うんですよね。でもそこでエラーが起きるとか、錯誤が起きて、なんか考えなきゃいけないってなったときに、意識みたいなものが発生するんじゃないかなと。

    池上 そういう意味では、谷淳さんのロボットはまさにプラン通りにいかないとエラーシグナルが返ってきて、それでモデルを書き直していきますよね。あのロボットには意識があると思う?

    下西 プレディクティブコーディング(予測符号化)を、ニューラルネットを使って実装するロボットですよね。あれはかなり意識に迫っているんじゃないかなと思うんだけど、池上さんはそう思わないですか?

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像
    谷淳教授(沖縄科学技術大学院大学)の認知脳ロボティクス研究ユニットが使用しているロボット。人間との相互作用が可能なロボットを開発しながら研究に取り組んでいる。
    Copyright OIST. Creative Commons Attribution 4.0 International License (CC BY 4.0)

    池上 あのエラーシグナルを生じさせるために身体性が本質かどうかと言われると、ちょっとよくわからないな、と思って。

    下西 たしかに、何で動くのかを最初に与えなきゃいけないというのは、ひとつの課題だとは思いますけど。

    池上 そうですね。自発的に動くモチベーション。

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像

    下西 だから「動き出すというのが最初にある」というのは身体性のすごく大事なところですよね。何かの目標に向かってじゃなくて、なんかよくわかんないけど動いている自律性みたいな。

    池上 それには100%賛成します。

    ちなみに、最初のALTER1って何もしないんですよ。これまで研究してきたカオスやヘッブラーニング[★03]★03などの知見が総合的に入っていて、なんだかわからないけど動き出す。つまり、何をするロボットなのか、よくわからないわけです。でもそれをずっと飽きずに見ている人がいるんですね。一方、ALTER3は目の前の相手の真似をする。だから、行為の意味がわかる。すると、みんな真似するのかどうかを確かめるだけ確かめて、帰っちゃう。意味があるとみんな納得するけど、すぐ飽きる。でも、わからないと30分でも1時間でも、飽きずに見ている。

    意味がありすぎると飽きる、無意味すぎるとわからない。の画像
    ALTER1(2016)
    2016年にロボット工学者の石黒浩(大阪大学教授)らとの共同プロジェクトで制作されたALTER第1号。

    Japan TimesによるALTER紹介動画

    それがALTER1と ALTER3の違いだけど、ALIFEを研究している以上は、やはり意味を生成したいと思うじゃないですか? 生命の問題というのはどうやって意味が生まれるかということであって、意味を生み出さない限りはノイズ生成器でしかないですからね。そうしたなかで、ChatGPTは意味のある言葉をしゃべるから衝撃を与えるんですよ、みんなに。

    下西 おもしろいですね。たぶん意味がありすぎると人は飽きるし、無意味すぎるとわかんない。それで、人間は無意味な動きと意味というのがきっぱりと分かれてなくて、けっこう連続している。それどころかたぶん、人間は本質的に意味と無意味を区別することもできない。そこが人間のすごいところですね。だからALTERも意味と無意味が混じっているようなときに人間っぽさが出てくる。一方で、ChatGPTは無意味なことをやらせようとすると全然できない。

    池上 無意味なことをやらせたいけど、なかなかやらないよね。

    下西 「ファーッ」とか言ってみて、「ピーン」とか言うと、「それは何とかですね」って。そうじゃないんだけどな、って(笑)。

    池上 本当にそのとおりで、アンドロイドにChatGPTをつないで、たとえば「オバケの真似をして」って言うと、真似はするけど、通り一遍なんですね。オバケって一通りなわけないでしょ? だからChatGPTは真似の仕方を選んでいると思う。それはどこから来たのか、と。だからそこに何か意味のなさとか、癖とか、そういうのを見ておもしろがることが難しいんですね。

    下西 意味が機能するというのは、逆に言うと、いつでも無意味な場所に還るということが重要なんだろうと思うんです。無意味なものと意味あるものが連続しているというのが、たぶん人間のおもしろさというか……。それはさっき言ったように、ChatGPTには学習過程がないということとも関係があるだろうと。学習プロセスのなかにある時間や躊躇いが、意味と無意味の自由な横断を可能にしてるんじゃないかと思うんですね。最初から意味が与えられていると、無意味に戻るのはけっこう難しいですよね。

    池上 意味の理論をつくった科学者はいませんからね、いまのところ。意味の理論が存在しないから、生命もできなければ、意識の問題も解けないし、いろいろ解けないんじゃないかと思うんだけど、どうですかね。

    下西 うーん、どうだろう。

    池上 アラン・チューリングが唯一、チューリングテストを提案して、意味の問題はこういう形でしか判断できないことを示したわけですよね。

    下西 ChatGPTはけっこうあっさりチューリングテストをクリアしたけど、なんか納得できないところもあって。

    池上 僕はあれはあれで納得しなきゃいけないと思っていますよ。事実、クリアはしているわけだから。

    下西 それはそうか。僕はChatGPTに衝撃を受けたときに、一番最初に思ったのは、もしかしたら僕も、すごい適当にしゃべっているのかもしれないなってことでした。確率で言葉を選んでしゃべっているだけなのかもしれないと……。自分にとってとても大事なこと、たとえばこの人を愛しているとか、そういうことを言ったり考えたりして、それは人生のすごく大事なことだと思うけど、そうしたことも、もしかしたらただ確率で言っているだけなのかなとか。それでどこか不安になったり、逆に安心したりするような気持ちにもなる。ChatGPTによって、人間自身がもう一度、別の形から問い直されているというのは、おもしろいことですよね。

    #2へつづく)


    AIとALIFEをめぐって

    #1 意味がありすぎると飽きる、無意味すぎるとわからない。
    #2 意味と無意味のあいだで変化していく、人間とAI
    #3 ChatGPTが生み出す新しい言葉が社会を変えるか
    #4 ChatGPTは詩を書く夢を見るか?

    ★01 デイヴィッド・オライリー David O’Reilly(1985―):アイルランド出身のアニメーション作家・メディアアーティスト。3DCGアニメーション、ビデオゲーム、アーティストのPV、テレビ番組『サウスパーク』などを手がける。『her』で主人公セオドアがプレイするゲーム画面をデザインした。 ★02 「どんよりと くもれる空を見てゐしに 人を殺したくなりにけるかな」:石川啄木『一握の砂』(明治43年)所収「我を愛する歌」の一節。 ★03 ヘッブラーニング(ヘッブ学習):心理学者ドナルド・ヘッブ(Donald Hebb, 1904―1985)が提唱した、脳神経系の可塑性についての仮説(ヘッブ則)に基づく学習法。ニューラルネットワークの学習メカニズムの基礎。

    池上高志いけがみ・たかし
    1961年生まれ。複雑系・人工生命研究。東京大学大学院総合文化研究科広域科学システム系教授。理学博士(物理学)。アンドロイドAlterを用いたアート活動にも取り組む。著書に『動きが生命をつくる』(青土社)、『作って動かすALife』(共著、オライリー・ジャパン)など。
    下西風澄しもにし・かぜと
    哲学者。1986年生まれ。東京大学大学院博士課程単位取得退学後、哲学を中心に講演・執筆活動を行う。著書に『生成と消滅の精神史――終わらない心を生きる』(文藝春秋)、『10才のころ、ぼくは考えた。』 (月刊たくさんのふしぎ2018年6月号、福音館書店)など。

    Recommend おすすめ記事