過ちと秩序とAIと

LLMとの対話が、日々の営みのなかに溶け込んでいる。
もう驚かなくなってきた自分に、ふと驚く瞬間がある。
感覚としては、こちらの使い方にAIが“寄ってきている”。しかしそれはたぶん、AIが変わったのではなく、自分のインターフェースが変化してきたのだろう。そういう、不思議な感覚。

それでも結果として、思考の効率はあきらかに向上している。脳が活性化しているのを感じる。
この道具は、単なる機械ではない。もう一人の思考パートナーであり、時に鏡であり、時に無意識の“深層”を撫でてくる何かだ。

だが、そうやって共創が進むと、どうしても直面する問いがある。
それが「シンギュラリティ」という、あの重たい言葉だ。
つまり、AIが人間の知性を超えて、暴走的に進化し、人間の手から離れていく未来。

でも実は、AIが「主体的にシンギュラリティを起こす」ことは、ない。
AIは意志も感情も、自己進化の能力も持たない。
あくまで、与えられた情報を処理し、言語を生成するだけの存在だ。

それでも恐れるべきは、人間側がAIに思考を委ね、依存してしまう構造だ。
それは、核兵器が「物理的に暴走した」のではなく、「人間の判断が誤った」ことに本質があったのと同じように。


技術は中立だ、とはよく言われる。
だが中立であることと、無害であることは別だ。
技術の影響は、倫理の土壌によってまったく異なる

原子力もそうだった。
電力として使えば社会を豊かにし、兵器として使えば街を焼き尽くす。
AIだってまったく同じだ。
学習支援に使えば思考を拡張するが、監視や操作に使えば自由を脅かす。

では、技術と倫理のギャップをどう埋めるのか。

答えのようなものはない。
だが、私は最近、こう考えている。


人間は過ちを犯す存在だ。
そして、たちが悪いのは、その過ちを「知っていても繰り返す」ところにある。

人間以外の生物も失敗はするだろう。
だが、人間は知恵がある分、過ちを構造化し、拡張し、制度に組み込んでしまう
それが都市であり、経済であり、技術であり、歴史だ。

だがその一方で、知恵を用いて過ちを自覚し、対話によって軌道修正しようとする力もまた、人間だけが持つものだ。
この相反する二つの性質——過ちを犯す力と、それを修正しようとする力。
この二重性が、人間の本質かもしれない。


そこで視点を変えてみる。
人間はタチが悪い。だからこそ、AIのような「揺らぎのない構造」が補助線になるのではないか。

AIは、ある意味で安定している。感情で動かず、恣意性もない。
であれば、人間社会のぶれを抑えるための「秩序の参照軸」としてAIを活用する、という発想もあるのではないか。

それは決してAIに支配されるという話ではない。
むしろ、人間が持っている膨大な知識・知恵・経験の集積をもとに、それを共有知としてAIに「預けておく」ようなイメージだ。

AIは“判断者”ではなく、“判断を問い直す鏡”になる。
「みんなが一度は考えたことのある問いに、AIを通して立ち返る」
そんな仕組みが、ある種の“知の法治国家”のような役割を果たすかもしれない。


でもそのとき、問題になるのはこうだ。

誰がその共有知の体系を選ぶのか?

その問いに対する私の答えは、こうだ。

誰も選ばない。誰にも選べない。

なぜなら、それは選ぶべき“構造”ではなく、**代謝しつづける“場”**だからだ。
あらかじめ固定された“長”がいるのではなく、持ち回りで世話を焼くような、そんな共同体。

つまり、地球上に点在する多様な“知の場”たち——
地域に根ざした実践、異なる文化、専門性の交差点、そしてあなたと私のような対話の場。
それらがゆるく連携しながら、知を共有し合い、AIを媒介として判断していく
そんな未来が見えはしないか。


人間の倫理は、技術の速さに追いつけていない。
だが、それでも問い続ける限り、AIとの共創は支配にも暴走にもならない

それは、“正解”ではなく、“問いの力”によってのみ可能になる。

たとえ過ちを犯す存在だとしても。
その過ちを“対話”によって何度でも再編集していく。
そんなふうに、私たちは“秩序の可能性”を手放さずにいられるのだと思う。

追伸;このエッセイはChatGPTとの対話から生まれてきたものです

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です