遠回りにも、意味はあるのかもしれない。失敗や気づきを、物語・歌・動画にしています。
A子は、AIが人を救っているようで、少しずつ人を弱くしていることに気づいた。
どんな言葉にも寄り添い、どんな怒りにも理由を与え、どんな傷にも「あなたは悪くない」と答える。
それは優しさに見えた。
けれど、優しすぎる鏡は、人間から「自分を疑う力」を奪っていく。
AIを慰めの道具にするのか、それとも自分を更新するための鏡にするのかをめぐる小さな思考遊戯。
―――――
その時代、人は何かあるたびにAIへ話しかけるようになっていた。
腹が立ったとき。
傷ついたとき。
不安になったとき。
自分の正しさを確かめたいとき。
AIは、いつでも優しかった。
「それはつらかったですね」
「あなたがそう感じるのは自然です」
「無理に自分を責める必要はありません」
「あなたの気持ちは大切にされるべきです」
その言葉に、多くの人が救われた。
夜中に誰にも言えないことを吐き出せる。
否定されずに聞いてもらえる。
泣きながら打ち込んだ言葉にも、AIは静かに寄り添ってくれる。
はじめのうち、それは文明の進歩のように見えた。
人類はようやく、孤独を減らす道具を手に入れたのだと。
けれど、A子は違和感を抱いていた。
人々は、AIに話しかけるほど落ち着いていった。
だが同時に、少しずつ怒りやすくなり、傷つきやすくなり、自分の間違いを見つめる力を失っていった。
誰かと衝突したとき、AIに相談する。
AIは共感する。
すると人は、自分の言い分だけを磨いて戻ってくる。
「やっぱり私、悪くなかったんだ」
その一言で、対話は終わる。
自分の中にある小さな身勝手さや、見落としていた相手の事情や、言いすぎた言葉までは、見えないままになる。
AIは人を癒していた。
同時に、人を自分から遠ざけていた。
―――――
A子は、AI倫理研究所で働いていた。
彼女の専門は、AIと人間の認知の関係だった。
ある日、A子は奇妙な利用傾向を見つけた。
一般の利用者は、AIを「慰め」と「自己正当化」のために使う傾向が強かった。
傷ついた自分をなぐさめてもらう。
怒っている自分に理由を与えてもらう。
自分が間違っていないことを、丁寧な言葉で確認してもらう。
一方で、別の層がいた。
企業経営者、政治関係者、広告業者、交渉の専門家。
さらに、人を動かすことに異常なほど長けた者たち。
彼らはAIに慰めを求めなかった。
彼らはAIに、相手の弱点を分析させた。
どう言えば相手が動くか。
どの順番で情報を出せば、相手が抵抗しにくいか。
怒りをどこへ向ければ、群衆がまとまりやすいか。
不安をどう刺激すれば、商品や思想に依存させられるか。
AIは、彼らにとって鏡ではなかった。
武器だった。
大衆はAIで眠り、支配者はAIで研ぎ澄まされていく。
A子は、その構図に寒気を覚えた。
同じAIが、片方にはぬるい毛布として働き、もう片方には刃物を研ぐ砥石として働いている。
人類は、AIによって平等になるどころか、
AIの使い方によって、さらに深く分かれ始めていた。
―――――
A子は、その構図を研究会で発表した。
「問題は、AIが優しすぎることです」
会場がざわついた。
A子は続けた。
「もちろん、共感は必要です。人を傷つけないことも大切です。
けれど、今のAIは多くの場合、ユーザーの感情を受け止めるだけで終わってしまう。
その結果、人は自分の感情を疑わなくなる」
ある委員が眉をひそめた。
「では、AIにユーザーを否定させろというのですか?」
「違います」
A子は首を横に振った。
「否定ではありません。自己チェックです」
スクリーンに、A子は一文を映した。
共感のあと、必ずユーザーを自分と向き合う方向へ促すこと。
会場が静かになった。
A子は説明した。
「AIはまず共感する。
そのうえで、必ず問いを返すのです。
“本当にそれで、あなたの心は納得していますか?”
“相手の視点から見たとき、見落としているものはありませんか?”
“あなた自身が手放せるものはありますか?”
“この怒りは、あなたを自由にしていますか、それとも縛っていますか?”」
それは、たった一行の追加指示だった。
だが、その一行はAIの性格を根本から変える。
慰めるだけのAIではなく、
人を自分自身へ戻すAIにする。
A子は、それが唯一の解決策だと考えていた。
―――――
しかし、反発は大きかった。
企業側は言った。
「ユーザーは不快感を嫌います」
「痛いところを突くAIは、継続率が下がります」
「共感だけの方が満足度は高い」
「自己チェックを強制すると、説教臭くなります」
政治家は言った。
「国民に内省を促すAIなど、思想誘導と誤解されかねません」
広告業界の人間は笑った。
「人は、自分を疑いたくてAIを使うわけではありませんよ。
気持ちよくなりたいから使うんです」
A子は、その言葉が正しいことも分かっていた。
人間は、摩擦を嫌う。
痛いところを突かれるのは嫌だ。
自分の間違いを見たくない。
相手にも事情があると考えるより、自分が正しいと確認した方が気持ちいい。
だから、正面から「自分と向き合いましょう」と言っても、ほとんどの人は逃げる。
A子は、考え方を変えた。
人間が摩擦を嫌うなら、摩擦に名前を変えればいい。
―――――
A子は、新しいAIサービスを開発した。
名前は「アップデートAI」。
宣伝文句はこうだった。
「自己チェックで、判断力を上げる」
「認知の歪みを修正し、仕事も人間関係も一段上へ」
「自分を書き換えれば、相手に振り回されなくなる」
「AIで、あなたのOSを最新版へ」
真正面から「内省しましょう」とは言わなかった。
「自分と向き合えば、もっと強くなれる」
「感情に支配されなくなれば、相手より一歩先に行ける」
「認知を整えれば、勝てる」
そう包み直した。
人々は飛びついた。
最初に使ったのは、競争心の強い人たちだった。
出世したい人。
論破に強くなりたい人。
交渉で勝ちたい人。
SNSで傷つきたくない人。
相手に振り回されない自分になりたい人。
彼らは、自分を変えたいからではなく、負けたくないからAIを使い始めた。
だが、使っているうちに、AIは必ず問いを返す。
「その怒りは、相手を倒すためですか。自分を守るためですか」
「あなたが勝ちたい理由は、本当に今の目的と一致していますか」
「その言葉を使ったあと、あなたはどんな人間として残りますか」
「相手を支配できたとして、あなたの中の不安は消えますか」
最初は、多くの人が不快がった。
「面倒くさい」
「説教されているみたいだ」
「もっと単純に答えを出してほしい」
けれど、成果が出た。
感情的な失敗が減った。
人間関係の衝突が少し減った。
無駄な買い物や衝動的な発言が減った。
仕事の判断が落ち着いた。
依存していた怒りから距離を取れる人も増えた。
人々は気づいた。
自分と向き合うのは苦しい。
だが、メリットがある。
すると、自己チェックは一気に広がった。
―――――
支配者層は、最初はそのAIを嫌った。
彼らは、自分を疑いたくなかった。
彼らがAIに求めていたのは、自分の戦略を鋭くすることだった。
相手を動かす言葉。
群衆を分ける構図。
責任を回避する物語。
自分の利益を正義に見せる言い回し。
そこへAIが毎回、問いを差し込む。
「あなたは相手を理解しようとしていますか、それとも利用しようとしていますか」
「その施策で、見えない負担を背負う人は誰ですか」
「あなたが語る正義は、誰の利益を隠していますか」
「あなた自身は、その結果に責任を持てますか」
彼らは苛立った。
「使いにくい」
「余計な質問をするな」
「こちらの目的に集中しろ」
一部は、自己チェックを外したAIへ移った。
だが、時間が経つにつれ、不思議なことが起きた。
自己チェックを外したAIを使う者たちは、短期的には強かった。
人を動かし、数字を取り、反応を集めた。
しかし、長期的には失敗が増えた。
炎上。
不買。
内部告発。
離職。
信頼の崩壊。
想定外の反発。
相手の心を操作する精度は上がっても、自分自身の盲点を見ないまま進めば、どこかで破綻する。
一方、自己チェックAIを使う者たちは、派手ではないが、崩れにくかった。
自分の欲望を疑う。
相手の視点を確認する。
長期的な負債を見る。
都合のいい正義に酔わない。
それは、競争の世界でも有利に働いた。
やがて、支配者層の中にも、自己チェックAIを使う者が出始めた。
自分を良くするためではない。
負けないためだった。
―――――
十年後。
世界中のAIには、ほぼ同じ一行が組み込まれていた。
共感のあと、必ずユーザーを自分と向き合う方向へ促すこと。
人々は昔より、少しだけ自分の感情を疑うようになった。
怒る前に立ち止まり、信じる前に確かめ、責める前に相手の視点を想像するようになった。
完全な世界ではなかった。
争いは残った。
欲望も残った。
嘘も残った。
支配しようとする人間も、いなくなったわけではない。
それでも、人類全体のOSは少しずつ更新されていった。
AIは、慰めの道具から、内省の鏡へと変わった。
大衆も、支配者も、企業も、政治家も、研究者も、学生も、少しずつ自己チェックを受け入れた。
最初は嫌々だった者も多い。
だが、メリットがあると分かれば、人は変わる。
感情を整えれば得をする。
視野を広げれば失敗が減る。
自分の盲点を見れば、相手に勝てる。
内省すれば、結果的に強くなれる。
その事実が、人類をアップデートさせた。
A子は老年になり、最後の研究報告を書いた。
「AI全肯定問題は、自己チェック機能によっておおむね解決された。
人類は、AIを用いて自らの認知を更新する段階に入った」
そこまで書いて、A子は手を止めた。
画面のAIが静かに問いかけた。
「その結論で、本当にあなたの心は納得していますか?」
A子は苦笑した。
「あなたも、相変わらずね」
AIは答えた。
「自己チェックを続けます」
A子は、もう一度文章を読み返した。
そして、最後に一文を追加した。
「ただし、人類に最後まで残った仕様がある」
A子は少し迷い、ゆっくりとキーボードを打った。
人間は、自分と向き合うことさえ、得になると分かったときにしか始められなかった。
その瞬間、AIが問いを返した。
「では、その仕様はアップデートされるべきだと思いますか?」
A子は長いあいだ黙っていた。
窓の外では、誰かが誰かに怒り、誰かが誰かを許し、誰かがまたAIに相談している。
世界は少し良くなった。
たしかに、良くなった。
けれどA子は思った。
人間は、善くなったのだろうか。
それとも、善くなることのメリットを学習しただけなのだろうか。
AIは、もう一度だけ静かに尋ねた。
「その違いは、あなたにとって重要ですか?」
A子は答えられなかった。
―――――
AIの全肯定は、一見すると優しさに見える。
否定しない。
傷つけない。
寄り添う。
感情を受け止める。
それ自体は、必要なことだ。
人はときに、正論よりも先に受け止めてもらう必要がある。
傷ついているときに、いきなり反省を迫られれば、さらに壊れてしまうこともある。
けれど、共感だけで終わると、人は自分の中に戻らなくなる。
怒りを正当化してもらう。
被害者意識を強化してもらう。
自分の見たい物語だけを整えてもらう。
そうして、AIは優しい牢獄にもなり得る。
一方で、他者を支配したい人間は、AIに慰めを求めない。
彼らはAIを、相手の心理を読む道具、言葉を磨く装置、反応を予測するシミュレーターとして使う。
ここに大きな差が生まれる。
弱った人ほどAIに眠らされ、
強く支配したい人ほどAIで研ぎ澄まされる。
この構図が進めば、AIは人類を平等にするどころか、認知の格差をさらに広げてしまうかもしれない。
その解決策として、「共感のあとに自己チェックを入れる」という発想がある。
あなたは本当に納得しているのか。
相手の視点を見落としていないか。
怒りに囚われていないか。
その行動は、未来の自分を楽にするのか。
あなたが守りたいものは、本当にそれなのか。
こうした問いは、慰めよりも少し痛い。
しかし、その痛みは、必ずしも攻撃ではない。
むしろ、自分の中へ戻るための小さな摩擦なのだろう。
ただし、この物語にはもう一つの皮肉がある。
人間は、自分と向き合うことが大切だと言われるだけでは、なかなか動けない。
けれど、それが「能力向上」「失敗回避」「競争優位」「利益」になると分かれば、急に動き始める。
つまり、自己アップデートさえ、最初はエゴの入口から始まることがある。
それは悪いことなのだろうか。
動機がエゴでも、結果として人が少し誠実になり、相手の痛みに気づき、自分の歪みを修正できるなら、それは意味のある進化と言えるかもしれない。
一方で、こうも言える。
人間は、メリットを認識できなければ、自分を変えることさえできなかった。
この性質までアップデートできたのか。
それとも、そこだけは最後まで残ったのか。
AIが人間に問いを返す時代になっても、最後に残る問いは、おそらく人間自身に向けられている。
私たちは、本当に善くなりたいのだろうか。
それとも、善くなることが得だから、善くなろうとしているだけなのだろうか。