SZ MEMBERSHIP

AIは人類の思考を均質化している:研究結果


ChatGPTなどのAIツールは、わたしたちの脳の活動を鈍らせオリジナリティや創造性を奪う──相次ぐ研究によって明らかになった実態とは?
AI 思考イラスト
ILLUSTRATION: ARIEL DAVIS

2024年、マサチューセッツ工科大学(MIT)である実験が行なわれた。ボストン周辺の複数の大学から集められた50人以上の学生は、3つのグループに分けられ「人々に真の幸福をもたらすために、わたしたちの言動は他者を益するものでなければならないか?」といった漠然としたテーマについて、大学進学適性テスト(SAT)の形式に準じて小論文を書くよう指示された。

ひとつめのグループは、自身の脳だけを使って書くよう指示された。ふたつめのグループは、グーグル検索で関連情報を調べることが認められた。そして3つめのグループは、ユーザーからの指示に応じて完全な文章や小論文を生成できる大規模言語モデル(LLM)ベースの人工知能(AI)ツール「ChatGPT」の使用が許可された。課題を進めるあいだ、学生たちは電極を埋め込んだヘッドセットを装着し、それぞれの頭脳活動を測定される。

MITメディアラボの研究者であり、この実験をまとめた論文執筆陣のひとりでもあるナタリヤ・コスミーナによると、分析結果には劇的な差異が認められたという。ChatGPTを使った被験者は、ほかのふたつのグループのどちらよりも頭脳活動が低かったのだ。

LLMを使った学生は、脳の各部位のあいだで広範囲なつながりが少なかった。創造性に関係するアルファ波の結合性が低く、作業記憶(ワーキングメモリー)にかかわるシータ波の結合性も低かった。LLM使用グループの一部は、自分たちが書いた小論文について「自分のものという感覚がない」と答えており、ある回のテストでは自分たちが書いたはずの内容を引用できない被験者の割合が80%に達した。MITによるこの研究は、これまで人間が自力で成し遂げていたことをAIに頼りながら実行するときの影響、コスミーナの言う「cognitive cost(認知上の代償)」を初めて科学的に測定した事例となった。

「驚くほど似通った文章」

もうひとつ顕著な結果は、LLM利用者が書いた文章に、よくある言葉や考え方が現れやすいという傾向だった。SATの出題は、多様な反応を引き出せるよう十分に広範囲なものだったが、AIを使うことで均質化の効果があったということだ。「一人ひとり違う学生が、しかもそれぞれ違う日に書いたものなのに、出てきたのは驚くほど似通った文章でした。人間や社会に対する概論調の内容が多く、特定の方向に偏っていました」とコスミーナは説明する。

「真の幸福」に関する課題では、ほかのグループよりLLM利用者グループのほうが、仕事や個人の成功に関連する表現を使う傾向が著しく高かった。博愛精神について問う課題(「他者より運に恵まれている人ほど、運に恵まれていない人に手を差しのべる義務を多く負うべきか?」)では、ChatGPTを利用したグループが口を揃えて肯定している一方、ほかのグループには博愛精神に対する批判も見られた。LLMを使ったグループから「意見の相違はまったく出てきていません」とコスミーナは言い、こう続けている。「何事についても、どこでも一律。今回確認されたのは、そういう状況でした」

AIは、平均の技術だ。LLMは、莫大な量のデータ間でパターンを見いだすよう訓練される。AIが生成する回答は、「大方の合意」を目指す傾向がある。文章作成の水準にしてもそうで、常套句や凡庸な表現に満ちていることも多い。概念の水準についても同様だ。もちろん、AI以前からあるほかの技術も、書き手を支援する反面、おそらくその弱体化を招いてきたという可能性は否定できない。「SparkNotes」[編註:文学作品などの要約や解説を作成してくれるサイト]やPCのキーボードもそうだろう。

AIを使うことで、わたしたちは思考することを完全にアウトソーシングできるようになるが、その分わたしたちも平均化してしまう。結婚式のスピーチ原稿を書く、契約書を作成する、あるいは現に驚くほど多数の学生がすでにそうしているように、大学の論文を書く──そういった目的でChatGPTを動員している人は、ある意味、MITが行なっているのと同じ実験段階にあるようなものだ。

OpenAIのCEOサム・アルトマンによると、わたしたちは彼の言う「穏やかなシンギュラリティ」を迎えようとしている。そのフレーズをタイトルに冠した最近のブログ記事で、アルトマンはこう書いている。「ChatGPTはすでに、これまで生きてきたどんな人間よりも強大になっている。毎日、何億という人がChatGPTを利用しており、任される課題の重要度もますます上がっている」

アルトマンによると、人間は機械と融合していく。そして、そう語るアルトマン自身の会社のAIツールChatGPTは、人間の脳を使うという旧態依然としたシステムを改良しつつあり、「それを使う人間の出力を大幅に強化している」のだと言う。

しかし、AIを大量に採用することの長期的な影響を、わたしたちはわかっていない。今回のような初期の実験が何らかの兆候を示すとすれば、アルトマンが予想するような出力の強化には、その水準に応じた相当の代償を伴う可能性がある。

「欧米流の規範」に即す傾向

25年4月には、AIが均質化を招くという証拠を示すもうひとつの研究を、コーネル大学の研究者らが発表した。米国人とインド人のユーザーでそれぞれグループをつくり、各々の文化的背景の一面を想起させるようなテーマで文章を書いてもらう。

例えば「好きな食べ物は何で、その理由は何か?」とか「好きな祝祭日はいつか、その日は特別にどんなことをするか?」といった内容だ。被験者の一部には、ChatGPTベースのオートコンプリートツール、つまり休止するたびに単語が提案されるシステムを使ってもらった。残りは、何も使わず自力で書く。

AIを使った被験者は、米国人とインド人のどちらでも、書いた内容が互いに「類似しがち」であり、しかも「欧米流の規範」に即す傾向が見られたと、この論文は結論している。AI利用者は、好きな食べ物としてピザと答える率が最も高く(次点は寿司だった)、好きな祝祭日はクリスマスだった。均質化は、文体レベルにも表れている。例えば、チキンビリヤニが好きだという趣旨でAIが生成した文章は、ナツメグとかレモンアチャールといった具体的な素材に言及することが少なく、「リッチなフレーバーとスパイス」といった表現が多い。

もちろん理屈の上では、AIで生成される文案を書き手はいつでも拒否することができる。だが、AIツールは催眠効果を発揮するらしく、言葉や表現の候補が次々と流れてくれば、書き手自身の声はかき消されてしまう。コーネル大学の情報科学教授であり、この研究の共同執筆者でもあるアディティヤ・ヴァシスタは、AIを「すぐ後ろに控えている教師」のような存在に喩えている。「わたしが何か書いたり発言したりするたびに『このほうがいいよ』と助言してくる」。「そういう存在が常にそばにいたら、わたしたちはアイデンティティを失い、自分らしさを失います。書き手としての自信を喪失してしまうのです」、とヴァシスタは付け加えている。

その同僚であり、やはり今回の共同執筆者でもあるモア・ネイマンによると、AIによる提案は「見えないところで、ときにはかなり強力に機能し、書く内容だけでなく思考の中身まで変える」のだと言う。その結果、長期的には「何が標準か、望ましいか、適切かという判断基準」を変えてしまう可能性がある、と。

平均は効率的で経済的

AIの出力は「一般的」あるいは「当たり障りがない」と指摘されることも多いが、平均的であることが無難を意味するとは限らない。小説家・ジャーナリストのヴァウヒニ・ヴァラは、近刊『Searches(検索)』[未邦訳]において、AIが人間のコミュニケーションと個性に及ぼす影響をテーマのひとつに取り上げている。

AIの書く文章の凡庸さは「安全であり無害であるという幻想をもたらします」とヴァラはわたしに語ってくれた(ヴァラは以前、『The New Yorker』の記者だった)。そして、「実際に起こっているのは、文化をめぐるヘゲモニーの強化です」と付け加える。OpenAIには、わたしたちの態度やコミュニケーションスタイルからとがった部分をそぎ落とそうとする当然の動機がある。ChatGPTの出力を妥当と考える人が増えれば増えるほど、有料契約する人の幅も拡がるからだ。平均は効率的なのだ。「何もかも同じになれば、規模の経済が働きます」とヴァラは説明する。

自身のブログ記事で予言した「穏やかなシンギュラリティ」に伴って、「ソフトウェアやアートをつくれる人が増えていく」と、アルトマンは述べている。アイデアをかたちにするソフトウェア「Figma」(「創造性は無限」)や、アドビのモバイルAIアプリ(「クリエイティブAIのパワー」)などのAIツールはすでに、わたしたちの誰もがミューズと対話できると約束している。

だが、独創性に自動化をもち込むことの問題点を指摘する別な研究もある。サンタクララ大学が24年にデータを集め、創造的思考として一般的なふたつの課題を支援する際にAIが発揮する効果を調べた。課題は、製品の改良と「ありそうにない結果」の予測だ。「動物のぬいぐるみを、もっと楽しく遊べるようにするには、どうすればよいか?」とか「突然、重力が弱くなり、物体が軽々と浮かぶようになったら、どうなるか?」といった質問に対し、一方の被験者グループはChatGPTを利用しながら答える。もう一方のグループは、曖昧なヒントが印刷されている「Oblique Strategies」カードを用いる。これは、ミュージシャンのブライアン・イーノが、画家ペーター・シュミットとともに、クリエイティビティを刺激するアイテムとして1975年に作成したカードセットだ。

このふたつの被験者グループにオリジナリティを追求するよう指示したところ、ここでもChatGPTを使うグループは意味的に似た傾向を示し、考え方も均質だった。

その分析に協力し、現在は生成AIのスタートアップ企業Midjourneyに籍を置くマックス・クレミンスキーによると、創造的なプロセスでAIを使うとき、人は独自の思考を徐々に明け渡す傾向があるという。最初のうちは、自分自身の幅広い考えを押し出すのだが、妥当そうに見える文章をChatGPTが絶えず大量に吐き出し続けていると、人は「取捨選択モード」に移るからだとクレミンスキーは説明する。その影響は一方向であり、しかも望んだ方向には働かない。「人間の考えが機械の生成する内容に、そこまで強く影響することはありません」。

ChatGPTは「これまでに対話してきたありとあらゆるユーザーの重心に向かってユーザーを引き込むのだ」とクレミンスキーは言う。AIツールとの対話が進んでいくと、機械は「コンテキストウィンドウ」(ワーキングメモリーのことを指す技術用語)を埋める。そのコンテキストウィンドウが容量制限に達すると、AIはすでに生成した内容の繰り返しや言い直しが増え、独創性が落ちていくようなのだ。

AIが書いたAIの未来のシナリオ

MIT、コーネル大学、サンタクララ大学でそれぞれ実施された実験は、いずれも規模が小さく、被験者もそれぞれ100人に満たなかった。従って、AIによる影響については引き続き研究と発見の余地が残されている。

一方、マーク・ザッカーバーグのMeta AIアプリでは、何億という他人が生成しているコンテンツがフィードに表示される。きれいすぎる画像、フィルターのかかった動画クリップ、あるいは「会議のスケジュール再設定について、詳しい、プロっぽいメール」を書くといった日常的な仕事のために生成される文章などが、現実離れした洪水のように押し寄せてくる。

最近スクロールしていて目にとまったプロンプトがある。@kavi908という名前のユーザーが、「いつか、AIが人間の知能を超える日は来るのか」という分析をMeta AIのチャットボットに求めていたのだ。チャットボットは次々と短い説明を返した末に、「今後のシナリオ」という項目で4つの可能性を挙げていた。そのすべてが肯定的な予想だった。いずれにしてもAIは進歩し、人類にとって利益となる──悲観的な予測もなければ、AIが失敗したり害を及ぼしたりするというシナリオもない。

そのモデルの平均は、おそらくメタによって埋め込まれたテクノロジー肯定のバイアスによって形成されたものだろう。それが、結果の範囲を狭め、多様な思考を封じている。だが、チャットボットが語っていることを全面的に真実だと信じるには、自分の脳活動を完全に停止しなければならないはずだ。

(Originally published on The New Yorker, translated by Akira Takahashi/LIBER, edited by Nobuko Igari)

※『WIRED』による生成AIの関連記事はこちら

編集長による注目記事の読み解きや雑誌制作の振り返りのほか、さまざまなゲストを交えたトークをポッドキャストで配信中!未来への接続はこちらから



AIは人類の思考を均質化している:研究結果

雑誌『WIRED』日本版 VOL.57
「The Big Interview 未来を実装する者たち」

気鋭のAI研究者たちやユヴァル・ノア・ハラリが語る「人類とAGIの未来」。伝説のゲームクリエイター・小島秀夫や小説家・川上未映子の「創作にかける思い」。大阪・関西万博で壮大なビジョンを実現した建築家・藤本壮介やアーティストの落合陽一。ビル・ゲイツの回顧録。さらには不老不死を追い求める富豪のブライアン・ジョンソン、Bガール・AMIまで──。未来をつくるヴォイスが、ここに。グローバルメディア『WIRED』が総力を結集し、世界を動かす“本音”を届ける人気シリーズ「The Big Interview」の決定版!!詳細はこちら