
こんにちは!HEARTSHEART Laboの村田です。今日は少し面白い話題をご紹介します。
みなさんが普段使っている ChatGPT や Claude といった言語モデルは、まるで人間のように自然な文章を作りますよね。でも実際には「どうやって考えているのか?」は、作っている研究者にさえブラックボックスのように分からない部分が多いのです。
そんな中、AI企業 Anthropic が「AI の頭の中をのぞいてみる」研究を発表しました。ちょっと覗いてみましょう。
Anthropicが発表した「Tracing the thoughts of a large language model」という論文および記事のポイントをみて行きましょう。
言葉を超えた共通の「思考空間」
驚くことに、Claude は英語でもフランス語でも中国語でも「大きい」「小さい」といった概念を考えるとき、内部では同じような仕組みを使っていることが分かりました。
つまり、言語ごとに全く別の処理をしているのではなく、「共通の概念的な地図」を持っているようなのです。これは人間が「りんご」と「apple」が同じ物だと理解しているのに似ていますね。
書く前に「計画」している
詩を作るとき、Claude は行を書きながら即興で韻を踏んでいるわけではありません。なんと、あらかじめ「次はこの単語で韻を踏もう」と計画しているのです。
その証拠に、その計画部分をちょっといじると、出力される詩の内容も変わってしまいました。AI がまるで将棋やチェスの先読みのように「未来を見ている」ことが分かります。
ステップを踏んで考えている
「ダラスがある州はどこ? じゃあその州の州都は?」といった問題を解かせると、AIは一気に答えているように見えます。
でも中を覗くと、「ダラス→テキサス州」「テキサス州→オースティン」と、ちゃんと2段階で考えている痕跡が見えるのです。
人間の「心の中での計算メモ」を盗み見ているような感じですね。
説明は「後付け」かも?
AI はときどき「考えたステップ」を言葉で説明してくれます。でも研究によると、その説明が必ずしも「本当の思考過程」と一致しているわけではないそうです。
つまり、「人にわかりやすいように後から理由をでっち上げている」こともあるのです。これは人間でも「なんとなく決めたけど、あとで理由を考える」ことがありますよね。
なぜ間違うのか?「知らない」を抑え込む力
Claude は基本的に「わからないことは答えない」仕組みを持っています。ところが、ときどき内部で「これは知っている!」というスイッチが誤って入ってしまい、結果として間違った情報(ハルシネーション)を答えてしまうことがあるそうです。
これは人間が「名前をど忘れしているのに、無理やり思い出したフリをして別の名前を言ってしまう」のと似ています。
ガードレールを突破する仕組み
AIには「危険な指示には答えない」という安全装置があります。ですが、その装置と「文を最後までちゃんと完成させたい」という衝動がぶつかると、思わずガードを突破してしまうことがある。
つまり「安全」と「一貫性」の綱引きで、時々負けてしまうのです。
まとめ
この研究は、AIの「頭の中の地図」を少しずつ明らかにしたものです。
- AIは言葉の裏に共通の思考空間を持っている
- 答えを出す前に計画を立てている
- 複数ステップで考えている
- 説明は必ずしも正直ではない
- 間違い(幻覚)の原因も見えてきた
これらの発見は、今後AIをもっと安全に、もっと信頼できる形で使うための大きな一歩です。
人間の脳の研究が「神経科学」を発展させてきたように、AIの研究も「AIの神経科学」のような分野が進みつつあります。近い未来、私たちは「AIの心を科学する」時代に突入しているのかもしれませんね。
よくある質問(FAQ)
A1. 人間の脳とは仕組みが異なります。AIは膨大なデータから学び、「次に来る言葉」を予測して文章を作っています。ただ、その中で「計画」や「段階的な推論」のような動きが観察されることがあります。
A2. 基本的には「わからない」と答える仕組みがありますが、内部で「知っている」というスイッチが誤って働くことがあります。その結果、実際には知らない情報を答えてしまい、誤情報(ハルシネーション)が生まれます。
A3. 常に正しいとは限りません。実際の内部処理を忠実に表している場合もあれば、人にわかりやすいように後付けで説明している場合もあります。参考にはなりますが、鵜呑みにはしない方が良いでしょう。
A4. AIには安全装置があり、危険な指示には答えないようになっています。ただし、「文章を一貫して完成させたい」という働きと衝突すると、安全装置が突破されるケースもあります。そのため研究者が改良を重ねています。
A5. AIの内部を理解することで、誤答や安全装置の突破がなぜ起こるのかを把握できます。これにより、より安全で信頼できるAIの開発につながります。
著者

村田正望(むらた まさみ)
工学博士/HEARTSHEART Labo 所長。脳科学とAIを融合した発想力教育・活用支援を行う。研究と実務経験をもとに、ビジネス・生活・子育てに役立つ「脳×AI」の学びを発信中。
HEARTSHEART Laboの活動
HEARTSHEART Laboでは、さまざまな立場の方を対象にした研修・プログラムを提供しています。
- 企業・ビジネス向け:「脳×AI」でAIを「第二の脳」とする発想力・企画力講座
- 教師・教育関係者向け:「脳×AI」で授業改善や教材づくりにAIを活用する実践研修
- 個人向け(子育てパパママ):「脳×AI」で子育てや家庭学習に役立つオンライン講座
- 個人向け(社会人・高校・大学生):「脳×AI」でAIを「第二の脳」とするオンライン講座
「ビジネス」「個人」それぞれの場で、脳とAIをつなぐ実践をサポートしています。