AGIという虚像

AGI(汎用人工知能)がもうすぐ実現する」「AGIが人類のあらゆる問題を解決する」。この数年、このような言葉を耳にする機会が急増した。特にOpenAIのサム・アルトマンが語る未来像は、まるでユートピアの到来を予感させ、多くの人々を魅了している。しかし、その熱狂の裏で、私たちは本当に「知能」の本質を理解しているのだろうか。

デイヴィッド・クラカワー、カレン・ハオ、そしてヤン・ルカンという三者の視点は、現在のAGIブームが、科学的実態と商業的野心、そしてアーキテクチャ上の根本的欠陥が織りなす「虚像」である可能性を鋭く指摘する。本稿は、これらの論考を基に、AGIという壮大な物語の裏側を多角的に紐解いていくものである。

「理解」を欠くAI、その構造的欠陥

現在のAI、特に大規模言語モデル(LLM)が示す驚異的な言語能力の裏には、人間のような「知能」とは根本的に異なるメカニズムが存在する。サンタフェ研究所のデイヴィッド・クラカワーと、AI界の重鎮であるヤン・ルカンは、それぞれ異なる角度からその本質的な限界を指摘している。

統計的相関 vs 因果的メカニズム

クラカワーによれば、LLMは膨大なテキストデータから単語間の統計的相関関係を学習したに過ぎない。その流暢さはパターンマッチングの賜物であり、人間のような因果的メカニズムに基づいた世界に対する内的モデル(メンタルモデル)を持っているわけではない。彼はLLMを、知識を検索・再構成できてもその意味を内的に把握しない「スチームパンク的な機械式図書館」と的確に比喩する。我々がLLMに知性を感じてしまうのは、流暢な言葉に知性や理解を投影してしまう「イライザ効果」に他ならないのである。

自己回帰モデルという「破滅的」アーキテクチャ

ヤン・ルカンは、この限界を技術的な観点からさらに深く掘り下げる。彼によれば、現在のLLMが採用する自己回帰型アーキテクチャそのものが「破滅的(doomed)」である。自己回帰モデルは、トークンを一つずつ生成する過程で誤差が指数関数的に累積し、必然的に「幻覚(ハルシネーション)」を引き起こす。この構造的欠陥のため、LLMは本質的に信頼性が低く、事実に基づいた制御可能なシステムにはなり得ないと彼は断じる。

さらにルカンは、現在のAIが猫一匹にすら劣る常識(コモンセンス)しか持たないと指摘する。猫が持つ直感的な物理法則の理解や、世界との相互作用を通じて獲得される非言語的な知識は、テキストデータのみで学習するLLMには決定的に欠けている。ルカンは、人間レベルの知能はテキストだけでは決して到達できないと主張し、ビデオのような高次元の感覚データから世界の仕組みを学習するワールドモデルの必要性を説く。彼が提唱するJEPA(共同埋め込み予測アーキテクチャ)は、このワールドモデルを構築するための具体的な道筋であり、現在のLLMパラダイムからの根本的な転換を促すものである。

夢の裏で構築される「AI帝国」

ジャーナリストのカレン・ハオは、著書『Empire of AI』の中で、OpenAIの物語を「科学的な野心が、攻撃的なイデオロギーと資金に後押しされた探求へと変貌した」と描き出す。これは、ヤン・ルカンが警鐘を鳴らすAI開発の閉鎖性と独占という問題と深く共鳴する。

AGIが人類に利益をもたらすことを確実にする」というOpenAIのミッションは、才能、資本、影響力を一手に集中させる強力な装置として機能してきた。サム・アルトマンのリーダーシップの下、当初の非営利・オープンの理念は、Microsoftからの巨額投資を受け入れる「キャップ付き利益企業」へと変貌を遂げた。AGIという壮大な目標は、時に「あらゆる目的のための幻想的な言い訳」として利用され、さらなる富と権力を追求するための正当化の道具となっているのである。

その結果、AI開発は一部の巨大テック企業による寡占状態となり、その恩恵は一部に集中する。データ収集や労働力の搾取といったコストは、見えにくい形で世界中に転嫁されている。この閉鎖的な開発体制に対し、ルカンは強く反対する。彼は、AIが将来の社会基盤となる以上、その開発はオープンソースであるべきだと主張する。多様な価値観を反映し、少数の企業による支配を防ぐためには、民主的で分散的なアプローチが不可欠であるという彼の信念は、OpenAIが築き上げつつある「帝国」への強力なアンチテーゼとなっている。

「創発」と「愚かさ」の再定義

「創発」という名の誤解

技術コミュニティでは、LLMが特定の能力を突如として示すことを「創発(emergence)」と呼ぶが、クラカワーはこれも表層的な使い方だと批判する。真の創発とは、システムが根源的に再編成され、より圧縮された新たな記述(有効理論)が可能になる状態、すなわち「より多くが、異なるものになる」ことである。しかし、現在のLLMは「より多くのものを、より多くのもので」処理する力任せのシステムであり、創発的知能とは対極にあると彼は言う。

AIの「愚かさ」

さらにクラカワーは、AIの「愚かさ(stupidity)」を「知識の欠如(無知)」ではなく、「欠陥のあるルールを固執して適用し、データが増えるほど事態が悪化する状態」と定義する。これは、LLMの幻覚の本質を的確に捉えている。LLMの目標は真実を語ることではなく、統計的にもっともらしいテキストを生成することである。この「愚かさ」は、自己回帰モデルのアーキテクチャに内在する本質的な特徴であり、単なるバグではない。

虚像の先に見るべきもの

クラカワー、ハオ、そしてルカンの三者の視点を統合すると、我々が熱狂するAGIという概念がいかに危うい基盤の上に成り立っているかが見えてくる。

一方では、技術の根幹であるLLMが真の「理解」を欠き、構造的な欠陥を抱えているという科学的な現実。もう一方では、その技術を巡る壮大な物語が、一部の企業に富と権力を集中させる閉鎖的な「帝国」を築き上げているという社会・経済的な現実。

今、私たちが問うべきは「AGIはいつ実現するのか?」という未来の問いではない。「私たちは今、どのようなアーキテクチャで、どのような価値観に基づき、誰のためにAIを作っているのか?」という現在の問いである。

ルカンが提唱するように、AIを人間の能力を増強する協働ツールと捉え、その開発プロセスをオープンにすることは、AIの恩恵を広く社会に行き渡らせるための重要な鍵となるだろう。

AGIという虚像に惑わされることなく、その技術がもたらす現実的な影響、その裏でうごめく権力構造、そしてそのアーキテクチャの本質的な限界を冷静に見つめること。それこそが、AIとのハイブリッドな未来を航行するために、今最も求められている姿勢なのである。

 

#AGI #人工知能 #LLM #AI倫理 #ヤンルカン #OpenAI #ワールドモデル #AIの未来