蘇るコネクション — 接続主義的世界観の死と再生
コネクショニズム、コネクションマシン、ネットワーク型DB、意味ネットワーク、ワールドモデル — 「明示的なつながりを一級市民にする」世界観が異なる領域で何度も生まれ、同じ理由で敗れ、そして蘇ってきた系譜を辿る。
はじめに
コンピュータサイエンスの歴史を振り返ると、奇妙なパターンに気づく。「明示的なつながり (connection) を一級市民として扱う」という世界観が、ハードウェア、データベース、AI、知識表現と、まったく異なる領域で何度も生まれ、ほぼ同じ理由で敗れ、そして数十年後に蘇るということが繰り返されてきた。
これらは独立した出来事のように見えて、実は同じ哲学的姿勢の異なる現れであり、そして同じメカニズムで死に、同じメカニズムで蘇っている。本記事はその系譜を辿る試みである。
思想的源流 — コネクショニズム
すべての出発点に近いのが、認知科学・AI における コネクショニズム (connectionism) という立場である。「知能は記号操作ではなく、無数の単純なユニットの並列分散的な相互作用から創発する」という見方で、Rosenblatt のパーセプトロン (1958) から始まり、1980 年代の PDP (Parallel Distributed Processing) グループの研究で最初の大きな盛り上がりを迎えた。
これは当時主流だった 記号主義 AI (GOFAI: Good Old-Fashioned AI) との明確な対立軸として立てられた。記号主義側は「知能とはルールに基づく記号の操作である」と主張し、コネクショニズム側は「知能はニューロン的なネットワークの動的状態である」と主張した。
注目すべきは、コネクショニズム自体が既に「死と再生」のサイクルを辿っていることだ。Minsky と Papert の『Perceptrons』(1969) によって一度冬を迎え、80 年代に逆伝播法で復活し、90 年代に統計的学習に押されて低迷し、そして 2010 年代の深層学習で完全勝利した。ひとつの世界観が三度死んでいる。
コネクションマシン — ハードウェアの実装
1985 年、MIT の博士課程にいた Danny Hillis は『The Connection Machine』という博士論文を書く。コネクショニズムの思想 — 「知能は無数の単純な処理単位の richly な相互接続から立ち上がる」 — を、文字通り 物理的ハードウェアとして実装しようという野心的な試みだった。
CM-1 は 65,536 個の 1ビットプロセッサをハイパーキューブで繋いだ SIMD マシン。Marvin Minsky が共同創業者として関わり、Richard Feynman も夏に手伝いに来ていた伝説的な機械である。プログラミングモデルとして Lisp や C* (C-star) などのデータ並列言語が開発され、「すべてのデータ要素に同じ操作を一斉に適用する」という発想を世に問うた。
しかし Thinking Machines Corporation は 1994 年に倒産する。当時の評価は「ハードウェアが時代を先取りしすぎた」「データもアルゴリズムも追いついていなかった」というものだった。
ところが 世界観としては完全に勝った。今日の GPU は本質的に SIMD/SIMT マシンであり、CM の Lisp や C* のデータ並列モデルは CUDA とほぼ同じ発想を実現している。そして GPU の上で動く深層学習は、まさにコネクションマシンが目指していた「単純な処理単位の大規模並列で知能を立ち上げる」という構想の、遅延した実現に他ならない。
思想は死んだのではなく、ハードウェアが追いつくのを待っていた。
ネットワーク型データベース — 永続化層の連想
データベースの世界でも、ほぼ同じ時期 (1960 年代) に「接続を一級市民にする」世界観が登場している。Charles Bachman の IDS (Integrated Data Store) に始まり、CODASYL によって標準化された ネットワーク型データベース (IDMS など) である。
このモデルでは、レコード同士をポインタで明示的に繋ぎ、「set」と呼ばれる親子関係のネットワークを構成する。クエリは存在しない。代わりに ナビゲーション がある — プログラマがポインタを辿ってデータの森を歩き回るのだ。Bachman はこの仕事で 1973 年にチューリング賞を受賞している。
しかし 1970 年に Edgar Codd が関係モデルを発表する。「データは集合論的なテーブルの集合であり、クエリは宣言的な代数で表現される」という、より抽象的で数学的な世界観。Bachman と Codd は「データベース戦争」を繰り広げ、最終的に関係モデルの抽象性が勝利した。ネットワーク型 DB は 1980 年代以降メインストリームから姿を消した。
そして 2000 年代後半、グラフデータベース (Neo4j など) として完全に同じ世界観が蘇る。「関係こそが一級市民」「ナビゲーション (グラフ走査) こそクエリの本質」という発想で、SNS、推薦システム、不正検知、知識グラフなど「関係性が爆発するドメイン」で支配的なソリューションとなった。
敗北の理由も明確である。関係モデルの抽象性に加えて、RAM が安くなる前のディスクシーク中心の世界では、結合演算よりポインタ追跡の方が遅かった (キャッシュミスの嵐) という ハードウェア側の制約 があった。コネクションマシンとまったく同じ構造だ。
知識表現 — 意味ネットワークからナレッジグラフへ
AI における知識表現の系譜も、まったく同じパターンを辿る。
- 意味ネットワーク (Quillian 1968) — 概念をノード、関係をエッジで表現。もとは 人間の連想記憶 をモデル化する試みで、スプレッディング・アクティベーションによる推論を行う。
- フレームシステム (Minsky 1974) — 「A Framework for Representing Knowledge」で、スロットとフィラーによる構造化知識を提案。後の OOP にも影響を与えた。
- KL-ONE と記述論理 (Brachman 1977-) — 意味ネットワークに形式的意味論を与える試み。後の OWL の祖先。
- Cyc (Lenat 1984-) — 「常識を全部手で書き下す」という壮大な試み。失敗の象徴として語られることが多いが、まだ生き続けている。
- Semantic Web (Tim Berners-Lee 2001) — RDF, OWL, SPARQL という標準化された知識グラフのインフラ。
これら一連の試みは、1990 年代に統計的・確率的アプローチが台頭する中でメインストリームから外れていく。「知識を手で書き下すのは無理だ」「学習で十分だ」という空気が支配的になった。
そして 2012 年、Google が Knowledge Graph を発表する。「things, not strings」というキャッチコピーで、Freebase と Wikipedia を中核に据えた巨大な実体グラフ。これがブランド化されて「ナレッジグラフ」という用語が一般化した。Wikidata、Schema.org、各企業の業界 KG (Amazon Product Graph, LinkedIn Economic Graph) と続き、意味ネットワークの末裔がメインストリームに復帰した。
ワールドモデル — 内部表現としての世界
少し違う角度から、同じパターンを示す系譜が ワールドモデル である。
思想的源流は古く、Kenneth Craik が 1943 年に『The Nature of Explanation』で「神経系は外界の出来事を模倣する計算装置である」と書いた。これがおそらく最初期の定式化で、後の制御工学の内部モデル原理 (Kalman フィルタなど) や、認知科学の Mental Model 理論 (Johnson-Laird) に分岐していった。
AI 側では Schmidhuber が 1990 年代から既にワールドモデルと好奇心駆動学習を提案していて、Sutton の Dyna アーキテクチャ (1991) はモデルベース強化学習の古典である。Ha & Schmidhuber の “World Models” (2018) で「VAE + RNN で潜在空間に世界を圧縮し、その中で agent を訓練する」という形で再ブレイクし、Hafner の Dreamer 系列 (V1〜V3) でスケールすることが示された。
現在 LeCun が JEPA で主張しているのは、「LLM はトークン予測しかしていない、本当の知能には抽象的な世界モデルが必要だ」という、まさにこの系譜の現代的なバージョンである。Sora や Genie のような動画生成モデルを「暗黙の物理的ワールドモデル」と捉える議論も盛んだ。
Craik の予言から 80 年、Schmidhuber の提案から 30 年経って、ようやく表現学習と計算資源の進歩が追いついた。また同じパターンである。
共通パターン — なぜ死に、なぜ蘇るのか
これら一連の事例を並べると、共通するメタパターンが見えてくる。
なぜ「死んだ」のか
- 抽象性の競争で負けた — 関係モデル、記号主義、統計的学習。それぞれの時代に、より抽象的・宣言的・スケーラブルなアプローチが現れて、明示的な接続を扱う世界観を「ハック的」「アドホック」と感じさせた。
- ハードウェアの制約 — コネクションマシンはメモリと並列性が、ネットワーク DB はディスクシーク (キャッシュミス) が、ニューラルネットは計算量とデータ量が、それぞれの時代のハードウェアでは効率的に動かなかった。
- データの不足 — 統計的に学習するにせよ、明示的にネットワークを構築するにせよ、その時代に利用可能なデータ規模では「魔法」を起こせなかった。
なぜ「蘇った」のか
- ハードウェアが追いついた — GPU の登場、RAM の安価化、SSD によるランダムアクセスの高速化。
- データが爆発した — Web、SNS、IoT、デジタル化されたあらゆるもの。
- 問題空間が変わった — SNS、推薦、知識検索、生成 AI など、「関係性そのものが価値の中心」となる新しい問題が登場した。
- 理論的進歩 — 逆伝播、表現学習、注意機構など、世界観を実装可能にする数学的道具が揃った。
教訓 — 世界観の正しさと実装可能性は別問題である
最も重要な教訓は、世界観の正しさと、それが実装可能であるかどうかは別の変数だということだ。Bachman も Hillis も Quillian も、それぞれの時代において正しい方向を指していた。彼らが敗北したのは、思想が間違っていたからではなく、思想が早すぎたからだった。
これは技術選択や研究の方向性を考える上で、深い示唆を持つ。
- 「今勝っているパラダイム」が本当に正しいのか、それとも 他の世界観が一時的に技術的制約で押されているだけ なのか。
- 自分の仕事は、世界観として勝つ のか、実装として勝つ のか、その両方を狙えるのか。
- ある思想が「過去に試されて失敗した」ことは、その思想が間違っていることの証明にはならない。
現代の収束 — 統合の時代へ
特に興味深いのは、現在進行形で起きている 収束 である。
- LLM (連続的・分散的・コネクショニスト) + ナレッジグラフ (記号的・明示的・構造的) = GraphRAG
- ニューラルネット + ワールドモデル = LeCun の JEPA、Dreamer 系
- 統計的学習 + 記述論理 = ニューラルシンボリック AI
- ベクトル検索 + 構造化検索 = ハイブリッド検索
かつて対立していた「コネクション側」と「シンボル/構造側」の世界観が、互いを補完するものとして再統合されつつある。これはどちらかが勝ったというよりも、それぞれの世界観が 得意とする問題範囲 が明確になり、組み合わせて使う段階に来た、ということなのかもしれない。
連想記憶を模した Quillian の意味ネットワークと、コネクショニズムを物理化したコネクションマシンが、半世紀を経て同じシステムの中で協働している光景は、なかなか感動的でもある。
おわりに
コネクションマシンから始まり、ネットワーク型 DB、意味ネットワーク、ワールドモデル — 一見バラバラに見えるこれらの試みは、すべて「明示的なつながりを世界の本質と見る」という共通の哲学の、異なる表現だった。それらは時代に押されて姿を消し、ハードウェアと問題空間が成熟した時に別の名前で蘇った。
技術史において「死んだもの」は、しばしば「眠っているだけ」である。ある世界観が今優勢でないのは、その世界観が間違っているからではなく、まだその時ではない だけかもしれない。逆に、今主流の世界観も、技術的条件が変われば再び挑戦を受けるだろう。
ツール選びは世界観の選択であると同時に、時代との対話 でもあるのだろう。