みんなの象徴はNull である
The Symbol for All of Us is Null
いきなり何を言い出すんだ? と思うかもしれない。
でも本稿を見つけたあなただったら、 きっとこの話はどこかで腹に落ちるだろう。
5分ください
- この世界を理解するために、人類が無意識にやっていること。
- AIがまったく同じことをしていること。
- 数学がそれを綺麗に説明してくれること。
そして最後に、
- なぜ Null がすべての象徴になるのか?
が、一本の線でつながるから。
そして、それがつながったとき、 世界が少しクリアに見えるようになるだろう。
順に語るね。
分かるとは「分ける」こと
世界には、わからないことがたくさんある。
しかし私たちは、それに立ち向かう知恵を持っている。
違う物事に名前を付け、分類することで理解を進める。
丸い果物を
- リンゴ
- ミカン
- 梨
と分けて理解するように。
これは誰もが無意識に行っている、認知のロジックだ。
AIも同じことをしている
AIは言葉を超高次元のベクトルで理解する。
どういうことかって? ここもちゃんと「分けて理解」しよう。
- 言葉を: 物事や概念にそれぞれIDを振って
- 超高次元の: 数千〜数万個の添え字がつく
- ベクトルで: 向きと長さの矢印に変換可能な配列形式のデータとして
- 理解する: いい感じに整理整頓する
疑似コードで書くとこう
apple = [2, 3, 5, ...] orange = [3, 5, 7, ...] dirOfApple = GetDirection(apple) lenOfApple = GetLength(apple)
- 実際のLLMでは数千〜数万 次元/個の添え字。 人間の感覚からすれば果てしない組み合わせ。
絵で表すと、こうなる。
ChatGPT や Gemini のような LLM(Large Language Model) は、だいたいこの仕組み。
Embedding (埋め込み) ってやつ。
詳しくは 3Blue1Brown の動画を参照されたし。名作ばかりだ。
Transformers, the tech behind LLMs - Deep Learning Chapter 5
GPTとは何か Transformerの視覚化 - Chapter 5, Deep Learning
類比 ↔︎ 対比 / 帰納 ↔︎ 演繹 / 具体 ↔︎ 抽象
大抵のスポーツや武道に基本の型があるように、物の見方・考え方にも基本の型がある。
それがこの3対。 多くの人が無意識にやってる。
だが、一度言語化して意識的に行う訓練をすると、何に対しても理解が早く深くなる。
類比 ↔︎ 対比 : リンゴもミカンも甘い。
↑↓
リンゴは赤い、ミカンは黄色。
帰納 ↔︎ 演繹 : 木からリンゴが落ちた。引力があるようだ。
↑↓
枝からとれたミカンは、引力によって地に落ちる。
具体 ↔︎ 抽象 : 丸くて赤くて甘いリンゴと、丸くて黄色で甘いミカンがある。
↑↓
丸い果物が2つある。
何をあたり前なことを? ではもう少しちゃんと説明しよう。
ここからだんだん本気になるよ。
簡単な数学を使う。でも厳密な数学じゃないからどうぞお気楽に。 数式は読み飛ばして全然OK。
類比と対比は「写像」である
類比とは共通点を探すこと。 対比とは相違性を探すこと。
例を示そう。
リンゴは、丸くて、赤くて、甘い
ミカンは、丸くて、黄色で、甘い
これを類比や対比すると
- 類比(Analogy):同じ方向への線形変換 → リンゴもミカンも甘くて丸い
- 対比(Contrast):逆方向への線形変換 → リンゴは赤いが、ミカンは黄色
となる。
ベクトル図にするとこうなる。
数式だと、線形写像 $ T_{analogy} $ と $ T_{contrast} $ によって
-
$ 類比 : T_{analogy}(\vec{apple}) \uparrow T_{analogy}(\vec{orange}) $
-
$ 対比 : T_{contrast}(\vec{apple}) \downarrow T_{contrast}(\vec{orange}) $
と表現できる。
帰納と演繹は「ベクトルの差と和」である
帰納とは過去の具体的な物事から法則を探求する(さがす)こと。
演繹とは法則から未来の具体的な物事を推論する(あてる)こと。
ニュートンの万有引力が良い例だ。
帰納(Induction): 法則ベクトルの抽出(抜き出し)
→ 木からリンゴが落ちた。引力があるようだ。
演繹(Deduction): 法則ベクトルの重畳(重ね合わせ)
→ 枝から離れたミカンは、引力によって地に落ちる。
ベクトル図にするとこうなる。
数式だと関数を使って
-
$ 帰納 : \text{Extraction}(\vec{fact_1}, \vec{fact_2}, \dots) \Rightarrow \vec{law} \mid \vec{law} = \vec{facts} - \frac{\sum \vec{noise}}{n} $
-
$ 演繹 : \text{Superposition}(\vec{object}) \Rightarrow \vec{future} \mid \vec{future} = \vec{object} + \vec{law} $
と表現できる。
- 帰納は推測。複数の事実を重ねてブレを相殺し、隠れた法則を浮かび上がらせる。
- 演繹は確定。法則は違うことなく未来に当てはまる。
具体と抽象は「情報の増加減による階層の移動」である
- 具体化(Concretize)とはパラメータ(属性)を追加して情報を増やし、認知の階層を下げること。
特別な制約はない。
- 抽象化(Abstract)とはパラメータ(属性)を減らして情報を絞って、認知の階層を上げること。
**いい感じの本質に向かって。**
例を示そう。
「果物」という抽象に、「丸型」、「赤色」、「甘い」というパラメータを追加すると
「リンゴ」になる。
「リンゴ」からいろんなパラメータを削減すると「丸型」になる
図にするとこうなる。
数式だと、例えばこう書ける。
-
$ 具体化 : \text{Concretize}(\vec{object}) \Rightarrow \vec{object} \oplus \vec{parameters} $
-
$ 抽象化 : \text{Abstract}(\vec{object}) \Rightarrow \vec{object} \ominus \vec{parameters} $
「人間」という抽象に、「47歳」と「男」というパラメータを追加すると「おっさん」になるね。
いい感じの本質
情報を減らして物事を抽象化する際、闇雲に減らしていくと、よく分からんことになる。
おっさんから髭を取って皺を取ったら、少年になってしまう。
そうじゃなくて、本質的な情報だけを抽出したい。
そんなときに使えるのが PCA(Principal Component Analysis / 主成分分析)。
PCA? 何それおいしいの? って人もきっと経験したことがある。
50問ぐらいのアンケートに答えたら、
直感的⇔論理的 vs 外交的⇔内向的 とかのマトリクスに性格分類する奴。
50問のアンケートは 50次元ベクトル。 それを 2次元に落として「性格マップ」にする。
数式で書くとこう。
-
抽出:
$\text{Extract}(\vec{data}) \Rightarrow \vec{essence} \mid \vec{essence} = Z W_k \mid W_k = [\vec{v}_1, \dots, \vec{v}_k] \text{ where } \Sigma \vec{v} = \lambda \vec{v}$…
- $ Z : Zero-centering $(中心化)
- $ W : Weight $(重み付け)
- $ \lambda :$ 固有値 = MECEに整理した各情報のサイズ
- MECE: Mutually Exclusive, Collectively Exhaustive / モレなくダブりなく
$ k = 2 $ にすれば 2次元のマトリクスになる
これって、私たちが無意識にやっている「ざっくり理解」と同じ。
詳しくはこの動画がおすすめ。
Abstract vector spaces - Chapter 16, Essence of linear algebra
Chapter 16 抽象ベクトル空間 - 線形代数のエッセンス
シンボル(象徴)とは「第1主成分」である
物事を整理していくと重要な情報とそうでない情報があるわけで。
一番重要な情報にシンプルな印を付けて覚えやすくしたくなる。
それがシンボル(象徴)
旗、マーク、王様、アイドル…
人々が何かを象徴として掲げるとき、やっていることはこれ。
みんなが持ってる雑多なベクトルから、一番大事なベクトルに目を向ける。
一番大事なベクトル = PCA の 主成分ベクトル ってわけ。
PCA の第1主成分は「分散が最大の方向」= その集団の情報を最も多く保つベクトル。
みんなを一番よく代表する矢印、つまり象徴だね。
抽象化の極限は?
抽象化(Abstract)は、いい感じの本質に向かって情報を減らすこと。
- 立体の情報をそぎ落として面にする
- 面の情報をそぎ落として線にする
- 線の情報をそぎ落として点にする → $ \mathbb{R}^0 $ にはまだ「一点が存在する」という情報がある。
- その情報すらそぎ落とすと…?
最後に残るのは 何もない空間
それがNull(無)
森羅万象を抽象化し続けると最後はNull (無)になる
だから Null は、
- 誰のものでもなく
- 何の属性も持たず
- すべてのベクトルそぎ落とした究極のシンボルになる
リンゴも、ミカンも、あなたも、私も。
無限次元のノイズを削ぎ落とした先に、誰もが辿り着く同じ空間。 それが Null。
天地開闢、色即是空、ビッグバン….、だいたい同じこと。
同じシンボルに集いし友よ!仲良くしようぜ♪
(c) 2026 GoodRelax. MIT License.