みんなの象徴はNull である

The Symbol for All of Us is Null

いきなり何を言い出すんだ? と思うかもしれない。

でも本稿を見つけたあなただったら、 きっとこの話はどこかで腹に落ちるだろう。

5分ください

そして最後に、

が、一本の線でつながるから。

そして、それがつながったとき、 世界が少しクリアに見えるようになるだろう。

順に語るね。


分かるとは「分ける」こと

世界には、わからないことがたくさんある。

しかし私たちは、それに立ち向かう知恵を持っている。

違う物事に名前を付け、分類することで理解を進める。

丸い果物を

と分けて理解するように。

これは誰もが無意識に行っている、認知のロジックだ。


AIも同じことをしている

AIは言葉を超高次元のベクトルで理解する。

どういうことかって? ここもちゃんと「分けて理解」しよう。

疑似コードで書くとこう

 apple = [2, 3, 5, ...]  
 orange = [3, 5, 7, ...]

 dirOfApple = GetDirection(apple)  
 lenOfApple = GetLength(apple)

絵で表すと、こうなる。

ChatGPT や Gemini のような LLM(Large Language Model) は、だいたいこの仕組み。
Embedding (埋め込み) ってやつ。

詳しくは 3Blue1Brown の動画を参照されたし。名作ばかりだ。

Transformers, the tech behind LLMs - Deep Learning Chapter 5
GPTとは何か Transformerの視覚化 - Chapter 5, Deep Learning


類比 ↔︎ 対比 / 帰納 ↔︎ 演繹 / 具体 ↔︎ 抽象

大抵のスポーツや武道に基本の型があるように、物の見方・考え方にも基本の型がある。
それがこの3対。 多くの人が無意識にやってる。
だが、一度言語化して意識的に行う訓練をすると、何に対しても理解が早く深くなる。

 類比 ↔︎ 対比 :  リンゴもミカンも甘い。
                      ↑↓
               リンゴは赤い、ミカンは黄色。

 帰納 ↔︎ 演繹 :  木からリンゴが落ちた。引力があるようだ。
                      ↑↓
               枝からとれたミカンは、引力によって地に落ちる。

 具体 ↔︎ 抽象 :  丸くて赤くて甘いリンゴと、丸くて黄色で甘いミカンがある。
                      ↑↓
               丸い果物が2つある。

何をあたり前なことを? ではもう少しちゃんと説明しよう。
ここからだんだん本気になるよ。
簡単な数学を使う。でも厳密な数学じゃないからどうぞお気楽に。 数式は読み飛ばして全然OK。


類比と対比は「写像」である

類比とは共通点を探すこと。 対比とは相違性を探すこと。

例を示そう。

リンゴは、丸くて、赤くて、甘い
ミカンは、丸くて、黄色で、甘い

これを類比や対比すると

となる。

ベクトル図にするとこうなる。

数式だと、線形写像 $ T_{analogy} $ と $ T_{contrast} $ によって

と表現できる。


帰納と演繹は「ベクトルの差と和」である

帰納とは過去の具体的な物事から法則を探求する(さがす)こと。
演繹とは法則から未来の具体的な物事を推論する(あてる)こと。

ニュートンの万有引力が良い例だ。

帰納(Induction): 法則ベクトルの抽出(抜き出し)   
                  → 木からリンゴが落ちた。引力があるようだ。

演繹(Deduction): 法則ベクトルの重畳(重ね合わせ) 
                  → 枝から離れたミカンは、引力によって地に落ちる。

ベクトル図にするとこうなる。

数式だと関数を使って

と表現できる。


具体と抽象は「情報の増加減による階層の移動」である

- 具体化(Concretize)とはパラメータ(属性)を追加して情報を増やし、認知の階層を下げること。  
  特別な制約はない。 
- 抽象化(Abstract)とはパラメータ(属性)を減らして情報を絞って、認知の階層を上げること。  
  **いい感じの本質に向かって。**

例を示そう。

「果物」という抽象に、「丸型」、「赤色」、「甘い」というパラメータを追加すると
「リンゴ」になる。 「リンゴ」からいろんなパラメータを削減すると「丸型」になる

図にするとこうなる。

数式だと、例えばこう書ける。

「人間」という抽象に、「47歳」と「男」というパラメータを追加すると「おっさん」になるね。


いい感じの本質

情報を減らして物事を抽象化する際、闇雲に減らしていくと、よく分からんことになる。
おっさんから髭を取って皺を取ったら、少年になってしまう。
そうじゃなくて、本質的な情報だけを抽出したい。

そんなときに使えるのが PCA(Principal Component Analysis / 主成分分析)。
PCA? 何それおいしいの? って人もきっと経験したことがある。

50問ぐらいのアンケートに答えたら、
直感的⇔論理的 vs 外交的⇔内向的 とかのマトリクスに性格分類する奴。
50問のアンケートは 50次元ベクトル。 それを 2次元に落として「性格マップ」にする。

数式で書くとこう。

$ k = 2 $ にすれば 2次元のマトリクスになる

これって、私たちが無意識にやっている「ざっくり理解」と同じ。

詳しくはこの動画がおすすめ。

Abstract vector spaces - Chapter 16, Essence of linear algebra
Chapter 16 抽象ベクトル空間 - 線形代数のエッセンス


シンボル(象徴)とは「第1主成分」である

物事を整理していくと重要な情報とそうでない情報があるわけで。
一番重要な情報にシンプルな印を付けて覚えやすくしたくなる。

それがシンボル(象徴)

旗、マーク、王様、アイドル…

人々が何かを象徴として掲げるとき、やっていることはこれ。
みんなが持ってる雑多なベクトルから、一番大事なベクトルに目を向ける。

一番大事なベクトル = PCA の 主成分ベクトル ってわけ。

PCA の第1主成分は「分散が最大の方向」= その集団の情報を最も多く保つベクトル。
みんなを一番よく代表する矢印、つまり象徴だね。


抽象化の極限は?

抽象化(Abstract)は、いい感じの本質に向かって情報を減らすこと。

\[\mathbb{R}^3 \to \mathbb{R}^2 \to \mathbb{R}^1 \to \mathbb{R}^0 = \{*\} \to \emptyset = \text{Null}\]

最後に残るのは 何もない空間

それがNull(無)

森羅万象を抽象化し続けると最後はNull ()になる

だから Null は、

リンゴも、ミカンも、あなたも、私も。

無限次元のノイズを削ぎ落とした先に、誰もが辿り着く同じ空間。 それが Null。

天地開闢、色即是空、ビッグバン….、だいたい同じこと。

同じシンボルに集いし友よ!仲良くしようぜ♪

(c) 2026 GoodRelax. MIT License.