LLMは巨大すぎる。
- Digital4,800 JPY


1. なぜ、LLMはこれほど「重い」のか? ChatGPTをはじめとするLLMは、なぜあれほど巨大な計算資源を必要とするのか。 本書『LLMは重すぎるⅡ』の著者は、その原因を**「一意性への執着」**だと断定する。 従来のプログラムでは、A = "Apple" のように変数は一意に定まる。しかし自然言語は違う。文脈によって、Aは「果物」にもなり、「IT企業」にもなり、「赤いもの」にもなる。 現在のLLMは、この無限に広がる「意味の可能性」を、無理やり巨大なニューラルネットワークの重みの中に封じ込めようとしている。だから重いのだ、と。 2. 「正解」を捨て、「可能性」を実装する 本書が提唱する**「多義トークン(Polysemous Token)」の概念は衝撃的だ。 データを「確定した値」としてではなく、「確率的に遷移しうる意味の集合」として保存する。 著者はこの理論を用い、15TBのテキスト情報をわずか90GBの「構造と遷移」に圧縮する思考実験を展開する。それは情報の圧縮というより、「意味の幽霊」の保存**に近い。 正確なWikiの引用はできないかもしれない。だが、そこには人間が言葉を紡ぐときの「迷い」や「揺らぎ」そのものが、極めて軽量なデータ構造として実装されている。 3. 増補版『Ⅱ』の真骨頂:「対LLM暗号」 増補版である本書の最大の読みどころは、第10章以降に追加された**「多義性を利用した暗号化」**だ。 -------------------- 目次 第1章 1.1 変数は、いつから「一つの意味」になったのか 1.2 変数という発明と、その成功 1.3 一意性は、本当に必要だったのか 1.4 自然言語は、最初から多義である 1.5 曖昧さはバグか、それとも資源か 1.6 一意性を捨てる、という選択 1.7 本書が目指すもの 第2章 2.1 単語は、それ単体では意味を持たない 2.2 自然言語における「遅延決定」 2.3 多義性は例外ではなく、標準である 2.4 一意性は、人工的な制約である 2.5 大規模言語モデルが示した事実 2.6 多義性は「管理」できる 2.7 本書の立場 2.8 次章への橋渡し 第3章 3.1 圧縮とは、何をしている技術なのか 3.2 gzipがやっていること 3.3 BPE:言語を扱っているように見える圧縮 3.4 BPEはなぜ生成を生まないのか 3.5 VQ-VAE:最も近く、しかし決定的に違う技術 3.6 VQ-VAEの限界 3.7 共通する前提:一意性への執着 3.8 圧縮と生成が分断されてきた理由 3.9 次節への導入 第3章(後半) 3.10 生成とは、何が起きている現象なのか 3.11 一意な表現は、生成を内包できない 3.12 曖昧さは、これまで「誤差」だった 3.13 本書の転倒:曖昧さを「主役」にする 3.14 多義トークンとは何か(再定義) 3.15 多義性が入った瞬間、何が変わるのか 3.16 なぜ「生成」が生まれるのか 3.17 圧縮と生成の統合 3.18 なぜ巨大モデルが不要になるのか 3.19 本章の結論 第4章 4.1 まず結論を述べる 4.2 LLMは「生成モデル」である、は本当か 4.3 LLMの内部で起きていること(簡略) 4.4 なぜ多義性を隠すのか 4.5 潜在空間という「ブラックボックス」 4.6 だが、それは「再利用できない」 4.7 なぜモデルが巨大になるのか(本質) 4.8 本書の視点:責務分離の欠如 4.9 本書が切り分けるもの 4.10 LLMは敵ではない 4.11 本書の立場(明文化) 4.12 次章への導線 第5章 5.1 なぜ「トークン」を再定義する必要があるのか 5.2 一意トークンの限界 5.3 言語における最小単位は「集合」である 5.4 多義トークンの定義 5.5 「未確定」であることが状態である 5.6 二義化・多義化・N義化 5.7 なぜ「Nを固定する」のか 5.8 集合トークンは「情報を減らさない」 5.9 圧縮との関係 5.10 多義トークンは「生成の種」である 5.11 LLMとの決定的な違い 5.12 次章への導線 第6章 6.1 なぜ「遷移」が必要なのか 6.2 一意マルコフ連鎖の復習(極めて簡潔に) 6.3 一意マルコフ連鎖の限界 6.4 多義マルコフ遷移の定義 6.5 「かさなり」が意味を制御する 6.6 意味は「選ばれない」限り保持される 6.7 N義化と計算可能性 6.8 生成とは「遷移の選択」である 6.9 LLMとの構造的対比 6.10 次章への橋渡し 第7章 7.1 この章の目的 7.2 実装の全体像(分解) 7.3 トークン化:最初にやるべきこと 7.4 一義マルコフ連鎖の構築(下地) 7.5 多義集合の生成(N義化) 7.6 集合→集合遷移の構築 7.7 圧縮表現:意味を「並ばせない」 7.8 復元:完全である必要はない 7.9 生成と圧縮が同一である理由 7.10 実装は一つである必要がない 7.11 この章で示したかったこと 7.12 次章への接続 第8章 8.1 「15TBを保存する」とは何を意味するのか 8.2 なぜ通常の圧縮では不十分なのか 8.3 本モデルにおける「保持」の再定義 8.4 トークンは「文字」ではない 8.5 15TB → 90GB が成立する条件 8.6 順序は「完全」である必要がない 8.7 保存形式:現実的な三層構造 8.8 復元テーブルは「巨大でよい」 8.9 「完全再現」を目指さない勇気 8.10 なぜ90GBで「十分」なのか 8.11 LLMとの決定的な違い 8.12 この章の結論 8.13 次章への接続 第9章 9.1 本章で行う立場の整理 9.2 なぜ埋め込みを一義とするのか 9.3 多義性をどこに置くかという問題 9.4 一義トークン × 多義的束ね 9.5 この設計が生む多義の性格 9.6 LLMの多義との決定的な違い 9.7 このとき「生成」とは何か 9.8 LLMとの競争率を再評価する 9.9 競争ではなく、役割分担 9.10 本章の結論 第10章 10.1 10.2 10.3 10.4 10.5 第10章補遺:多義トークンによる換字暗号 6.10.6 LLMによる解読耐性 6.10.7 偽造耐性という逆転現象 6.10.8 これは暗号か、思想か 6.2.1 攻撃モデルの分類 6.2.3 言語学的攻撃(文法・意味解析) 6.2.4 既知平文攻撃(Known Plaintext Attack) 6.2.5 LLMベース攻撃 第11章補遺3 6.3.1 実験設定 6.3.5 なぜLLMは本方式に弱いのか(構造的理由) 6.3.6 本方式が示す、LLM知性の限界 6.3.7 人間との決定的差異 第11章補遺2 6.10.1 単換字暗号 6.10.2 ヴィジュネル暗号 6.10.3 エニグマ 6.10.4 ワンタイムパッドとの比較 6.10.5 歴史的暗号に欠けていたもの 6.10.6 多義シンボル暗号は何を変えたか 6.10.7 暗号であると「分かっていても解けない」 6.10.8 本章まとめ

