Transformerの自己注意は強力だが、実はそのままでは「順序」を持たない。単語の集合としては扱えても、「どちらが先か」「どれだけ離れているか」といった情報が入力に含まれなければ、語順が意味を変える言語を正しく扱えない。そこでLLMは、トークンの並びに関する手がかりを、何らかの方法で内部表現に注入する。これが位置エンコーディングや位置表現と呼ばれる領域で、選択する方式によって長文での安定性、外挿性能、推論時のコスト、そして生成の癖まで変わり得る。本稿では、数式を前提にせず、代表的な方式であるサイン波型、学習型、RoPE、ALiBiを中心に、「何を足しているのか」「どんな直観で効くのか」「どこで破綻しやすいのか」を文章で整理する。