ChatGPTが「意味の通った文章」を作れる秘密の一つが、この“注意機構(Self-Attention)”です。今回は、この少し難しそうな言葉を、たとえ話や図解的なイメージでわかりやすくご紹介します!
🧠 単語同士の“関係性”に注目する仕組み
従来のAIは「単語の順番」を重視するだけでしたが、Self-Attentionでは、
「この単語は、他のどの単語と強く関係しているか?」 をすべての単語同士で計算します。
📝 例: 「彼は昨日、公園で犬と遊んだ。」 →「犬」は「遊んだ」に強く関係していると判断され、重みづけされる。
⚖️ 関係の強さは「重み(ウェイト)」で表現
各単語が、他の単語にどれだけ注意を向けるかは「重み(attention weight)」として数値化されます。
📊 例(”犬”に注目したとき):
- 「彼」→ 0.1
- 「昨日」→ 0.2
- 「公園」→ 0.3
- 「犬」→ 1.0
- 「遊んだ」→ 0.9
このように、文の中で意味的に重要な単語に「より注意を向ける」ように設計されているのがSelf-Attentionです。
🔁 すべての単語が「互いを見合う」全体構造
Self-Attentionでは、
- すべての単語が、
- 他のすべての単語との関係性を計算し、
- 自分の“意味ベクトル”を更新していく
というプロセスを**何層にもわたって繰り返します。
だからこそ、ChatGPTは:
- 「遠く離れた単語のつながり」も理解できる
- 「一貫性のある話の流れ」も追える
🧩 分散表現 × Self-Attention = 真の文脈理解
前回紹介した「分散表現」は、単語に“初期の意味ベクトル”を与える技術でした。
🧬 Self-Attentionは、そのベクトルを文脈に応じて動的に変化させる仕組みです。
これにより、同じ単語でも:
- 「Apple(果物)」と「Apple(企業)」 が異なる意味として処理されるようになります!
✅ まとめ
注意機構(Self-Attention)とは: 文中の単語同士の関係性をすべて計算し、“文脈に合った意味”を動的に構築する仕組み。
ChatGPTの「文脈を理解したような出力」は、この仕組みがあってこそ成り立っています。
次回は、この注意機構を支える「位置エンコーディング」について、わかりやすく解説します!