ブラウザ上で動くミニTransformer — 学習・推論・可視化・パラメータ空間直接操作
Token Emb + Pos Emb → [LayerNorm → Causal MHA + Dropout → LayerNorm → FFN(GELU) + Dropout] × N → LayerNorm → Linear(weight-tied) → Softmaxmorning − I + She → 朝の文脈で sheが続きやすい単語?eat − like + want → 似た動詞の文脈が近い?steer_vec = emb("evening") − emb("morning") を隠れ層に足すα が大きいほど介入が強く、モデルの元の判断が上書きされる