-
Notifications
You must be signed in to change notification settings - Fork 4
Description
site/ja/tutorials/text/transformer.ipynb を訳しているのですが、訳語に迷うものがいくつもあります。
ディスカッションをお願いします。とりあえず私が訳してみた訳語は次の通りです。カタカナ語がほとんどですが、棒引きや中黒の有無を含めて統一できないかと思っております。
transformer -> Transformer
attention -> アテンション
self-attention -> セルフ・アテンション
sequence -> シーケンス
time step -> タイムステップ
subword -> サブワード
tokenizer -> トークナイザ
graph mode -> グラフモード
graph tensor -> グラフテンソル
unicode -> Unicode
eager tensor -> Eager テンソル
positional encoding -> 位置エンコーディング
attention logit -> アテンション・ロジット
look-ahead mask -> ルック・アヘッド・マスク
scaled dot-product attention -> スケール済み内積アテンション
scaling -> スケーリング
softmax -> ソフトマックス
attention weight -> アテンションの重み
multi-head attention -> マルチ・ヘッド・アテンション
attention head -> アテンション・ヘッド
point-wise -> ポイント・ワイズ
feed forward network -> フィード・フォワード・ネットワーク
encoder -> エンコーダー
decoder -> デコーダー
sub layer -> サブ・レイヤー
layer normalization -> レイヤー正規化
padding mask -> パディング・マスク
state of the art -> ステート・オブ・ジ・アート
teacher forcing -> ティーチャー・フォーシング
beam search -> ビーム・サーチ