簡易用語説明【Attention】
ニューラルネットワークのコンテキストでは、注意は認知的注意を模倣する手法である。この効果により、入力データの重要な部分が強化され、残りがフェードアウトする。(引用元:wikipedia)
Attention機構(注意機構)とは、主に機械翻訳や画像処理等を目的としたEncoder-Decoderモデルに導入される要素ごとの関係性、注意箇所を学習する機構.機械翻訳において翻訳対象の単語間の関係性や全体のコンテキストを考慮させるために考案されたものだが、画像処理などにおいても応用されている.(引用元:http://www.thothchildren.com)
Attentionの情報
|
最も一般的に使用される英文表記
|
Attention |
|---|---|
|
音・読み
|
チュウイキコウ |
|
最も一般的に使用される和文表記
|
注意機構 |
|
別表記①
|
該当なし |
|
別表記②
|
該当なし |
|
別表記③
|
該当なし |
|
G検定シラバス
|
あり |
|
E資格シラバス
|
あり |
|
備考欄
|
ー |