ReLU【AI用語・英文】

簡易用語説明【ReLU】

活性化関数。2011年、Xavier Glorot らは隠れ層の活性化関数としてmax(0, x) を使った方がtanhやソフトプラスよりも改善するということを発表した。(引用元:wikipedia)

ReLUの情報

最も一般的に使用される英文表記
ReLU
音・読み
レルー
最も一般的に使用される和文表記
ランプ関数
別表記①
該当なし
別表記②
該当なし
別表記③
該当なし
G検定シラバス
あり
E資格シラバス
あり
備考欄
NO IMAGE
最新情報をチェックしよう!
>AI研修実績25000名

AI研修実績25000名

AI999は、累計25000名以上にAIプログラムを提供するStudy-AIが講座受講生の為のサービスの一環として提供しています。2017年から日本ディープラーニング協会のE資格認定プログラム[00011]の運営、2019年にはAI実装検定を主催するなどAI人材育成の草分け的存在としてあなたのキャリアに寄り添います。

CTR IMG