ー目次ー
第一講: 活性化関数 (PDF全編)
- 最小二乗法,平均二乗誤差
- 最尤法,条件付き確率,条件付き尤度,最尤推定量
- 条件付き対数尤度,対数
- 最尤法(GT版 主に対数)
- 最尤法(GT版 主に微分)
- 最尤法(母集団)
- 最尤法(母平均と母分散)
- 最尤法(最小二乗法との関係)
第三講: 確率分布(PDF全編)
第四講: 損失関数 ~E資格元ネタ(Deep Learning” (2016) の6.2.1 節)の数式を予習 (PDF全編)
- 機械学習における損失関数とは?,カルバック・ライブラー情報量と交差エントロピー,損失関数としての交差エントロピー(1)
- 損失関数としての交差エントロピー(2),損失関数としての平均二乗誤差と平均絶対誤差
[第一講] 活性化関数とは
ディープラーニングは層を幾重にもディープにしたネットワークです。活性化関数はそのほとんどすべての層で使われる関数なので、まず初めに攻略しましょう。
[第二講] 尤度とは
本講で扱う最尤法はAIのモデルを考える時に基礎となる考え方なので、一緒に数式の読み方や高校数学を予習しておきましょう。
[第三講] 確率分布とは AI(人工知能)とは入出力のデータを結ぶモデルを作る事です。データとは数値であり数値を並べたものが分布です。つまり、AIの解析とは分布を調べているということなのです。代表的な分布の数式を予習しておきましょう。
[第四講] 損失関数とは AIの精度を上げたい時に必ず使うのが損失関数です。第三講で学んだ分布を比較して精度をUPしていきます。ここまでは数式の読み方だけでも攻略しておきましょう。