目次-中学生から分かるAI数学

ー目次ー

第一講: 活性化関数 (PDF全編)

  1. Step関数
  2. ReLU関数
  3. Softmax関数
  4. Sigmoid関数
  5. Tanh関数

第二講: 条件付き対数尤度と平均二乗誤差(PDF全編)

  1. 最小二乗法,平均二乗誤差
  2. 最尤法,条件付き確率,条件付き尤度,最尤推定量
  3. 条件付き対数尤度,対数
  4. 最尤法(GT版 主に対数)
  5. 最尤法(GT版 主に微分)
  6. 最尤法(母集団)
  7. 最尤法(母平均と母分散)
  8. 最尤法(最小二乗法との関係)

第三講: 確率分布(PDF全編)

  1. Bernoulli 分布
  2. Gauss分布
  3. 正規分布(GT版)
  4. 二項分布1(GT版)
  5. 二項分布2(GT版)
  6. 二項分布3(GT版)

第四講: 損失関数 ~E資格元ネタ(Deep Learning” (2016) の6.2.1 節)の数式を予習 (PDF全編)

  1. 機械学習における損失関数とは?,カルバック・ライブラー情報量と交差エントロピー,損失関数としての交差エントロピー(1)
  2. 損失関数としての交差エントロピー(2),損失関数としての平均二乗誤差と平均絶対誤差

[第一講] 活性化関数とは
ディープラーニングは層を幾重にもディープにしたネットワークです。活性化関数はそのほとんどすべての層で使われる関数なので、まず初めに攻略しましょう。

[第二講] 尤度とは
本講で扱う最尤法はAIのモデルを考える時に基礎となる考え方なので、一緒に数式の読み方や高校数学を予習しておきましょう。

[第三講] 確率分布とは AI(人工知能)とは入出力のデータを結ぶモデルを作る事です。データとは数値であり数値を並べたものが分布です。つまり、AIの解析とは分布を調べているということなのです。代表的な分布の数式を予習しておきましょう。

[第四講] 損失関数とは AIの精度を上げたい時に必ず使うのが損失関数です。第三講で学んだ分布を比較して精度をUPしていきます。ここまでは数式の読み方だけでも攻略しておきましょう。