ステージ4 ニューラルネットワークを作る
ステップ37 テンソルを扱う ステップ38 形状を変える関数 ステップ39 和を求める関数 ステップ40 ブロードキャストを行う関数 ステップ41 行列の積 ステップ42 線形回帰 ステップ43 ニューラルネットワーク ステップ44 パラメータをまとめるレイヤ ステップ45 レイヤをまとめるレイヤ ステップ46 Optimizer によるパラメータ更新 ステップ47 ソフトマックス関数と交差エントロピー誤差 ステップ48 多値分類 ステップ49 Dataset クラスと前処理 ステップ50 ミニバッチを取り出す DataLoader ステップ51 MNIST の学習 |
ステップ37 テンソルを扱う
・要素ごとの計算
・テンソルを使用したときのバックプロパゲーショ
・テンソルを使用したときのバックバックプロパゲーション
ステップ38 形状を変える関数
・reshape 関数の実装
・Variable から reshape を使う
・行列の転置
・実際の transpose 関数
ステップ39 和を求める関数
・sum 関数の逆伝播
・sum 関数の実装
・axis と keepdims
ステップ40 ブロードキャストを行う関数
・broadcast_to 関数と sum_to 関数
・Dezero の broadcast_to 関数と sum_to 関数
・ブロードキャストへの対応
ステップ41 行列の積
・ベクトルの内積と行列の積
・行列の形状チェック
ステップ42 線形回帰
・トイ・データセット
・線形回帰の理論
・線形回帰の実装
・DeZero の mean_squared_error 関数
ステップ43 ニューラルネットワーク
・DeZero の linear 関数
・非線形なデータセット
・活性化関数とニューラルネットワーク
・ニューラルネットワークの実装
ステップ44 パラメータをまとめるレイヤ
・Parameter クラスの実装
・Layer クラスの実装
・Linear クラスの実装
・Layer を使ったニューラルネットワークの実装
ステップ45 レイヤをまとめるレイヤ
・Layer クラスの拡張
・Model のクラス
・Model を使って問題を解く
・MLP クラス
ステップ46 Optimizer によるパラメータ更新
・Optimizer クラス
・SGD クラスの実装
・SGD クラスを使って問題を解く
・SGD 以外の最適化手法
ステップ47 ソフトマックス関数と交差エントロピー誤差
・スライス操作のための関数
・ソフトマックス関数
・交差エントロピー誤差
ステップ48 多値分類
・スパイラル・データセット
・学習用のコード
ステップ49 Dataset クラスと前処理
・Dataset クラスの実装
・大きいデータセットの場合
・データの連結
・学習用のコード
・データの前処理
ステップ50 ミニバッチを取り出す DataLoader
・イテレータとは
・DataLoader を使う
・accuracy 関数の実装
・スパイラル・データセットの学習コード
ステップ51 MNIST の学習
・MNIST データセット
・MNIST の学習
・モデルの改良
コラム:ディープラーニングのフレームワーク