- はじめに
- 利用するモジュール
- torch.distributions の基本
- 分布の記述
- サンプリング
- 対数尤度の計算
- MAP推定
- 用いるデータ
- モデル
- 目的関数
- 学習コード
- PyTorchっぽく書く
- 変分推論
- 変分モデル
- 目的関数
- 学習コード
- 変分推論をPyTorchっぽく書く
CAE・有限要素法のお勉強:ガラーキン法
- はじめに
- 有限要素法の下地をひとっ走り
- 考える微分方程式
- 解の候補を絞る
- 解の候補が満たすべき素朴な条件:最小二乗法
- 解の候補が満たすべき面白い条件:重み付き残差法
- 欲張りな重み付き残差法
- 重み付き残差の準備の仕方を決める:ガラーキン法
KL reverseとKL forwardのメモ
- はじめに
- KLダイバージェンス
- 表記に関する注意事項
- 確率分布間の比較
- ダイバージェンスの非対称性
- KL reverseの計算
- KL forwardの計算
- 確率分布の形状再考
- 変分推論では KL reverseを利用する
変分推論とVAEまでの流れ
- はじめに
- 確率モデリング
- 例 ガウス分布から生起するデータ
- 回帰モデル
- ベイズモデリング
- MAP推定
- 変分推論
- VAE
- Normalizing Flow
変分モデルの書き方 Pyro
- はじめに
- データの分布形状が既知な場合の推論
- 問題設定
- ベイズ推論のためのモデリング
- 共役事前分布を用いた解析的推論
- 変分推論
- Pyro で変分推論
- 振り返り
- 追記:変分ベイズ推論を応用した最尤推定、MAP推定
- MAP推定
- 最尤推定
torch.jit を使ってみたのでメモ
- はじめに
- Python on CPU
- Python on GPU
- Torch on CPU
- Torch on GPU
Graph Neural Network 系のライブラリメモ
- はじめに
- PyTorch
- Deep Graph Library
- PyTorch Geometric
- TensorFlow
- graphnets
- おすすめ
TensorFlow 2.0 のコードの書き方基本集(PyTorchとの比較)
- はじめに
- 線形回帰と学習のコード
- データセット
- PyTorch
- TF2.0
- 違い
- 些細な違い:層の定義の仕方
- 些細な違い:ロス関数の書き方
- 大きな違い:勾配計算とパラメータ更新
- ニューラルネットワークの簡単な書き方
- PyTorch
- TF2.0
- 違い
- 畳み込みニューラルネットワーク
- PyTorch
- TF2.0
- 違い
- パディング
- 畳み込み層→線形層
- traininigフラグ
- RNN
- PyTorch
- TF2.0
- 違い
- 大きな違い:多層化
- 些細な違い:Bidirectional
- 大きな違い:戻り値の並び
- 学習
確率的プログラミング言語Pyroと変分ベイズ推論の基本
- はじめに
- ベイズ推論
- モデリング
- 事後分布
- 予測分布
- 実際に使われる予測分布
- Pyroの基本
- Pyroの確率変数の取扱
- Pyroのハイパーパラメータの取扱
- Pyroでの変分パラメータの取扱
- 変分ベイズ推論のコード:確率モデル
- 変分モデル
- 学習コード
- 変分推論のカスタマイズ
- pyroについて
統計的学習理論でのコトバの定義が分かりやすかったのでまとめ
- はじめに
- コトバの定義
- データ
- 学習データ
- 検証データ
- テストデータ
- 入力データと出力データ
- 機械学習モデル
- 仮説
- 仮説集合
- 損失
- 損失関数
- 予測損失
- 経験損失
- データ
TensorFlow2.0 Preview版が出ました!
- TensorFlow 2.0発表!
- コード周辺の変更
- tutorial