- はじめに:推定量とは
- 一致推定量
- 不偏推定量
- 最後に
ガウシアンプロセスを使ってみたい人への最低限の知識
- はじめに
- ガウス過程の構成要素
- パラメータの周辺化消去
- カーネル関数
- ガウス過程
- ガウス過程回帰
- ガウス過程分類
- 最後に
TFPで階層モデルを書くときの便利なクラス tfd.JointDistributionCoroutine
- はじめに
- 環境
- 階層モデル
- 例:モデル
- コード
tf.functionのメモ
- tf.functionの基本
- 基本的な役割
- 実際の使い方
- 注意点
- 制御構文
- TO DO
TFP: 確率モデルの書き方 with tfd.JointDistiburionSequential
- はじめに
- 色々な分布
- 正規分布を使った基本
- 変数の接続が複雑な場合
- sample
- log_prob
ベイズの定理を使わずに事後分布の推論
- はじめに
- グラフィカルモデリング
- グラフィカルモデルと同時分布
- グラフィカルモデリング
- まとめ
- 正規分布のパラメータの事後分布
- 回帰問題のモデリング
【書籍紹介】ガウス過程と機械学習
- はじめに
- 目次とコメント
- 0章 たった5分でガウス過程が分かってしまう
- 1章 線形回帰モデル
- 2章 ガウス分布
- 3章 ガウス過程
- 4章 確率的生成モデルとガウス過程
- 5章 ガウス過程の計算法
- 6章 ガウス過程の適用
- 7章 ガウス過程による教師なし学習
- ガウス過程のライブラリ
- GPy
- GPyTorch
- GPflow
【PyTorch】多項式回帰MAP推定・変分ベイズ推論を試す
- はじめに
- 利用するモジュール
- torch.distributions の基本
- 分布の記述
- サンプリング
- 対数尤度の計算
- MAP推定
- 用いるデータ
- モデル
- 目的関数
- 学習コード
- PyTorchっぽく書く
- 変分推論
- 変分モデル
- 目的関数
- 学習コード
- 変分推論をPyTorchっぽく書く
CAE・有限要素法のお勉強:ガラーキン法
- はじめに
- 有限要素法の下地をひとっ走り
- 考える微分方程式
- 解の候補を絞る
- 解の候補が満たすべき素朴な条件:最小二乗法
- 解の候補が満たすべき面白い条件:重み付き残差法
- 欲張りな重み付き残差法
- 重み付き残差の準備の仕方を決める:ガラーキン法
KL reverseとKL forwardのメモ
- はじめに
- KLダイバージェンス
- 表記に関する注意事項
- 確率分布間の比較
- ダイバージェンスの非対称性
- KL reverseの計算
- KL forwardの計算
- 確率分布の形状再考
- 変分推論では KL reverseを利用する
変分推論とVAEまでの流れ
- はじめに
- 確率モデリング
- 例 ガウス分布から生起するデータ
- 回帰モデル
- ベイズモデリング
- MAP推定
- 変分推論
- VAE
- Normalizing Flow
変分モデルの書き方 Pyro
- はじめに
- データの分布形状が既知な場合の推論
- 問題設定
- ベイズ推論のためのモデリング
- 共役事前分布を用いた解析的推論
- 変分推論
- Pyro で変分推論
- 振り返り
- 追記:変分ベイズ推論を応用した最尤推定、MAP推定
- MAP推定
- 最尤推定
torch.jit を使ってみたのでメモ
- はじめに
- Python on CPU
- Python on GPU
- Torch on CPU
- Torch on GPU