- はじめに
- データとモデル
- 確率モデル
- 確率モデルを作る
- 複雑なモデルを使うことが最善手であるか
- モデルの具体的な作り方
- モデルの仮定
- アンサンブルモデル
- 点推定モデル
- 最尤推定
- 制約付き最尤推定※ (最大事後確率推定)
- ベイズ予測分布と点推定
- ベイズ統計学
- ベイズ予測分布を得ることの意義
- ベイズ統計学の主題
- 特異モデルと正則モデル
- ベイズ統計学のまとめ
PyTorchの周辺ライブラリ
- PyTorch
- 確率的プログラミング
- GPyTorch
- Pyro
- BoTorch
- Ax
- Training Wrapper
- pytorch lightning
- ignite
- Catalyst
- skorch
- Computer Vision
- kaolin
- pytorch3d
- kornia
Pyro on PyTorchでベイズ予測分布(MAP推定、変分推論、MCMC)
- はじめに
- Pyroおさらい
- データ
- モデル
- MAP推定
- 変分推論
- 変分近似分布
- 推論
- 予測
- MCMC
- MCMCの実行
- 事後分布
- 予測分布
確率的プログラミング言語 pyro 基本
- はじめに
- Pyro
- primitives
- 確率変数の実現値 sample
- 条件付き独立のベクトル化 plate
- 階層モデル
- 変分パラメータを扱う param
- poutine
- モデルの様子を把握する trace
- 条件付き分布の作成 condition
- まとめと変分推論の例
Ubuntu 18.04にgit入れようとしてハマったこと
- はじめに
- 事象
- 対応
- 設定未完のパッケージ把握
- パッケージの設定を実施
- 設定できなかったパッケージの削除
Variational Gaussian Process と Deep Neural Netの回帰の比較
- はじめに
- 連続で滑らかな関数の近似
- データ
- Gaussian Process
- ニューラルネット
- 不連続な関数
- データ
- Gaussian Process
- ニューラルネット
ニューラルネットワークを用いた近年の変分推論2
- はじめに
- ベイズ推論基本
- ベイズ推論
- ベイズ予測分布
- 変分推論
- 変分推論のアルゴリズム
- Normalizing Flows
- 確率分布の変換規則
- 変分推論への組み込み
- 具体的な変換の例
- planner flow
- radius flow
- inverse autoregressive flow
- flow VAE
- VAE 基本
- flow VAE
確率的プログラミング言語 Pyro vs TensorFlow Probability
- モデルの書き方
- edward2
- pyro
- tfp
- 対数同時確率の得方
- edward2
- pyro
- tfp
TensorFlow probabilityでレプリカ交換モンテカルロ法
- はじめに
- データ
- モデル
- 遷移核
- あとは回すだけ
TensorFlow Probability でカルマンフィルター(観測値から内部状態を探る)
- はじめに
- カルマンフィルタの意義
- TFPでのカルマンフィルタ
- モジュール
- データの生成
- TFPで線形状態空間モデルを作る
- カルマンフィルタの実行
- 追加実験
- 追加実験1:状態と観測の次元が異なるケース
- 追加実験2: 不可観測系
- 最後に
【陰関数微分】一入力一出力から多入力多出力まで
- はじめに
- 微分
- 微分係数
- 導関数
- 線形近似
- 多変数関数の微分
- 微分の通常の表記
- 陰関数
- 陰関数
- 陰関数の微分
- 多変数入力の陰関数微分
- 多変数出力の陰関数
- 多入力多出力の陰関数
TensorFlow ProbabilityでMCMC
- モジュール
- データとモデル
- データ
- モデル
- 学習前の生成モデルからのデータ
- 対数同時確率の計算
- 事後分布
- MCMCを回す
- 確率遷移核
- MCMC の設定
- サンプリングの結果
- EAP推定
- ベイズ予測分布
- ノイズ項を無しにした、回帰曲線のベイズ予測分布