- はじめに
- Pyroおさらい
- データ
- モデル
- MAP推定
- 変分推論
- 変分近似分布
- 推論
- 予測
- MCMC
- MCMCの実行
- 事後分布
- 予測分布
確率的プログラミング言語 pyro 基本
- はじめに
- Pyro
- primitives
- 確率変数の実現値 sample
- 条件付き独立のベクトル化 plate
- 階層モデル
- 変分パラメータを扱う param
- poutine
- モデルの様子を把握する trace
- 条件付き分布の作成 condition
- まとめと変分推論の例
Ubuntu 18.04にgit入れようとしてハマったこと
- はじめに
- 事象
- 対応
- 設定未完のパッケージ把握
- パッケージの設定を実施
- 設定できなかったパッケージの削除
Variational Gaussian Process と Deep Neural Netの回帰の比較
- はじめに
- 連続で滑らかな関数の近似
- データ
- Gaussian Process
- ニューラルネット
- 不連続な関数
- データ
- Gaussian Process
- ニューラルネット
ニューラルネットワークを用いた近年の変分推論2
- はじめに
- ベイズ推論基本
- ベイズ推論
- ベイズ予測分布
- 変分推論
- 変分推論のアルゴリズム
- Normalizing Flows
- 確率分布の変換規則
- 変分推論への組み込み
- 具体的な変換の例
- planner flow
- radius flow
- inverse autoregressive flow
- flow VAE
- VAE 基本
- flow VAE
確率的プログラミング言語 Pyro vs TensorFlow Probability
- モデルの書き方
- edward2
- pyro
- tfp
- 対数同時確率の得方
- edward2
- pyro
- tfp
TensorFlow probabilityでレプリカ交換モンテカルロ法
- はじめに
- データ
- モデル
- 遷移核
- あとは回すだけ
TensorFlow Probability でカルマンフィルター(観測値から内部状態を探る)
- はじめに
- カルマンフィルタの意義
- TFPでのカルマンフィルタ
- モジュール
- データの生成
- TFPで線形状態空間モデルを作る
- カルマンフィルタの実行
- 追加実験
- 追加実験1:状態と観測の次元が異なるケース
- 追加実験2: 不可観測系
- 最後に
【陰関数微分】一入力一出力から多入力多出力まで
- はじめに
- 微分
- 微分係数
- 導関数
- 線形近似
- 多変数関数の微分
- 微分の通常の表記
- 陰関数
- 陰関数
- 陰関数の微分
- 多変数入力の陰関数微分
- 多変数出力の陰関数
- 多入力多出力の陰関数
TensorFlow ProbabilityでMCMC
- モジュール
- データとモデル
- データ
- モデル
- 学習前の生成モデルからのデータ
- 対数同時確率の計算
- 事後分布
- MCMCを回す
- 確率遷移核
- MCMC の設定
- サンプリングの結果
- EAP推定
- ベイズ予測分布
- ノイズ項を無しにした、回帰曲線のベイズ予測分布
PyTorch1.3 リリース【プロダクト側も本格始動】
- はじめに
- Mobile Support
- Quantization support
- C++ Frontend Improvements
- ONNX Exporter Improvements
- 所感
ベルマン最適方程式とベルマン期待方程式【強化学習基礎】
- はじめに
- ベルマン期待方程式
- ベルマン最適方程式の復習
- ベルマン期待方程式
- 環境というシステムを探る
- 知識の活用と蓄積
- 冒険の結果から学びを得る
- モデルベースとモデルフリー
- 最後に
標本数が多い場合の標本平均はガウス分布になる誤解の多い話
- はじめに
- 中心極限定理
- 標本数
- なぜに標本数を必要とするか
- 標本平均
- 標本平均の分布の極限
- 中心極限定理の誤用
- データで見る標本平均の分布
- ある標本の分布(データの分布)
- とある標本の代表値:標本平均
- 1000人の研究者に協力してもらう
- 本当の中心極限定理
- 補足
- 最後に