- はじめに
- 拡張カルマンフィルタのモジュールを作成する
- 拡張カルマンフィルタを使ってみる
Python利用者がJuliaに入門してみる
- はじめに
- 関数の書き方
- 簡単な足し算、引き算、複数の戻り値
- デフォルト引数とキーワード引数
- 型指定
- クラスの書き方
- 構造体に変数と関数をもたせる
- 構造体に変数をもたせ、関数を分離する
- 最後に
機械学習の基礎への入門:統計的学習理論の初歩
- はじめに
- 学習
- 汎化性能を最も良くする仮説
- 学習で得られる仮説とベイズ規則、その誤差の比較
- バイアスとバリアンス
統計・機械学習による異常検知の本紹介
- はじめに
- 異常検知と変化検知 / 井手 剛・杉山 将 難易度 3
- 入門機械学習による異常検知 / 井手 剛 難易度 2
- pythonによる異常検知 / 曽我部 東馬 難易度 1
- まとめ
(データを扱う)ビジネスマン全てにおすすめの本
- はじめに
- データ分析:実用系
- Kaggleで勝つデータ分析の技術
- ウェブ最適化ではじめる機械学習
- データ分析:因果推論
- 入門 統計的因果推論
- 計量経済学
- 大人の教養
- 世界標準の経営理論
- 科学的に正しい筋トレ 最強の教科書
- 落合務のパーフェクトレシピ
逐次ベイズフィルタ【カルマンフィルタ、粒子フィルタの基礎】
- はじめに
- 必要なパーツ
- 予測
- 観測更新
- 逐次ベイズフィルタの流れ
- 前提
- 流れ
- 予測の密度関数をどう使うのか
- 各パーツの式展開
- 予測の密度関数
- 更新の密度関数
- まとめ
【強化学習・変分推論への応用】期待値の勾配推定
- はじめに
- モチベーション
- 期待値の勾配の計算方法
- モンテカルロ近似と再パラメータ化
- 再パラメータ化できない場合
ベイズニューラルネットワーク基本
- はじめに
- ベイズニューラルネットワーク
- 確率モデルとしてのベイズニューラルネットワーク
- ベイズニューラルネット
- 事後分布の推論
- 応用上の参考
ニューラルネットワーク正則化とMAP推定
- はじめに
- 決定論的なニューラルネットワーク
- ニューラルネットワーク
- 学習
- ニューラルネットワークの最尤推定
- 正則化
- MAP推定と正則化の関連
Jax, PyTorch 直線探索付き勾配法
- はじめに
- モジュールインポート
- Jax
- 勾配関数と線形探索関数を準備
- 最適化実行
- PyTorch
- 線形探索関数準備
- 最適化実行
- 結果
JAXとPyTorchで勾配法とニュートン法を試す
- はじめに
- 逐次更新による最適化
- 大枠
- 勾配法
- 数式
- 勾配法コード例
- ニュートン法
- 数式
- ニュートン法のコード例
不偏推定量のバリアンスの下限:クラメル・ラオの不等式
- はじめに
- クラメル・ラオの不等式
- 不偏推定量のバリアンスは一定以上に下がらない
- 対数尤度関数とその微分
- フィッシャー情報量
- クラメル・ラオの不等式を導く過程
- コーシー・シュワルツの不等式での評価
- クラメル・ラオまでの大まかな指針 : 第2項は $0$
- クラメル・ラオまでの大まかな指針 : 第1項は $1$
- 今回のクラメル・ラオの不等式の前提
- $\theta$ が多変数の場合
- 参考文献
推定量の良し悪し:不偏分散を例に
- はじめに
- 不偏性
- 推定量
- 不偏推定量
- 不偏性を有さない推定
- 正規分布の分散の推定
- 不偏推定量は必ずしも良い推定量ではない
- バリアンス
- バイアスとバリアンス
- 両者を考慮した平均二乗誤差
- 正規分布の不偏分散と標本分散の比較