- はじめに
- ガウス過程(GP)
- GPyTorchを使ったモデリング
- コード概要
- 学習コード
- データとモデルの準備
- 学習と結果
- ハイパーパラメータの振る舞い
- lengthscale
- outputscale
- 最後に
強化学習に出てくるベルマン方程式を理解しよう
- はじめに
- ベルマン方程式の概要
- 最適制御と評価関数
- 最適制御
- 評価関数
- 価値関数
- ベルマンの最適性原理
- ベルマン方程式
- 価値関数の離散化
- 状態の時間発展再訪
- ベルマン方程式
- まとめ
- 最後に
MLPシリーズ ベイズ深層学習
- はじめに
- 概要
- 深層学習に対して不確実性を導入する
- 深層学習をベイズ推論で理解する
- ベイズ推論にニューラルネットワークを導入する
- 中身
- 1.はじめに
- 2.ニューラルネットワークの基礎
- 3.ベイズ推論の基礎
- 4.近似ベイズ推論
- 5.ニューラルネットワークのベイズ推論
- 6.深層生成モデル
- 7.深層学習とガウス過程
- 読み方
PyTorch1.X系のテンソル操作と微分操作の基本+ニューラルネットワークの基本
- はじめに
- Tensorの生成
- Tensorのメモリ確保
- すべての要素が $0$ のTensor
- すべての要素が $1$ のtensor
- 各要素が $[0, 1]$ の一様分布から生成されるtensor
- 各要素が 平均 $0$ 標準偏差 $1$ の正規分布から生成されるtensor
- Pythonやnumpyの型からtorch.Tensorの型に変換する
- 既存のTensorの形を引用して新しいTensorを作る
- Tensorの計算
- 加減乗除
- tensorの形
- 形の確認
- 形の変更
- Tensorの微分
- 微分する宣言
- 連鎖規則
- ニューラルネットワーク
- 最後に
【ロバスト回帰】最小二乗法と最小絶対値法
- ロバスト回帰
- 単回帰
- 最小二乗法
- 最小絶対値法
- MSEとMAEの比較
- ライブラリをインポート
- 扱うデータの可視化
- モデル構築
- 学習
- 結果の可視化
- 最小絶対値法なんてしていいの?
- 確率モデル
- ラプラス分布とガウス分布
- 最尤推定でやってみる
- ラプラス分布とガウス分布
カルマンフィルタの雰囲気を
- はじめに
- カルマンフィルタの概要
- カルマンフィルタを使うようなケース
- カルマンフィルタがやっていること
- カルマンフィルタの流れ
強化学習の基本:マルコフ決定過程ってなんぞ?
- はじめに
- 環境とエージェント
- 環境
- マルコフ過程
- 本当のマルコフ過程
- マルコフ決定過程
- 本当のマルコフ決定過程
- 強化学習の話をちょっとだけ
- 最後に
- 環境
ディープラーニングは自動で特徴を抽出してくれる?
- はじめに
- 特徴抽出とは
- ニューラルネットワークによる特徴抽出
- 深層学習は特徴抽出を自動で行うのか
- 補足:本当に自動機械学習に向けて
【今更聞けない、いや今すぐ聞け】一致推定量と不偏推定量
- はじめに:推定量とは
- 一致推定量
- 不偏推定量
- 最後に
ガウシアンプロセスを使ってみたい人への最低限の知識
- はじめに
- ガウス過程の構成要素
- パラメータの周辺化消去
- カーネル関数
- ガウス過程
- ガウス過程回帰
- ガウス過程分類
- 最後に
TFPで階層モデルを書くときの便利なクラス tfd.JointDistributionCoroutine
- はじめに
- 環境
- 階層モデル
- 例:モデル
- コード
tf.functionのメモ
- tf.functionの基本
- 基本的な役割
- 実際の使い方
- 注意点
- 制御構文
- TO DO
TFP: 確率モデルの書き方 with tfd.JointDistiburionSequential
- はじめに
- 色々な分布
- 正規分布を使った基本
- 変数の接続が複雑な場合
- sample
- log_prob
ベイズの定理を使わずに事後分布の推論
- はじめに
- グラフィカルモデリング
- グラフィカルモデルと同時分布
- グラフィカルモデリング
- まとめ
- 正規分布のパラメータの事後分布
- 回帰問題のモデリング