HELLO CYBERNETICS

深層学習、機械学習、強化学習、信号処理、制御工学、量子計算などをテーマに扱っていきます

人工知能

【書籍紹介】詳解ディープラーニング TensorFlow・Kerasによる時系列データ処理

最近発売されたディープラーニングの本。 基礎的な内容から始まり、主にリカレントネットワークを、TensorFlowとKerasによる実装を通して理解していきます。

機械学習で抑えておくべき損失関数(分類編)

機械学習で抑えておくべき損失関数(回帰編)

ニューラルネットワークの線形変換と活性化関数について

【ただのボヤキ】統計学と機械学習とディープラーニングと

識別関数、識別モデル、生成モデルの違いを解説

Chainer2.0がリリース【今後の安定版】とりあえず抑えておきたい変更点

Chainer2.0がリリースされ、今後の安定版として使われることになりました。以後、これからChainerを本格的に使っていく場合はこちらを利用していくことになります。

ディープラーニングを更に深くすることを可能にするか?Highway Networksのメモ

今更聞けないディープラーニングの話【ユニット・層・正則化・ドロップアウト】

ディープラーニングを手軽に始められるようにはなったものの、実際に学習を上手く進めるにはチューニングという作業が欠かせません。ここではチューニングの際に気をつけることをサラっとまとめておきます。

Chainerで勾配法の基礎の基礎を確認【ニューラルネット入門】

勾配法はニューラルネットワークの学習の基礎になります。基本的な問題を見て、勾配法を確認してみましょう。

脳から直接司令を出す【次世代技術Brain Computer Interface】

Brain Computer Interface(以下BCI)とは脳活動を直接用いて外部機器との通信を可能にする技術の総称です。

今更聞けないLSTMの基本

ディープラーニングで畳込みニューラルネットに並ぶ重要な要素のであるLong Short-Term Memoryについて、その基本を解説します。

【ここまで分かれば概要を理解できる】強化学習問題の基本的考え方

強化学習の基本、行動価値関数について

深層学習と並ぶ人工知能の巨塔、強化学習とは一体何か

またもやTensorFlowが強化!!深層学習ライブラリ「sonnet」の登場【使ってみた記事紹介を追加】

SVM、ニューラルネットなどに共通する分類問題における考え方

TensorFlowの強さはコミュニティの大きさ。参加者の人数とレベルがすごい!

中間表現の変化:生データ→自己符号化→ファインチューニングまで

ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場

Chainerが大幅にアップデート!深層学習フレームワークの地位確立なるか?

抑えておきたい評価指標「正解率」「精度」「再現率」

誤差逆伝搬法(バックプロパゲーション)とは

ニューラルネットワークの学習の工夫

Deep learningに必須なハード:GPU

機械学習の重要なアプローチ:ベイズ理論

サポートベクターマシンを手計算して理解する

バイアス-バリアンス分解:機械学習の性能評価

自動機械学習の登場。深層学習システムを開発する学習ソフトウェア

線形回帰モデルと最小二乗法