情報
図解 深層学習数理で理解する基本原理
【豊富な図と数式のコンビで、深層学習の基本原理が直感的に理解できる!】
本書では「深層学習に使用する数学」について、意味を直感的に理解できるように図を多用することで式を補完する。第I部では深層学習についての基礎事項と次の部で使用する数学について、第II部ではニューラルネットワーク(深層学習)の中身について、第III部では深層学習の自動チューニングについてそれぞれ詳述。深層学習の実践・応用へステップアップするための基礎がじっくりと学べる、第一歩に相応しい一冊。
著者のスペシャルインタビューはこちら
電子書籍¥3,850 小売希望価格(税込)
紙の書籍¥3,850定価(税込)
基本情報
発売日 | 2023年12月26日 |
---|---|
本体価格 | 3,500円 |
ページ数 | 296 ページ ※印刷物 |
サイズ | A5 |
ISBN | 9784764906754 |
ジャンル | 情報 |
タグ | 機械学習・深層学習, 人工知能, 教科書 |
電子書籍形式 | 固定型 |
主要目次
第I部 基礎事項と関連する数学
第1章 深層学習と人工知能
1.1 深層学習の概要
1.2 歴史
第2章 教師あり学習
2.1 教師あり学習の概要
2.2 データセット
2.3 誤差最小化による予測モデルの学習
2.4 回帰問題と分類問題
2.5 分類モデルの性能
第3章 勾配法
3.1 勾配法の概要
3.2 偏微分と勾配
3.3 勾配ベクトルの直感的理解
3.4 勾配降下法
3.5 ヤコビ行列
3.6 凸関数
第4章 確率と情報量
4.1 確率変数と確率分布
4.2 条件付き確率とベイズの定理
4.3 情報理論
第5章 線形変換
5.1 2 次元ベクトルの線形変換
5.2 一般の線形変換
5.3 行ベクトルの線形変換
5.4 アフィン結合と凸結合
第6章 共分散行列と多次元正規分布
6.1 対称行列
6.2 共分散行列
6.3 多次元正規分布
6.4 マハラノビス距離
第II部 ニューラルネットワーク
第7章 ニューラルネットワークの基礎
7.1 ニューラルネットワークの概要
7.2 層
7.3 ニューラルネットワークの学習
7.4 過学習と正則化
7.5 学習済みモデルの活用
第8章 畳み込みニューラルネットワーク
8.1 畳み込みニューラルネットワークの概要
8.2 画像に対するフィルタ処理
8.3 畳み込み層
8.4 CNN の全体構成
8.5 スキップ接続
8.6 代表的な畳み込みニューラルネットワーク
第9章 再帰型ニューラルネットワーク
9.1 再帰型ニューラルネットワークの概要
9.2 RNN の基本構造
9.3 RNN のアンロール
9.4 全結合RNN 層
9.5 LSTM
9.6 RNN の活用
第10章 自然言語処理と深層学習
10.1 自然言語の数学的表現
10.2 文書の表現
10.3 分散表現
10.4 エンコーダ・デコーダモデル
第11章 アテンション
11.1 キーバリューメモリ
11.2 アテンションによるRNN の性能改善
11.3 セルフアテンション層
第12章 Transformer と大規模言語モデル
12.1 Transformer
12.2 大規模言語モデル
第III部 ハイパーパラメータの最適化
第13章 ハイパーパラメータ探索の基本手法
13.1 ハイパーパラメータ最適化の概要
13.2 ブラックボックス最適化
第14章 ベイズ最適化
14.1 ベイズ最適化の概要
14.2 ガウス過程
14.3 代理モデルによる逐次最適化
14.4 TPE
第15章 進化計算による最適化
15.1 進化計算
15.2 遺伝的アルゴリズム
15.3 CMA-ES
第1章 深層学習と人工知能
1.1 深層学習の概要
1.2 歴史
第2章 教師あり学習
2.1 教師あり学習の概要
2.2 データセット
2.3 誤差最小化による予測モデルの学習
2.4 回帰問題と分類問題
2.5 分類モデルの性能
第3章 勾配法
3.1 勾配法の概要
3.2 偏微分と勾配
3.3 勾配ベクトルの直感的理解
3.4 勾配降下法
3.5 ヤコビ行列
3.6 凸関数
第4章 確率と情報量
4.1 確率変数と確率分布
4.2 条件付き確率とベイズの定理
4.3 情報理論
第5章 線形変換
5.1 2 次元ベクトルの線形変換
5.2 一般の線形変換
5.3 行ベクトルの線形変換
5.4 アフィン結合と凸結合
第6章 共分散行列と多次元正規分布
6.1 対称行列
6.2 共分散行列
6.3 多次元正規分布
6.4 マハラノビス距離
第II部 ニューラルネットワーク
第7章 ニューラルネットワークの基礎
7.1 ニューラルネットワークの概要
7.2 層
7.3 ニューラルネットワークの学習
7.4 過学習と正則化
7.5 学習済みモデルの活用
第8章 畳み込みニューラルネットワーク
8.1 畳み込みニューラルネットワークの概要
8.2 画像に対するフィルタ処理
8.3 畳み込み層
8.4 CNN の全体構成
8.5 スキップ接続
8.6 代表的な畳み込みニューラルネットワーク
第9章 再帰型ニューラルネットワーク
9.1 再帰型ニューラルネットワークの概要
9.2 RNN の基本構造
9.3 RNN のアンロール
9.4 全結合RNN 層
9.5 LSTM
9.6 RNN の活用
第10章 自然言語処理と深層学習
10.1 自然言語の数学的表現
10.2 文書の表現
10.3 分散表現
10.4 エンコーダ・デコーダモデル
第11章 アテンション
11.1 キーバリューメモリ
11.2 アテンションによるRNN の性能改善
11.3 セルフアテンション層
第12章 Transformer と大規模言語モデル
12.1 Transformer
12.2 大規模言語モデル
第III部 ハイパーパラメータの最適化
第13章 ハイパーパラメータ探索の基本手法
13.1 ハイパーパラメータ最適化の概要
13.2 ブラックボックス最適化
第14章 ベイズ最適化
14.1 ベイズ最適化の概要
14.2 ガウス過程
14.3 代理モデルによる逐次最適化
14.4 TPE
第15章 進化計算による最適化
15.1 進化計算
15.2 遺伝的アルゴリズム
15.3 CMA-ES