ニューラルネットワークとディープラーニング
書籍情報
発売日 : 2022年03月30日
著者/編集 : Charu C. Aggarwal/竹村 彰通/今泉 允聡/李 鍾賛/今井 貴史/今井 徹
出版社 : 学術図書出版社
発行形態 : 単行本
書籍説明
内容紹介
世界的に定評のあるニューラルネットワークとディープラーニングに関する体系的な教科書の日本語翻訳版.幅広い技術の設計思想および応用例が丁寧に解説されており,この分野の全体像を掴むのにうってつけである.
目次
第1章 ニューラルネットワークとは
1.1 はじめに
1.2 ニューラルネットワークの基本的なアーキテクチャ
1.3 誤差逆伝播法によるニューラルネットワークの訓練
1.4 ニューラルネットワークの訓練の実践上の課題
1.5 関数合成の力の秘密
1.6 一般的なニューラルアーキテクチャ
1.7 進んだ話題
1.8 著名なベンチマークデータ
1.9 まとめ
1.10 文献補注
1.11 演習問題
第2章 浅いニューラルネットワークによる機械学習
2.1 はじめに
2.2 2クラス分類モデルのためのニューラルアーキテクチャ
2.3 多クラスモデルのためのニューラルアーキテクチャ
2.4 特徴量選択と解釈のための顕著性の誤差逆伝播法
2.5 自己符号化器による行列分解
2.6 word2vec: 単純なニューラルアーキテクチャの応用
2.7 グラフ埋め込みのための単純なニューラルアーキテクチャ
2.8 まとめ
2.9 文献補注
2.10 演習問題
第3章 深層ニューラルネットワークの訓練
3.1 はじめに
3.2 誤差逆伝播法の詳細
3.3 設定と初期化の問題
3.4 勾配消失と爆発の問題
3.5 勾配降下の戦略
3.6 バッチ正規化
3.7 加速と圧縮のための実用的な手法
3.8 まとめ
3.9 文献補注
3.10 演習問題
第4章 ディープラーニングを汎化する
4.1 はじめに
4.2 バイアス・バリアンスのトレードオフ
4.3 モデルの調整および評価における汎化の課題
4.4 罰則に基づく正則化
4.5 アンサンブル法
4.6 早期停止
4.7 教師なし事前学習
4.8 継続学習とカリキュラム学習
4.9 パラメータ共有
4.10 教師なしの応用での正則化
4.11 まとめ
4.12 文献補注
4.13 演習問題
第5章 動径基底関数ネットワーク
5.1 はじめに
5.2 RBFネットワークの訓練
5.3 RBFネットワークの拡張と特殊な場合
5.4 カーネル法との関係
5.5 まとめ
5.6 文献補注
5.7 演習問題
第6章 制限付きボルツマンマシン
6.1 はじめに
6.2 ホップフィールドネットワーク
6.3 ボルツマンマシン
6.4 制限付きボルツマンマシン
6.5 制限付きボルツマンマシンの応用
6.6 2値でないデータ形式に対するRBM
6.7 制限付きボルツマンマシンの多層化
6.8 まとめ
6.9 文献補注
6.10 演習問題
第7章 回帰結合型ニューラルネットワーク
7.1 はじめに
7.2 回帰結合型ニューラルネットワークのアーキテクチャ
7.3 回帰結合型ネットワークの訓練の課題
7.4 エコー状態ネットワーク
7.5 長期短期記憶(LSTM)
7.6 ゲート付き回帰型ユニット(GRU)
7.7 回帰結合型ニューラルネットワークの応用事例
7.8 まとめ
7.9 文献補注
7.10 演習問題
第8章 畳み込みニューラルネットワーク
8.1 はじめに
8.2 畳み込みネットワークの基本的構造
8.3 畳み込みネットワークの訓練
8.4 畳み込みアーキテクチャの事例研究
8.5 可視化と教師なし学習
8.6 畳み込みネットワークの応用
8.7 まとめ
8.8 文献補注
8.9 演習問題
第9章 深層強化学習
9.1 はじめに
9.2 状態なしアルゴリズム:多腕バンディット問題
9.3 強化学習の基本的な枠組み
9.4 価値関数学習に対するブートストラップ法
9.5 方策勾配法
9.6 モンテカルロ木探索
9.7 事例研究
9.8 安全性に関連した現実的課題
9.9 まとめ
9.10 文献補注
9.11 演習問題
第10章 ディープラーニングの発展的なトピック
10.1 はじめに
10.2 アテンション機構
10.3 外部記憶装置を用いたニューラルネットワーク
10.4 敵対的生成ネットワーク(GAN)
10.5 競合学習
10.6 ニューラルネットワークの限界
10.7 まとめ
10.8 文献補注
10.9 演習問題
参考文献
演習問題の略解・ヒント
1.1 はじめに
1.2 ニューラルネットワークの基本的なアーキテクチャ
1.3 誤差逆伝播法によるニューラルネットワークの訓練
1.4 ニューラルネットワークの訓練の実践上の課題
1.5 関数合成の力の秘密
1.6 一般的なニューラルアーキテクチャ
1.7 進んだ話題
1.8 著名なベンチマークデータ
1.9 まとめ
1.10 文献補注
1.11 演習問題
第2章 浅いニューラルネットワークによる機械学習
2.1 はじめに
2.2 2クラス分類モデルのためのニューラルアーキテクチャ
2.3 多クラスモデルのためのニューラルアーキテクチャ
2.4 特徴量選択と解釈のための顕著性の誤差逆伝播法
2.5 自己符号化器による行列分解
2.6 word2vec: 単純なニューラルアーキテクチャの応用
2.7 グラフ埋め込みのための単純なニューラルアーキテクチャ
2.8 まとめ
2.9 文献補注
2.10 演習問題
第3章 深層ニューラルネットワークの訓練
3.1 はじめに
3.2 誤差逆伝播法の詳細
3.3 設定と初期化の問題
3.4 勾配消失と爆発の問題
3.5 勾配降下の戦略
3.6 バッチ正規化
3.7 加速と圧縮のための実用的な手法
3.8 まとめ
3.9 文献補注
3.10 演習問題
第4章 ディープラーニングを汎化する
4.1 はじめに
4.2 バイアス・バリアンスのトレードオフ
4.3 モデルの調整および評価における汎化の課題
4.4 罰則に基づく正則化
4.5 アンサンブル法
4.6 早期停止
4.7 教師なし事前学習
4.8 継続学習とカリキュラム学習
4.9 パラメータ共有
4.10 教師なしの応用での正則化
4.11 まとめ
4.12 文献補注
4.13 演習問題
第5章 動径基底関数ネットワーク
5.1 はじめに
5.2 RBFネットワークの訓練
5.3 RBFネットワークの拡張と特殊な場合
5.4 カーネル法との関係
5.5 まとめ
5.6 文献補注
5.7 演習問題
第6章 制限付きボルツマンマシン
6.1 はじめに
6.2 ホップフィールドネットワーク
6.3 ボルツマンマシン
6.4 制限付きボルツマンマシン
6.5 制限付きボルツマンマシンの応用
6.6 2値でないデータ形式に対するRBM
6.7 制限付きボルツマンマシンの多層化
6.8 まとめ
6.9 文献補注
6.10 演習問題
第7章 回帰結合型ニューラルネットワーク
7.1 はじめに
7.2 回帰結合型ニューラルネットワークのアーキテクチャ
7.3 回帰結合型ネットワークの訓練の課題
7.4 エコー状態ネットワーク
7.5 長期短期記憶(LSTM)
7.6 ゲート付き回帰型ユニット(GRU)
7.7 回帰結合型ニューラルネットワークの応用事例
7.8 まとめ
7.9 文献補注
7.10 演習問題
第8章 畳み込みニューラルネットワーク
8.1 はじめに
8.2 畳み込みネットワークの基本的構造
8.3 畳み込みネットワークの訓練
8.4 畳み込みアーキテクチャの事例研究
8.5 可視化と教師なし学習
8.6 畳み込みネットワークの応用
8.7 まとめ
8.8 文献補注
8.9 演習問題
第9章 深層強化学習
9.1 はじめに
9.2 状態なしアルゴリズム:多腕バンディット問題
9.3 強化学習の基本的な枠組み
9.4 価値関数学習に対するブートストラップ法
9.5 方策勾配法
9.6 モンテカルロ木探索
9.7 事例研究
9.8 安全性に関連した現実的課題
9.9 まとめ
9.10 文献補注
9.11 演習問題
第10章 ディープラーニングの発展的なトピック
10.1 はじめに
10.2 アテンション機構
10.3 外部記憶装置を用いたニューラルネットワーク
10.4 敵対的生成ネットワーク(GAN)
10.5 競合学習
10.6 ニューラルネットワークの限界
10.7 まとめ
10.8 文献補注
10.9 演習問題
参考文献
演習問題の略解・ヒント
著者情報
Aggarwal, Charu C
charu c. aggarwal
竹村 彰通
滋賀大学データサイエンス学部 教授
竹村, 彰通, 1952-
今泉 允聡
東京大学総合文化研究科先進科学研究機構 准教授
今泉, 允聡, 1988-
李 鍾賛
元 滋賀大学データサイエンス教育研究センター 助教
今井 貴史
滋賀大学データサイエンス教育研究センター 助教
今井 徹
京都大学大学院医学研究科 特定助教
紅林 亘
弘前大学教育推進機構 助教
齋藤 邦彦
滋賀大学データサイエンス学部 教授
健山 智子
滋賀大学データサイエンス教育研究センター 准教授
寺田 裕
カリフォルニア大学サンディエゴ校生物科学部門神経生物学分野 博士研究員
西出 俊
京都橘大学工学部 准教授
西出 亮
滋賀大学データサイエンス教育研究センター 准教授