矛盾も間違いもあるChatGPTに教わりながら正しくAIプログラムを作る方法
書籍情報
発売日 : 2023年09月27日
著者/編集 : 清水 美樹
出版社 : 工学社
発行形態 : 単行本
ページ数 : 240p
書籍説明
内容紹介
ひとりで文献を読んでいるだけでは分からないこと、人に何度も突っ込んで質問したら怒られそうなことを、ChatGPTに質問しながら、AIの「うわべに書かれた内容だけでは分からない仕組み」を詳しく学んでいきます。ただし、ChatGPTは「間違い」や「矛盾」も多く、チラチラでてくる間違いや矛盾を、人間のほうで話をリードしながら、分からないことをザックリと把握していきます。 たとえば、「より高次元の特徴空間に写像する」とは何なのか?!「活性化関数により非線形な特徴を学習できる」「モデルの収束」とは?「ヘッセ行列」とは結局何をしたいのか?!など。「どういうことですか?」という質問で埒があかないと、「つまり、こういうことなんですね?」と、こちらからアイディアを出してきいてみます。ただし、ChatGPTが「おっしゃるとおりです!」と言ってくれても、そのあとの説明をよく読まないと、本当にそれでいいのかはあやしいので要注意。 読者に、一連のAI教科書を読むだけではなかなか手が届かない、かゆいところを掻いてあげたい本。※コードはChatGPTが出したものをそのまま。概念図などは筆者が描いたもの。
目次
■「手書き文字判別」の謎を解く
・AIプログラミング、何から始める?
・手書き数字の画像を判別するPythonコード
・取得した画像データを描画させるコード
・作成したAIモデルで画像を判別
・ロジスティック回帰に迫る
・最適化手法に迫る
■「サポートベクターマシン」とは何かに迫る
・「SVM」のコードに「SVC」と書かれている件
・「サポートベクターマシン」の最初の一歩が大変だ
・いよいよ「サポートベクター」とは?
■AIの重要概念、「特徴」「次元」「線形」…など
・なぜ「高次元」が必要なのか?
・「線形分離不可能」を「可能」にするには
・「3次元空間に写像して境界面で切る」意味
・「カーネル関数」について、ちょっとでも理解したい
■最も簡単な深層学習の「構造」
・手書き数字を深層学習で判定するプログラム
・深層学習実行上の用語
・深層学習で手書き文字判定のために使うもの
・深層学習の「非線形関数」に迫る
■最も簡単な深層学習の「最適化」
・モデルのコンパイル
・深層学習の「損失関数」
・深層学習の最適化手法
・深層学習の出力層のソフトマックス関数
・最も基本的な深層学習で、それでも気になる用語
■画像処理に強い、深層学習「畳み込み層」
・「畳み込み型ニューラルネットワーク」とは
・「フィルタ(カーネル)」について考える
・「2次元配列」の出力をどう処理するのか
・「特徴マップ」をどう評価するのか
・畳み込み型モデルの最後には全結合層がくる
■自然言語の深層学習
・「自然言語」の解析手法
・「トランスフォーマー」とは、ザックリと何か
・「セルフアテンション」のキモなる3つのベクトル
・関連性を使ってどうするのか
・今さらながら、トランスフォーマーに流されるデータ
・「トランスフォーマー」はどうやって文を作成するのか
・AIプログラミング、何から始める?
・手書き数字の画像を判別するPythonコード
・取得した画像データを描画させるコード
・作成したAIモデルで画像を判別
・ロジスティック回帰に迫る
・最適化手法に迫る
■「サポートベクターマシン」とは何かに迫る
・「SVM」のコードに「SVC」と書かれている件
・「サポートベクターマシン」の最初の一歩が大変だ
・いよいよ「サポートベクター」とは?
■AIの重要概念、「特徴」「次元」「線形」…など
・なぜ「高次元」が必要なのか?
・「線形分離不可能」を「可能」にするには
・「3次元空間に写像して境界面で切る」意味
・「カーネル関数」について、ちょっとでも理解したい
■最も簡単な深層学習の「構造」
・手書き数字を深層学習で判定するプログラム
・深層学習実行上の用語
・深層学習で手書き文字判定のために使うもの
・深層学習の「非線形関数」に迫る
■最も簡単な深層学習の「最適化」
・モデルのコンパイル
・深層学習の「損失関数」
・深層学習の最適化手法
・深層学習の出力層のソフトマックス関数
・最も基本的な深層学習で、それでも気になる用語
■画像処理に強い、深層学習「畳み込み層」
・「畳み込み型ニューラルネットワーク」とは
・「フィルタ(カーネル)」について考える
・「2次元配列」の出力をどう処理するのか
・「特徴マップ」をどう評価するのか
・畳み込み型モデルの最後には全結合層がくる
■自然言語の深層学習
・「自然言語」の解析手法
・「トランスフォーマー」とは、ザックリと何か
・「セルフアテンション」のキモなる3つのベクトル
・関連性を使ってどうするのか
・今さらながら、トランスフォーマーに流されるデータ
・「トランスフォーマー」はどうやって文を作成するのか
著者情報
清水 美樹