mojiru【もじをもじる】

「mojiru」はこのブログ名。「もじる」は著名な言い回しに似せて表現すること。ブログでは、本・映画・グルメなどのヒット商品や気になったトレンドを文字をもじったりもじらなかったしながら、フォントを使ったり使わなかったりしながら取り上げていく。更新頻度は1日1回が基本です。[もじる使用例]1.吾輩は下戸である。お酒は飲めない。2.太閤がまずしかったから。3.棋士の一二三に惨敗。

数理・データサイエンス・AI認定制度における応用基礎レベルをフォローした教科書

【スポンサーリンク】

スッキリわかる数理・データサイエンス・AI

スッキリわかる数理・データサイエンス・AI

インプレスグループで理工学分野の専門書出版事業を手掛ける株式会社近代科学社は、2024年9月20日に、近代科学社が著者とプロジェクト方式で協業するデジタルを駆使したオンデマンド型の出版レーベル・近代科学社Digitalレーベルより、皆本晃弥氏著書による、数理・データサイエンス・AI認定制度における応用基礎レベルをフォローした教科書「スッキリわかる数理・データサイエンス・AI」を発売した。

 

 

皆本晃弥Profile●
1997年 九州大学大学院数理学研究科数理学専攻単位取得退学。

1997年 九州大学大学院システム情報科学研究科情報理学専攻助手。

2000年 博士(数理学)。

2000年 佐賀大学理工学部知能情報システム学科 講師、同 准教授などを歴任。

現在、佐賀大学教育研究院自然科学域理工学系 教授。

2020年から佐賀大学全学教育機構数理・データサイエンス教育推進室長。

 

 

 

「スッキリわかる数理・データサイエンス・AI」内容紹介

「スッキリわかる数理・データサイエンス・AI」はデータサイエンス・AIの数学的な内容について詳細に説明し、紙と鉛筆だけで取り組める問題を数多く配置した教科書。

各手法のアルゴリズムを学習と予測に分けて明示し、一般的な数学の教科書と同じように、概念の説明、例、問という構成で、章末には確認問題を掲載している。

[問] 例の類題や概念の説明を補うための問題。

[確認問題] 章の内容を確認するための問題。データサイエンス検定やG検定などの検定を意識した4択問題もあり。

数理・データサイエンス・AI教育プログラム認定制度における「応用基礎レベル」から「エキスパートレベル」にステップアップするための必読書籍となる。

 

 

 

 

「スッキリわかる数理・データサイエンス・AI」目次

第1章 機械学習と人工知能の概要および単回帰分析

1.1 機械学習の概要

1.2 人工知能の概要

1.3 回帰分析の概要

1.4 線形単回帰分析

1.5 相関

1.6 決定係数

 

第2章 多項式回帰

2.1 多項式回帰

2.2 訓練データとテストデータ

2.3 モデルの性能評価

2.4 過学習と正則化

2.5 バイアス・バリアンス分解

 

第3章 重回帰分析

3.1 重回帰分析

3.2 重相関係数と決定係数

3.3 自由度調整済み決定係数

3.4 多重共線性

3.5 偏回帰係数の区間推定

 

第4章 ロジスティック回帰による二値分類

4.1 ロジスティック回帰

4.2 ロジスティック回帰の原理

4.3 オッズと結果の解釈

4.4 ニュートン法

4.5 連立非線形方程式に対するニュートン法

4.6 ロジスティック回帰の実装

 

第5章 ソフトマックス回帰による多値分類

5.1 One-VS-Rest

5.2 One-VS-One

5.3 ソフトマックス回帰

5.4 ソフトマックス関数に関する注意

5.5 ソフトマックス回帰の行列表現

5.6 勾配降下法によるソフトマックス回帰

5.7 重みの初期値

 

第6章 決定木

6.1 決定木とは

6.2 決定木の手順と特徴

6.3 情報利得と不純度

6.4 ランダムフォレスト

6.5 ブースティング

 

第7章 ナイーブベイズ分類

7.1 ベイズの定理

7.2 ナイーブベイズ分類

7.3 文書分類

7.4 TF-IDF

7.5 ゼロ頻度問題

7.6 ガウシアンナイーブベイズ分類

7.7 クラス分類の性能評価

7.8 ROC曲線とAUC

7.9 多クラス分類の性能評価

 

第8章 k近傍法とk-means法

8.1 パラメトリックモデルとノンパラメトリックモデル

8.2 k近傍法

8.3 k-means法

 

第9章 主成分分析

9.1 2次形式と正定値行列

9.2 共分散行列

9.3 主成分分析と分散

9.4 主成分分析の導出

9.5 寄与率

9.6 主成分分析の例

 

第10章 サポートベクトルマシン(SVM)

10.1 サポートベクトルマシンの概要

10.2 ハードマージンSVM の定式化

10.3 ハードマージンSVM に対する双対問題

10.4 勾配降下法を用いたa^の推定

10.5 決定境界のパラメータ w^,b^ の計算

10.6 ソフトマージンSVM

10.7 ソフトマージンSVM に対する双対問題

10.8 ソフトマージンSVM に対する双対問題の解法

 

第11章 カーネル法

11.1 カーネルSVM の概要

11.2 カーネルSVM の原理

11.3 カーネルSVM の実装

11.4 カーネル主成分分析

11.5 白色化

 

第12章 深層学習入門

12.1 人工ニューラルネットワーク

12.2 活性化関数

12.3 バックプロパゲーション

12.4 学習と確率的勾配降下法

12.5 勾配の計算

12.6 出力層におけるδ_kの計算

12.7 順伝播と逆伝播の計算の行列表示

12.8 勾配消失問題について

 

第13章 畳み込みニューラルネットワーク(CNN)

13.1 畳み込みニューラルネットワーク(CNN) の概要

13.2 畳み込み層

13.3 プーリング層

13.4 全結合層

13.5 データ拡張

13.6 ニューラルネットワークの学習におけるテクニック

13.7 CNN の学習と予測

 

第14章 再帰型ニューラルネットワーク(RNN)

14.1 RNN の構造

14.2 RNN 層の順伝播

14.3 出力層の順伝播と損失関数

14.4 RNN 層の逆伝播

14.5 出力層の逆伝播

14.6 重みの初期値

14.7 RNN の問題点

 

問と確認問題の略解

 


「スッキリわかる数理・データサイエンス・AI」Amazonでの購入はこちら

 

 

「スッキリわかる数理・データサイエンス・AI」楽天市場での購入はこちら

 

 


 

©mojiru All Rights Reserved. | プライバシーポリシー