近代科学社

書籍検索
ジャンル選択

情報

世界標準MIT教科書  データアナリティクスのための機械学習入門アルゴリズム・実例・ケーススタディ

著者 J.D. ケラハー
著者 B. マクナミー
著者 A. ダーシー
翻訳 宮岡 悦良
翻訳 下川 朝有
翻訳 黒澤 匠雅

著者紹介

ビジネスパーソン必見! データ分析に不可欠なAIスキルを最短で習得できる!

本書は機械学習を実際のビジネスシーンに適用してデータ分析を行うための実践書である。機械学習そのものの解説というよりは、データ分析に不可欠な機械学習の手法を駆使してビジネスを予測的に改善する方法を解説していく。
 具体的な適用事例を用いて説明がなされるため、読者は目的やケースに合った手法(アルゴリズム)や実際の適用方法などを効率的に身に付けることができる。原著はMITで使われている教科書であり、講義の目的に応じて章を選択可能。ビジネスで使えるデータ分析手法を最短で習得したい読者に役立つ一冊である。

電子書籍¥8,800 小売希望価格(税込)

紙の書籍¥8,800定価(税込)

基本情報

発売日 2022年8月31日
本体価格 8,000円
ページ数 472 ページ ※印刷物
サイズ B5
ISBN 9784764906174
ジャンル 情報
タグ 機械学習・深層学習, 教科書
電子書籍形式 固定型

主要目次

1 予測的データアナリティクスのための機械学習

1.1 予測的データアナリティクスとは?
1.2 機械学習とは?
1.3 機械学習はどのように機能するのか?
1.4 機械学習が機能しない場合
1.5 予測的データアナリティクスプロジェクトのライフサイクル:CRISP-DM
1.6 予測的データアナリティクスの道具
1.7 本書のこれからの内容
1.8 演習

2 データから知見そして意思決定へ

2.1 ビジネス課題から分析ソリューションへの変換
2.1.1 ケーススタディ:自動車保険詐欺
2.2 実現可能性の評価
2.2.1 ケーススタディ:自動車保険詐欺
2.3 ABTの設計
2.3.1 ケーススタディ:自動車保険詐欺
2.4 特徴量の設計と実装
2.4.1 さまざまな種類のデータ
2.4.2 さまざまな種類の特徴量
2.4.3 処理時間
2.4.4 法的問題
2.4.5 特徴量の実装
2.4.6 ケーススタディ:自動車保険詐欺
2.5 要約
2.6 参考文献
2.7 演習

3 データ探索

3.1 データ品質レポート
3.1.1 ケーススタディ:自動車保険詐欺
3.2 データを知る
3.2.1 正規分布
3.2.2 ケーススタディ:自動車保険詐欺
3.3 データ品質問題の確認
3.3.1 欠損値
3.3.2 想定外のカーディナリティ
3.3.3 外れ値
3.3.4 ケーススタディ:自動車保険詐欺
3.4 データ品質問題の取り扱い
3.4.1 欠損値の処理
3.4.2 外れ値の取り扱い
3.4.3 ケーススタディ:自動車保険詐欺
3.5 高度なデータ探索
3.5.1 特徴量間の関係性の可視化
3.5.2 共分散および相関
3.6 データ準備
3.6.1 正規化
3.6.2 ビニング
3.6.3 標本抽出
3.7 要約
3.8 参考文献
3.9 演習

4 情報量に基づく学習

4.1 考え方
4.2 基本
4.2.1 決定木
4.2.2 シャノンのエントロピーモデル
4.2.3 情報ゲイン
4.3 標準的なアプローチ:ID3アルゴリズム
4.3.1 実例:植生分布の予測
4.4 拡張法と他の手法
4.4.1 他の特徴量選択および不純度
4.4.2 連続型説明特徴量の取り扱い
4.4.3 連続型目的特徴量の予測
4.4.4 木の枝刈り(剪定)
4.4.5 モデルアンサンブル
4.5 要約
4.6 参考文献
4.7 演習

5 類似度に基づく学習

5.1 考え方
5.2 基本
5.2.1 特徴空間
5.2.2 距離メトリックを用いた類似度の尺度
5.3 標準的なアプローチ:最近傍アルゴリズム
5.3.1 実例
5.4 拡張法と他の手法
5.4.1 ノイズを含むデータの取り扱い
5.4.2 効果的メモリ探索
5.4.3 データの正規化
5.4.4 連続型目的特徴量の予測
5.4.5 類似度の他の尺度
5.4.6 特徴選択
5.5 要約
5.6 参考文献
5.7 エピローグ
5.8 演習

6 確率に基づく学習

6.1 考え方
6.2 基本
6.2.1 ベイズの定理
6.2.2 ベイズ予測
6.2.3 条件付き独立と分解
6.3 標準的なアプローチ:ナイーブベイズモデル
6.3.1 実例
6.4 拡張法と他の手法
6.4.1 平滑化
6.4.2 連続型特徴量:確率密度関数
6.4.3 連続型特徴量:ビニング
6.4.4 ベイジアンネットワーク
6.5 要約
6.6 参考文献
6.7 演習

7 誤差に基づく学習

7.1 考え方
7.2 基本
7.2.1 単回帰
7.2.2 誤差の測定
7.2.3 誤差曲面
7.3 標準的なアプローチ:勾配降下法による重回帰
7.3.1 重回帰
7.3.2 勾配降下法
7.3.3 学習率と初期重みの選択
7.3.4 実例
7.4 拡張法と他の手法
7.4.1 重回帰モデルの解釈
7.4.2 重み減衰を用いた学習率の設定
7.4.3 カテゴリ説明特徴量の扱い方
7.4.4 カテゴリ目的特徴量の扱い方:ロジスティック回帰
7.4.5 非線形な関係のモデル化
7.4.6 多項ロジスティック回帰
7.4.7 サポートベクターマシン
7.5 要約
7.6 参考文献
7.7 演習

8 評価

8.1 考え方
8.2 基本
8.3 標準的アプローチ:ホールドアウトテストセットによる誤分類率
8.4 拡張法と他の手法
8.4.1 評価実験の設計
8.4.2 性能尺度:カテゴリ目的特徴量
8.4.3 性能尺度:予測スコア
8.4.4 性能尺度:多項目的特徴量
8.4.5 性能尺度:連続型目的特徴量
8.4.6 設置後のモデル評価
8.5 要約
8.6 参考文献
8.7 演習

9 ケーススタディ:顧客離れ

9.1 ビジネスの把握
9.2 データの把握
9.3 データの準備
9.4 モデリング
9.5 評価
9.6 設置

10 ケーススタディ:銀河の分類

10.1 ビジネスの把握
10.1.1 状況の精通
10.2 データの把握
10.3 データ準備
10.4 モデリング
10.4.1 ベースラインモデル
10.4.2 特徴選択
10.4.3 5-水準モデル
10.5 評価
10.6 設置

11 予測的データアナリティクスのための機械学習の技法

11.1 予測モデルのいろいろな側面
11.2 機械学習法の選択
11.2.1 プロジェクトに合った機械学習アプローチ
11.2.2 データに合った機械学習アプローチ
11.3 次のステップ

A 機械学習のための記述統計とデータ可視化

A.1 連続型特徴量に対する記述統計
A.1.1 中心の傾向
A.1.2 ばらつき
A.2 カテゴリ特徴量に対する記述統計
A.3 母集団と標本
A.4 データの可視化
A.4.1 棒グラフ
A.4.2 ヒストグラム
A.4.3 箱ひげ図

B 機械学習のための確率の導入

B.1 確率の基礎
B.2 確率分布と周辺化
B.3 便利な確率法則
B.4 要約

C 機械学習のための微分法

C.1 連続関数の導関数
C.2 連鎖律
C.3 偏導関数

目次をさらに表示する

著者紹介

宮岡 悦良(みやおか えつお)
1987年 カリフォルニア大学バークレー校大学院修了 Ph.D.
現 職 東京理科大学 名誉教授

下川 朝有(しもかわ あさなお)
2015年 東京理科大学大学院修了 博士(理学)
現 職 東京理科大学 理学部第二部数学科 講師

黒澤 匠雅(くろさわ たくま)
2018年 東京理科大学大学院修了 博士(理学)
現 職 SAS Institute Japan株式会社 コンサルタント

著者紹介をさらに表示する

類似書籍