分類與預測培訓教材(PPT 72頁)
分類與預測培訓教材(PPT 72頁)內容簡介
分類與決策樹概述
ID3、C4.5與C5.0
CART
主要內容
分類 VS. 預測
分類和預測---示例
數據分類——一個兩步過程 (1)
數據分類——一個兩步過程 (2)
第一步——建立模型
第二步——用模型進行分類
監督學習 VS. 無監督學習
數據預測的兩步過程
3.1 決策樹概述
3.2 ID3、C4.5與C5.0
信息熵計算舉例
決策樹歸納策略 (1)
決策樹歸納策略 (2)
屬性選擇度量
信息增益 (1)
信息增益 (2)
以“年齡”作為分裂屬性,所得信息增益最大。
ID3的主要缺點
連續屬性的處理
處理有缺失值的樣本
3.2.4 C5.0算法
C5.0的優點
舉例:在Clementine中應用C5.0
數據流如下:
一、建立模型
具體設置
執行結果
二、預測結果
三、C5.0模型評價
3.3 CART
三個步驟
3.3.1 生成最大樹
雜度
吉尼指標
雜度削減
計算雜度削減
停止準則
樹的修剪
樹的修剪過程
子樹評估
3.3.4 在Clementine中應用CART
數據流
建 模
分類結果
..............................
ID3、C4.5與C5.0
CART
主要內容
分類 VS. 預測
分類和預測---示例
數據分類——一個兩步過程 (1)
數據分類——一個兩步過程 (2)
第一步——建立模型
第二步——用模型進行分類
監督學習 VS. 無監督學習
數據預測的兩步過程
3.1 決策樹概述
3.2 ID3、C4.5與C5.0
信息熵計算舉例
決策樹歸納策略 (1)
決策樹歸納策略 (2)
屬性選擇度量
信息增益 (1)
信息增益 (2)
以“年齡”作為分裂屬性,所得信息增益最大。
ID3的主要缺點
連續屬性的處理
處理有缺失值的樣本
3.2.4 C5.0算法
C5.0的優點
舉例:在Clementine中應用C5.0
數據流如下:
一、建立模型
具體設置
執行結果
二、預測結果
三、C5.0模型評價
3.3 CART
三個步驟
3.3.1 生成最大樹
雜度
吉尼指標
雜度削減
計算雜度削減
停止準則
樹的修剪
樹的修剪過程
子樹評估
3.3.4 在Clementine中應用CART
數據流
建 模
分類結果
..............................
用戶登陸
決策管理熱門資料
決策管理相關下載