分類與迴歸樹的主要區別在於分類時因變量是分類的和無序的,而回歸中的因變量是連續的或有序的整值。
分類和迴歸是從收集的數據中創建預測模型的學習技術。這兩種技術都以圖形化的方式表示為分類樹和迴歸樹,或者更確切地說是在每一步之後對數據進行劃分的流程圖,或者更確切地說,是樹中的“分支”。這個過程稱為遞歸分區。像挖掘這樣的領域使用這些分類和迴歸學習技術。本文主要研究分類樹和迴歸樹。
目錄
1. 概述和主要區別
2. 什麼是分類
3. 什麼是迴歸
4. 並列比較-分類與表格形式的迴歸
5. 摘要
什麼是分類(classification)?
分類是一種用於獲得示意圖的技術,該示意圖顯示以前體變量開始的數據組織。因變量是對數據進行分類的變量。
分類樹從自變量開始,根據現有的因變量將其分為兩組。它旨在闡明因變量所帶來的分類反應。
什麼是迴歸(regression)?
迴歸是一種基於假定或已知的數值輸出值的預測方法。這個輸出值是一系列遞歸分區的結果,每個步驟都有一個數值和另一組因變量,這些變量會分支到另一對,比如這樣。
迴歸樹以一個或多個前驅變量開始,以一個最終輸出變量結束。因變量可以是連續的或離散的數值變量。
分類(classification)和迴歸(regression)的區別
分類與迴歸 | |
目標變量可以取一組離散值的樹模型。 | 一種樹模型,目標變量可以取連續值,通常是實數。 |
因變量 | |
對於分類樹,因變量是範疇變量。 | 對於迴歸樹,因變量是數值的。 |
價值觀 | |
具有一定數量的無序值。 | 既有離散的有序值,也有不明確的值。 |
建設目的 | |
構造迴歸樹的目的是使一個迴歸系統與每一個行列式分支相適應,從而得到期望的輸出值。 | 分類樹的分支由從上一個節點派生的因變量決定。 |
總結 - 分類(classification) vs. 迴歸(regression)
迴歸和分類樹是一種有用的技術,可以用來繪製指向研究結果的過程,無論是分類還是單個數值。分類樹和迴歸樹的區別是它們的因變量。分類樹有分類和無序的因變量。迴歸樹具有連續值或有序整值的因變量。
引用
1.“決策樹學習”,維基百科,維基媒體基金會,2018年5月13日。此處提供