本文實例為大家分享了python實現決策樹的具體代碼,供大家參考,具體內容如下
算法優缺點:
優點:計算復雜度不高,輸出結果易于理解,對中間值缺失不敏感,可以處理不相關的特征數據
缺點:可能會產生過度匹配的問題
適用數據類型:數值型和標稱型
算法思想:
1.決策樹構造的整體思想:
決策樹說白了就好像是if-else結構一樣,它的結果就是你要生成這個一個可以從根開始不斷判斷選擇到葉子節點的樹,但是呢這里的if-else必然不會是讓我們認為去設置的,我們要做的是提供一種方法,計算機可以根據這種方法得到我們所需要的決策樹。這個方法的重點就在于如何從這么多的特征中選擇出有價值的,并且按照最好的順序由根到葉選擇。完成了這個我們也就可以遞歸構造一個決策樹了
2.信息增益
劃分數據集的最大原則是將無序的數據變得更加有序。既然這又牽涉到信息的有序無序問題,自然要想到想弄的信息熵了。這里我們計算用的也是信息熵(另一種方法是基尼不純度)。公式如下:
數據需要滿足的要求:
1 數據必須是由列表元素組成的列表,而且所有的列白哦元素都要具有相同的數據長度
2 數據的最后一列或者每個實例的最后一個元素應是當前實例的類別標簽
函數:
calcShannonEnt(dataSet)
計算數據集的香農熵,分兩步,第一步計算頻率,第二部根據公式計算香農熵
splitDataSet(dataSet, aixs, value)
劃分數據集,將滿足X[aixs]==value的值都劃分到一起,返回一個劃分好的集合(不包括用來劃分的aixs屬性,因為不需要)
chooseBestFeature(dataSet)
選擇最好的屬性進行劃分,思路很簡單就是對每個屬性都劃分下,看哪個好。這里使用到了一個set來選取列表中唯一的元素,這是一中很快的方法
majorityCnt(classList)
因為我們遞歸構建決策樹是根據屬性的消耗進行計算的,所以可能會存在最后屬性用完了,但是分類還是沒有算完,這時候就會采用多數表決的方式計算節點分類
createTree(dataSet, labels)
基于遞歸構建決策樹。這里的label更多是對于分類特征的名字,為了更好看和后面的理解。
#coding=utf-8import operatorfrom math import logimport timedef createDataSet():  dataSet=[[1,1,'yes'],      [1,1,'yes'],      [1,0,'no'],      [0,1,'no'],      [0,1,'no']]  labels = ['no surfaceing','flippers']  return dataSet, labels#計算香農熵def calcShannonEnt(dataSet):  numEntries = len(dataSet)  labelCounts = {}  for feaVec in dataSet:    currentLabel = feaVec[-1]    if currentLabel not in labelCounts:      labelCounts[currentLabel] = 0    labelCounts[currentLabel] += 1  shannonEnt = 0.0  for key in labelCounts:    prob = float(labelCounts[key])/numEntries    shannonEnt -= prob * log(prob, 2)  return shannonEntdef splitDataSet(dataSet, axis, value):  retDataSet = []  for featVec in dataSet:    if featVec[axis] == value:      reducedFeatVec = featVec[:axis]      reducedFeatVec.extend(featVec[axis+1:])      retDataSet.append(reducedFeatVec)  return retDataSet  def chooseBestFeatureToSplit(dataSet):  numFeatures = len(dataSet[0]) - 1#因為數據集的最后一項是標簽  baseEntropy = calcShannonEnt(dataSet)  bestInfoGain = 0.0  bestFeature = -1  for i in range(numFeatures):    featList = [example[i] for example in dataSet]    uniqueVals = set(featList)    newEntropy = 0.0    for value in uniqueVals:      subDataSet = splitDataSet(dataSet, i, value)      prob = len(subDataSet) / float(len(dataSet))      newEntropy += prob * calcShannonEnt(subDataSet)    infoGain = baseEntropy -newEntropy    if infoGain > bestInfoGain:      bestInfoGain = infoGain      bestFeature = i  return bestFeature      #因為我們遞歸構建決策樹是根據屬性的消耗進行計算的,所以可能會存在最后屬性用完了,但是分類#還是沒有算完,這時候就會采用多數表決的方式計算節點分類def majorityCnt(classList):  classCount = {}  for vote in classList:    if vote not in classCount.keys():      classCount[vote] = 0    classCount[vote] += 1  return max(classCount)       def createTree(dataSet, labels):  classList = [example[-1] for example in dataSet]  if classList.count(classList[0]) ==len(classList):#類別相同則停止劃分    return classList[0]  if len(dataSet[0]) == 1:#所有特征已經用完    return majorityCnt(classList)  bestFeat = chooseBestFeatureToSplit(dataSet)  bestFeatLabel = labels[bestFeat]  myTree = {bestFeatLabel:{}}  del(labels[bestFeat])  featValues = [example[bestFeat] for example in dataSet]  uniqueVals = set(featValues)  for value in uniqueVals:    subLabels = labels[:]#為了不改變原始列表的內容復制了一下    myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,                     bestFeat, value),subLabels)  return myTree  def main():  data,label = createDataSet()  t1 = time.clock()  myTree = createTree(data,label)  t2 = time.clock()  print myTree  print 'execute for ',t2-t1if __name__=='__main__':  main()            
新聞熱點
疑難解答