Beispiel für Anpassen des Modells mit TreeNet®-Klassifikation

Hinweis

Dieser Befehl ist mit dem Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.

Ein Forscherteam erfasst und veröffentlicht detaillierte Informationen zu Faktoren, die Herzerkrankungen beeinflussen. Variablen sind Alter, Geschlecht, Cholesterinspiegel, Maximalpuls und viele weitere. Dieses Beispiel basiert auf einem öffentlichen Datensatz, der detaillierte Informationen über Herzerkrankungen liefert. Die Originaldaten stammen von der Website archive.ics.uci.edu.

Nach der ersten Untersuchung mit CART® Klassifikation zur Identifizierung der wichtigen Prädiktoren verwenden die Forscher sowohl TreeNet®-Klassifikation als auch Random Forests®-Klassifikation, um intensivere Modelle aus demselben Datensatz zu erstellen. Die Forscher vergleichen die Tabelle mit der Zusammenfassung des Modells und das ROC-Diagramm aus den Ergebnissen, um zu bewerten, welches Modell ein besseres Prognoseergebnis liefert. Ergebnisse aus den anderen Analysen finden Sie unter Beispiel für CART® Klassifikation und Beispiel für Random Forests®-Klassifikation.

  1. Öffnen Sie die Beispieldaten Herz-Kreislauf-ErkrankungenBinar.MTW.
  2. Wählen Sie Predictive Analytics-Modul > TreeNet® Klassifikation > Modell anpassen aus.
  3. Wählen Sie in der Dropdown-Liste die Option Binäre Antwort aus.
  4. Geben Sie im Feld Antwort die Spalte Herzkrankheiten ein.
  5. Wählen Sie in Antwortereignis den Wert „Ja“ aus, um anzugeben, dass beim Patienten eine Herzerkrankung festgestellt wurde.
  6. Geben Sie im Feld Stetige Prädiktoren die Spalten Alter, Rest Blutdruck, Cholesterin, Max Herzfrequenz und Old Peak ein.
  7. Geben Sie im Feld Kategoriale Prädiktoren die Spalten Sex, Brust Schmerz Typ, Fasten Blutzucker, Rest-EKG, Übung Angina, Steigung, Hauptblutgefäße und Thal ein.
  8. Klicken Sie auf OK.

Interpretieren der Ergebnisse

Für diese Analyse baut Minitab 300 Bäume auf, und die optimale Anzahl von Bäumen beträgt 298. Da die optimale Anzahl von Bäumen nahe an der maximalen Anzahl von Bäumen liegt, die das Modell aufbaut, wiederholen die Forscher die Analyse mit mehr Bäumen.

Zusammenfassung des Modells

Prädiktoren gesamt13
Wichtige Prädiktoren13
Anzahl der aufgebauten Bäume300
Optimale Anzahl von Bäumen299
StatistikenTrainingsTest
Durchschnittliche -Log-Likelihood0,25510,4015
Fläche unter der ROC-Kurve0,97950,9034
        95%-KI(0,9661; 0,9929)(0,8690; 0,9378)
Lift2,17992,1804
Fehlklassifizierungsrate0,09240,1815

Beispiel mit 500 Bäumen

  1. Klicken Sie nach der Tabelle mit der Zusammenfassung des Modells auf Anpassen von Hyperparametern zum Identifizieren eines besseren Modells.
  2. Geben Sie im Feld Anzahl der Bäume den Wert 500 ein.
  3. Klicken Sie auf Anzeigen der Ergebnisse.

Interpretieren der Ergebnisse

Für diese Analyse wurden 500 Bäume aufgebaut, und die optimale Anzahl von Bäumen beträgt 351. Das beste Modell verwendet eine Trainingsrate von 0,01, verwendet eine Teilstichproben-Fraktion von 0,5 und 6 als maximale Anzahl von Endknoten.

Methode

Kriterium für Auswahl der optimalen Anzahl von BäumenMaximale Log-Likelihood
ModellvalidierungKreuzvalidierung mit 5 Faltungen
Trainingsrate0,01
Auswahlmethode für TeilstichprobeVollständig zufällig
    Teilstichprobenfraktion0,5
Maximale Anzahl von Endknoten pro Baum6
Minimale Endknotengröße3
Anzahl der für die Knotenteilung ausgewählten PrädiktorenGesamtanzahl der Prädiktoren = 13
Verwendete Zeilen303

Informationen zur binären Antwort

VariableKlasseAnzahl%
HerzkrankheitenJa (Ereignis)13945,87
  Nein16454,13
  Alle303100,00
TreeNet®-Klassifikation mit Hyperparameteranpassung: Herzkrankheiten vs. Alter; Rest Blutdruck; Cholesterin; Max Herzfrequenz; Old Peak; Sex; Brust Schmerz Typ; Fasten Blutzucker; Rest-EKG; Übung Angina; Steigung; Hauptblutgefäße; Thal

Methode

Kriterium für Auswahl der optimalen Anzahl von BäumenMaximale Log-Likelihood
ModellvalidierungKreuzvalidierung mit 5 Faltungen
Trainingsrate0,001; 0,01; 0,1
Teilstichprobenfraktion0,5; 0,7
Maximale Anzahl von Endknoten pro Baum6
Minimale Endknotengröße3
Anzahl der für die Knotenteilung ausgewählten PrädiktorenGesamtanzahl der Prädiktoren = 13
Verwendete Zeilen303

Informationen zur binären Antwort

VariableKlasseAnzahl%
HerzkrankheitenJa (Ereignis)13945,87
  Nein16454,13
  Alle303100,00

Optimierung der Hyperparameter

Test
ModellOptimale
Anzahl von
Bäumen
Durchschnitt
-Log-Likelihood
Fläche unter
der ROC-Kurve
FehlklassifizierungsrateTrainingsrate
15000,5469130,9010550,1845900,001
2*3220,4002200,9035930,1748630,010
3280,4146730,8969880,1846450,100
45000,5495940,8959980,2009290,001
52960,4032550,9018580,1846990,010
6300,4154740,8953250,2012020,100
ModellTeilstichprobenfraktionMaximale
Anzahl von
Endknoten
10,56
2*0,56
30,56
40,76
50,76
60,76
* Das optimale Modell weist die minimale durchschnittliche –Log-Likelihood auf. Die Ausgabe
     für das optimale Modell folgt.

Das Diagramm der durchschnittlichen –Log-Likelihood vs. Anzahl der Bäume zeigt die gesamte Kurve über die Anzahl der aufgebauten Bäume. Der optimale Wert für die Testdaten ist 0,3865, wenn die Anzahl der Bäume 351 beträgt.

Zusammenfassung des Modells

Prädiktoren gesamt13
Wichtige Prädiktoren13
Anzahl der aufgebauten Bäume500
Optimale Anzahl von Bäumen322
StatistikenTrainingsTest
Durchschnittliche -Log-Likelihood0,24490,4002
Fläche unter der ROC-Kurve0,98070,9036
        95%-KI(0,9678; 0,9935)(0,8691; 0,9381)
Lift2,17992,1804
Fehlklassifizierungsrate0,08580,1749

Zusammenfassung des Modells

Prädiktoren gesamt13
Wichtige Prädiktoren13
StatistikenAußerhalb des
Segments
Durchschnittliche -Log-Likelihood0,4004
Fläche unter der ROC-Kurve0,9028
        95%-KI(0,8693; 0,9363)
Lift2,1079
Fehlklassifizierungsrate0,1848

Die Tabelle mit der Zusammenfassung des Modells zeigt, dass die durchschnittliche negative Log-Likelihood, wenn die Anzahl der Bäume 351 beträgt, für die Trainingsdaten ungefähr 0,23 und für die Testdaten ungefähr 0,39 beträgt. Diese Statistiken zeigen ein ähnliches Modell, wie es von Minitab Random Forests® erstellt wird. Auch die Fehlklassifizierungsraten sind ähnlich.

Das Diagramm „Relative Variablenwichtigkeit“ zeigt die Prädiktoren in der Reihenfolge ihrer Auswirkungen auf die Modellverbesserung, wenn Teilungen anhand eines Prädiktors über die Abfolge der Bäume hinweg vorgenommen werden. Die wichtigste Prädiktorvariable ist „THAL“. Wenn der Beitrag der obersten Prädiktorvariablen, „THAL“, 100 % beträgt, hat die nächst wichtige Variable, „Hauptgefäße“, einen Beitrag von 97,8 %. Das heißt, dass „Hauptgefäße“ in diesem Klassifikationsmodell 97,8 % so wichtig wie „THAL“ ist.

Konfusionsmatrix



Prognostizierte Klasse
(Trainings)
Prognostizierte Klasse
(Test)
Tatsächliche
Klasse

AnzahlJaNein% RichtigJaNein% Richtig
Ja (Ereignis)1391211887,051073276,98
Nein164815695,122114387,20
Alle30312917491,4212817582,51
Die Zeile wird einer Ereignisklasse zugewiesen, wenn die Ereigniswahrscheinlichkeit für die
     Zeile 0,5 überschreitet.
     
StatistikenTrainings
(%)
Test (%)
Richtig-Positiv-Rate (Empfindlichkeit oder Trennschärfe)87,0576,98
Falsch-Positiv-Rate (Fehler 1. Art)4,8812,80
Falsch-Negativ-Rate (Fehler 2. Art)12,9523,02
Richtig-Negativ-Rate (Spezifität)95,1287,20

Die Konfusionsmatrix veranschaulicht, wie gut das Modell die Klassen korrekt trennt. In diesem Beispiel liegt die Wahrscheinlichkeit, dass ein Ereignis korrekt prognostiziert wird, bei 79,14 %. Die Wahrscheinlichkeit, dass ein Nicht-Ereignis korrekt prognostiziert wird, beträgt 85,37 %.

Fehlklassifikation

Tatsächliche
Klasse

TrainingsTest
AnzahlFehlklassifiziert% FehlerFehlklassifiziert% Fehler
Ja (Ereignis)1391812,953223,02
Nein16484,882112,80
Alle303268,585317,49
Die Zeile wird einer Ereignisklasse zugewiesen, wenn die Ereigniswahrscheinlichkeit für die
     Zeile 0,5 überschreitet.

Die Fehlklassifizierungsrate gibt an, ob das Modell neue Beobachtungen genau prognostizieren wird. Bei der Prognose von Ereignissen beträgt der Fehler bei der Fehlklassifikation im Test 20,86%. Bei der Prognose von Nicht-Ereignissen beträgt der Fehler bei der Fehlklassifikation 14,63% und insgesamt 17,49%.

Die Fläche unter der ROC-Kurve bei einer Baumanzahl von 351 beträgt für die Trainingsdaten etwa 0,98 und für die Testdaten etwa 0,91. Dies zeigt eine gute Verbesserung gegenüber dem Modell aus CART® Klassifikation. Das Random Forests®-Klassifikation-Modell hat eine Test-AUROC von 0.9028, so dass diese 2 Methoden ähnliche Ergebnisse liefern.

In diesem Beispiel zeigt das Gain-Diagramm einen starken Anstieg über die Referenzlinie und flacht dann ab. In diesem Fall sind rund 40 % der Daten für rund 80 % der Richtig-Positiven verantwortlich. Diese Differenz entspricht dem zusätzlichen Gain, der aus der Verwendung des Modells resultiert.

In diesem Beispiel zeigt das Lift-Diagramm einen starken Anstieg über die Referenzlinie und fällt dann ab.

Verwenden Sie die Diagramme der partiellen Abhängigkeit, um zu erfahren, wie sich die wichtigen Variablen oder Variablenpaare auf den prognostizierten Wert der Antwortvariablen auswirken. Die Werte der Antwortvariablen auf der 1/2 Log-Skala sind die Prognosen aus dem Modell. Die Diagramme der partiellen Abhängigkeit zeigen, ob die Beziehung zwischen der Antwortvariablen und einer Variablen linear, monoton oder komplexer ist.

Im Diagramm der partiellen Abhängigkeit für den Brustschmerztyp variieren beispielsweise die 1/2 logarithmierten Chancen und steigen dann steil an. Wenn der Brustschmerztyp 4 ist, erhöht sich die 1/2 logarithmierte Chance des Auftretens einer Herzerkrankung von etwa –0,04 auf 0,03. Klicken Sie auf Auswählen weiterer Prädiktoren zur Darstellung, um Diagramme für andere Variablen zu erstellen.