Dieser Befehl ist mit Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.
Ein Forscherteam erfasst und veröffentlicht detaillierte Informationen zu Faktoren, die Herzerkrankungen beeinflussen. Variablen sind Alter, Geschlecht, Cholesterinspiegel, Maximalpuls und viele weitere. Dieses Beispiel basiert auf einem öffentlichen Datensatz, der detaillierte Informationen über Herzerkrankungen liefert. Die Originaldaten stammen von der Website archive.ics.uci.edu.
Nach einer ersten Erkundung zur CART® Klassifikation Identifizierung der wichtigen Prädiktoren verwenden die Forscher beides TreeNet®-Klassifikation Random Forests®-Klassifikation, um aus demselben Datensatz intensivere Modelle zu erstellen. Die Forscher vergleichen die die Tabelle mit der Zusammenfassung des Modells und das ROC-Diagramm aus den Ergebnissen, um zu bewerten, welches Modell ein besseres Prognoseergebnis liefert. Ergebnisse aus den anderen Analysen finden Sie unter Beispiel für CART® Klassifikation und Beispiel für Random Forests®-Klassifikation.
Für diese Analyse baut Minitab 300 Bäume auf, und die optimale Anzahl von Bäumen beträgt 298. Da die optimale Anzahl von Bäumen nahe an der maximalen Anzahl von Bäumen liegt, die das Modell aufbaut, wiederholen die Forscher die Analyse mit mehr Bäumen.
Prädiktoren gesamt | 13 |
---|---|
Wichtige Prädiktoren | 13 |
Anzahl der aufgebauten Bäume | 300 |
Optimale Anzahl von Bäumen | 298 |
Statistiken | Trainings | Test |
---|---|---|
Durchschnittliche -Log-Likelihood | 0,2556 | 0,3881 |
Fläche unter der ROC-Kurve | 0,9796 | 0,9089 |
95%-KI | (0,9664; 0,9929) | (0,8759; 0,9419) |
Lift | 2,1799 | 2,1087 |
Fehlklassifizierungsrate | 0,0891 | 0,1617 |
Für diese Analyse wurden 500 Bäume aufgebaut, und die optimale Anzahl von Bäumen beträgt 351. Das beste Modell verwendet eine Trainingsrate von 0,01, verwendet eine Teilstichproben-Fraktion von 0,5 und 6 als maximale Anzahl von Endknoten.
Kriterium für Auswahl der optimalen Anzahl von Bäumen | Maximale Log-Likelihood |
---|---|
Modellvalidierung | Kreuzvalidierung mit 5 Faltungen |
Trainingsrate | 0,01 |
Auswahlmethode für Teilstichprobe | Vollständig zufällig |
Teilstichprobenfraktion | 0,5 |
Maximale Anzahl von Endknoten pro Baum | 6 |
Minimale Endknotengröße | 3 |
Anzahl der für die Knotenteilung ausgewählten Prädiktoren | Gesamtanzahl der Prädiktoren = 13 |
Verwendete Zeilen | 303 |
Variable | Klasse | Anzahl | % |
---|---|---|---|
Herzkrankheiten | 1 (Ereignis) | 139 | 45,87 |
0 | 164 | 54,13 | |
Alle | 303 | 100,00 |
Kriterium für Auswahl der optimalen Anzahl von Bäumen | Maximale Log-Likelihood |
---|---|
Modellvalidierung | Kreuzvalidierung mit 5 Faltungen |
Trainingsrate | 0,001; 0,01; 0,1 |
Teilstichprobenfraktion | 0,5; 0,7 |
Maximale Anzahl von Endknoten pro Baum | 6 |
Minimale Endknotengröße | 3 |
Anzahl der für die Knotenteilung ausgewählten Prädiktoren | Gesamtanzahl der Prädiktoren = 13 |
Verwendete Zeilen | 303 |
Variable | Klasse | Anzahl | % |
---|---|---|---|
Herzkrankheiten | 1 (Ereignis) | 139 | 45,87 |
0 | 164 | 54,13 | |
Alle | 303 | 100,00 |
Modell | Optimale Anzahl von Bäumen | Durchschnitt -Log-Likelihood | Fläche unter der ROC-Kurve | Fehlklassifizierungsrate | Trainingsrate |
---|---|---|---|---|---|
1 | 500 | 0,542902 | 0,902956 | 0,171749 | 0,001 |
2* | 351 | 0,386536 | 0,908920 | 0,175027 | 0,010 |
3 | 33 | 0,396555 | 0,900782 | 0,161694 | 0,100 |
4 | 500 | 0,543292 | 0,894178 | 0,178142 | 0,001 |
5 | 374 | 0,389607 | 0,906620 | 0,165082 | 0,010 |
6 | 39 | 0,393382 | 0,901399 | 0,174973 | 0,100 |
Modell | Teilstichprobenfraktion | Maximale Anzahl von Endknoten |
---|---|---|
1 | 0,5 | 6 |
2* | 0,5 | 6 |
3 | 0,5 | 6 |
4 | 0,7 | 6 |
5 | 0,7 | 6 |
6 | 0,7 | 6 |
Prädiktoren gesamt | 13 |
---|---|
Wichtige Prädiktoren | 13 |
Anzahl der aufgebauten Bäume | 500 |
Optimale Anzahl von Bäumen | 351 |
Statistiken | Trainings | Test |
---|---|---|
Durchschnittliche -Log-Likelihood | 0,2341 | 0,3865 |
Fläche unter der ROC-Kurve | 0,9825 | 0,9089 |
95%-KI | (0,9706; 0,9945) | (0,8757; 0,9421) |
Lift | 2,1799 | 2,1087 |
Fehlklassifizierungsrate | 0,0759 | 0,1750 |
Prädiktoren gesamt | 13 |
---|---|
Wichtige Prädiktoren | 13 |
Statistiken | Außerhalb des Segments |
---|---|
Durchschnittliche -Log-Likelihood | 0,4004 |
Fläche unter der ROC-Kurve | 0,9028 |
95%-KI | (0,8693; 0,9363) |
Lift | 2,1079 |
Fehlklassifizierungsrate | 0,1848 |
Die Tabelle mit der Zusammenfassung des Modells zeigt, dass die durchschnittliche negative Log-Likelihood, wenn die Anzahl der Bäume 351 beträgt, für die Trainingsdaten ungefähr 0,23 und für die Testdaten ungefähr 0,39 beträgt. Diese Statistiken zeigen ein ähnliches Modell, wie es von Minitab Random Forests® erstellt wird. Auch die Fehlklassifizierungsraten sind ähnlich.
Prognostizierte Klasse (Trainings) | Prognostizierte Klasse (Test) | ||||||
---|---|---|---|---|---|---|---|
Tatsächliche Klasse | |||||||
Anzahl | 1 | 0 | % Richtig | 1 | 0 | % Richtig | |
1 (Ereignis) | 139 | 124 | 15 | 89,21 | 110 | 29 | 79,14 |
0 | 164 | 8 | 156 | 95,12 | 24 | 140 | 85,37 |
Alle | 303 | 132 | 171 | 92,41 | 134 | 169 | 82,51 |
Statistiken | Trainings (%) | Test (%) |
---|---|---|
Richtig-Positiv-Rate (Empfindlichkeit oder Trennschärfe) | 89,21 | 79,14 |
Falsch-Positiv-Rate (Fehler 1. Art) | 4,88 | 14,63 |
Falsch-Negativ-Rate (Fehler 2. Art) | 10,79 | 20,86 |
Richtig-Negativ-Rate (Spezifität) | 95,12 | 85,37 |
Die Konfusionsmatrix veranschaulicht, wie gut das Modell die Klassen korrekt trennt. In diesem Beispiel liegt die Wahrscheinlichkeit, dass ein Ereignis korrekt prognostiziert wird, bei 79,14%. Die Wahrscheinlichkeit, dass ein Nicht-Ereignis korrekt prognostiziert wird, beträgt 85,37%.
Tatsächliche Klasse | Trainings | Test | |||
---|---|---|---|---|---|
Anzahl | Fehlklassifiziert | % Fehler | Fehlklassifiziert | % Fehler | |
1 (Ereignis) | 139 | 15 | 10,79 | 29 | 20,86 |
0 | 164 | 8 | 4,88 | 24 | 14,63 |
Alle | 303 | 23 | 7,59 | 53 | 17,49 |
Die Fehlklassifizierungsrate gibt an, ob das Modell neue Beobachtungen genau prognostizieren wird. Bei der Prognose von Ereignissen beträgt der Fehler bei der Fehlklassifikation im Test 20,86%. Bei der Prognose von Nicht-Ereignissen beträgt der Fehler bei der Fehlklassifikation 14,63% und insgesamt 17,49%.