Tabelle mit der Zusammenfassung des Modells für Anpassen des Modells und Ermitteln von wichtigen Prädiktoren mit TreeNet®-Klassifikation

Hinweis

Dieser Befehl ist mit dem Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.

Hier finden Sie Definitionen und Anleitungen zur Interpretation für die Tabelle mit der Zusammenfassung des Modells.
Hinweis

Minitab zeigt die Ergebnisse sowohl für den Trainings- als auch für den Testdatensatz an. Die Testergebnisse geben an, ob das Modell die Werte der Antwortvariablen für neue Beobachtungen angemessen prognostizieren oder die Beziehungen zwischen der Antwortvariablen und den Prädiktorvariablen adäquat zusammenfassen kann. Verwenden Sie die Trainingsergebnisse, um auszuwerten, ob das Modell übermäßig angepasst ist.

Prädiktoren gesamt

Die Gesamtzahl der für das TreeNet®-Modell verfügbaren Prädiktoren. Die Gesamtzahl ist die Summe der angegebenen stetigen und kategorialen Prädiktoren.

Wichtige Prädiktoren

Die Anzahl der wichtigen Prädiktoren im TreeNet®-Modell. Wichtige Prädiktoren haben Wichtigkeitswerte, die größer als 0 sind. Mit dem Diagramm „Relative Variablenwichtigkeit“ können Sie die Rangfolge der relativen Variablenwichtigkeit anzeigen. Wenn z. B. 10 von 20 Prädiktoren im Modell wichtig sind, werden die Variablen im Diagramm „Relative Variablenwichtigkeit“ in der Reihenfolge ihrer Wichtigkeit angezeigt.

Anzahl der aufgebauten Bäume

Standardmäßig baut Minitab 300 kleine CART®-Bäume auf, um das TreeNet®-Modell zu erzeugen. Dies ist ein guter Wert für eine anfängliche Untersuchung der Daten, aber möglicherweise empfiehlt es sich, mehr Bäume zu erzeugen, um ein endgültiges Modell zu erstellen. Wenn Sie die Anzahl der aufgebauten Bäume ändern möchten, öffnen Sie das Unterdialogfeld Optionen.

Optimale Anzahl von Bäumen

Die optimale Anzahl von Bäumen entspricht dem niedrigsten Wert auf der Kurve der durchschnittlichen negativen Log-Likelihood oder dem Diagramm der Fehlklassifizierungsrate bzw. dem höchsten Wert für die Fläche unter der ROC-Kurve.

Wenn die optimale Anzahl von Bäumen nahe an der maximalen Anzahl von Bäumen liegt, die das Modell aufbaut, ziehen Sie in Betracht, eine Analyse mit mehr Bäumen auszuführen. Wenn Sie also 300 Bäume aufbauen und die optimale Anzahl als 298 ermittelt wird, erstellen Sie das Modell mit einer größeren Anzahl von Bäumen neu. Liegt die optimale Anzahl weiterhin nahe der maximalen Anzahl, erhöhen Sie die Anzahl der Bäume weiter.

Durchschnittliche -LogLikelihood

Bei einer binären Antwortvariablen berechnet Minitab den Durchschnitt der negativen Log-Likelihood-Funktion. Vergleichen Sie die durchschnittlichen –Log-Likelihood-Werte für Tests aus verschiedenen Modellen, um das am besten passende Modell zu bestimmen. Niedrigere durchschnittliche –Log-Likelihood-Werte weisen auf eine bessere Anpassung hin.

Fläche unterhalb der ROC-Kurve

Die ROC-Kurve zeigt die Richtig-Positiv-Rate (TPR), auch als Trennschärfe bezeichnet, auf der y-Achse. Die ROC-Kurve zeigt die Falsch-Positiv-Rate (FPR), auch als Fehler 1. Art bezeichnet, auf der x-Achse. Die Fläche unter einer ROC-Kurve gibt an, ob das Modell ein guter Klassifikator ist.

Bei Klassifikationsbäumen nimmt die Fläche unter der ROC-Kurve in der Regel Werte von 0,5 bis 1 an. Je größer die Werte, desto besser ist das Klassifikationsmodell. Wenn das Modell die Klassen perfekt trennen kann, entspricht die Fläche unter der Kurve 1. Wenn das Modell die Klassen nicht besser als eine zufällige Einteilung trennen kann, entspricht die Fläche unter der Kurve 0,5.

Lift

Bei einer binären Antwortvariablen zeigt Minitab den Lift an. Der Lift ist der kumulative Lift für die 10 % der Daten mit der besten Chance auf eine korrekte Klassifikation.

Der Lift stellt das Verhältnis der des Sollwerts der Antwortvariablen dividiert durch die den durchschnittlichen Wert der Antwortvariablen dar. Wenn der Lift größer als 1 ist, weist ein Segment der Daten einen größeren Wert der Antwortvariablen als erwartet auf.

Fehlklassifizierungsrate

Die optimale Fehlklassifizierungsrate liegt bei dem Baum mit der optimalen Fläche unter der ROC-Kurve vor. Die Fehlklassifizierungsrate gibt an, wie oft das Modell die Ereignisse und Nicht-Ereignisse richtig klassifiziert.

Kleinere Werte weisen auf eine bessere Leistung hin.