Grenzwertoptimierungskurve (ROC-Kurve) für Anpassen des Modells und Ermitteln von wichtigen Prädiktoren mit TreeNet®-Klassifikation

Hinweis

Dieser Befehl ist mit dem Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.

Die ROC-Kurve zeigt die Richtig-Positiv-Rate (TPR), auch als Trennschärfe bezeichnet, auf der y-Achse. Die ROC-Kurve zeigt die Falsch-Positiv-Rate (FPR), auch als Fehler 1. Art bezeichnet, auf der x-Achse. Die Fläche unter einer ROC-Kurve gibt an, ob das Modell ein guter Klassifikator ist.

Interpretation

Bei Klassifikationsbäumen nimmt die Fläche unter der ROC-Kurve in der Regel Werte von 0,5 bis 1 an. Je größer die Werte, desto besser ist das Klassifikationsmodell. Wenn das Modell die Klassen perfekt trennen kann, entspricht die Fläche unter der Kurve 1. Wenn das Modell die Klassen nicht besser als eine zufällige Einteilung trennen kann, entspricht die Fläche unter der Kurve 0,5. Die rote gepunktete Linie bildet die zufällige Zuweisung ab.

Die Fläche unter der Kurve für den Test beträgt etwa 0,91. Vergleichen Sie die Trainingsergebnisse und die Testergebnisse, um festzustellen, ob es Probleme mit dem Modell in Bezug auf eine übermäßige Anpassung an den Trainingsdatensatz gibt.