Konfusionsmatrix für Anpassen des Modells und Ermitteln von wichtigen Prädiktoren mit TreeNet®-Klassifikation

Hinweis

Dieser Befehl ist mit Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.

Hier finden Sie Definitionen und Interpretationen für jede Statistik in der Konfusionsmatrix.
Die Konfusionsmatrix veranschaulicht mit Hilfe dieser Metriken, wie gut der Baum die Klassen korrekt trennt:
  • Richtig-Positiv-Rate (TPR): die Wahrscheinlichkeit, dass ein Ereignisfall richtig prognostiziert wird
  • Falsch-Positiv-Rate (FPR): die Wahrscheinlichkeit, dass ein Nicht-Ereignisfall falsch prognostiziert wird
  • Falsch-Negativ-Rate (FNR): die Wahrscheinlichkeit, dass ein Ereignisfall falsch prognostiziert wird
  • Richtig-Negativ-Rate (TNR): die Wahrscheinlichkeit, dass ein Nicht-Ereignisfall richtig prognostiziert wird

Interpretation

Konfusionsmatrix



Prognostizierte Klasse
(Trainings)
Prognostizierte Klasse
(Test)
Tatsächliche
Klasse

Anzahl10% Richtig10% Richtig
1 (Ereignis)1391241589,211102979,14
0164815695,122414085,37
Alle30313217192,4113416982,51
Die Zeile wird einer Ereignisklasse zugewiesen, wenn die Ereigniswahrscheinlichkeit für die
     Zeile 0,5 überschreitet.
     
StatistikenTrainings
(%)
Test (%)
Richtig-Positiv-Rate (Empfindlichkeit oder Trennschärfe)89,2179,14
Falsch-Positiv-Rate (Fehler 1. Art)4,8814,63
Falsch-Negativ-Rate (Fehler 2. Art)10,7920,86
Richtig-Negativ-Rate (Spezifität)95,1285,37

In diesem Beispiel beträgt die Gesamtzahl der 1-Ereignisse 139, während die Gesamtzahl für „0“ 164 beträgt.
  • In den Trainingsdaten beträgt die Anzahl der prognostizierten Ereignisse („1“) 124, was zu 89,21 % richtig ist.
  • In den Trainingsdaten beträgt die Anzahl der prognostizierten Nicht-Ereignisse („0“) 156, was zu 95,12 % richtig ist.
  • In den Testdaten beträgt die Anzahl der prognostizierten Ereignisse („1“) 110, was zu 79,14 % richtig ist.
  • In den Testdaten beträgt die Anzahl der prognostizierten Nicht-Ereignisse („0“) 140, was zu 85,37 % richtig ist.
Insgesamt beläuft sich %Richtig für die Trainingsdaten auf 92,41% und für die Testdaten auf 82,51%. Verwenden Sie die Ergebnisse für die Testdaten, um die Prognosegenauigkeit für neue Beobachtungen auszuwerten.

Ein niedriger Wert für „% Richtig“ wird in der Regel durch ein mangelhaft angepasstes Modell verursacht, das auf verschiedene Gründe zurückzuführen werden kann. Wenn „% Richtig“ sehr niedrig ist, überlegen Sie, ob Klassengewichtungen helfen können. Klassengewichtungen können dazu beitragen, ein genaueres Modell zu erhalten, wenn Beobachtungen aus einer Klasse eine höhere Bedeutung als Beobachtungen aus einer anderen Klasse haben. Sie können auch ggf. die Wahrscheinlichkeit ändern, mit der ein Fall als Ereignis klassifiziert wird.