Konfusionsmatrix für Anpassen des Modells und Ermitteln von wichtigen Prädiktoren mit TreeNet®-Klassifikation

Hinweis

Dieser Befehl ist mit Predictive Analytics-Modul verfügbar. Klicken Sie hier, um weitere Informationen zum Aktivieren des Moduls zu erhalten.

Hier finden Sie Definitionen und Interpretationen für jede Statistik in der Konfusionsmatrix.
Die Konfusionsmatrix veranschaulicht mit Hilfe dieser Metriken, wie gut der Baum die Klassen korrekt trennt:
  • Richtig-Positiv-Rate (TPR): die Wahrscheinlichkeit, dass ein Ereignisfall richtig prognostiziert wird
  • Falsch-Positiv-Rate (FPR): die Wahrscheinlichkeit, dass ein Nicht-Ereignisfall falsch prognostiziert wird
  • Falsch-Negativ-Rate (FNR): die Wahrscheinlichkeit, dass ein Ereignisfall falsch prognostiziert wird
  • Richtig-Negativ-Rate (TNR): die Wahrscheinlichkeit, dass ein Nicht-Ereignisfall richtig prognostiziert wird

Interpretation

TreeNet® Klassifikation: Herzkrankhei vs Alter; Rest Blutdru; Cholesterin; ...

Konfusionsmatrix Prognostizierte Klasse Prognostizierte Klasse Tatsächliche (Schulungen) (Test) Klasse Anzahl Yes No % Richtig Yes No % Richtig Yes (Ereignis) 139 124 15 89,21 110 29 79,14 No 164 8 156 95,12 24 140 85,37 Alle 303 132 171 92,41 134 169 82,51 Die Zeile wird einer Ereignisklasse zugewiesen, wenn die Ereigniswahrscheinlichkeit für die Zeile 0,5 überschreitet.
Schulungen Statistiken (%) Test (%) Richtig-Positiv-Rate (Empfindlichkeit oder Trennschärfe) 89,21 79,14 Falsch-Positiv-Rate (Fehler 1. Art) 4,88 14,63 Falsch-Negativ-Rate (Fehler 2. Art) 10,79 20,86 Richtig-Negativ-Rate (Spezifität) 95,12 85,37

In diesem Beispiel beträgt die Gesamtzahl der Ja-Ereignisse 139, während die Gesamtzahl für „Nein“ 164 beträgt.
  • In den Trainingsdaten beträgt die Anzahl der prognostizierten Ereignisse („Ja“) 124, was zu 89,21 % richtig ist.
  • In den Trainingsdaten beträgt die Anzahl der prognostizierten Nicht-Ereignisse („Nein“) 156, was zu 95,12 % richtig ist.
  • In den Testdaten beträgt die Anzahl der prognostizierten Ereignisse („Ja“) 110, was zu 79,14 % richtig ist.
  • In den Testdaten beträgt die Anzahl der prognostizierten Nicht-Ereignisse („Nein“) 140, was zu 85,37 % richtig ist.
Insgesamt beläuft sich %Richtig für die Trainingsdaten auf 92,41% und für die Testdaten auf 82,51%. Verwenden Sie die Ergebnisse für die Testdaten, um die Prognosegenauigkeit für neue Beobachtungen auszuwerten.

Ein niedriger Wert für „% Richtig“ wird in der Regel durch ein mangelhaft angepasstes Modell verursacht, das auf verschiedene Gründe zurückzuführen werden kann. Wenn „% Richtig“ sehr niedrig ist, überlegen Sie, ob Klassengewichtungen helfen können. Klassengewichtungen können dazu beitragen, ein genaueres Modell zu erhalten, wenn Beobachtungen aus einer Klasse eine höhere Bedeutung als Beobachtungen aus einer anderen Klasse haben. Sie können auch ggf. die Wahrscheinlichkeit ändern, mit der ein Fall als Ereignis klassifiziert wird.

Durch Ihre Nutzung dieser Website stimmen Sie zu, dass Cookies verwendet werden. Cookies dienen zu Analysezwecken und zum Bereitstellen personalisierter Inhalte.  Lesen Sie unsere Richtlinien