In diesem Beispiel beträgt die Gesamtzahl der 1-Ereignisse 139,
während die Gesamtzahl für „0“ 164 beträgt.
In den Trainingsdaten
beträgt die Anzahl der prognostizierten Ereignisse („1“) 124, was zu 89,21 %
richtig ist.
In den Trainingsdaten
beträgt die Anzahl der prognostizierten Nicht-Ereignisse („0“) 156, was zu
95,12 % richtig ist.
In den Testdaten
beträgt die Anzahl der prognostizierten Ereignisse („1“) 110, was zu 79,14 %
richtig ist.
In den Testdaten
beträgt die Anzahl der prognostizierten Nicht-Ereignisse („0“) 140, was zu
85,37 % richtig ist.
Insgesamt beläuft sich %Richtig für die Trainingsdaten auf 92,41%
und für die Testdaten auf 82,51%. Verwenden Sie die Ergebnisse für die
Testdaten, um die Prognosegenauigkeit für neue Beobachtungen auszuwerten.
Ein niedriger Wert für „% Richtig“ wird in der Regel durch ein mangelhaft
angepasstes Modell verursacht, das auf verschiedene Gründe zurückzuführen
werden kann. Wenn „% Richtig“ sehr niedrig ist, überlegen Sie, ob
Klassengewichtungen helfen können. Klassengewichtungen können dazu beitragen,
ein genaueres Modell zu erhalten, wenn Beobachtungen aus einer Klasse eine
höhere Bedeutung als Beobachtungen aus einer anderen Klasse haben. Sie können
auch ggf. die Wahrscheinlichkeit ändern, mit der ein Fall als Ereignis
klassifiziert wird.