Um die Multikollinearität zu messen, können Sie die Korrelationsstruktur der Prädiktorvariablen untersuchen. Sie können auch die Varianzinflationsfaktoren (VIF) der Regressionskoeffizienten im Modell untersuchen. Mit den VIF-Werten wird gemessen, wie stark die Varianz eines geschätzten Regressionskoeffizienten zunimmt, wenn eine Korrelation zwischen den Prädiktoren besteht. Wenn alle VIF-Werte gleich 1 sind, liegt keine Multikollinearität vor; wenn jedoch einige VIF-Werte größer als 1 sind, korrelieren die Prädiktoren. Wenn ein VIF größer als 5 ist, ist der Regressionskoeffizient für den betreffenden Term nicht genau geschätzt.
Ein weiteres Maß für die Multikollinearität ist die Bedingungszahl. Minitab gibt die Bedingungszahl in der erweiterten Tabelle für die Regression der besten Teilmengen aus. Mit der Bedingungszahl wird die Multikollinearität nicht für einzelne Terme, sondern für ein gesamtes Modell ausgewertet. Je größer die Bedingungszahl, desto stärker ist die Multikollinearität der Terme im Modell. Laut Montgomery, Peck und Vining1 weist eine Bedingungszahl größer als 100 auf moderate Multikollinearität hin. Wenn die Multikollinearität moderat oder schlechter ist, sollten Sie die Beziehungen zwischen den Termen im Modell anhand der VIFs und der Korrelationsstruktur der Daten untersuchen.
Wenn die Korrelation eines Prädiktors mit anderen Prädiktoren nahezu perfekt ist, zeigt Minitab eine Meldung an, in der darauf hingewiesen wird, dass der Term nicht geschätzt werden kann. Die VIF-Werte für Terme, die nicht geschätzt werden können, liegen normalerweise über 1 Milliarde.
Multikollinearität wirkt sich nicht auf die die Güte der Anpassung und die Güte der Prognose aus. Die Koeffizienten (lineare Diskriminanzfunktion) können nicht zuverlässig interpretiert werden, die angepassten (klassifizierten) Werte werden jedoch nicht beeinflusst.
Die Multikollinearität hat in der Diskriminanzanalyse die gleiche Auswirkung wie in der Regression.
Angenommen, ein Spielzeughersteller möchte die Kundenzufriedenheit prognostizieren und bindet „Festigkeit“ und „Bruchsicherheit“ als Prädiktorvariablen in das Regressionsmodell ein. Der Analytiker stellt fest, dass diese beiden Variablen stark negativ korrelieren und einen VIF größer als 5 aufweisen. An dieser Stelle könnte er versuchen, eine der Variablen zu entfernen. Der Analytiker könnte auch Partielle kleinste Quadrate oder Hauptkomponentenanalyse verwenden, um aus diesen verbundenen Variablen eine Komponente „Strapazierfähigkeit“ zu erstellen.