Tabelle der Varianzanalyse für Mischungsversuchsplan analysieren

Hier finden Sie Definitionen und Anleitungen zur Interpretation für alle Statistiken in der Tabelle der Varianzanalyse.

DF

Die Gesamt-Freiheitsgrade (DF) entsprechen der Menge an Informationen in Ihren Daten. In der Analyse werden diese Informationen verwendet, um die Werte von unbekannten Parametern der Grundgesamtheit zu schätzen. Die Gesamt-Freiheitsgrade werden durch die Anzahl der Beobachtungen in der Stichprobe bestimmt. Die DF für einen Term geben an, wie viele Informationen von dem betreffenden Term genutzt werden. Wenn Sie die Stichprobe vergrößern, stehen Ihnen mehr Informationen über die Grundgesamtheit und somit auch mehr Gesamt-Freiheitsgrade zur Verfügung. Durch Vergrößern der Anzahl von Termen im Modell werden mehr Informationen genutzt, wodurch die verfügbaren DF zum Schätzen der Streuung der Parameterschätzwerte abnehmen.

Interpretation

Die Gesamt-Freiheitsgrade hängen von der Anzahl der Beobachtungen ab. In einem Mischungsversuchsplan entsprechen die Gesamt-Freiheitsgrade der Anzahl der Beobachtungen minus 1. Die Freiheitsgrade für einen Term entsprechen der Anzahl der geschätzten Koeffizienten für diesen Term. Die Freiheitsgrade des Residuenfehlers entsprechen dem, was nach Berücksichtigung aller Modellterme übrig bleibt.

Seq SS

Die sequenziellen Summen der Quadrate sind Maße für die Streuung der verschiedenen für das Modell aufgeführten Quellen. Im Unterschied zu den korrigierten Summen der Quadrate hängen die sequenziellen Summen der Quadrate von der Reihenfolge ab, in der die Terme in das Modell aufgenommen wurden. In der Tabelle der Varianzanalyse unterteilt Minitab die sequenziellen Summen der Quadrate nach verschiedenen Quellen, wie im Folgenden aufgeführt.

Seq SS Regression
Die sequenzielle Summe der Quadrate für das gesamte Modell entspricht der Differenz zwischen der Gesamtsumme der Quadrate und der Summe der Fehlerquadrate. Es handelt sich um die Summe aller sequenziellen Summen der Quadrate für Terme im Modell.
Seq SS für Gruppen von Termen
Die sequenzielle Summe der Quadrate für eine Gruppe von Termen im Modell entspricht der Summe der sequenziellen Summen der Quadrate für alle Terme in der betreffenden Gruppe. Sie ist ein Maß der Streuung in den Daten der Antwortvariablen, die durch die Gruppe von Termen erklärt wird.
Seq SS für einen Term
Die sequenzielle Summe der Quadrate für einen Term ist die Zunahme der Summe der Quadrate für das Modell im Vergleich mit einem Modell, das lediglich die in der ANOVA-Tabelle darüber aufgeführten Terme enthält.
Seq SS für Residuenfehler
Die Summe der Fehlerquadrate ist die Summe der quadrierten Residuen. Dieser Wert ist ein Maß für die Streuung in den Daten, die durch die Prädiktoren nicht erklärt wird.
Seq SS für reine Fehler
Die Summe der Quadrate für reine Fehler ist Teil der Summe der Fehlerquadrate. Die Summe der Quadrate für reine Fehler ist vorhanden, wenn Freiheitsgrade für reine Fehler vorliegen. Weitere Informationen finden Sie in diesem Thema unter „DF“. Dieser Wert ist ein Maß für die Streuung in den Daten für Beobachtungen, die dieselben Faktorwerte aufweisen.
Seq SS Gesamt
Die Gesamtsumme der Quadrate ist die Summe der Quadratsumme für das Modell und die Summe der Fehlerquadrate. Dieser Wert ist ein Maß für die Gesamtstreuung in den Daten.

Interpretation

Minitab verwendet die sequenziellen Summen der Quadrate beim Analysieren eines Versuchsplans nicht, um p-Werte zu berechnen, Sie können die sequenziellen Summen der Quadrate jedoch beim Ausführen der Befehle Regressionsmodell anpassen und Allgemeines lineares Modell anpassen verwenden. Im Allgemeinen interpretieren Sie die p-Werte und das R2 auf der Grundlage der korrigierten Summe der Quadrate.

Kor SS

Die korrigierten Summen der Quadrate sind Maße für die Streuung der verschiedenen für das Modell aufgeführten Quellen. Die Reihenfolge der Prädiktoren im Modell wirkt sich nicht auf die Berechnung der korrigierten Summen der Quadrate aus. In der Tabelle der Varianzanalyse unterteilt Minitab die korrigierten Summen der Quadrate nach verschiedenen Quellen, wie im Folgenden aufgeführt.

Kor SS Regression
Die korrigierte Summe der Quadrate für das gesamte Modell entspricht der Differenz zwischen der Gesamtsumme der Quadrate und der Summe der Fehlerquadrate. Es handelt sich um die Summe aller korrigierten Summen der Quadrate für die Terme im Modell.
Kor SS für Gruppen von Termen
Die korrigierte Summe der Quadrate für eine Gruppe von Termen entspricht der Summe der korrigierten Summen der Quadrate für alle Terme in der betreffenden Gruppe. Sie ist ein Maß der Streuung in den Daten der Antwortvariablen, die durch die Gruppe von Termen erklärt wird.
Kor SS für einen Term
Die korrigierte Summe der Quadrate für einen Term ist die Zunahme der Summe der Quadrate für das Modell im Vergleich mit einem Modell, das lediglich die anderen Terme enthält. Dieser Wert ist ein Maß für die Streuung in den Daten der Antwortvariablen, die durch den Term erklärt wird.
Kor SS für Residuenfehler
Die Summe der Fehlerquadrate ist die Summe der quadrierten Residuen. Sie gibt die Streuung in den Daten an, die durch das Modell nicht erklärt wird.
Kor SS für reine Fehler
Die Summe der Quadrate für reine Fehler ist Teil der Summe der Fehlerquadrate. Die Summe der Quadrate für reine Fehler ist vorhanden, wenn Freiheitsgrade für reine Fehler vorliegen. Weitere Informationen finden Sie in diesem Thema unter „DF“. Dieser Wert ist ein Maß für die Streuung in den Daten für Beobachtungen, die dieselben Faktorwerte aufweisen.
Kor SS Gesamt
Die Gesamtsumme der Quadrate ist die Summe der Quadratsumme für das Modell und die Summe der Fehlerquadrate. Dieser Wert ist ein Maß für die Gesamtstreuung in den Daten.

Interpretation

Minitab verwendet die korrigierten Summen der Quadrate, um die p-Werte in der ANOVA-Tabelle zu berechnen. Zudem verwendet Minitab die Summen der Quadrate, um das R2 zu berechnen. Im Allgemeinen interpretieren Sie die p-Werte sowie das R2 und nicht die Summen der Quadrate.

Kor MS

Mit dem korrigierten Mittel der Quadrate wird angegeben, wie viel der Streuung von einem Term oder einem Modell erklärt wird; hierbei wird angenommen, dass alle übrigen Terme im Modell enthalten sind, jedoch wird ihre Reihenfolge im Modell außer Acht gelassen. Im Unterschied zur korrigierten Summe der Quadrate werden beim korrigierten Mittel der Quadrate die Freiheitsgrade berücksichtigt.

Der korrigierte mittlere quadrierte Fehler (auch als MSE oder s2 bezeichnet) ist die Varianz um die angepassten Werte.

Interpretation

Minitab verwendet die korrigierten Mittel der Quadrate, um die p-Werte in der ANOVA-Tabelle zu berechnen. Außerdem verwendet Minitab das korrigierte Mittel der Quadrate, um das korrigierte R2 zu berechnen. Im Allgemeinen interpretieren Sie die p-Werte und das korrigierte R2 und nicht das korrigierte Mittel der Quadrate.

F-Wert

Für jeden Test in der Tabelle der Varianzanalyse wird ein F-Wert angezeigt.

F-Wert für das Modell
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen einem beliebigen Term im Modell und der Antwortvariablen besteht.
F-Wert für Typen von Faktortermen
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen einer Gruppe von Termen und der Antwortvariablen besteht. Beispiele für Gruppen von Termen sind lineare Effekte und quadratische Effekte.
F-Wert für einzelne Terme
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen dem Term und der Antwortvariablen besteht.
F-Wert für den Test auf fehlende Anpassung
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob im Modell Terme fehlen, die die Komponenten, die Prozessvariablen und die Menge im Experiment enthalten. Wenn Terme in einem schrittweisen Verfahren aus dem Modell ausgeschlossen werden, sind diese Terme auch im Test auf fehlende Anpassung enthalten.

Interpretation

Minitab verwendet den F-Wert zum Berechnen des p-Werts, anhand dessen Sie eine Entscheidung über die statistische Signifikanz des Tests treffen können. Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft. Ein hinreichend großer F-Wert gibt eine statistische Signifikanz an.

Wenn Sie mit dem F-Wert feststellen möchten, ob die Nullhypothese zurückzuweisen ist, vergleichen Sie den F-Wert mit dem kritischen Wert. Sie können den kritischen Wert in Minitab berechnen oder diesen einer in den meisten Fachbüchern vorhandenen Tabelle für die F-Verteilung entnehmen. Weitere Informationen zum Berechnen des kritischen Werts mit Hilfe von Minitab finden Sie unter Verwenden der inversen kumulativen Verteilungsfunktion (ICDF); klicken Sie dort auf „Verwenden der ICDF zum Berechnen von kritischen Werten“.

p-Wert – Regression

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Interpretation

Um zu bestimmen, ob das Modell die Streuung in der Antwortvariablen erklärt, vergleichen Sie den p-Wert für das Modell mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese für die Gesamtregression besagt, dass das Modell die Streuung in der Antwortvariablen nicht erklärt. In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko der Schlussfolgerung, dass das Modell die Streuung in der Antwortvariablen erklärt, während dies tatsächlich nicht der Fall ist, von 5 %.
p-Wert ≤ α: Das Modell erklärt die Streuung in der Antwortvariablen.
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass das Modell die Streuung in der Antwortvariablen erklärt.
p-Wert > α: Es liegen keine ausreichenden Anzeichen dafür vor, dass das Modell die Streuung in der Antwortvariablen erklärt.

Wenn der p-Wert größer als das Signifikanzniveau ist, können Sie nicht schlussfolgern, dass das Modell die Streuung in der Antwortvariablen erklärt. Es empfiehlt sich möglicherweise, ein neues Modell anzupassen.

p-Wert – Terme und Gruppen von Termen

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Minitab zeigt aufgrund der Abhängigkeit zwischen den Komponenten in Modellen für Mischungsexperimente keine p-Werte für die Haupteffekte an. Da die Komponentenanteile zusammen einen festen Betrag oder Anteil ergeben müssen, führt eine Änderung an einer Komponente zwingend zu Änderungen an den anderen Komponenten. Außerdem weist das Modell für das Mischungsexperiment keinen Term für den Schnittpunkte mit der y-Achse auf, da sich die einzelnen Komponententerme wie Terme für den Schnittpunkte mit der y-Achse verhalten.

Interpretation

Wenn ein Element in der ANOVA-Tabelle statistisch signifikant ist, hängt die Interpretation von der Art des Elements ab. Die Interpretationen lauten wie folgt:
  • Wenn ein Wechselwirkungsterm, der nur Komponenten enthält, statistisch signifikant ist, können Sie schlussfolgern, dass die Assoziation zwischen der Mischung der Komponenten und der Antwortvariablen statistisch signifikant ist.
  • Wenn ein Wechselwirkungsterm, der Komponenten und Prozessvariablen enthält, statistisch signifikant ist, können Sie schlussfolgern, dass der Effekt der Komponenten auf die Antwortvariable von den Prozessvariablen abhängt.
  • Wenn eine Gruppe von Termen statistisch signifikant ist, können Sie schlussfolgern, dass mindestens einer der Terme in der Gruppe einen Effekt auf die Antwortvariable hat. Wenn Sie anhand der statistischen Signifikanz entscheiden, welche Terme im Modell beibehalten werden sollen, entfernen Sie in der Regel keine ganzen Gruppen von Termen gleichzeitig. Die statistische Signifikanz einzelner Terme kann sich aufgrund der im Modell enthaltenen Terme ändern.

p-Wert – Fehlende Anpassung

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft. Minitab führt automatisch den Test auf fehlende Anpassung für reine Fehler aus, wenn die Daten Replikationen enthalten, bei denen es sich um mehrere Beobachtungen mit identischen x-Werten handelt. Replikationen stellen „reine Fehler“ dar, da Unterschiede zwischen den beobachteten Werten der Antwortvariablen nur durch zufällige Streuung verursacht werden können.

Interpretation

Um zu bestimmen, ob das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren richtig wiedergibt, vergleichen Sie den p-Wert für den Test auf fehlende Anpassung mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese für den Test auf fehlende Anpassung besagt, dass das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren richtig darstellt. In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko der Schlussfolgerung, dass das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren nicht richtig darstellt, während die Beziehung tatsächlich richtig angegeben wird, von 5 %.
p-Wert ≤ α: Die fehlende Anpassung ist statistisch signifikant
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass das Modell die Beziehung nicht richtig widerspiegelt. Zum Verbessern des Modells müssen Sie möglicherweise Terme hinzufügen oder die Daten transformieren.
p-Wert > α: Die fehlende Anpassung ist statistisch nicht signifikant

Wenn der p-Wert größer als das Signifikanzniveau ist, wird mit dem Test keine fehlende Anpassung erkannt.