Tabelle der Varianzanalyse für Definitiven Screening-Versuchsplan analysieren

DF

Die Gesamt-Freiheitsgrade (DF) entsprechen der Menge an Informationen in Ihren Daten. In der Analyse werden diese Informationen verwendet, um die Werte von unbekannten Parametern der Grundgesamtheit zu schätzen. Die Gesamt-Freiheitsgrade werden durch die Anzahl der Beobachtungen in der Stichprobe bestimmt. Die DF für einen Term geben an, wie viele Informationen von dem betreffenden Term genutzt werden. Wenn Sie die Stichprobe vergrößern, stehen Ihnen mehr Informationen über die Grundgesamtheit und somit auch mehr Gesamt-Freiheitsgrade zur Verfügung. Durch Vergrößern der Anzahl von Termen im Modell werden mehr Informationen genutzt, wodurch die verfügbaren DF zum Schätzen der Streuung der Parameterschätzwerte abnehmen.

Wenn zwei Bedingungen erfüllt sind, unterteilt Minitab die DF für Fehler. Die erste Bedingung ist, dass Terme vorhanden sein müssen, die auf die Daten passen, jedoch im aktuellen Modell nicht enthalten sind. Wenn Sie beispielsweise über einen stetigen Prädiktor mit mindestens drei eindeutigen Werten verfügen, können Sie für diesen einen quadratischen Term schätzen. Wenn das Modell den quadratischen Term nicht enthält, liegt kein Term im Modell vor, der auf die Daten passt, und diese Bedingung ist erfüllt.

Die zweite Bedingung ist, dass die Daten Replikationen enthalten. Replikationen sind Beobachtungen, bei denen jeder Prädiktor den gleichen Wert aufweist. Wenn beispielsweise drei Beobachtungen vorliegen, bei denen der Druck gleich 5 und die Temperatur gleich 25 ist, stellen diese drei Beobachtungen Replikationen dar.

Wenn die beiden Bedingungen erfüllt sind, setzt sich DF für Fehler aus den Komponenten für fehlende Anpassung und reine Fehler zusammen. DF für fehlende Anpassung ermöglicht einen Test, bei dem geprüft wird, ob die Form des Modells angemessen ist. Beim Test auf fehlende Anpassung werden die Freiheitsgrade für fehlende Anpassung verwendet. Je größer der Wert für DF reine Fehler, desto größer ist die Trennschärfe des Tests auf fehlende Anpassung.

Kor SS

Die korrigierte Summe der Quadrate ist ein Maß für die Streuung verschiedener Teile des Modells. Die Reihenfolge der Prädiktoren im Modell wirkt sich nicht auf die Berechnung der korrigierten Summe der Quadrate aus. In der Tabelle der Varianzanalyse verteilt Minitab die Summe der Quadrate auf verschiedene Komponenten, die die auf unterschiedliche Quellen zurückzuführende Streuung beschreiben.

Kor SS für das Modell
Die korrigierte Summe der Quadrate für das Modell entspricht der Differenz zwischen der Gesamtsumme der Quadrate und der Summe der Fehlerquadrate. Es handelt sich um die Summe aller sequenziellen Summen der Quadrate für die Terme im Modell.
Kor SS für Gruppen von Termen
Die korrigierte Summe der Quadrate für eine Gruppe von Termen ist ein Maß für die Streuung in den Daten der Antwortvariablen, die von dieser Gruppe der Terme erklärt wird.
Kor SS für einen Term
Die korrigierte Summe der Quadrate für einen Term ist die Zunahme der Summe der Quadrate für das Modell im Vergleich mit einem Modell, das lediglich die anderen Terme enthält. Dieser Wert ist ein Maß für die Streuung in den Daten der Antwortvariablen, die durch den Term erklärt wird.
Kor SS für Fehler
Die korrigierte Summe der Fehlerquadrate ist die Summe der quadrierten Residuen. Sie gibt die Streuung in den Daten an, die durch das Modell nicht erklärt wird.
Kor SS für reine Fehler
Die korrigierte Summe der Quadrate für reine Fehler ist Teil der Summe der Fehlerquadrate. Die Summe der Quadrate für reine Fehler ist vorhanden, wenn Freiheitsgrade für reine Fehler vorliegen. Weitere Informationen finden Sie im Abschnitt zu Freiheitsgraden (DF). Dieser Wert ist ein Maß für die Streuung in den Daten für Beobachtungen, die dieselben Werte für die Faktoren, Blöcke und Kovariaten aufweisen.
Kor SS Gesamt
Die korrigierte Gesamtsumme der Quadrate ist die Summe der Summe der Quadrate für das Modell und der Summe der Fehlerquadrate. Dieser Wert ist ein Maß für die Gesamtstreuung in den Daten.

Interpretation

Minitab verwendet die korrigierten Summen der Quadrate, um die p-Werte in der ANOVA-Tabelle zu berechnen. Zudem verwendet Minitab die Summen der Quadrate, um das R2 zu berechnen. Im Allgemeinen interpretieren Sie die p-Werte sowie das R2 und nicht die Summen der Quadrate.

Kor MS

Mit dem korrigierten Mittel der Quadrate wird angegeben, wie viel der Streuung von einem Term oder einem Modell erklärt wird; hierbei wird angenommen, dass alle übrigen Terme im Modell enthalten sind, jedoch wird ihre Reihenfolge im Modell außer Acht gelassen. Im Unterschied zur korrigierten Summe der Quadrate werden beim korrigierten Mittel der Quadrate die Freiheitsgrade berücksichtigt.

Der korrigierte mittlere quadrierte Fehler (auch als MSE oder s2 bezeichnet) ist die Varianz um die angepassten Werte.

Interpretation

Minitab verwendet die korrigierten Mittel der Quadrate, um die p-Werte in der ANOVA-Tabelle zu berechnen. Außerdem verwendet Minitab das korrigierte Mittel der Quadrate, um das korrigierte R2 zu berechnen. Im Allgemeinen interpretieren Sie die p-Werte und das korrigierte R2 und nicht das korrigierte Mittel der Quadrate.

Seq SS

Die sequenzielle Summe der Quadrate ist ein Maß für die Streuung verschiedener Teile des Modells. Im Unterschied zur korrigierten Summe der Quadrate hängt die sequenzielle Summe der Quadrate von der Reihenfolge ab, in der die Terme in das Modell aufgenommen wurden.

Seq SS für das Modell
Die sequenzielle Summe der Quadrate für das Modell entspricht der Differenz zwischen der Gesamtsumme der Quadrate und der Summe der Fehlerquadrate. Es handelt sich um die Summe aller sequenziellen Summen der Quadrate für Terme im Modell.
Seq SS für Gruppen von Termen
Die sequenzielle Summe der Quadrate für eine Gruppe von Termen im Modell entspricht der Summe der sequenziellen Summen der Quadrate für alle Terme in der betreffenden Gruppe. Sie ist ein Maß der Streuung in den Daten der Antwortvariablen, die durch die Gruppe von Termen erklärt wird.
Seq SS für einen Term
Die sequenzielle Summe der Quadrate für einen Term ist die Zunahme der Summe der Quadrate für das Modell im Vergleich mit einem Modell, das lediglich die in der ANOVA-Tabelle darüber aufgeführten Terme enthält. Sie ist ein Maß für die Zunahme der Summe der Quadrate für das Modell, wenn der betreffende Term zu einem Modell mit den darüber aufgeführten Termen hinzugefügt wird.
Seq SS für Fehler
Die sequenzielle Summe der Fehlerquadrate ist die Summe der quadrierten Residuen. Dieser Wert ist ein Maß für die Streuung in den Daten, die durch die Prädiktoren nicht erklärt wird.
Seq SS für reine Fehler
Die sequenzielle Summe der Quadrate für reine Fehler ist Teil der Summe der Fehlerquadrate. Die Summe der Quadrate für reine Fehler ist vorhanden, wenn Freiheitsgrade für reine Fehler vorliegen. Weitere Informationen finden Sie im Abschnitt zu Freiheitsgraden (DF). Dieser Wert ist ein Maß für die Streuung in den Daten für Beobachtungen, die dieselben Werte für die Faktoren, Blöcke und Kovariaten aufweisen.
Seq SS Gesamt
Die sequenzielle Gesamtsumme der Quadrate ist die Summe der Summen der Quadrate für das Modell und der Summen der Fehlerquadrate. Dieser Wert ist ein Maß für die Gesamtstreuung in den Daten.

Interpretation

Minitab verwendet die sequenziellen Summen der Quadrate beim Analysieren eines Versuchsplans nicht, um p-Werte zu berechnen, Sie können die sequenziellen Summen der Quadrate jedoch beim Ausführen der Befehle Regressionsmodell anpassen und Allgemeines lineares Modell anpassen verwenden. Im Allgemeinen interpretieren Sie die p-Werte und das R2 auf der Grundlage der korrigierten Summe der Quadrate.

Beitrag

Mit dem Beitrag wird der prozentuale Beitrag jeder Quelle in der Tabelle der Varianzanalyse zur sequenziellen Gesamtsumme der Quadrate (Seq SS) angezeigt.

Interpretation

Höhere Prozentsätze zeigen an, dass die Quelle einen größeren Anteil zur Streuung der Antwortvariablen beiträgt.

F-Wert

Für jeden Test in der Tabelle der Varianzanalyse wird ein F-Wert angezeigt.

F-Wert für das Modell
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen einem Term im Modell und der Antwortvariablen besteht; dies schließt Kovariaten, Blöcke und Faktorterme ein.
F-Wert für Kovariaten als Gruppe
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine simultane Assoziation zwischen mehreren Kovariaten und der Antwortvariablen besteht.
F-Wert für einzelne Kovariaten
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen einer einzelnen Kovariaten und der Antwortvariablen besteht.
F-Wert für Blöcke
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen den unterschiedlichen Bedingungen der Blöcke und der Antwortvariablen besteht.
F-Wert für Typen von Faktortermen
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen einer Gruppe von Termen und der Antwortvariablen besteht. Beispiele für Gruppen von Termen sind lineare Effekte und Zwei-Faktor-Wechselwirkungen.
F-Wert für einzelne Terme
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob eine Assoziation zwischen dem Term und der Antwortvariablen besteht.
F-Wert für den Test auf fehlende Anpassung
Der F-Wert ist die Teststatistik, anhand derer bestimmt wird, ob im Modell Terme fehlen, die die Faktoren aus dem Experiment enthalten. Wenn Blöcke oder Kovariaten in einem schrittweisen Verfahren aus dem Modell ausgeschlossen werden, sind diese Terme auch im Test auf fehlende Anpassung enthalten.

Interpretation

Minitab verwendet den F-Wert zum Berechnen des p-Werts, anhand dessen Sie eine Entscheidung über die statistische Signifikanz des Tests treffen können. Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft. Ein hinreichend großer F-Wert gibt eine statistische Signifikanz an.

Wenn Sie mit dem F-Wert feststellen möchten, ob die Nullhypothese zurückzuweisen ist, vergleichen Sie den F-Wert mit dem kritischen Wert. Sie können den kritischen Wert in Minitab berechnen oder diesen einer in den meisten Fachbüchern vorhandenen Tabelle für die F-Verteilung entnehmen. Weitere Informationen zum Berechnen des kritischen Werts mit Hilfe von Minitab finden Sie unter Verwenden der inversen kumulativen Verteilungsfunktion (ICDF); klicken Sie dort auf „Verwenden der ICDF zum Berechnen von kritischen Werten“.

p-Wert – Modell

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Interpretation

Um zu bestimmen, ob das Modell die Streuung in der Antwortvariablen erklärt, vergleichen Sie den p-Wert für das Modell mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese für das Modell besagt, dass das Modell die Streuung in der Antwortvariablen nicht erklärt. In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko der Schlussfolgerung, dass das Modell die Streuung in der Antwortvariablen erklärt, während dies tatsächlich nicht der Fall ist, von 5 %.

p-Wert ≤ α: Das Modell erklärt die Streuung in der Antwortvariablen
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass das Modell die Streuung in der Antwortvariablen erklärt.
p-Wert > α: Es liegen keine ausreichenden Anzeichen dafür vor, dass das Modell die Streuung in der Antwortvariablen erklärt
Wenn der p-Wert größer als das Signifikanzniveau ist, können Sie nicht schlussfolgern, dass das Modell die Streuung in der Antwortvariablen erklärt. Es empfiehlt sich möglicherweise, ein neues Modell anzupassen.

p-Wert – Kovariaten

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

In einem Versuchsplan werden mit Kovariaten die Variablen erklärt, die zwar gemessen, jedoch nur schwer kontrolliert werden können. Die Mitglieder eines Qualitätssicherungsteams in einem Krankenhausverbund entwerfen beispielsweise einen Versuchsplan, mit dem die Aufenthaltsdauer von Patienten untersucht werden soll, die wegen einer Knieprothesen-Operation aufgenommen wurden. Für den Versuchsplan können die Teammitglieder Faktoren wie das Format der präoperativen Anweisungen kontrollieren. Um eine Verzerrung auszuschließen, erfasst das Team Daten zu Kovariaten, die nicht kontrolliert werden können, z. B. das Alter des Patienten.

Interpretation

Um zu bestimmen, ob die Assoziation zwischen der Antwortvariablen und einer Kovariaten statistisch signifikant ist, vergleichen Sie den p-Wert für die Kovariate mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese besagt, dass der Koeffizient für die Kovariate gleich null ist, was darauf hinweist, dass keine Assoziation zwischen der Kovariaten und der Antwortvariablen besteht.

In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko der Schlussfolgerung, dass der Koeffizient für einen linearen Kovariatenterm gleich null ist, wenn dies tatsächlich nicht der Fall ist, von 5 %.

Kovariaten können eine Zunahme der Multikollinearität im Modell bewirken. Varianzinflationsfaktoren (VIF) sind ein Maß der Multikollinearität. Berücksichtigen Sie die Varianzinflationsfaktoren (VIF), wenn Sie die statistische Signifikanz von Termen für ein Modell mit Kovariaten beurteilen. Weitere Informationen finden Sie unter Koeffiziententabelle für Definitiven Screening-Versuchsplan analysieren; klicken Sie dort auf „VIF“.

p-Wert ≤ α: Die Assoziation ist statistisch signifikant
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass eine statistisch signifikante Assoziation zwischen der Antwortvariablen und der Kovariaten besteht.
p-Wert > α: Die Assoziation ist statistisch nicht signifikant
Wenn der p-Wert größer als das Signifikanzniveau ist, können Sie nicht schlussfolgern, dass die Assoziation zwischen der Antwortvariablen und der Kovariaten statistisch signifikant ist. Es empfiehlt sich möglicherweise, ein Modell ohne die Kovariate anzupassen.

p-Wert – Blöcke

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Blöcke erklären die Differenzen, die zwischen Durchläufen auftreten können, die unter unterschiedlichen Bedingungen ausgeführt werden. Ein Techniker entwickelt beispielsweise einen Versuchsplan, in dem ein Schweißprozess untersucht wird, und dabei kann er nicht alle Daten am gleichen Tag erfassen. Die Schweißqualität wird durch verschiedene Variablen beeinflusst, die sich von Tag zu Tag ändern und außerhalb der Kontrolle des Technikers liegen, z. B. durch die relative Luftfeuchtigkeit. Um diese nicht kontrollierbaren Variablen zu berücksichtigen, gruppiert der Techniker die täglich ausgeführten Durchläufe in separaten Blöcken. Die Blöcke erklären die Streuung durch die nicht kontrollierbaren Variablen, so dass diese Effekte nicht mit den Effekten der Faktoren verwechselt werden, die untersucht werden sollen. Weitere Informationen dazu, wie Minitab Durchläufe zu Blöcken zuordnet, finden Sie unter Was ist ein Block?.

Interpretation

Um zu bestimmen, ob die Antwortvariable durch unterschiedliche Bedingungen zwischen den Durchläufen geändert wird, vergleichen Sie den p-Wert für die Blöcke mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese besagt, dass die Antwortvariable durch unterschiedliche Bedingungen nicht geändert wird.

In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko von 5 % für die Schlussfolgerung an, dass sich die Antwortvariable durch unterschiedliche Bedingungen bei den einzelnen Durchläufen ändert, während dies tatsächlich nicht der Fall ist.

p-Wert ≤ α: Die Antwortvariable wird durch die unterschiedlichen Bedingungen geändert
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass die Antwortvariable durch die unterschiedlichen Bedingungen geändert wird.
p-Wert > α: Es liegen keine ausreichenden Anzeichen dafür vor, dass die unterschiedlichen Bedingungen eine Änderung der Antwortvariablen bewirken
Wenn der p-Wert größer als das Signifikanzniveau ist, können Sie nicht schlussfolgern, dass die Antwortvariable durch unterschiedliche Bedingungen geändert wird. Es empfiehlt sich möglicherweise, ein Modell ohne Blöcke anzupassen.

p-Wert – Lineare Terme, quadrierte Terme, Wechselwirkungen und Gruppen von Termen

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Interpretation

Wenn ein Modellterm statistisch signifikant ist, hängt die Interpretation von der Art des Terms ab. Die Interpretationen lauten wie folgt:
  • Wenn eine Kovariate signifikant ist, können Sie schlussfolgern, dass der Koeffizient für die Kovariate ungleich null ist.
  • Wenn ein kategorialer Faktor signifikant ist, können Sie schlussfolgern, dass die Mittelwerte der Faktorstufen nicht gleich sind.
  • Wenn ein Wechselwirkungsterm signifikant ist, können Sie schlussfolgern, dass die Beziehung zwischen einem Faktor und der Antwortvariablen von dem anderen Faktor im Term abhängt.
  • Wenn ein quadratischer Term signifikant ist, können Sie schlussfolgern, dass die Wirkungsfläche eine Krümmung aufweist.

Testen von Gruppen von Termen

Wenn eine Gruppe von Termen statistisch signifikant ist, können Sie schlussfolgern, dass mindestens einer der Terme in der Gruppe einen Effekt auf die Antwortvariable hat. Wenn Sie anhand der statistischen Signifikanz entscheiden, welche Terme im Modell beibehalten werden sollen, entfernen Sie in der Regel keine ganzen Gruppen von Termen gleichzeitig. Die statistische Signifikanz von einzelnen Termen kann sich auf der Grundlage der im Modell enthaltenen Terme ändern.

Faktorielle Regression: Festigkeit vs. Material; EinsprDruck; EinsprTemp; ...

Varianzanalyse Quelle DF Kor SS Kor MS F-Wert p-Wert Modell 10 447,766 44,777 17,61 0,003 Linear 4 428,937 107,234 42,18 0,000 Material 1 181,151 181,151 71,25 0,000 EinsprDruck 1 112,648 112,648 44,31 0,001 EinsprTemp 1 73,725 73,725 29,00 0,003 AbkühlTemp 1 61,412 61,412 24,15 0,004 2-Faktor-Wechselwirkungen 6 18,828 3,138 1,23 0,418 Material*EinsprDruck 1 0,342 0,342 0,13 0,729 Material*EinsprTemp 1 0,778 0,778 0,31 0,604 Material*AbkühlTemp 1 4,565 4,565 1,80 0,238 EinsprDruck*EinsprTemp 1 0,002 0,002 0,00 0,978 EinsprDruck*AbkühlTemp 1 0,039 0,039 0,02 0,906 EinsprTemp*AbkühlTemp 1 13,101 13,101 5,15 0,072 Fehler 5 12,712 2,542 Gesamt 15 460,478

In diesem Modell ist der Test für die Gruppe von Zwei-Faktor-Wechselwirkungen auf einem Niveau von 0,05 nicht signifikant. Die Tests für alle einzelnen Zwei-Faktor-Wechselwirkungen sind ebenfalls statistisch nicht signifikant.

Faktorielle Regression: Festigkeit vs. Material; EinsprDruck; EinsprTemp; ...

Varianzanalyse Quelle DF Kor SS Kor MS F-Wert p-Wert Modell 5 442,04 88,408 47,95 0,000 Linear 4 428,94 107,234 58,16 0,000 Material 1 181,15 181,151 98,24 0,000 EinsprDruck 1 112,65 112,648 61,09 0,000 EinsprTemp 1 73,73 73,725 39,98 0,000 AbkühlTemp 1 61,41 61,412 33,31 0,000 2-Faktor-Wechselwirkungen 1 13,10 13,101 7,11 0,024 EinsprTemp*AbkühlTemp 1 13,10 13,101 7,11 0,024 Fehler 10 18,44 1,844 Gesamt 15 460,48

Wenn Sie das Modell ausgehend von der Zwei-Faktor-Wechselwirkung mit dem höchsten p-Wert jeweils um einen einzelnen Term reduzieren, ist die letzte Zwei-Faktor-Wechselwirkung auf dem Niveau 0,05 statistisch signifikant.

p-Wert – Fehlende Anpassung

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Interpretation

Um zu bestimmen, ob das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren richtig wiedergibt, vergleichen Sie den p-Wert für den Test auf fehlende Anpassung mit dem Signifikanzniveau, um die Nullhypothese auszuwerten. Die Nullhypothese für den Test auf fehlende Anpassung besagt, dass das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren richtig darstellt. In der Regel ist ein Signifikanzniveau (als α oder Alpha bezeichnet) von 0,05 gut geeignet. Ein Signifikanzniveau von 0,05 bedeutet ein Risiko der Schlussfolgerung, dass das Modell die Beziehung zwischen der Antwortvariablen und den Prädiktoren nicht richtig darstellt, während die Beziehung tatsächlich richtig angegeben wird, von 5 %.
p-Wert ≤ α: Die fehlende Anpassung ist statistisch signifikant
Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau ist, können Sie schlussfolgern, dass das Modell die Beziehung nicht richtig widerspiegelt. Zum Verbessern des Modells müssen Sie möglicherweise Terme hinzufügen oder die Daten transformieren.
p-Wert > α: Die fehlende Anpassung ist statistisch nicht signifikant

Wenn der p-Wert größer als das Signifikanzniveau ist, wird mit dem Test keine fehlende Anpassung erkannt.

Durch Ihre Nutzung dieser Website stimmen Sie zu, dass Cookies verwendet werden. Cookies dienen zu Analysezwecken und zum Bereitstellen personalisierter Inhalte.  Lesen Sie unsere Richtlinien