Das Fehlervarianzverhältnis ist die Fehlervarianz für die Antwortvariable dividiert durch die Fehlervarianz für den Prädiktor.
Verhältnis | Interpretation |
---|---|
δ > 1 | Die Messwerte der Antwortvariablen weisen eine größere Unsicherheit als die Messwerte des Prädiktors auf. |
δ = 1 | Die Messwerte der Antwortvariablen und des Prädiktors sind gleichermaßen unsicher. |
δ < 1 | Die Messwerte der Antwortvariablen weisen eine geringere Unsicherheit als die Messwerte des Prädiktors auf. |
Verwenden Sie die Regressionsgleichung, um die Beziehung zwischen der Antwortvariablen und den Termen im Modell zu beschreiben. Die Regressionsgleichung ist eine algebraische Darstellung der Regressionslinie. Die Regressionsgleichung für das lineare Modell nimmt die folgende Form an: Y = b0 + b1x1. In der Regressionsgleichung steht Y für die Antwortvariable, b0 ist die Konstante bzw. der Schnittpunkt mit der y-Achse, b1 ist der geschätzte Koeffizient für den linearen Term (auch als Steigung der Linie bezeichnet), und x1 steht für den Wert des Terms.
Bei der orthogonalen Regression sind sowohl der Wert von x1 als auch der Wert von y unsichere Werte. Die tatsächlichen Werte der Prädiktorvariablen und der Antwortvariablen sind unbekannt.
Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn die Messungen vergleichbar sind, ist der Koeffizient für die Konstante 0 und der Koeffizient für den linearen Term 1. Verwenden Sie die Konfidenzintervalle in der Koeffiziententabelle, um zu bestimmen, ob statistische Anzeichen gegen diese Werte vorliegen.
Ein Regressionskoeffizient beschreibt die Größe und Richtung der Beziehung zwischen einem Prädiktor und der Antwortvariablen. Koeffizienten sind die Zahlen, mit denen die Werte des Terms in einer Regressionsgleichung multipliziert werden.
Der Koeffizient des Terms stellt die Änderung des Mittelwerts der Antwortvariablen bei einer Änderung dieses Terms um eine Einheit dar, wenn alle übrigen Terme im Modell auf konstanten Werten gehalten werden. Das Vorzeichen des Koeffizienten gibt die Richtung der Beziehung zwischen dem Term und der Antwortvariablen an. Wenn der Koeffizient negativ ist, nimmt der Mittelwert der Antwortvariablen bei Zunahme des Terms ab. Wenn der Koeffizient positiv ist, nimmt der Mittelwert der Antwortvariablen bei zunehmendem Term zu.
Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn die Messungen vergleichbar sind, ist der Koeffizient für die Konstante 0 und der Koeffizient für den linearen Term 1. Verwenden Sie die Konfidenzintervalle in der Koeffiziententabelle, um zu bestimmen, ob statistische Anzeichen gegen diese Werte vorliegen.
Der Standardfehler des Koeffizienten ist ein Schätzwert der Streuung zwischen den Koeffizientenschätzwerten, die Sie erhalten würden, wenn Sie wiederholt Stichproben aus derselben Grundgesamtheit entnehmen würden. Bei der Berechnung wird angenommen, dass der Stichprobenumfang und die zu schätzenden Koeffizienten gleich bleiben, wenn Sie wiederholt Stichproben ziehen.
Verwenden Sie den Standardfehler des Koeffizienten, um zu ermitteln, wie genau der Schätzwert für den Koeffizienten ist. Je geringer der Standardfehler ist, desto genauer ist der Schätzwert.
Durch Dividieren des Koeffizienten durch seinen Standardfehler wird ein z-Wert berechnet. Wenn der dieser z-Statistik entsprechende p-Wert kleiner als das Signifikanzniveau ist, schlussfolgern Sie, dass der Koeffizient statistisch signifikant ist.
Beim z-Wert handelt es sich um eine Teststatistik für Tests, mit denen das Verhältnis zwischen dem Koeffizienten und dem zugehörigen Standardfehler gemessen wird.
Minitab verwendet den z-Wert zum Berechnen des p-Werts, anhand dessen Sie eine Entscheidung über die statistische Signifikanz der Terme treffen können.
Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Verwenden Sie die Konfidenzintervalle für die Koeffizienten des konstanten und des linearen Terms, um zu bestimmen, ob sich die mit den beiden Methoden gewonnenen Messwerte unterscheiden.
Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.
Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Verwenden Sie die Konfidenzintervalle für die Koeffizienten des konstanten und des linearen Terms, um zu bestimmen, ob sich die mit den beiden Methoden gewonnenen Messwerte unterscheiden.
Diese Konfidenzintervalle (KIs) sind Bereiche von Werten, die wahrscheinlich den tatsächlichen Wert des Koeffizienten für jeden Term im Modell enthalten.
Da die Stichproben zufällig sind, ist es unwahrscheinlich, dass zwei Stichproben aus einer Grundgesamtheit identische Konfidenzintervalle ergeben. Wenn Sie jedoch viele Zufallsstichproben ziehen, enthält ein gewisser Prozentsatz der resultierenden Konfidenzintervalle den unbekannten Parameter der Grundgesamtheit. Der Prozentsatz dieser Konfidenzintervalle, die den Parameter enthalten, stellt das Konfidenzniveau des Intervalls dar.
Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn das Konfidenzintervall für den konstanten Term 0 und das Intervall für den linearen Term 1 enthält, können Sie in der Regel schlussfolgern, dass die mit den zwei Instrumenten gewonnenen Messwerte vergleichbar sind.
In diesen Ergebnissen beträgt das Konfidenzintervall für den konstanten Term ungefähr (–3; 4). Da das Intervall den Wert 0 enthält, liefert dieser Teil der Analyse keine Hinweise darauf, dass sich die Messwerte der beiden Instrumente unterscheiden.
Das Konfidenzintervall für den linearen Term beträgt ungefähr (0,97; 1,02). Da das Intervall den Wert 1 enthält, liefert dieser Teil der Analyse keine Hinweise darauf, dass sich die Messwerte der beiden Instrumente unterscheiden.
Prädiktor | Koef | SE Koef | z | p | Approx. 95%-KI |
---|---|---|---|---|---|
Konstante | 0,64441 | 1,74470 | 0,3694 | 0,712 | (-2,77513; 4,06395) |
Aktuell | 0,99542 | 0,01415 | 70,3461 | 0,000 | (0,96769; 1,02315) |
Variable | Varianz |
---|---|
Neu | 1,07856 |
Aktuell | 1,19840 |
Die Fehlervarianzen beschreiben den Betrag der Unsicherheit bei den Werten des Prädiktors und der Antwortvariablen.
Verwenden Sie die Fehlervarianzen für jede Variable, um ein Verständnis der Streuung in den Messwerten der Antwortvariablen und der Prädiktorvariablen zu erlangen. Größere Fehlervarianzen weisen auf eine größere Unsicherheit bei den Messwerten hin. Die Fehlervarianz für die Prädiktorvariable und das Fehlervarianzverhältnis bestimmen die Fehlervarianz für die Antwortvariable.