Koeffizienten und Fehlervarianzen für Orthogonale Regression

Fehlervarianzverhältnis

Das Fehlervarianzverhältnis ist die Fehlervarianz für die Antwortvariable dividiert durch die Fehlervarianz für den Prädiktor.

Interpretation

Verwenden Sie das Fehlervarianzverhältnis, um zu beschreiben, wie unterschiedlich die Fehler für die Antwortvariable und den Prädiktor sind.
Verhältnis Interpretation
δ > 1 Die Messwerte der Antwortvariablen weisen eine größere Unsicherheit als die Messwerte des Prädiktors auf.
δ = 1 Die Messwerte der Antwortvariablen und des Prädiktors sind gleichermaßen unsicher.
δ < 1 Die Messwerte der Antwortvariablen weisen eine geringere Unsicherheit als die Messwerte des Prädiktors auf.

Regressionsgleichung

Verwenden Sie die Regressionsgleichung, um die Beziehung zwischen der Antwortvariablen und den Termen im Modell zu beschreiben. Die Regressionsgleichung ist eine algebraische Darstellung der Regressionslinie. Die Regressionsgleichung für das lineare Modell nimmt die folgende Form an: Y = b0 + b1x1. In der Regressionsgleichung steht Y für die Antwortvariable, b0 ist die Konstante bzw. der Schnittpunkt mit der y-Achse, b1 ist der geschätzte Koeffizient für den linearen Term (auch als Steigung der Linie bezeichnet), und x1 steht für den Wert des Terms.

Bei der orthogonalen Regression sind sowohl der Wert von x1 als auch der Wert von y unsichere Werte. Die tatsächlichen Werte der Prädiktorvariablen und der Antwortvariablen sind unbekannt.

Interpretation

Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn die Messungen vergleichbar sind, ist der Koeffizient für die Konstante 0 und der Koeffizient für den linearen Term 1. Verwenden Sie die Konfidenzintervalle in der Koeffiziententabelle, um zu bestimmen, ob statistische Anzeichen gegen diese Werte vorliegen.

Koef

Ein Regressionskoeffizient beschreibt die Größe und Richtung der Beziehung zwischen einem Prädiktor und der Antwortvariablen. Koeffizienten sind die Zahlen, mit denen die Werte des Terms in einer Regressionsgleichung multipliziert werden.

Der Koeffizient des Terms stellt die Änderung des Mittelwerts der Antwortvariablen bei einer Änderung dieses Terms um eine Einheit dar, wenn alle übrigen Terme im Modell auf konstanten Werten gehalten werden. Das Vorzeichen des Koeffizienten gibt die Richtung der Beziehung zwischen dem Term und der Antwortvariablen an. Wenn der Koeffizient negativ ist, nimmt der Mittelwert der Antwortvariablen bei Zunahme des Terms ab. Wenn der Koeffizient positiv ist, nimmt der Mittelwert der Antwortvariablen bei zunehmendem Term zu.

Interpretation

Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn die Messungen vergleichbar sind, ist der Koeffizient für die Konstante 0 und der Koeffizient für den linearen Term 1. Verwenden Sie die Konfidenzintervalle in der Koeffiziententabelle, um zu bestimmen, ob statistische Anzeichen gegen diese Werte vorliegen.

SE Koef

Der Standardfehler des Koeffizienten ist ein Schätzwert der Streuung zwischen den Koeffizientenschätzwerten, die Sie erhalten würden, wenn Sie wiederholt Stichproben aus derselben Grundgesamtheit entnehmen würden. Bei der Berechnung wird angenommen, dass der Stichprobenumfang und die zu schätzenden Koeffizienten gleich bleiben, wenn Sie wiederholt Stichproben ziehen.

Interpretation

Verwenden Sie den Standardfehler des Koeffizienten, um zu ermitteln, wie genau der Schätzwert für den Koeffizienten ist. Je geringer der Standardfehler ist, desto genauer ist der Schätzwert.

Durch Dividieren des Koeffizienten durch seinen Standardfehler wird ein z-Wert berechnet. Wenn der dieser z-Statistik entsprechende p-Wert kleiner als das Signifikanzniveau ist, schlussfolgern Sie, dass der Koeffizient statistisch signifikant ist.

z

Beim z-Wert handelt es sich um eine Teststatistik für Tests, mit denen das Verhältnis zwischen dem Koeffizienten und dem zugehörigen Standardfehler gemessen wird.

Interpretation

Minitab verwendet den z-Wert zum Berechnen des p-Werts, anhand dessen Sie eine Entscheidung über die statistische Signifikanz der Terme treffen können.

Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Verwenden Sie die Konfidenzintervalle für die Koeffizienten des konstanten und des linearen Terms, um zu bestimmen, ob sich die mit den beiden Methoden gewonnenen Messwerte unterscheiden.

  • Für den konstanten Term liefert ein niedriger p-Wert Hinweise darauf, dass die Konstante ungleich null ist. Wenn die Konstante ungleich null ist, schlussfolgern Sie normalerweise, dass zwischen den Messwerten aus den beiden Methoden eine signifikante Differenz bzw. systematische Messabweichung vorliegt.
  • Für den linearen Term liefert ein niedriger p-Wert Hinweise darauf, dass der lineare Term ungleich null ist. Wenn der lineare Term ungleich null ist, besteht eine Assoziation zwischen den Messwerten. Dieser p-Wert liefert keine ausreichenden Anzeichen für die Schlussfolgerung, dass die Messwerte vergleichbar sind. Verwenden Sie das Konfidenzintervall für den Koeffizienten, um zu beurteilen, ob die Messwerte vergleichbar sind.

p

Der p-Wert ist ein Wahrscheinlichkeitsmaß für die Anzeichen gegen die Annahme der Nullhypothese. Geringere Wahrscheinlichkeiten liefern stärkere Anzeichen dafür, dass die Nullhypothese nicht zutrifft.

Interpretation

Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Verwenden Sie die Konfidenzintervalle für die Koeffizienten des konstanten und des linearen Terms, um zu bestimmen, ob sich die mit den beiden Methoden gewonnenen Messwerte unterscheiden.

  • Für den konstanten Term liefert ein niedriger p-Wert Hinweise darauf, dass die Konstante ungleich null ist. Wenn die Konstante ungleich null ist, schlussfolgern Sie normalerweise, dass zwischen den Messwerten aus den beiden Methoden eine signifikante Differenz bzw. systematische Messabweichung vorliegt.
  • Für den linearen Term liefert ein niedriger p-Wert Hinweise darauf, dass der lineare Term ungleich null ist. Wenn der lineare Term ungleich null ist, besteht eine Assoziation zwischen den Messwerten. Dieser p-Wert liefert keine ausreichenden Anzeichen für die Schlussfolgerung, dass die Messwerte vergleichbar sind. Verwenden Sie das Konfidenzintervall für den Koeffizienten, um zu beurteilen, ob die Messwerte vergleichbar sind.

Approx. 95%-KI

Diese Konfidenzintervalle (KIs) sind Bereiche von Werten, die wahrscheinlich den tatsächlichen Wert des Koeffizienten für jeden Term im Modell enthalten.

Da die Stichproben zufällig sind, ist es unwahrscheinlich, dass zwei Stichproben aus einer Grundgesamtheit identische Konfidenzintervalle ergeben. Wenn Sie jedoch viele Zufallsstichproben ziehen, enthält ein gewisser Prozentsatz der resultierenden Konfidenzintervalle den unbekannten Parameter der Grundgesamtheit. Der Prozentsatz dieser Konfidenzintervalle, die den Parameter enthalten, stellt das Konfidenzniveau des Intervalls dar.

Das Konfidenzintervall setzt sich aus den folgenden zwei Teilen zusammen:
Punktschätzung
Mit diesem einzelnen Wert wird der Parameter der Grundgesamtheit unter Verwendung der Stichprobendaten geschätzt. Das Konfidenzintervall wird um die Punktschätzung zentriert.
Fehlerspanne
Die Fehlerspanne definiert die Breite des Konfidenzintervalls, und sie wird durch die beobachtete Streuung in der Stichprobe, den Stichprobenumfang und das Konfidenzniveau bestimmt. Zum Berechnen der Obergrenze des Konfidenzintervalls wird die Fehlerspanne zur Punktschätzung addiert. Zum Berechnen der Untergrenze des Konfidenzintervalls wird die Fehlerspanne von der Punktschätzung subtrahiert.

Interpretation

Die orthogonale Regression findet häufig Anwendung in der klinischen Chemie und in Laboreinrichtungen, wenn festgestellt werden soll, ob zwei Instrumente oder zwei Methoden vergleichbare Messwerte liefern. Wenn das Konfidenzintervall für den konstanten Term 0 und das Intervall für den linearen Term 1 enthält, können Sie in der Regel schlussfolgern, dass die mit den zwei Instrumenten gewonnenen Messwerte vergleichbar sind.

In diesen Ergebnissen beträgt das Konfidenzintervall für den konstanten Term ungefähr (–3; 4). Da das Intervall den Wert 0 enthält, liefert dieser Teil der Analyse keine Hinweise darauf, dass sich die Messwerte der beiden Instrumente unterscheiden.

Das Konfidenzintervall für den linearen Term beträgt ungefähr (0,97; 1,02). Da das Intervall den Wert 1 enthält, liefert dieser Teil der Analyse keine Hinweise darauf, dass sich die Messwerte der beiden Instrumente unterscheiden.

Orthogonale Regressionsanalyse: Neu vs. Aktuell

Fehlervarianzverhältnis (Neu/Aktuell): 0,9

Regressionsgleichung Neu = 0,644 + 0,995 Aktuell
Koeffizienten Prädiktor Koef SE Koef z p Approx. 95%-KI Konstante 0,64441 1,74470 0,3694 0,712 (-2,77513; 4,06395) Aktuell 0,99542 0,01415 70,3461 0,000 ( 0,96769; 1,02315)
Fehlervarianzen Variable Varianz Neu 1,07856 Aktuell 1,19840

Fehlervarianzen

Die Fehlervarianzen beschreiben den Betrag der Unsicherheit bei den Werten des Prädiktors und der Antwortvariablen.

Interpretation

Verwenden Sie die Fehlervarianzen für jede Variable, um ein Verständnis der Streuung in den Messwerten der Antwortvariablen und der Prädiktorvariablen zu erlangen. Größere Fehlervarianzen weisen auf eine größere Unsicherheit bei den Messwerten hin. Die Fehlervarianz für die Prädiktorvariable und das Fehlervarianzverhältnis bestimmen die Fehlervarianz für die Antwortvariable.

Durch Ihre Nutzung dieser Website stimmen Sie zu, dass Cookies verwendet werden. Cookies dienen zu Analysezwecken und zum Bereitstellen personalisierter Inhalte.  Lesen Sie unsere Richtlinien