Bei den x-berechneten Werten handelt es sich um lineare Kombinationen der x-Werte. Die x-berechneten Werte enthalten die Streuung in den Termen, die vom PLS-Regressionsmodell erklärt wird. Beobachtungen mit relativ kleinen x-berechneten Werten sind Ausreißer im x-Raum und werden vom Modell nicht gut erklärt.
Die Matrix der x-berechneten Werte, die der ursprünglichen x-Matrix ähnelt, ist eine (n x p)-Matrix, wobei n die Anzahl der Beobachtungen und p die Anzahl der Terme darstellt. Die x-berechneten Werte befinden sich auf derselben Skala wie die Prädiktoren.
Wenn die Anzahl der Komponenten gleich der Anzahl der Terme ist, ist der x-berechnete Wert gleich dem ursprünglichen x-Wert.
Die x-Ladungen sind die linearen Koeffizienten, die die Terme mit den x-Werten verknüpfen. Die x-Ladungen geben die Relevanz des entsprechenden Terms für die m-te Komponente an. Die x-Ladungen, die Eigenvektoren in der Hauptkomponentenanalyse ähneln, bilden eine (p x m)-Matrix, wobei p die Anzahl der Terme und m die Anzahl der Komponenten darstellt.
Die x-Residuen enthalten die Streuung in den Prädiktoren, die vom PLS-Regressionsmodell nicht erklärt wird. Beobachtungen mit relativ großen x-Residuen sind Ausreißer im x-Raum und werden vom Modell nicht gut erklärt.
Die x-Residuen sind die Differenzen zwischen den tatsächlichen Werten der einzelnen Terme und den x-berechneten Werten, und sie befinden sich auf derselben Skala wie die ursprünglichen Prädiktoren. Die Matrix der x-Residuen, die der ursprünglichen x-Matrix ähnelt, ist eine (n x p)-Matrix, wobei n die Anzahl der Beobachtungen und p die Anzahl der Terme darstellt.
Bei den x-Werten handelt es sich um lineare Kombinationen der Terme im Modell. Die x-Werte, die den Werten der Hauptkomponenten ähneln, bilden eine (n x m)-Matrix nicht korrelierender Spalten, wobei n die Anzahl der Beobachtungen und m die Anzahl der Komponenten darstellt. Die x-Werte stellen Projektionen der Beobachtungen auf die PLS-Regressionskomponenten dar. Bei der PLS-Regression werden die x-Werte angepasst, die die ursprünglichen Terme im Modell ersetzen, wobei die Schätzung kleinster Quadrate verwendet wird.
Die x-Varianz gibt den Streuungsgrad in den Termen an, der vom Modell erklärt wird. Der Wert der x-Varianz liegt zwischen 0 und 1.
Je näher die x-Varianz bei 1 liegt, desto besser wird die ursprüngliche Menge der Terme von den Komponenten dargestellt. Wenn mehrere Antwortvariablen vorhanden sind, ist der Wert der x-Varianz für alle Antwortvariablen gleich.
Die x-Gewichtungen beschreiben die Kovarianz zwischen den Prädiktoren und den Antwortvariablen. Im Algorithmus wird mit Hilfe der x-Gewichtungen sichergestellt, dass die x-Werte orthogonal sind, also in keiner Beziehung zueinander stehen. Die x-Gewichtungen, die zum Berechnen der x-Werte verwendet werden, bilden eine (p x m)-Matrix, wobei p die Anzahl der Terme und m die Anzahl der Komponenten darstellt.
Bei den y-berechneten Werten handelt es sich um lineare Kombinationen der x-Werte. Die y-berechneten Werte enthalten die Streuung in den Antwortvariablen, die vom PLS-Regressionsmodell erklärt wird. Beobachtungen mit relativ kleinen y-berechneten Werten sind Ausreißer im y-Raum und werden nicht gut erklärt.
Die Matrix der y-berechneten Werte, die der ursprünglichen y-Matrix ähnelt, ist eine (n x r)-Matrix, wobei n die Anzahl der Beobachtungen und r die Anzahl der Antwortvariablen darstellt. Die y-berechneten Werte befinden sich auf derselben Skala wie die Antwortvariablen.
Die y-Ladungen sind die linearen Koeffizienten, die die Antwortvariablen mit den y-Werten verknüpfen. Die Werte der y-Ladungen geben die Bedeutung der entsprechenden Antwortvariablen für die m-te Komponente an. Die y-Ladungen bilden eine (r x m)-Matrix, wobei r die Anzahl der Antwortvariablen und m die Anzahl der Komponenten darstellt.
Die y-Residuen enthalten die verbleibende Streuung in den Antwortvariablen, die vom PLS-Regressionsmodell nicht erklärt wird. Beobachtungen mit relativ großen y-Residuen sind Ausreißer im y-Raum und werden vom Modell nicht gut erklärt.
Die y-Residuen sind die Differenzen zwischen den Ist-Werten der Antwortvariablen und den y-berechneten Werten, und sie befinden sich auf derselben Skala wie die ursprünglichen Werte der Antwortvariablen. Die Matrix der y-Residuen, die der ursprünglichen y-Matrix ähnelt, ist eine (n x r)-Matrix, wobei n die Anzahl der Beobachtungen und r die Anzahl der Antwortvariablen darstellt.
Die y-Werte sind lineare Kombinationen der Antwortvariablen. Die y-Werte bilden eine (n x m)-Matrix, wobei n die Anzahl der Beobachtungen und m die Anzahl der Komponenten darstellt. Die y-Werte stellen Projektionen der Beobachtungen auf die PLS-Regressionskomponenten dar.