TreeNet® 회귀 분석에 대한 주요 예측 변수 검색모형 적합의 개요

참고

이 명령은 예측 분석 모듈에서 사용할 수 있습니다. 모듈을 활성화하는 방법에 대한 자세한 내용은 여기를 클릭하십시오.

많은 계량형 및 범주형 예측 변수를 사용하여 계량형 반응에 대한 향상된 부스트 회귀 트리를 만드는 데 TreeNet® 회귀 분석을 사용합니다. TreeNet® 회귀 분석는 세계적인 데이터 마이닝 연구원 중 한 명인 Jerome Friedman이 개발한 데이터 마이닝 기술의 혁신적인 발전입니다. 이 유연하고 강력한 데이터 마이닝 도구는 매우 정확한 모형을 탁월한 속도와 복잡하고 불완전한 데이터에 대한 높은 허용 오차로 일관되게 생성할 수 있습니다.

예를 들어, 의료 연구원은 TreeNet® 회귀 분석을 사용하여 특정 치료에 대한 반응률이 높은 환자를 식별하고 이러한 반응률을 예측할 수 있습니다.

CART® 회귀 분석는 좋은 데이터 탐색 분석 도구이며 이해하기 쉬운 모형을 제공하여 중요한 예측 변수를 신속하게 식별할 수 있습니다. 그러나 CART® 회귀 분석을 사용한 초기 탐색 후 필요한 후속 단계로 TreeNet® 회귀 분석을 고려하십시오. TreeNet® 회귀 분석는 수백 개의 작은 트리로 구성될 수 있는 복잡한 고성능 모형을 제공합니다. 각 트리는 전체 모형에 약간의 기여를 합니다. TreeNet® 회귀 분석 결과에 따라 많은 후보 예측 변수에서 계량형 반응 변수와 중요한 예측 변수 간의 관계를 이해하고 새로운 관측치에 대한 반응을 매우 정확하게 예측할 수 있습니다.

TreeNet® 회귀 분석 분석은 하나의 예측 변수 부분 종속성 플롯과 두 개의 예측 변수 부분 종속성 플롯을 제공합니다. 이러한 그림은 주요 예측 변수의 변경 내용이 반응 값에 미치는 영향을 평가하는 데 도움이 됩니다. 따라서 이 정보는 최적의 생산 결과를 가능하게 하는 설정을 제어하는 데 유용할 수 있습니다.

TreeNet® 회귀 분석 또한 이 분석은 모형에 대해 서로 다른 하이퍼파라미터를 시도할 수 있는 기능을 제공합니다. 학습 속도와 하위 표본 부분은 하이퍼파라미터의 예입니다. 서로 다른 값을 탐색하는 것은 모형 성능을 향상시키는 일반적인 방법입니다.

CART® 방법론에 대한 전체적인 내용은 Breiman, Friedman, Olshen and Stone (1984)1 and 2.

모형 적합

많은 계량형 및 범주형 예측 변수를 사용하여 계량형 반응에 대한 향상된 부스트 회귀 트리를 만드는 데 모형 적합을 사용합니다. 결과는 최대 R2 값 또는 최소 절대 편차가 있는 학습 프로세스의 모형에 대한 것입니다.

주요 예측 변수 검색

일부 예측 변수가 다른 예측 변수보다 반응에 미치는 영향이 적은 많은 예측 변수가 있는 데이터 집합의 경우 모형에서 중요하지 않은 예측 변수를 제거하기 위해 주요 예측 변수 검색의 사용을 고려해보십시오. 중요하지 않은 예측 변수를 제거하면 가장 중요한 예측 변수의 영향을 명확히 하고 예측 정확도가 향상됩니다. 이 알고리즘은 순차적으로 가장 중요하지 않은 예측 변수를 제거하고 모형을 다양한 예측 변수 수와 비교할 수 있는 결과를 보여주며, 정확도 기준의 최상의 값으로 예측 변수 집합에 대한 결과를 생성합니다.

예를 들어, 화학자는 주요 예측 변수 검색 새로운 연료 블렌드에서 점도를 효과적으로 모델링하는 500개의 예측 변수 집합에서 12개 정도의 예측 변수를 자동으로 식별합니다.

주요 예측 변수 검색은(는) 또한 가장 중요한 예측 변수를 제거하여 각 중요한 예측 변수가 모형의 예측 정확도에 미치는 영향을 정량적으로 평가할 수 있습니다.

이 분석을 찾을 수 있는 위치

모형 적합을 수행하려면 예측 분석 모듈 > TreeNet® 회귀 > 모형 적합을 선택합니다.

주요 예측 변수 검색을 수행하려면 예측 분석 모듈 > TreeNet® 회귀 > 주요 예측 변수 검색을 선택합니다.

대립 분석을 사용할 시기

계량형 반응 변수를 사용한 모수 회귀 모형을 사용하려면 적합 회귀 모형를 사용합니다.

Random Forests® 회귀 모형의 성능을 비교하려면 Random Forests® 회귀 분석를 사용합니다.

1 Breiman, Friedman, Olshen & Stone. (1984)을 참조하십시오. Classification and Regression Trees. Boca Raton, Florida: Chapman & Hall/CRC.
2 H. Zhang and B.H. Singer. (2010). Recursive Partitioning and Applications. New York, New York: Springer