Tabela resumida de modelos para Ajuste de modelo e Descubrir preditores-chave com Regressão TreeNet®

Observação

Este comando está disponível com o Módulo de análise preditiva. Clique aqui saber mais sobre como ativar o módulo.

Encontre definições e orientações de interpretação para a tabela Sumário do Modelo.
Observação

O Minitab exibe resultados tanto para os dados de treinamento quanto para os resultados de validação. Os resultados da validação indicam se o modelo consegue predizer adequadamente os valores de resposta para novas observações, ou sumarizar adequadamente as relações entre a resposta e as variáveis preditoras. Use os resultados do treinamento para avaliar o sobreajuste do modelo.

Preditores totais

O número de preditores totais disponíveis para a modelo do TreeNet®. O total é a soma dos preditores contínuos e categóricos especificados por você.

Preditores importantes

O número de preditores importantes no modelo do TreeNet®. Os preditores importantes têm pontuações de importância maiores que 0,0. Você pode usar a carta de Importância Relativa da Variável para exibir a ordem de importância relativa da variável. Por exemplo, suponha que 10 dos 20 preditores sejam importantes no modelo, a carta de Importância Relativa da Variável exibe as variáveis em ordem de importância.

Número de árvores cultivadas

Por padrão, o Minitab cultiva 300 árvores CART® pequenas para produzir o modelo do TreeNet®. Embora esse valor funcione bem para a exploração dos dados, considere se deve cultivar mais árvores para produzir um modelo final. Para alterar o número de árvores cultivadas, vá para a subcaixa de diálogo Opções.

Número ótimo de árvores

O número ótimo de árvores corresponde ao maior valor de R2 ou ao menor valor de DAM.

Quando o número ótimo de árvores estiver próximo do número máximo de árvores que o modelo faz, considere uma análise com mais árvores. Assim, se você cultivar 300 árvores e o número ótimo voltar como 298, recrie o modelo com mais árvores. Se o número ótimo continuar próximo ao número máximo, continue aumentando o número de árvores.

R-quadrado

R2 é a porcentagem de variação na resposta que o modelo explica. Os outliers têm um efeito maior no R2 do que no MAD e MAPE.

Quando você usa um método de validação, a tabela inclui uma estatística R2 para o conjunto de dados de treinamento e uma estatística R2 para o método de validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção da árvore exclui essa fold. A estatística R2 dos resultados de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.

Interpretação

Use o R2 para determinar se o modelo ajusta bem seus dados. Quanto maior o valor R2, melhor o modelo ajusta seus dados. R2 está sempre entre 0% e 100%.

Você pode ilustrar graficamente o significado de diferentes valores de R2. O primeiro gráfico ilustra um modelo de regressão simples que explica 85,5% da variação na resposta. O segundo gráfico ilustra um modelo que explica 22,6% da variação da resposta. Quanto mais variação for explicada pelo modelo, mais perto dos valores ajustados caem os pontos de dados. Teoricamente, se um modelo puder explicar 100% da variação, os valores ajustados sempre equivaleriam aos valores observados e todos os pontos de dados cairiam sobre a linha y = x.

Um validação R2 substancialmente menor do que o R2 de treinamento indica que o modelo pode não predizer os valores de resposta para novos casos tão bem quanto o modelo ajusta o conjunto de dados atual.

Raiz do quadrado médio do erro (RMSE)

A raiz do quadrado médio do erro (RMSE) mede a exatidão do modelo. Os outliers exercem um efeito maior sobre o RMSE do que sobre o MAD e o MAPE.

Quando você usa um método de validação, a tabela inclui uma estatística RMSE para o conjunto de dados de treinamento e uma estatística RMSE para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção da árvore exclui essa fold. A estatística RMSE de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.

Interpretação

Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um RMSE de validação substancialmente maior que o RMSE de treinamento indica que o modelo pode não prever os valores de resposta para novos casos, assim como o modelo se ajusta ao conjunto de dados atual.

Erro quadrado médio (MSE)

O erro quadrado médio (MSE) mede a exatidão do modelo. Os outliers exercem um efeito maior sobre o MSE do que sobre o MAD e o MAPE.

Quando você usa um método de validação, a tabela inclui uma estatística MSE para o conjunto de dados de treinamento e uma estatística MSE para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção do modelo exclui essa fold. A estatística MSE de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.

Interpretação

Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um MSE de validação substancialmente maior que o MSE de treinamento indica que o modelo pode não prever os valores de resposta para novos casos, assim como o modelo se ajusta ao conjunto de dados atual.

Desvio absoluto médio (MAD)

O desvio absoluto médio (MAD) expressa exatidão nas mesmas unidades que os dados, o que ajuda a conceituar a quantidade de erro. Os outliers têm menos efeito sobre o DAM do que sobre o R2, RMSE e MSE.

Quando você usa um método de validação, a tabela inclui uma estatística MAD para o conjunto de dados de treinamento e uma estatística MAD para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção do modelo exclui essa fold. A estatística MAD de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.

Interpretação

Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um MAD de validação substancialmente maior que o MAD de treinamento indica que o modelo pode não prever os valores de resposta para novos casos, assim como o modelo se ajusta ao conjunto de dados atual.

Erro percentual absoluto médio (MAPE)

O erro percentual absoluto médio (MAPE) expressa exatidão como um percentual do erro. Como o MAPE é um percentual, pode ser mais fácil de entender do que a outra estatística de medida de exatidão. Por exemplo, se o MAPE, em média, é de 0,05, então a relação média entre o erro ajustado e o valor real em todos os casos é de 5%. Outliers têm menos efeito no MAPE do que no R2, RMSE e MSE.

No entanto, às vezes você pode ver um valor MAPE muito grande, mesmo que o modelo pareça ajustar bem os dados. Examine o gráfico de valores ajustados versus valores de resposta real para ver se algum valor de dados está próximo de 0. Como o MAPE divide o erro absoluto pelos dados reais, os valores próximos a 0 podem inflar muito o MAPE.

Quando você usa um método de validação, a tabela inclui uma estatística MAPE para o conjunto de dados de treinamento e uma estatística MAPE para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção do modelo exclui essa fold. A estatística MAPE de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.

Interpretação

Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um MAPE de validação substancialmente maior que o MAPE de treinamento indica que o modelo pode não prever os valores de resposta para novos casos, assim como o modelo se ajusta ao conjunto de dados atual.