Para determinar o quão bem o modelo se encaixa nos seus dados, examine as estatísticas na tabela de Resumo do Modelo.
O número total de preditores disponíveis para o modelo. Esta é a soma dos preditores contínuos e dos preditores categóricos especificados por você.
O número de preditores importantes no modelo. Preditores importantes são as variáveis que têm pelo menos 1 função de base no modelo.
Você pode usar o gráfico de Importância Relativa da Variável para exibir a ordem de importância relativa da variável. Por exemplo, suponha que 10 de 20 preditores tenham funções base no modelo, o gráfico de Importância Relativa das Variáveis exibe as variáveis em ordem de importância.
O número de funções de base que o algoritmo constrói para procurar o modelo ideal.
Por padrão, o Minitab Statistical Software define o número máximo de funções base para 30. Considere um valor maior quando 30 funções de base parecerem muito pequenas para os dados. Por exemplo, considere um valor maior quando você acredita que mais de 30 preditores são importantes.
O número de funções de base no modelo ideal.
Após a análise estimar o modelo com o número máximo de funções base, a análise utiliza um procedimento de eliminação reversa para remover funções base do modelo. Uma a uma, a análise remove a função de base que menos contribui para o ajuste do modelo. Em cada etapa, a análise calcula o valor do critério de otimidade para a análise, seja R-quadrado ou desvio absoluto médio. Após a conclusão do procedimento de eliminação, o número ótimo de funções base é o número do procedimento de eliminação que produz o valor ótimo do critério.
R2 é a porcentagem de variação na resposta que o modelo explica. Os outliers têm um efeito maior no R2 do que no MAD e MAPE.
Quando você usa um método de validação, a tabela inclui uma estatística R2 para o conjunto de dados de treinamento e uma estatística R2 para o método de validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção da árvore exclui essa fold. A estatística R2 dos resultados de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.
Use o R2 para determinar se o modelo ajusta bem seus dados. Quanto maior o valor R2, melhor o modelo ajusta seus dados. R2 está sempre entre 0% e 100%.
Um validação R2 substancialmente menor do que o R2 de treinamento indica que o modelo pode não predizer os valores de resposta para novos casos tão bem quanto o modelo ajusta o conjunto de dados atual.
A raiz do quadrado médio do erro (RMSE) mede a exatidão do modelo. Os outliers exercem um efeito maior sobre o RMSE do que sobre o MAD e o MAPE.
Quando você usa um método de validação, a tabela inclui uma estatística RMSE para o conjunto de dados de treinamento e uma estatística RMSE para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção da árvore exclui essa fold. A estatística RMSE de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.
Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um RMSE de validação substancialmente menor que o RMSE de treinamento indica que o modelo pode não prever os valores de resposta para novos casos tão bem quanto o modelo se ajusta ao conjunto de dados atual.
O erro quadrado médio (MSE) mede a exatidão do modelo. Os outliers exercem um efeito maior sobre o MSE do que sobre o MAD e o MAPE.
Quando você usa um método de validação, a tabela inclui uma estatística MSE para o conjunto de dados de treinamento e uma estatística MSE para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção do modelo exclui essa fold. A estatística MSE de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.
Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um MSE de validação substancialmente menor que o MSE de treinamento indica que o modelo pode não prever os valores de resposta para novos casos tão bem quanto o modelo se ajusta ao conjunto de dados atual.
O desvio absoluto médio (MAD) expressa exatidão nas mesmas unidades que os dados, o que ajuda a conceituar a quantidade de erro. Os outliers têm menos efeito sobre o DAM do que sobre o R2, RMSE e MSE.
Quando você usa um método de validação, a tabela inclui uma estatística MAD para o conjunto de dados de treinamento e uma estatística MAD para os resultados da validação. Quando o método de validação é a validação cruzada k-fold, a validação usa cada fold quando a construção do modelo exclui essa fold. A estatística MAD de validação normalmente é uma medida melhor de como o modelo funciona para novos dados.
Use para comparar os ajustes de modelos diferentes. Valores menores indicam um ajuste melhor. Um MAD de validação substancialmente menor que o MAD de treinamento indica que o modelo pode não prever os valores de resposta para novos casos tão bem quanto o modelo se ajusta ao conjunto de dados atual.