O gráfico de Custo de classificação errada vs Número de nós terminais mostra o custo de classificação errada de cada árvore na sequência que produz a árvore ótima. Por padrão, a árvore ótima inicial é a menor árvore com um custo de classificação errada dentro de um erro padrão da árvore que minimiza o custo de classificação errada. Quando a análise utiliza validação cruzada ou um conjunto de dados de teste, o custo de classificação errada vem da amostra de validação. Os custos de classificação errada para a amostra de validação normalmente nivelam e eventualmente aumentam à medida que a árvore cresce.
Preditores totais | 13 |
---|---|
Preditores importantes | 13 |
Número de nós terminais | 4 |
Tamanho mínimo do nó terminal | 27 |
Estatísticas | Treinamento | Teste |
---|---|---|
-Log da Verossimilhança Média | 0,4772 | 0,5164 |
Área sob a curva ROC | 0,8192 | 0,8001 |
IC de 95% | (0,3438; 1) | (0,7482; 0,8520) |
Elevação | 1,6189 | 1,8849 |
Custo de classificação errada | 0,3856 | 0,4149 |
A árvore na sequência com 4 nós tem um custo de classificação errada próximo a 0,41. O padrão quando o custo de classificação errada diminui continua após a árvore de 4 nós. Em um caso como este, os analistas optam por explorar algumas das outras árvores simples que têm menores custos de classificação errada.
Preditores totais | 13 |
---|---|
Preditores importantes | 13 |
Número de nós terminais | 7 |
Tamanho mínimo do nó terminal | 5 |
Estatísticas | Treinamento | Teste |
---|---|---|
-Log da Verossimilhança Média | 0,3971 | 0,5094 |
Área sob a curva ROC | 0,8861 | 0,8200 |
IC de 95% | (0,5590; 1) | (0,7702; 0,8697) |
Elevação | 1,9376 | 1,8165 |
Custo de classificação errada | 0,2924 | 0,3909 |
A árvore de classificação que minimiza o custo relativo de classificação errada com validação cruzada tem 7 nós terminais e um custo relativo de classificação errada de aproximadamente 0,39. Outras estatísticas, como a área sob a curva ROC também confirmam que a árvore de 7 nós apresenta um desempenho melhor que a árvore de 4 nós. Como a árvore de 7 nós tem poucos nós suficientes que também é fácil de interpretar, os analistas decidem usar a árvore de 7 nós para estudar as variáveis importantes e fazer predições.
Depois de selecionar uma árvore, investigue os nós terminais mais puros no diagrama. Azul representa o nível do evento, e a Vermelho representa o nível não evento.
Você pode clicar com o botão direito do mouse sobre o diagrama de árvore para mostrar a visualização da divisão do nó da árvore. Essa visualização é útil quando você tem uma árvore grande e quer ver apenas as variáveis que dividem os nós.
Os nós continuam a ser divididos até que os nós terminais não possam mais ser divididos em agrupamentos adicionais. Os nós que são majoritariamente azuis indicam uma forte proporção do nível de evento. Os nós que são majoritariamente vermelhos indicam uma forte proporção do nível de não evento.
O próximo divisor para o nó filho esquerdo e o nó filho direito é o Tipo dor no peito, em que a dor é classificada como 1, 2, 3 ou 4. O Nó 2 é o pai do Nó Terminal 1, e o Nó 5 é o pai do Nó Terminal 7.
Use o gráfico de importância relativa da variável para determinar quais preditores são as variáveis mais importantes para a árvore.
As variáveis importantes são um divisor primário ou substituto na árvore. A variável com maior pontuação de melhoria é definida como a variável mais importante, e as outras variáveis são classificadas de acordo. A importância relativa da variável padroniza os valores de importância para facilitar a interpretação. A importância relativa é definida como a melhoria percentual em relação ao preditor mais importante.
Os valores da importância relativa da variável variam de 0% a 100%. A variável mais importante sempre tem uma importância relativa de 100%. Se uma variável não estiver na árvore, essa variável não é importante.
A árvore mais exata é aquela com o menor custo de classificação errada. Às vezes, árvores mais simples com custos mais altos de classificação errada funcionam igualmente bem. Você pode usar o gráfico de custo de classificação incorreta versus nós terminais para identificar árvores alternativas.
A curva característica de operação do receptor (ROC) mostra o se uma árvore classifica bem os dados. A curva ROC traça a taxa de positivos verdadeiros no eixo Y e a taxa de falsos positivos no eixo X. A taxa de positivos verdadeiros também é conhecida como poder. A taxa de falsos positivos também é conhecida como erro tipo I.
Quando uma árvore de classificação consegue separar perfeitamente as categorias na variável resposta, então a área sob a curva ROC é 1, que é o melhor modelo de classificação possível. Em contrapartida, se uma árvore de classificação não consegue distinguir as categorias e faz atribuições de maneira completamente aleatória, a área sob a curva ROC é 0,5.
Quando você usa uma técnica de validação para construir a árvore, o Minitab fornece informações sobre o desempenho da árvore nos dados de treinamento e de validação (teste). Quando as curvas estão próximas, você pode ter maior confiança de que a árvore não está superajustada. O desempenho da árvore com os dados do teste indica se a árvore apresenta boa predição de novos dados.
Classe predita (Treinamento) | |||||||
---|---|---|---|---|---|---|---|
Classe predita (Teste) | |||||||
Classe real | Contagem | Sim | Não | % Correto | Sim | Não | % Correto |
Sim (Evento) | 139 | 117 | 22 | 84,2 | 105 | 34 | 75,5 |
Não | 164 | 22 | 142 | 86,6 | 24 | 140 | 85,4 |
Todos | 303 | 139 | 164 | 85,5 | 129 | 174 | 80,9 |
Estatísticas | Treinamento (%) | Teste (%) |
---|---|---|
Taxa de positivo verdadeiro (sensibil. ou poder) | 84,2 | 75,5 |
Taxa de positivo falso (erro tipo I) | 13,4 | 14,6 |
Taxa de negativo falso (erro tipo II) | 15,8 | 24,5 |
Taxa de negativo verdadeiro (especificidade) | 86,6 | 85,4 |
No geral, o %Corretos para os dados de treinamento é de 85,5% e para os dados do teste é de 80,9%.