Tabela do Resumo do Modelo para Ajuste Modelo de Cox com Preditores Fixos apenas

Encontre definições e orientações para a interpretação para cada estatística na tabela Resumo do Modelo.

A tabela Resumo do Modelo inclui duas linhas. Uma linha é para uma linha para um modelo sem termos. A outra linha é para um modelo com os termos da análise. Compare as duas linhas para avaliar a melhoria do modelo com termos sobre o modelo sem termos. Use a linha para o modelo com termos para descrever o desempenho do modelo. Use o AIC, AICc e BIC para comparar modelos com diferentes termos de uma análise para outra.

Log-verossimilhança

Use a log-verossimilhança para comprar dois modelos que usam os mesmos dados para estimar os coeficientes. Como os valores são negativos, quanto mais próximo de 0 o valor, melhor o modelo se ajusta aos dados.

O log-verossimilhança não pode diminuir quando você adiciona termos a um modelo. Por exemplo, um modelo com termos tem uma maior probabilidade de log do que um modelo sem termos. Uma diferença maior nos valores de probabilidade de log entre os dois modelos indica uma maior contribuição do modelo para o ajuste dos dados.

Quando você compara dois modelos com termos, a diferença de desempenho é mais clara se os modelos têm o mesmo número de termos. Use os valores p para os termos na tabela Coeficientes para decidir quais termos incluir no modelo.

R-sq

R2 é o percentual de variação na resposta que é explicada pelo modelo.

Interpretação

Use o R2 para determinar se o modelo ajusta bem seus dados. Quanto maior o valor R2, melhor o modelo ajusta seus dados. R2 está sempre entre 0% e 100%.

Considere as seguintes questões ao interpretar o valor de R2:
  • R2 sempre aumenta quando você adiciona mais preditores a um modelo. Por exemplo, o melhor modelo de cinco preditores terá sempre um R2 que seja pelo menos tão elevado quanto o melhor modelo de quatro preditores. Portanto, R2 é mais útil quando comparado a modelos do mesmo tamanho.
  • Amostras pequenas não fornecem uma estimativa precisa da força da relação entre a resposta e os preditores. Por exemplo, se você precisar que R2 seja mais exato, deve usar uma amostra maior (geralmente, 40 ou mais).
  • A estatística de qualidade do ajuste é apenas uma medida do grau em que o modelo ajusta os dados (se ajusta bem ou mal). Mesmo quando um modelo tem um um valor desejável, você deve verificar os gráficos de resíduos para conferir se o modelo atende aos pressupostos do modelo.

AIC, AICc e BIC

O Critério de Informação de Akaike (AIC), o Critério de Informação de Akaike Corrigido (AICc) e o Critério de Informação Bayesiano (BIC) são medidas da qualidade relativa de um modelo que consideram o ajuste e a quantidade de termos no modelo.

Interpretação

Use o AIC, AICc e BIC para comparar modelos diferentes. É desejável que o resultado apresente valores menores. No entanto, o modelo com o menor valor para um conjunto de preditores não necessariamente ajusta bem os dados. Além disso use os testes e os gráficos de resíduos para avaliar se o modelo ajusta bem os dados.
AICc e BIC
Quando o tamanho da amostra é pequeno em relação aos parâmetros do modelo, o AICc funciona melhor do que o AIC. AICc funciona melhor porque, com tamanhos de amostra relativamente pequenos, o AIC tende a ser pequeno para modelos com muitos parâmetros. Em geral, as duas estatísticas dão resultados semelhantes quando o tamanho da amostra é grande o bastante em relação aos parâmetros no modelo.
AICc e BIC
Tanto AICc como BIC avaliam a verossimilhança do modelo e aplicam uma penalidade para adicionar termos ao modelo. Tal penalidade reduz a tendência de sobreajuste do modelo aos dados amostrais. Essa redução pode produzir um modelo com melhor desempenho geral.
Como orientação geral, quando o número de parâmetros é pequeno em relação ao tamanho amostral, o BIC tem uma penalidade maior do que o AICc para a adição de cada parâmetro. Nesses casos, o modelo que minimiza o BIC tende a ser menor do que o modelo que minimiza o AICc.
Em alguns casos comuns, tais como filtragens de experimento, o número de parâmetros geralmente é grande em relação ao tamanho amostral. Nesses casos, o modelo que minimiza o AICc tende a ser menor do que o modelo que minimiza o BIC. Por exemplo, para uma filtragem de experimento definitiva de 13 ensaios, o modelo que minimiza o AICc tenderá a ser menor que o modelo que minimiza o BIC no conjunto de modelos com 6 ou mais parâmetros.
Para obter mais informações sobre AICc e BIC, consulte Burnham e Anderson.1
1 Burnham, K. P., & Anderson, D. R. (2004). Inferência multimodelista: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644