Análise de covariância – Wikipédia, a enciclopédia livre

A análise de covariância (ANCOVA) é um modelo linear geral que combina análise de variância (ANOVA) e regressão. A ANCOVA avalia se as médias de uma variável dependente (VD) são iguais entre os diferentes níveis de um variável independente categórica (VI), muitas vezes chamada de tratamento, apesar de estatisticamente controlar os efeitos de outras variáveis contínuas que não são de interesse primário, conhecidas como covariáveis (CV) ou variáveis incômodas. Matematicamente, a ANCOVA decompõe a variância na VD em variância explicada pela(s) CV(s), variância explicada pela VI categórica e variância residual. Intuitivamente, a ANCOVA pode ser pensada como 'ajustando' a VD pelo meio de grupo da(s) CV(s).[1]

O modelo ANCOVA assume uma relação linear entre a resposta (DV) e a covariável (CV):

Nesta equação, a VD, é a jª observação sob o iº grupo categórico; a CV, é a j ésima observação da covariável sob o i ésimo grupo. Variáveis no modelo que são derivadas dos dados observados são (a grande média) e (a média global para covariável ) As variáveis a serem ajustadas são (o efeito do i th nível do IV), (a inclinação da linha) e (o termo de erro não observado associado para a j ésima observação no i ésimo grupo).

Aumentar a potência

[editar | editar código-fonte]

A ANCOVA pode ser usada para aumentar a potência estatística (a probabilidade de uma diferença significativa ser encontrada entre os grupos, quando existe), reduzindo a variância do erro dentro do grupo.[2] Para entender isso, é necessário entender o teste usado para avaliar as diferenças entre os grupos, o teste F. O teste F é calculado dividindo a variância explicada entre os grupos (por exemplo, diferenças de recuperação médica) pela variância inexplicada dentro dos grupos.

Se esse valor for maior que um valor crítico, concluímos que há uma diferença significativa entre os grupos. A variância inexplicada inclui a variância do erro (por exemplo, diferenças individuais), bem como a influência de outros fatores. Portanto, a influência das CVs está agrupada no denominador. Quando controlamos o efeito das CVs na VD, o removemos do denominador tornando F maior, aumentando assim seu poder de encontrar um efeito significativo, se houver.

Existem várias premissas importantes que fundamentam o uso da ANCOVA e afetam a interpretação dos resultados.[3] Os pressupostos da regressão linear padrão são válidos; além disso, presumimos que a inclinação da covariável é igual em todos os grupos de tratamento (homogeneidade das inclinações de regressão).

Premissa 1: linearidade da regressão

[editar | editar código-fonte]

A relação de regressão entre a variável dependente (VD) e as variáveis concomitantes deve ser linear.

Premissa 2: homogeneidade de variâncias de erro

[editar | editar código-fonte]

O erro é uma variável aleatória com média zero condicional e variâncias iguais para diferentes classes de tratamento e observações.

Premissa 3: independência dos termos de erro

[editar | editar código-fonte]

Os erros não estão correlacionados. Ou seja, a matriz de covariância do erro é diagonal.

Premissa 4: normalidade dos termos de erro

[editar | editar código-fonte]

Os resíduos (termos de erro) devem ser normalmente distribuídos ( ~ ).

Premissa 5: homogeneidade das inclinações de regressão

[editar | editar código-fonte]

As inclinações das diferentes linhas de regressão devem ser equivalentes, isto é, as linhas de regressão devem ser paralelas entre os grupos.

Considerações de potência

[editar | editar código-fonte]

Embora a inclusão de uma covariável em uma ANOVA geralmente aumente a potência estatística, contabilizando parte da variância na variável dependente e, assim, aumentando a razão da variância explicada pelas variáveis independentes, adicionar uma covariável à ANOVA também reduz os graus de liberdade. Conseqüentemente, adicionar uma covariável que responde por muito pouca variação na variável dependente pode, na verdade, reduzir a potência.

  1. Keppel, G. (1991). Design and analysis: A researcher's handbook (3rd ed.). Englewood Cliffs: Prentice-Hall, Inc.
  2. Tabachnick, B. G.; Fidell, L. S. (2007). Using Multivariate Statistics 5th ed. Boston: Pearson Education 
  3. Montgomery, Douglas C. "Design and analysis of experiments" (8th Ed.). John Wiley & Sons, 2012.