9. ANOVA

ANOVA é uma coleção de modelos estatísticos no qual a variância amostral é particionada em diversos componentes devido a diferentes fatores (variáveis), que nas aplicações estão associados a um processo, produto ou serviço. Através desta partição, a ANOVA estuda a influência destes fatores na característica de interesse. No estudo destas influências, alguns autores como Eisenhart (1947), perceberam que havia, na verdade, dois tipos fundamentalmente diferentes de efeitos que os chamou de efeitos fixos e efeitos aleatórios. Neste módulo, vamos apresentar os modelos associados a técnica da ANOVA para ambos tipos de efeitos.

ANOVA - Modelo com Efeitos Fixos

1 - ANOVA Um Fator

Vamos apresentar uma ferramenta para analisar o comportamento de diversos tratamentos de um fator aplicados a um processo, produto ou serviço. Por exemplo, considere o processo de tratamento térmico no qual controlamos a dureza do material. Neste caso, temos como objetivo avaliar o efeito da temperatura do forno na dureza do material. Para isto, elaboramos um experimento no qual produzimos peças em diferentes níveis de temperatura do forno e medimos a dureza destas peças. Com estas observações, podemos aplicar a técnica da ANOVA para escolhermos o nível adequado de temperatura que garanta peças com boas propriedades.

Considere um processo, produto ou serviço no qual queremos avaliar o impacto do fator A , tal que A tenha k níveis, sendo que esses níveis são fixos. Suponha que uma amostra de N unidades experimentais é selecionada completamente aleatória de uma população de unidades experimentais. A unidade experimental é a unidade básica para o qual os tratamentos são aplicados, para mais detalhes sobre unidades experimentais ver módulo de planejamento de experimento. A matriz de dados é apresentada conforme a tabela 1

Screenshot_1

Tabela 1.1: Apresentação dos dados para um fator.

Na sequência, apresentamos um exemplo no qual queremos estudar o comportamento de um processo nos diferentes níveis de um fator de controle.

Exemplo 1.1

Considere o processo de produção de uma fibra sintética, no qual o experimentador quer conhecer a influência da porcentagem de algodão na resistência da fibra. Para isto, foi realizado um experimento totalmente aleatorizado, no qual diversos níveis de porcentagem de algodão foram avaliados com respeito à resistência da fibra. Um ponto importante no planejamento do experimento é que para cada nível do fator (porcentagem de algodão), os outros fatores que influenciam o processo (como o meio ambiente, máquina, matéria prima, etc) devem apresentar um padrão homogêneo de variabilidade. No experimento, tomamos 5 níveis para a porcentagem de algodão e 5 replicações.

Screenshot_2

Para efetuarmos as análises no software Action devemos montar a tabela da seguinte forma:

Fator Resistência
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Inicialmente, faremos uma análise descritiva dos dados que facilita a interpretação dos mesmos e a aplicação do modelo da ANOVA. Diversos gráficos podem nos auxiliar na apresentação dos dados, abaixo apresentamos algumas alternativas. Um dos gráficos mais utilizados é o Box-Plot.

boxplot_fibra

Figura 1.1.1: Gráfico de Boxplot.

Outra opção é o Dotplot. Neste caso, todos os pontos são alocados em uma mesma escala o que facilita a comparação.

dotplot_fibra

Figura 1.1.2: Gráfico de Dotplot

O gráfico de intervalo de Confiança das Médias também é bastante utilizado. Neste caso, calculamos a média e o desvio padrão para cada nível do fator e com isso, obtemos o desvio padrão agrupado. Na sequência, utilizamos a distribuição t-student para construirmos o intervalo de confiança para a média de cada nível.

Fator Média Desvio Padrão Limite Inferior Limite Superior
15 9,8 2,83 7,15 12,45
20 15,4 2,83 12,75 18,05
25 17,6 2,83 14,95 20,25
30 21,6 2,83 18,95 24,25
35 10,8 2,83 8,15 13,45

intervalo_fibra

Figura 1.1.3: Intervalo de Confiança das Médias.

Também podemos fazer um gráfico apenas com as médias, que denominamos de gráfico de efeitos principais.

efeitos_fibra

Figura 1.3: Gráfico de efeitos principais para o Exemplo 1.

Note que para construirmos este gráfico utilizamos as médias $ \overline{y_{i.}} $ de cada nível versus os níveis do fator, ou seja, para 15 % de algodão temos uma resistência média de 9,8, para 25 % a média é 15,4 e assim por diante. A linha pontilhada representa a média geral dos dados.

Através dos gráficos, observamos que o valor da resistência aumenta com a porcentagem de algodão até o nível de 30%, para o nível de 35% ocorre um queda na resistência da fibra, tudo indica que o sistema saturou. Além disso, observamos que a variabilidade é similar ao longo dos níveis de porcentagem de algodão.

Do ponto de vista prático queremos avaliar se variações no fator (porcentagem de algodão) provocam alterações significativas na resistência da fibra. Através dos gráficos, temos indicações de que a resposta é afirmativa.

Neste exemplo simples, os k níveis foram especificados e fixados pelo experimentador. Nesta situação, queremos testar hipóteses sobre as médias dos níveis, e nossas conclusões não podem ser estendidas para níveis não considerados no experimento. Este modelo é denominado modelo de efeito fixo. Alternativamente, se os k níveis são escolhidos aleatoriamente de uma população de níveis, podemos estender as conclusões para todos os demais níveis da população. Neste caso, os efeitos são variáveis aleatórias e denominados efeitos aleatórios e a discussão deste conteúdo está no módulo modelo com efeitos aleatórios. Neste módulo, vamos avaliar apenas a ANOVA com efeitos fixos.

1.1 - Modelo

Modelo para os dados

Para uma boa análise é necessário descrever os dados através de um modelo apropriado. Um dos mais simples é o modelo de efeitos, descrito por:

$$y_{ij}=\mu +\alpha_i+\varepsilon_{ij} $$

em que, $ j = 1, \cdots ,n_i $ e $ i = 1;2, \cdots ,k $.

Para este modelo $ \mu $ é um parâmetro comum a todos os tratamentos e representa a média geral dos dados, $ \alpha_{i} $ é o efeito que o nível i do fator provoca na variável resposta. A variável aleatória $ \varepsilon_{ij} $ corresponde ao erro aleatório experimental, isto é, a variabilidade devido aos outros fatores que influenciam no processo, produto ou serviço e que não foram considerados no experimento. O erro experimental representa as variações não explicada pelo modelo, que tem como causa as variações presentes em diversas fontes não consideradas no estudo.

Resumindo,

$ y_{ij} $= j-ésima observação do nível i do fator A;

$ \mu $ = média geral dos dados;

$ \alpha_i $ = efeito do nível i do fator;

$ \varepsilon_{ij} $ = componente aleatória do erro.

A partir dos dados, utilizaremos a seguinte notação:

Screenshot_4

Além disso, faremos a hipótese de que o erro experimental são variáveis aleatórias independentes e identicamente distribuídas com distribuição normal com média zero e variância $ \sigma^2 $, isto é, assumimos que $ \varepsilon_{ij} \sim N(0, \sigma^2) $. Desta forma, concluímos que $ y_{ij} $ também tem distribuição normal com média $ \mu + \alpha_i $ e variância $ \sigma^2 $, para todo $ j=1, \cdots , n_i $ e $ i=1, \cdots , k $.

Na prática estamos interessado em avaliar o impacto do fator na resposta. Para isto, queremos avaliar o efeito que os diferentes níveis do fator provoca na variável resposta. Se denotarmos por $ \mu_i = \mu + \alpha_i $, queremos testar as hipóteses:

Screenshot_3

1.2 - Decomposição da Soma de Quadrados

A técnica da ANOVA está associada a partição da variabilidade total dos dados em componentes. A soma de quadrados total é definida como medida da variabilidade total dos dados,

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij} - \overline{y}_{..})^{2}.$$

Intuitivamente isto é razoável, pois se dividirmos SQT pelos seus graus de liberdade (N -1), obtemos a variância amostral dos dados.

Somando e subtraindo $ \overline{y_{i.}} $ obtemos

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left[(y_{ij}-\overline{y_{i.}})+(\overline{y_{i.}}-\overline{y}_{..})\right]^{2}$$

$$\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2}+2\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})(\overline{y_{i.}}-\overline{y}_{..})+\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}- \overline{y}_{..})^{2}$$

Entretanto, o produto cruzado na equação acima é nulo, pois

$$\sum_{i=1}^{k}\sum_{j=1}^{n_{i}} (y_{ij}-\overline{y_{i.}})(\overline{y_{i.}}- \overline{y}_{..})~=~\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left(y_{ij}\overline{y_{i.}}- y_{ij}\overline{y}_{..}-\overline{y_{i.}}^2+\overline{y_{i.}}\overline{y}_{..}\right)$$

Screenshot_5

$$=~\sum_{i=1}^{k}n_i \overline{y_{i.}}^2 - \overline{y}_{..}\sum_{i=1}^{k}n_i \overline{y_{i.}} -\sum_{i=1}^{k}n_i \overline{y_{i.}}^2 + \overline{y}_{..}\sum_{i=1}^{k}n_i \overline{y_{i.}}$$

$$=~0,$$

logo

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2}+\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}-\overline{y}_{..})^{2},$$

isto é,

$$SQT=SQE+SQA.$$

Observações

I. Soma de Quadrados do Fator A (SQA) é o desvio das médias estimadas em cada tratamento (nível) em torno da média geral dos dados. Representa a variabilidade devido aos diferentes níveis do fator A.

II. Soma de Quadrados do Erro (SQE) é o desvio das observações em torno da média estimada do seu nível (tratamento). Representa a variabilidade dentro de cada nível do fator A.

Graus de Liberdade e Estimativas da Variância

O conceito de grau de liberdade está sempre associado a uma soma de quadrados. Considere $ x_1, x_2, \ldots, x_n $ elementos, então

$$\overline{x}=\frac{\sum\limits_{i=1}^{n} x_{i}}{n}~~~{e}~~~\sum_{i=1}^{n}(x_{i}-\overline{x})=0.$$

Como a soma dos desvios $ z_{i}=x_{i}-\overline{x} $ é nula, concluímos que para determinarmos todos os desvios basta conhecermos $ (n-1) $ desvios, pois o último desvio será determinado pela relação

$$\sum_{i=1}^{n}(x_{i}-\overline{x})=\sum_{i=1}^{n}z_{i}=0.$$

Assim, dizemos que a soma quadrática $ \sum\limits_{i=1}^{n}(x_{i}-\overline{x})^2 $ tem $ (n-1) $ graus de liberdade.

Como temos N observações, isso nos dá (N-1) graus de liberdade para a soma de quadrados total (SQT). Além disso, temos k níveis (tratamentos) do fator A, assim teremos (k-1) graus de liberdade para a soma de quadrados relativo aos níveis (SQA)

$$SQA=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}-\overline{y}_{..})^{2}.$$

Finalmente, dentro de cada nível temos ni réplicas e portanto teremos (ni - 1) graus de liberdade para cada estimativa da variabilidade devido ao erro experimental $ \sum\limits_{j=1}^{n_i}(y_{ij}-\overline{y_{i.}})^{2}. $

Assim, para a soma de quadrados devido ao erro experimental

$$SQE=\sum_{i=1}^{k} \sum_{j=1}^{n_{i}}\left(y_{ij}-\overline{y_{i.}}\right)^{2},$$

temos que os graus de liberdade correspondem a $ \displaystyle\sum_{i=1}^{k} (n_{i}-1)=\sum_{i=1}^{k} n_{i}-k=N-k $ graus de liberdade. Sabemos que a variância amostral do nível $ i $ é

$$ s_{i}^{2}=\frac{\displaystyle\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2} }{n_{i}-1}.$$

Então podemos escrever

$$SQE=\displaystyle\sum_{i=1}^{k}(n_i-1)s^{2}_{i}~~~{e}~~~\hat{\sigma}^2=\frac{SQE}{N-k}$$

que corresponde a um estimador da variância do erro experimental ($ \sigma^{2} $). Similarmente, se não existe diferença entre os $ k $ níveis do fator $ A $, podemos utilizar a variação dentro dos níveis com relação a média geral como uma estimativa da variância $ \sigma^{2} $. Especificamente,

$$SQA=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}-\overline{y}_{..})^{2}=\sum_{i=1}^{k}n_{i}(\overline{y_{i.}}-\overline{y}_{..})^{2}$$

é uma estimativa de $ \sigma^{2} $ se a média dos níveis são iguais. Observe que para todo i, a quantidade

$$\frac{\displaystyle\sum_{i=1}^{k}(\overline{y_{i.}}-\overline{y}_{..})^{2}}{\displaystyle k-1}$$

é uma estimativa da variância da média do nível $ i $ ($ \sigma^{2} / n_i $). Então, obtemos que

$$\frac{\displaystyle \sum_{i=1}^{k}n_{i}(\overline{y_{i.}} -\overline{y}_{..})^{2}}{\displaystyle k-1}$$

corresponde a uma estimativa de $ \sigma^{2} $, caso não tenha diferença entre as médias dos níveis dos fatores. Com isso, a quebra da soma de quadrados total em duas somas de quadrados nos fornece duas estimativas para a variância. A primeira baseada na variabilidade dentro dos níveis e a segunda baseada na variabilidade entre os níveis. Se não existe diferença entre as médias, estas duas estimativas devem ser bastante próximas, caso contrário, suspeitamos que a diferença entre as estimativas é causada pela diferença entre as médias dos tratamentos.

Outra forma para calcularmos os graus de liberdade consiste em determinarmos o valor esperado das componentes SQA e SQE. O termo que multiplica $ \sigma^2 $ corresponde aos graus de liberdade.

Vamos calcular o valor esperado destes quadrados médios.

$$E[SQE]=E\left[\sum_{i=1}^{k} \sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2}\right]$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}^2-2y_{ij}\overline{y_{i.}}+\overline{y_{i.}}^2)\right]$$

$$=E\left[ \sum_{i=1}^{k}\sum_{j=1}^{n_{i}}y_{ij}^2-2\sum_{i=1}^{k} n_{i}\overline{y_{i.}}^2+\sum_{i=1}^{k} n_{i}\overline{y_{i.}}^2\right]$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}y_{ij}^{2}-\sum_{i=1}^{k}\frac{1}{n_i} y_{i.}^{2} \right]$$

Substituindo as informações do modelo em $ y_{ij} $ e $ y_{i.} $, obtemos

$$E[SQE]=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\mu+\alpha_{i}+\varepsilon_{ij})^{2}-\sum_{i=1}^{k}\frac{1}{n_i}\left(\sum_{j=1}^{n_{i}}(\mu+\alpha_{i}+\varepsilon_{ij})\right)^{2}\right]$$

$$=E\left[\sum_{i=1}^{k} \sum_{j=1}^{n_{i}}(\mu^2+\alpha_i^2+\varepsilon_{ij}^2+2\mu\alpha_i+2\mu\varepsilon_{ij}+2\alpha_i\varepsilon_{ij})\right.$$

$$-\left.\sum_{i=1}^{k} \frac{1}{n_i} \left( n_i^2\mu^2+n_i^2\alpha_i^2+\sum_{j=1}^{n_{i}}\varepsilon_{ij}^2+2n_i^2\mu\alpha_i+2n_i\mu\sum_{j=1}^{n_{i}}\varepsilon_{ij}+2n_i\alpha_i\sum_{j=1}^{n_{i}}\varepsilon_{ij} \right) \right]$$

$$=E\left[ N\mu^2+\sum_{i=1}^{k} n_i\alpha_i^2+\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}^2+2\mu\sum_{i=1}^{k} n_i\alpha_i+2\mu\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}+2\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\alpha_i\varepsilon_{ij} \right.$$

$$-\left.\left( N\mu^2+\sum_{i=1}^{k} n_i\alpha_i^2+\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\frac{\varepsilon_{ij}^2}{n_i}+2\mu\sum_{i=1}^{k} n_i\alpha_i+ 2\mu\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}+2\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\alpha_i\varepsilon_{ij} \right)\right]$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}^2-\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\frac{\varepsilon_{ij}^2}{n_i}\right]$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left(1-\frac{1}{n_i}\right)\varepsilon_{ij}^2\right]$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left(1-\frac{1}{n_i}\right)E(\varepsilon^2_{ij})$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left(1-\frac{1}{n_i}\right)(Var(\varepsilon_{ij})+[E(\varepsilon_{ij})]^2), \quad \text{mas } E(\varepsilon_{ij})=0, \text{ então}$$

$$=(N-k)\sigma^2$$

De forma análoga, temos:

$$E[SQA]=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}-\overline{y}_{..})^2 \right]$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}^2-2\overline{y_{i.}}\overline{y}_{..}+\overline{y}_{..}^2)\right] \text{ mas }\overline{y_{i.}}=\frac{y_{i.}}{n_i}\text{ e }\overline{y}_{..}=\frac{\sum\limits_{i=1}^k y_{i.}}{N}, \text{ então}$$

$$=E\left[\sum_{i=1}^{k}\frac{y_{i.}^2}{n_i}-2,N\overline{y}_{..}^2 + N \overline{y}_{..}^2\right]$$

$$=E\left[\sum_{i=1}^{k}\frac{y_{i.}^2}{n_i}-\frac{y_{..}^2}{N}\right]$$

Substituindo as informações do modelo em $ y_{ij} $ e $ y_{i.} $, obtemos

$$E[SQA]=E\left[\sum_{i=1}^{k}\frac{1}{n_i}\left(\sum_{j=1}^{n_{i}}(\mu+\alpha_i+\varepsilon_{ij})\right)^2-\frac{1}{N}\left(\sum_{i=1}^{k}\sum_{j=1}^{n_{i}} (\mu+\alpha_i+\varepsilon_{ij})\right)^2\right]$$

$$=E\left[\sum_{i=1}^{k}\frac{1}{n_i}\left(n_i\mu+n_i\alpha_i+\sum_{j=1}^{n_{i}}\varepsilon_{ij}\right)^2-\frac{1}{N}\left(\sum_{i=1}^{k}\left[n_i\mu+n_i\alpha_i+\sum_{j=1}^{n_{i}}\varepsilon_{ij}\right]\right)^2\right]$$

$$=E\left[\sum_{i=1}^{k}\frac{1}{n_i}\left(n_i\mu+n_i\alpha_i+\sum_{j=1}^{n_{i}}\varepsilon_{ij}\right)^2-\frac{1}{N}\left(N\mu+ \sum_{i=1}^{k} n_i\alpha_i+ \sum_{i=1}^{k} \sum_{j=1}^{n_{i}}\varepsilon_{ij}\right)^2\right]$$

$$=E\left[\sum_{i=1}^{k}\frac{1}{n_i}\left(n_i^2\mu^2+n_i^2\alpha_i^2+(\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2+2n_i^2\mu\alpha_i+2n_i\mu\sum_{j=1}^{n_{i}}\varepsilon_{ij}+2n_i\alpha_i\sum_{j=1}^{n_{i}}\varepsilon_{ij}\right)\right.$$

$$-\left.\frac{1}{N}\left(N^2\mu^2+ 2N\mu\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}+(\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2\right)\right]$$

$$=E\left[\sum_{i=1}^{k} n_i\mu^2 +\sum_{i=1}^{k} n_i\alpha_i^2+\sum_{i=1}^{k}\frac{1}{n_i}(\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2+2\mu\sum_{i=1}^{k} n_i\alpha_i + 2\mu\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}\right.$$

$$+\left.2\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\alpha_i\varepsilon_{ij}- N\mu^2-2\mu\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij}-\frac{1}{N}(\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2 \right]$$

$$=E\left[\sum_{i=1}^{k} n_i\alpha_i^2+\sum_{i=1}^{k}\frac{1}{n_i}(\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2+2\sum_{i=1}^{k} \sum_{j=1}^{n_{i}}\alpha_i\varepsilon_{ij}-\frac {1}{N}(\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2\right]$$

$$=\sum_{i=1}^{k} E(n_i\alpha_i^2)+E\left(\sum_{i=1}^{k}\frac{1}{n_i}(\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2\right)+2\sum_{i=1}^{k} \sum_{j=1}^{n_{i}}\alpha_i E(\varepsilon_{ij})-\frac{1}{N}E(\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\varepsilon_{ij})^2$$

$$=\sum_{i=1}^{k} n_i\alpha_i^2+\sum_{i=1}^{k} \frac{1}{n_i}\sum_{j=1}^{n_{i}}\left[Var(\varepsilon_{ij})+E^2(\varepsilon_{ij})\right]-\frac{1}{N} \sum_{i=1}^{k}\sum_{j=1}^{n_{i}} \left[Var(\varepsilon_{ij})+E^2(\varepsilon_{ij})\right]$$

$$=\sum_{i=1}^{k} n_i\alpha_i^2 + k \sigma^2 - \sigma^2$$

$$=(k-1)\sigma^2+\sum_{i=1}^{k} n_i\alpha_i^2$$

pois $ E(\varepsilon_{ij})=0 $ e $ \sum\limits_{i=1}^k n_i\alpha_i=0. $ Com isso podemos definir os quadrados médios como

$$QME=\frac{SQE}{N-k}~~~{e}~~~QMA=\frac{SQA}{k-1}$$

Portanto, como argumentamos anteriormente, o QME é um bom estimador para a variância pois

$$E[QME]=E\left[\frac{SQE}{N-k}\right]=\frac{1}{N-k}E[SQE]=\sigma^2;~~~{e}$$

$$E[QMA]=E\left[\frac{SQA}{k-1}\right]=\frac{1}{k-1}E[SQA]=\sigma^2+\displaystyle\frac{1}{k-1}\sum_{i=1}^{k} n_i\alpha_i^2$$

assim, se não existe diferença entre os níveis (tratamentos) do fator $ A $ (isto é, $ \alpha_i = 0 $), QMA também é um bom estimador para a variância. Entretanto, se existe diferença entre as médias dos níveis, o valor esperado do quadrado médio do fator $ A $ (devido aos níveis) é maior do que $ \sigma^{2} $. Assim, temos os seguintes graus de liberdade:

$ SQ $ Graus de liberdade $ QM $
$ SQA $ $ k-1 $ $ \frac{SQA}{k-1} $
$ SQE $ $ N-k $ $ \frac{SQE}{N-k} $
$ SQT $ $ N-1 $

Com isso, está claro que para testarmos as hipóteses sobre diferenças entre as médias dos níveis, podemos comparar o quadrado médio do tratamento (QMA) com o quadrado médio do erro (QME). A seguir, vamos apresentar um método para fazermos essa comparação.

1.3 - Análise Estatística

A seguir vamos desenvolver um teste para avaliar a hipótese de diferenças ou não entre as médias populacionais dos níveis, isto é,

Screenshot_6

Como os erros $ \varepsilon_{ij} $ tem distribuição Normal com média $ 0 $ e variância $ \sigma^{2} $ e são independentes, as observações $ y_{ij} $ tem distribuição Normal com média $ (\mu + \alpha_{i}) $ e variância $ \sigma^{2} $ e também são independentes. Desde que $ y_{ij} $ tem distribuição Normal e são independentes, obtemos que

$$\frac{SQT}{\sigma^2}=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}\left[\frac{y_{ij}-\overline{y}_{..}}{\sigma}\right]^2 \sim \chi^2_{N-1}$$

tem distribuição Qui-quadrado com $ (N-1) $ graus de liberdade. Da mesma forma,

$$\frac{SQE}{\sigma^2}=\sum_{i=1}^{k}\frac{(n_i-1)s_i^2}{\sigma^2}\sim\chi^2_{N-k}$$

pois,

$$\frac{(n_i-1)s^2_i}{\sigma^2}\sim\chi^2_{n_i-1}$$

e

$$\sum_{i=1}^{k}\frac{(n_i-1)s^2_i}{\sigma^2} \sim \chi^2_{\sum\limits_{i=1}^k(n_i-1)}$$

Entretanto, as três somas de quadrado não necessariamente são independentes, pois

$$SQT=SQE+SQA$$

Para estabelecer a independência entre as SQE e a SQA, vamos utilizar a seguinte versão do teorema de Cochran.

Teorema de Cochran

Se tivermos

$$Q = Q_1 + Q_2 + … + Q_q$$

no qual $ ~Q_i~,~i = 1, 2,…,q~(q \leq p) $ são somas de quadrados, cada um com pi graus de liberdade, tal que:

$$p=\sum^{q}_{i=1}p_i$$

obtemos que $ Q_i\sim \chi^{2}_{(p_i)} $ e são independentes para qualquer $ i = 1, 2,…, q $.

Teste da ANOVA - Um Fator

Como $ \frac{{SQA}}{\sigma^{2}} $ e $ \frac{{SQE}}{\sigma^{2}} $ têm distribuição Qui-Quadrado, independentes, obtemos que

$$F_0 =\frac{\displaystyle\frac{SQA}{(k-1)}}{\displaystyle\frac{SQE}{(N-k)}}=\frac{QMA}{QME}\sim F_{(k-1; N-k)}$$

Se $ F_0> F(1-\alpha,k-1, N-k) $, rejeitamos $ H_0 $ e concluímos que existe diferença significativa entre as médias dos níveis do fator (tratamentos), no qual $ F(1-\alpha, k-1, N-k) $ corresponde ao quantil da distribuição F de Snedecor com nível de confiança de $ 1-\alpha, $

F

Figura 1.3.1: Quantil da distribuição F-Snedecor

Podemos ainda calcular o P-valor como, $ P[~F_{(k-1;N-k)}> F_0~\mid~H_0] $

A ANOVA pode ser representada na tabela a seguir:

Screenshot_7

Tabela: ANOVA - Um Fator

Considere os dados do Exemplo 1.

Para testarmos as seguintes hipóteses:

Screenshot_9

as somas de quadrados são dadas por:

$$SQT~=\sum^n_{i=1}\sum^{n_i}_{j=1}y_{ij}^{2}-\frac{y^{2}_{..}}{N}=636,96$$

$$SQA=\sum^n_{i=1}\cfrac{1}{n_i}y_i^{2} -\frac{y^{2}_{..}}{N}= 475,76$$

Com isso, temos que

$$SQE=SQT-SQA= 161,20$$

A tabela 1.2.1 abaixo representa a ANOVA para o fator resistência da fibra de algodão.

Screenshot_8

Tabela 1.2.1: ANOVA para o fator resistência.

O valor aproximado do P-valor é: $ P[~F_{(4,20)}> F_0~\mid~H_0~]=0,000 $

Para $ \alpha = 0,05 $, obtemos que $ F[0,05, 4, 20] = 2,87 $. Portanto, com 95% de confiança, rejeitamos $ {H}_0 $, ou seja, pelo menos um $ \alpha_i $ é diferente de zero, para $ i=1,\ldots,n $.

Veja a seguir os resultados obtidos pelo software Action.

anova1fator

Poder e tamanho da amostra para ANOVA 1 fator

O poder do teste estatístico é definido como a probabilidade de rejeitar a hipótese nula, dado que a mesma é falsa. Na prática, é importante que se tenham testes com nível de significância próximos do nível de significância nominal e que o poder seja alto, mesmo em situações de amostras pequenas. Na suposição de amostras provenientes de uma distribuição Normal, hipóteses da forma $ H_{0} $ : $ \mu = 0 $ versus $ H_{1} $ : $ \mu \neq 0 $ podem ser avaliadas a partir da estatítica t-Student. Alternativamente, na suposição de simetria, podemos utilizar o teste não-paramétrico de Wilcoxon. Para ambos, os testes, quando essas suposições estão satisfeitas, esperamos que o erro do Tipo I esteja próximo do nível de significância nominal e que o poder seja alto. Por outro lado, quando ocorre a quebra de alguma destas suposições, é importante avaliar o comportamento da taxa de rejeição de $ H_{0} $ quando a mesma é verdadeira. Essa taxa de rejeição é definida como o tamanho empírico do teste e pode ser calculada via simulação Monte Carlo, gerando amostras sob a hipótese nula. Por outro lado, ao gerarmos valores sob a hipótese alternativa, temos que a proporção de vezes em que $ H_{0} $ é rejeitada define o poder de um teste estatístico.

Entre os dois tipos de erros, há relação: quando $ \alpha $ aumenta $ \beta $ diminui e vice-versa, quando $ \alpha $ diminui $ \beta $ aumenta. O caminho para reduzir $ \alpha $ e $ \beta $ simultaneamente é aumentar o tamanho da amostra. A tabela seguinte mostra as probabilidades dos dois tipos de erro.

$ H_0 $ verdadeiro $ H_0 $ falso
Probabilidade de Não Rejeitar $ H_0 $ $ 1-\alpha $ $ \beta $
Probabilidade de Rejeitar $ H_0 $ $ \alpha $ $ 1-\beta $

Ao definirmos os valores do tamanho da amostra $ n $ e do nível de significância $ \alpha $, antes de realizarmos o teste de hipóteses, é possível obtermos valores da probabilidade $ \beta $ de cometer um erro tipo II em função de possíveis valores verdadeiros do parâmetro declarado na hipótese nula.

O objetivo é conhecer quão bem o teste de hipóteses controla o erro do tipo II, ou qual a probabilidade de rejeitar a hipótese nula se realmente for falsa.

Essa informação é obtida da probabilidade complementar de $ \beta $, ou seja, $ 1- \beta $, denominada poder do teste contra um possível valor verdadeiro do parâmetro declarado na hipótese nula.

Para um determinado teste de hipóteses é possível definirmos valores verdadeiros do parâmetro declarado na hipótese nula e, para cada um deles, calcularmos a probabilidade $ 1- \beta. $ Com isso, geramos a função poder e seu correspondente gráfico da curva do poder do teste.

Pelo estudo do Poder do teste F para 1 fator, referimos que a probabilidade da regra de decisão implicará na escolha por $ H_{1}. $ Aqueles com as médias dos tratamentos diferentes. Mais especificamente, o Poder é dado pela seguinte expressão:

Poder$ = P(F^* > F(1 - \alpha, k - 1, N - k)|\phi) $

em que $ \phi $ é o parâmetro de não centralidade, e é obtido através da seguinte equação:

$$\phi =\frac{\displaystyle 1}{\displaystyle \sigma}~\sqrt{\sum^n_{i=1}\dfrac{n_{i}(\mu_{i}-\mu_{.})^2}{\displaystyle k}}\ \ \text{e}$$

$$\mu_{.} = \displaystyle\sum^n_{i=1}\dfrac{ n_{i}\mu_{i}}{N}$$

Quando todos os fatores da amostra tem tamanho n, o parêmetro $ \phi $ é obtido pela equação:

$ \phi = \dfrac{\displaystyle 1}{ \sigma} ~ \sqrt{\frac{\displaystyle n}{\displaystyle k}{\displaystyle\sum^n_{i=1} (\mu_{i} - \mu_{.})^2}} $ em que $ n_{i} \equiv n $ e

$ \mu_{.} =\displaystyle \sum^n_{i=1}\frac{\mu_{i}}{k}, $ pois $ N = n.k $

As probabilidade do Poder do Teste são calculadas através da distribuição F não central. Além disso,

$ \bullet $ Temos que $ \nu_{1} $ é o número de graus de liberdade do numerador para $ F^* $. Para o modelo da ANOVA, $ \nu_{1} = k - 1 $, ou número de níveis menos 1.

$ \bullet $ O nível de significância é dado por $ \alpha $, geralmente usamos $ \alpha = 0,05 $.

$ \bullet $ Temos que $ \nu_{2} $ é o número de graus de liberdade do denominador para $ F^* $. No modelo da ANOVA temos:

$$\nu_{2} = N - k ~~~\overset{N = n.k}{\displaystyle =}~~~ n.k - k = k(n - 1)$$

O planejamento das amostras para experimento de 1 fator com níveis fixos é feito utilizando o parâmentro de não centralidade para igualdade das amostras. No entanto, em vez de exigirmos uma especificação direta do nível $ \mu_{i} $, para o qual é importante controlar o erro do tipo II, ela apenas exige uma diferença mínima do nível do fator das médias, porque ela é importante no que tange a detecção das diferenças entre os $ \mu_{i} $, com probabilidade alta. Esta diferença mínima é denotada por $ \Delta $.

$ \Delta =\max(\mu_i)-\min(\mu_i) $

Algumas especificações devem ser feitas, como:

$ \bullet $ O nível $ \alpha $ é o risco do erro do tipo I a ser controlada.

$ \bullet $ A magnitude da diferença mínima $ \Delta $ de $ \mu_{i} $, é importante, pois ela será a tolerância do teste com probabilidade alta. A magnitude de $ \sigma $, que o desvio padrão da probabilidade da distribuição de Y, e ela é especificada em termos da relação:

$$ \frac{\displaystyle \Delta}{\displaystyle \sigma}$$

$ \bullet $ O nível $ \beta $ é o risco do erro do tipo II a ser controlada. O Poder do Teste é dado por:

$$1 - \beta$$

Explicação direta de $ \dfrac{\Delta}{\sigma} $: a diferença mínima é explicada diretamente em unidade de desvio padrão $ \sigma $.

Nota: Embora não especifiquemos $ \dfrac{\Delta}{\sigma} $ diretamente. Estes planejamento exigem o do valor do desvio padrão $ \sigma $ antecipado. Isso não é tanta vantagem visto como um dado significativo de especificação do $ \Delta $ em unidades de $ \sigma. $ Ele irá frequentemente exigir o conhecimento do tamanho aproximado do desvio padrão.

Com isso o parâmentro de não centralidade será dado como:

$$\phi = \sqrt{\frac{\displaystyle n}{\displaystyle 2.k}}\left(\frac{\displaystyle \Delta }{\displaystyle \sigma}\right)\quad (1)$$

Exemplo 1.3.1

Considere os dados do Exemplo 1.

Primeiramente calcularemos o valor de $ \Delta $:

$ \Delta =\max(\mu_i)-\min(\mu_{i})= 21,6 - 9,8 = 11,8 $

Temos então que o parâmetro de não centralidade é dado por:

$$\phi = \sqrt{\frac{\displaystyle n}{\displaystyle 2.k}}\left(\frac{\displaystyle \Delta }{\displaystyle \sigma}\right) = \sqrt{\frac{\displaystyle 5}{\displaystyle 2\times5}}\left(\frac{\displaystyle 11,8 }{\displaystyle 5,151698749}\right) = 1,6196$$

Por fim, obtemos os seguintes resultados:

$ \Delta $ Nº de níveis (k) Observações por nível (n) Desvio padrão ($ \sigma $)
11,8 5 5 5,151

O valor calculado do Poder do Teste será:

Poder$ = P(F^* > F(1 - \alpha, k - 1, N - k)|\phi) = 0,7346 $

Veja a seguir os resultados obtidos pelo software Action Stat para o mesmo exemplo.

(imagem em falta)

Cálculo do tamanho da amostra

Para calcularmos o tamanho da amostra, basta isolarmos o tamanho da amostra $ n $ da equação (1). Com isso, obtemos:

$$n=\dfrac{2k\phi^2\sigma^2}{\Delta^2}$$

Exemplo 1.3.2

Neste exemplo, calculamos o tamanho da amostra para um experimento em que desejamos detectar uma diferença mínima de $ \Delta =11,8, $ para $ k=5 $ níveis, variabilidade (desvio-padrão) de $ s=5,151 $ e poder do teste de $ 1-\beta=0,734. $

De fato, para um poder de $ 1-\beta=0,734 $ temos que o parâmetro de não centralidade da distribuição F é dado por $ \phi $ de 1,6196. Logo, temos que

$$n=\dfrac{2k\phi^2\sigma^2}{\Delta^2}=\dfrac{2\times 5\times(1,6196)^2(5,151)^2}{(11,8)^2}=4,9984\approx 5$$

Portanto o tamanho da amostra para este experimento é de $ n=5. $

Veja a seguir os resultados obtidos pelo software Action Stat para o mesmo exemplo.

(imagem em falta)

1.4 - Estimação dos Parâmetros do Modelo

A seguir, vamos apresentar estimadores para os parâmetros do modelo,

$$y_{ij}=\mu + \alpha_{i}+\varepsilon_{ij}$$

e intervalos de confiança. Como estimador da média geral,tomamos

$$\widehat{\mu}=\overline{y}_{..}$$

e para os efeitos tomamos

Screenshot_11

A Tabela Distribuição t-Student do Apêndice apresenta os valores da estatística $ t $-Student.

Temos que

$$\frac{\overline{y_{i.}}-\mu_i}{\sqrt{\sigma^2/n_i}}\sim{ N(0,1)}$$

para todo $ i=1,\ldots,k $ e são independentes. Então,

Screenshot_12

em que,

$$\Delta = t(1-\alpha/2, N - k)*\sqrt{QME \left(\frac{1}{n_i}+\frac{1}{n_l}\right)}$$

Exemplo 1.4.1

Com os dados do Exemplo 1, da resistência da fibra sintética, vamos calcular as seguintes estimativas para a média geral e para os efeitos dos níveis.

$$\widehat{\mu}=\overline{y}_{..}=376/25=15,04$$

Screenshot_10

Um intervalo com confiança de $ 95(porcentagem)% $ para a média do nível $ 4 $ ($ 30(porcentagem)% $ de algodão na fibra) é dado por

$$21,60-2,086*\sqrt{\frac{8,06}{5}}\leq\mu_{4}\leq 21,60+2,086*\sqrt{\frac{8,06}{5}}$$

Com isso, obtemos

$$18,95\leq \mu_{4} \leq 24,25$$

Um intervalo com confiança de 95% para a diferença entre a média dos níveis 4 e 5 (30% e 35% de algodão na fibra) é dado por

$$\Delta =2,086*\sqrt{8,06 \left(\frac{1}{5} +\frac{1}{5}\right)}~=~3,74552$$

$$(21,60-10,80)-3,74552~~\leq~~\mu_4-\mu_5~~\leq~~(21,60-10,80)+3,74552$$

$$7,05448~~\leq~~\mu_4-\mu_5~~\leq~~14,54552$$

Usando o software Action temos os seguintes resultados:

EstParam

anova1fat1

1.5 - Análise de Resíduos

A decomposição da variabilidade na análise de variância é puramente algébrica. Entretanto para realização de testes estatísticos e a obtenção de intervalos de confiança, utilizamos as seguintes hipóteses:

  1. Os erros $ \varepsilon_{ij} $ são normais e independentes, com média $ 0 $ e variância $ \sigma^2, $ constante; e

  2. As observações são descritas por meio de modelo

$$y_{ij}=\mu+\alpha_{i}+\varepsilon_{ij}.$$

Na prática, precisamos verificar se estas suposições são válidas. Violações nestas suposições são verificadas através dos resíduos.

O resíduo para a j-ésima observação do nível i é definido por

$$e_{ij}=y_{ij}-\widehat{y}_{ij}$$

Screenshot_14

Exemplo 1.5.1

Cálculo dos resíduos para os dados do Exemplo 1.1.

Screenshot_13

Tabela 1.5.1: Resíduos para a Resistência da Fibra.

residuo1

Figura 1.5.1: Gráfico dos resíduos versus ordem de coleta dos dados ( Exemplo 1)

Influência do $ R^2 $ na ANOVA

Uma maneira de verificarmos se o modelo ajustado é adequado é olharmos o resultado do coeficiente de determinação (R2). Este coeficiente mede o quanto a variável resposta é explicada pelo modelo. Quanto maior o valor de $ R^2 $ melhor! Dizemos que, com um valor de R2 acima de 70%, o modelo está explicando bem a variação na variável resposta. A expressão usada para calcular o R2 é dada por:

$$R^2~=~1 - \frac{SQE}{SQT}$$

Em uma análise de variância com efeito fixo, estamos interessado em determinar se existe diferença entre os níveis dos fatores. Aqui, não temos interesse em utilizar o modelo para previsão. Assim, a adequabilidade do modelo linear não é crucial para aplicação da ANOVA. Para comprovarmos a afirmação, realizamos um estudo de simulação, conforme abaixo:

  • Utilizamos um fator com 4 níveis, com 10 réplicas em cada nível;

  • Para cada nível geramos uma distribuição Normal com médias $ 12; 12,3; 11,5 { e } 17 $, respectivamente e desvio padrão 1;

  • Logo após, realizamos uma ANOVA e registramos os valores de p (p-value) e do R2;

  • Repetimos o procedimento acima 10.000 vezes, obtendo os seguinte resultados:

{Média do $R^2$} = 0,4339

$${Porcentagem~dos~P-valor~maiores~do~que~0,05} = 0,00$$

Conclusão

Portanto, a não adequabilidade do modelo (R² < 0,70) não influencia de forma significativa o resultado do teste F da ANOVA.

Análise dos resíduos

Na sequência, vamos fazer a análise de normalidade, independência e igualdade da variância dos resíduos. Grande parte dos problemas que encontramos na prática, são solucionados, considerando algumas suposições iniciais, tais como, assumir uma função de distribuição para os dados amostrados. Nesse sentido, surge a necessidade de certificarmos se essas suposições podem, realmente, ser assumidas. Em alguns casos, assumir a normalidade dos dados é o primeiro passo que tomamos para simplificar sua análise. Para dar suporte a esta suposição, consideramos, o teste Anderson-Darling, o teste Kolmogorov - Smirnov e o teste Shapiro - Wilk. Além disso, fazemos o gráfico “papel de probabilidade”.

Para mais detalhes verificar o conteúdo de Testes de Normalidade (Inferência Estatística).

Exemplo 1.5.2

Avaliar a normalidade dos resíduos ( Exemplo 1.1).

Resíduos:

-2,8 -2,8 5,2 1,2 -0,8
-3,4 1,6 -3,4 2,6 2,6
-3,6 0,4 0,4 1,4 1,4
-2,6 3,4 0,4 -2,6 1,4
-3,8 -0,8 0,2 4,2 0,2

Resultados obtidos pelo software Action

residuos

Figura 1.5.2: Resultados obtidos pelo método da ANOVA.

Após as tabelas da ANOVA, fazemos uma análise da normalidade dos resíduos através dos seguintes gráficos:

Papel de probabilidade e Teste de Anderson-Darling

Avaliamos a normalidade dos resíduos através do gráfico “papel de probabilidade” e do teste de Anderson-Darling. No nosso caso, tomamos como hipótese nula a normalidade dos resíduos, e utilizamos a estatística de Anderson-Darling para testar esta hipótese. Para o exemplo, como o P-valor é alto (aproximadamente 0,16) não rejeitamos a hipótese de normalidade dos resíduos.

residuos_1fator1

Figura 1.5.2: Papel de Probabilidade do Teste Anderson-Darling.

Também desenvolvemos o histograma dos resíduos para avaliar sua dispersão e distribuição.

residuos_1fator

Figura 1.5.3: Histograma de Resíduos versus frequências.

Resíduos versus valores ajustados

Com esse gráfico temos indícios sobre o comportamento da variância dos resíduos com relação aos valores ajustados. Uma análise mais detalhada sobre a igualdade da variância pode ser obtida através dos testes de igualdade das variâncias, ver módulo testes de igualdade das variâncias.

residuos_1fator2

Figura 1.5.4: Gráfico de Resíduos versus Valores Ajustados.

Resíduos versus a ordem de coleta dos dados

A seguir elaboramos o gráfico dos Resíduos versus a Ordem de Coleta dos dados. Com esse gráfico obtemos indícios da independência ou não entre os resíduos. Se algum comportamento sistemático for observado no gráfico, temos indícios de que alguma variável “extra” influenciou nos resultados do experimento, fato que viola uma das premissas básicas da ANOVA e compromete nossas conclusões.

residuos_1fator3

Figura 1.5.5: Gráfico de Resíduos versus Ordem de Coleta.

1.6 - Modelo Heterocedástico

Considere o modelo de médias

$$ y_{i,j} = \mu_i + \varepsilon_{ij} $$

no qual $ \mu_i $ é a média do nível $ i $ do fator e $ \varepsilon_{ij} $ são variáveis aleatórias independentes com distribuição normal com média 0 e variância $ \sigma^2_i $, para todo $ j=1, \cdots , n_i $ e $ i=1, \cdots , k $. Neste caso, não necessariamente temos que as variâncias sejam iguais. Da mesma forma que no modelo de variâncias iguais (homocedástico), os estimadores para os parâmetros do modelo são dados por

Screenshot_15

Além disso, sabemos que $ \hat{\mu}_i $ tem distribuição normal com média $ \mu_i $ e variância $ \sigma_i^2/n_i $ e são independentes, para todo $ i=1, \cdots , k $. Também sabemos que

$$\frac{(n_i -1)\hat{\sigma}_i^2}{\sigma_i^2}$$

tem distribuição qui-quadrada con $ n_i-1 $ graus de liberdade e são independentes,

para todo $ i=1, \cdots , k $.

1.6.1 - Teste de igualdade das Variâncias

Para o modelo heterocedástico, vamos inicialmente testar as hipóteses

Screenshot_16

Os métodos mais utilizados são os testes de Cochran, Bartlett e de Levene.

Teste de Cochran (Homogeneidade de Variância)

O teste de Cochran compara a maior variância com as demais. Para aplicarmos o teste de Cochran, vamos assumir que o experimento é balanceado $ n_1=n_2= \cdots = n_k =n $ e seguir as seguintes etapas:

  • Etapa 1 - Calcular a Estatística

$$C~=~\cfrac{s^2_{max}}{\displaystyle\sum^{k}_{i=1}s^2_i}~=~\cfrac{{maior~variância}}{{soma~de~todas~as~variâncias}},$$

em que

  • k: representa o número de níveis do fator;

Screenshot_18

  • n: representa o número de medidas em cada nível do fator.

  • Etapa 2 - Comparar com valor tabelado.

Exemplo 1.6.1.1

Um laboratório de metrologia contratou um novo metrologista que passou por diversos treinamentos para integrar a equipe. Antes de liberarmos o metrologista para realizar o procedimento de calibração, realizamos um teste para comparar a variabilidade das medições do metrologista novato com os demais metrologistas do laboratório. Em um experimento completamente aleatorizado, um bloco padrão de 50mm foi medido 5 vezes por cada metrologista. As medições estão na tabela a seguir.

Metrologistas:

João Novato Moacir Roberto
Medida 1 50,0071 50,007 50,0072 50,0073
Medida 2 50,0072 50,0076 50,0074 50,0074
Medida 3 50,0072 50,0075 50,0073 50,0073
Medida 4 50,0071 50,0071 50,0072 50,0072
Medida 5 50,0072 50,0078 50,0072 50,0072
Média 50,00716 50,0074 50,00726 50,00728
Desvio Padrão 0,000055 0,00034 0,000089 0,000084
Variância 0,000000003 0,000000115 0,000000008 0,000000007

Neste caso, temos como objetivo comparar a variabilidade encontrada entre os diversos metrologistas. Observamos que $ S^2_{max}~=~0,000000115 $. Logo

$$C_{{calculado}}~=~\frac{0,000000115}{0,000000003~+~0,000000115~+~0,000000008~+~0,000000007}~=~0,864.$$

$ C_{tabelado} $ (Tabela C, para $ 5(porcentagem)% $ de significância) =0,629. Portanto, como $ C_{calculado}> C_{tabelado} $, a variância do metrologista Novato não é homogênea em relação a dos demais metrologistas.

Screenshot_17

Tabela C: Valor tabelado para nível de significância 5%.

Teste de Bartlett

A estatística do teste proposta por Bartlett é dada por

$$B_{0}=\frac{q}{c}$$

em que

Screenshot_22

$$c=1+\frac{1}{3(k-1) } \left(\sum^k_{i=1} \frac{1}{n_i -1}-\frac{1}{N-k} \right)$$

Screenshot_23

Sob $ H_0 $ (igualdade das variâncias) sabemos que $ B_0 $ tem distribuição assintótica qui-quadrado com $ k-1 $ graus de liberdade. Desta forma, rejeitamos $ H_0 $ se $ B_0> Q_{[1 - \alpha; k-1]}, $ no qual $ Q_{[1 - \alpha ; k-1]} $ representa o quantil $ (1-\alpha )*100(porcentagem)% $ da distribuição qui-quadrado com (k-1) graus de liberdade. Além disso, o P-valor é calculado por

$ P-{valor}=P[~\chi^{2}_{(k-1)}~ $>$ ~B_0~\mid~H_0~] $

O teste de Bartlett é sensível em relação a hipótese de normalidade dos dados. Se rejeitarmos a hipótese de normalidade, é melhor utilizarmos o teste proposto por Levene. Porém, se a hipótese de normalidade não for violada, o teste proposto por Bartlett tem um comportamento melhor que o teste proposto por Levene.

Exemplo 1.6.1.1

Aplicar o teste de Bartlett para os dados do Exemplo 1.1.

Fator Resistencia_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

As variâncias amostrais são

$$s_{1}^{2}=\frac{(7-9,8)^2+(7-9,8)^2+ (15-9,8)^2+ (11-9,8)^2+ (9-9,8)^2}{5-1}= \frac{44,8}{4}=11,2$$

$$s_{2}^{2}=\frac{(12-15,4)^2+(17-15,4)^2+\ldots+(18-15,4)^2}{5-1}= 9,8$$

$$s_{3}^{2}=\frac{(14-17,6)^2+\ldots+(19-17,6)^2}{4}=4,3$$

$$s_{4}^{2}=\frac{(19-21,6)^2+\ldots+(23-21,6)^2}{4}= 6,8$$

$$s_{5}^{2}=\frac{(7-10,8)^2+\ldots+(11-10,8)^2}{4}=8,2.$$

Então, temos que

$$s^{2}_{p}=\frac{4*(11,2)+4*(9,8)+4*(4,3)+4*(6,8)+4*(8,2)}{25-5}=8,06$$

Logo,

$$q=\left[20*\ln(8,06)\right]- 4*\left[\ln(11,2)~+~\ln(9,8)~+~\ln(4,3)~+~\ln(6,8)~+~\ln(8,2)\right]$$

$$=41,7383~-~40,7119$$

$$=1,0264$$

Temos também que

$$c=1+\frac{1}{3*4}\left[\frac{5}{4}-\frac{1}{20}\right]$$

$$=1,10$$

Então, a estatística do teste

$$B_0=1,0264/1,10=0,93$$

Como $ Q_{[0,95; 4]}=9,49 $, não rejeitamos a hipótese de que todas as variância são iguais.

O p-valor para o teste de Bartlett é

Screenshot_19

Conclusão

Como o p-valor está acima de 5% não rejeitamos a hipótese $ H_0 $.

Resultados desse exemplo obtidos com o software Action:

bartlet

bartlet1

Teste de Levene

Este procedimento consiste em fazer uma transformação dos dados originais e aplicar aos dados transformados o teste da ANOVA. Levene (1960) propôs a seguinte transformação:

$$z_{ij}~=~\mid x_{ij} - \overline{x}_{i.}\mid~,~~i~=~1, \cdots,k,~~{e}~~j~=~1, \cdots, n_i$$

onde

  • $ z_{ij} $: representa os dados após transformação;

  • $ x_{ij} $: representa os dados originais; e

  • $ \overline{x}_{i.} $: representa a média do nível $ i $, para os dados originais.

Uma transformação (robusta) alternativa considerada para o procedimento de Levene, proposto por Brown (1974), é substituir a média do nível pela mediana.

Para obter a mediana devemos, em primeiro lugar, ordenar os dados do menor para o maior valor. Se o número de dados for ímpar, a mediana será o dado central. Se o número de dados for par, a mediana será a média aritmética dos dois dados centrais.

Com isso, a expressão a seguir é substituída por

$$z_{ij}~=~\mid x_{ij}-\tilde{x}_{i.}\mid~,~~i~=~1,\cdots, k,~~{e}~~j=1,\cdots,n_i\quad (1.6.1.1)$$

em que

  • $ z_{ij} $: representa os dados após transformação;

  • $ x_{ij} $: representa os dados originais; e

  • $ \tilde{x}_{i.} $: representa a mediana do nível $ i $, para os dados originais.

Com isso, temos a seguinte estatística:

$$F^*=\dfrac{\displaystyle\sum^k_{i=1}\frac{n_{i}(\overline{z}_{i.}-\overline{z}_{..})^2}{(k-1)}}{\frac{\displaystyle\sum^k_{i=1}\sum^{n_i}_{j=1}(z_{ij}-\overline{z}_{i.})^2}{\displaystyle\sum^k_{i=1}(n_i-1)}}$$

Screenshot_20

Após a transformação dos dados originais pela expressão (1.6.1.1), aplicamos o teste da ANOVA. Se a estatística F for significativa rejeitamos a hipótese de igualdade das variâncias.

Teste de Levene para os dados do Exemplo 1.

Usando a expressão (1.6.1.1 ), obtemos a seguinte tabela, com os dados transformados.

Screenshot_21

Tabela: Dados transformados para a resistência da fibra.

Fator Resistência da Fibra
15 2
15 2
15 6
15 2
15 0
20 5
20 0
20 5
20 1
20 1
25 4
25 0
25 0
25 1
25 1
30 3
30 3
30 0
30 3
30 1
35 4
35 1
35 0
35 4
35 0

A soma de quadrados é dada por:

$$SQT=\sum^n_{i=1} \sum^{n_i}_{j=1}y_{ij}^{2}-\frac{y^{2}_{..}}{N}=2^2 + 2^2+ 6^2 + 2^2+ 0^2+ 5^2+ \ldots+4^2+0^2-\frac{49^2}{25}=$$

$$=179-96,04 = 82,96$$

$$SQA=\sum^n_{i=1}\frac{1}{n_i}y_i^{2}-\frac{y^{2}_{..}}{N}= \frac{1}{5}[12^2+12^2+6^2+10^2+9^2]- \frac{49^2}{25} = 101-96,04=4,96$$

$$SQE=SQT-SQA=82,96-4,96=78$$

Conclusão

Como o p-valor é maior que 5%, não temos evidências para rejeitar a hipótese de igualdade de variâncias.

Resultados desse exemplo obtidos com o software Action:

levene

Tabela: Análise de Variância para os dados transformados.

levene1

levene2

Dados brutos:

Exemplo 1.6.1.1

Aplicar o teste de Bartlett para os dados do Exemplo 1.1.

Fator Resistencia_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Resultados desse exemplo obtidos com o software Action

(imagem em falta)

(imagem em falta)

Conclusão

Como o p-valor é maior que 5%, não temos evidências para rejeitar a hipótese de igualdade de variâncias.

1.6.2 Teste de Welch

Suponha que realizamos o teste de igualdade da variância e rejeitamos a hipótese $ H_0 $. Neste caso, estamos interessados em realizar o teste de igualdade das médias

Screenshot_24

no modelo heterocedástico. Porém, o teste $ F $ da ANOVA tem como hipótese a igualdade entre as variâncias, que não é válida neste caso. Entretanto, se os dados são balanceados $ (n_1=n_2=\cdots=n_k) $, o teste $ F $ da ANOVA é robusto em relação a desigualdade das variâncias e pode ser aplicado.

A seguir, apresentamos um teste proposto por Welch (1951) para testar a hipótese $ H_0 $ na presença de variâncias desiguais. Consideremos:

  • $ n_i $ o número de elementos de cada amostra;

  • $ \overline{y_{i.}} $ a média de cada amostra; e

  • $ s_i^2 $ a variância amostral.

Mais,

$$w_i = \frac{n_i}{s_i^2}$$

$$\overline{y}^*=\frac{\displaystyle\sum^k_{i=1}w_i \overline{y_{i.}}}{\displaystyle\sum_{i=1}^k w_i}$$

$$\Omega =\sum_{i=1}^k \frac{\left(1 - \displaystyle\frac{w_i}{\sum_{i=1}^k w_i}\right)^2}{n_i - 1}. $$

Conforme Welch (1951) a estatística do teste é:

$$F_c=\frac{\sum\limits_{i=1}^k w_i \displaystyle\frac{(\overline{y_{i.}}-\bar{y}^*)^2}{k - 1}}{1 + \displaystyle\frac{2(k-2)\Omega}{k^2-1}}\sim F(\nu_1, \nu_2).$$

Os graus de liberdade da distribuição F, são:

$$\nu_1 = k -1 \text{ e } \nu_2 = \frac{k^2 - 1}{3 \Omega}.$$

Assim, rejeitamos a hipótese nula ($ H_0 $) se $ F_c > F_{(1-\alpha,,\nu_1,,\nu_2)}. $ Além disso, o p-valor é $ P[F_{(\nu_1, , \nu_2)} > F_c]. $

Exemplo 1.6.2.1

Um experimento foi conduzido para verificar a influência de duas drogas no tratamento de câncer. Foram utilizados 29 ratos, que foram divididos em 4 grupos, sendo que:

  • Os ratos do Grupo 1 (controle), tomaram placebo;

  • Os ratos do Grupo 2 tomaram a droga A;

  • Os ratos do Grupo 3 tomaram a droga B; e

  • Os ratos do Grupo 4 tomaram as drogas A e B.

A contagem de células que tiveram melhora, após o tratamento com as drogas, está representada na tabela abaixo:

Grupo 1 Grupo 2 Grupo 3 Grupo 4
1 12 12 13
8 10 4 14
9 13 11 14
9 13 7 17
4 12 8 11
0 10 10 14
1 12 13
5 14

Para esses dados, testar as hipóteses:

Screenshot_25

Na tabela a seguir temos algumas medidas referente aos dados:

Grupo 1 Grupo 2 Grupo 3 Grupo 4
$ {n_i} $ 7 6 8 8
$ {\overline{y}_.} $ 4,57 11,67 8,63 13,75
$ {S_i^2} $ 16,29 1,87 9,70 2,79
$ {w_i} $ 0,43 3,21 0,83 2,87

Como neste exemplo k = 4, temos

Screenshot_26

O valor tabelado da distribuição F é $ F_{(0,05;3;13,3)}=3,38. $

Como $ F_c> F_{(1-\alpha,\nu_1, \nu_2)} $ rejeitamos $ H_0 $ para $ \alpha=0,05. $

O p-valor é $ P[F_{(\nu_1,\nu_2)}> F_c]=0,00034 « \alpha. $

Usando o software Action temos os seguintes resultados:

welch

2 - ANOVA - Dois Fatores

ANOVA - Dois Fatores

Muita vezes, ao estudarmos um processo, produto ou serviço, temos diversos fatores que podem influenciar na característica de interesse. A técnica da ANOVA permite avaliar o impacto que estes fatores provocam na característica de interesse. Para isto, considere um experimento com dois fatores, denominados A e B, no qual o fator A tem a níveis e o fator B tem b níveis. Para cada combinação de níveis, realizamos r réplicas. Na tabela abaixo, apresentamos os dados do experimento:

Screenshot_30

Tabela 2.1: Apresentação dos dados para dois fatores.

Exemplo 2.1

Uma empresa que produz limpadores de para-brisas para automóveis quer saber como os fatores Tipo de Caixa Redutora e Tipo de Eixo, utilizados na fabricação dos motores que acionam os limpadores, influenciam o ruído produzido, quando da utilização destes. Para isso realizamos um experimento com $ 54 $ motores, com $ 3 $ tipos de Eixo (Rolado, Cortado e Importado) e $ 2 $ tipos de Caixas Redutora (Nacional e Importada). Para cada motor (unidade experimental) medimos o ruído. Os dados estão na Tabela 2.2.

Screenshot_31

Tabela 2.2: Ruído (dB) do limpador de para-brisa.

Neste experimento, temos por interesse encontrar a combinação entre caixa redutora e eixo que minimiza o ruído. Ao realizamos um experimento com dois ou mais fatores, temos que ter muito cuidado na interpretação dos resultados. Um dos pontos fundamentais da análise é a avaliação da interação entre os fatores (caixa redutora e eixo) com respeito a característica de interesse (ruído).

Gráfico de interação

A interação entre os fatores corresponde a diferença de comportamento de um fator (exemplo, caixa redutora) nos diferentes níveis do outro fator (eixo) com respeito a característica de interesse (ruído). Uma das forma mais simples de avaliarmos a interação entre os fatores é o gráfico de interação. A seguir, vamos construir o gráfico de interação para exemplo do ruído no motor que aciona os limpadores de para-brisas.

Exemplo 2.2

Neste exemplo, vamos construir o gráfico de interação para o Exemplo 2.1. Para construirmos o gráfico de interação precisamos calcular as médias $ \overline{y_{ij.}} $ para $ i=1,2 $ e $ j=1,2,3 $ de cada combinação dos níveis dos fatores. Assim, para o tratamento Caixa Redutora Nacional e Eixo Rolado, temos:

Screenshot_27

Exemplo 2.3

A seguir, dispomos estas médias em um gráfico. Resultados desse exemplo obtidos com o software Action:

interacao2

Figura 2.3: Gráfico de interações.

Conclusão

A interação entre os fatores está associada à mudança de comportamento de um fator nos diferentes níveis do outro fator, com relação à característica de interesse. Na figura 2.3, observamos que quando a caixa redutora é nacional (linha vermelha), os três níveis de eixo (Cortado, Importado e Rolado) não provocam mudança significativa no ruído do motor. Porém, quando a caixa redutora é importada (linha pontilhada), existe diferença de ruído entre os três tipos de eixo. Neste caso, para um eixo importado temos menor ruído. Desta forma, evidenciamos uma interação entre os fatores (caixa redutora e eixo) na característica de interesse (ruído). Dependendo do tipo de caixa redutora, o comportamento do eixo, com respeito ao ruído, é diferente. Essa diferença caracteriza o que denominamos interação.

Gráfico de efeitos principais

Quando avaliamos os resultados de nosso experimento e evidenciamos a presença de interação, devemos ter muito cuidado na interpretação destes resultados. Em geral, nesta situação, perdemos a interpretação da influência isolada dos fatores. Porém, se não evidenciamos interação entre os fatores, podemos avaliar a influência isolada dos fatores via o gráfico de efeitos principais. O gráfico de efeitos principais, nos ajuda a avaliar o efeito de cada fator individualmente.

A Figura 2.4, não tem relação com o exemplo dos limpadores de para-brisa.

interacao1

Figura 2.4: Exemplo de gráfico de efeitos principais.

Exemplo 2.4

Um engenheiro de processo deseja avaliar o impacto da ferramenta de corte no diâmetro de peças. Para isto, realizou em experimento com dois fatores, desgaste da ferramenta e ângulo de corte. Para cada fator foram considerados dois níveis.

Ferramenta Ângulo Diâmetro
Nova A 18046,9
Nova A 18046,9
Nova A 18047
Nova A 18047
Nova A 18047,3
Nova A 18047,3
Nova A 18047
Nova A 18047,1
Nova A 18047
Nova A 18046,9
Nova A 18047,1
Nova A 18047
Nova A 18046,9
Nova A 18047
Nova A 18046,8
Nova A 18047
Nova A 18046,9
Nova A 18047
Nova A 18047
Nova A 18047
Nova A 18047
Nova A 18047,1
Nova A 18046,8
Nova A 18047
Nova B 18047,1
Nova B 18047,1
Nova B 18047,1
Nova B 18046,8
Nova B 18046,8
Nova B 18047
Nova B 18047
Nova B 18046,8
Nova B 18047
Nova B 18047
Nova B 18046,8
Nova B 18047
Nova B 18046,9
Nova B 18046,9
Nova B 18046,5
Nova B 18046,5
Nova B 18047,3
Nova B 18047,1
Nova B 18047
Nova B 18047,2
Nova B 18046,9
Nova B 18047,2
Nova B 18047
Nova B 18047,2
Nova B 18047,4
Nova B 18047,1
Velha A 18048,5
Velha A 18048,3
Velha A 18047,9
Velha A 18047,8
Velha A 18047,7
Velha A 18047,8
Velha A 18047,6
Velha A 18047,5
Velha A 18048
Velha A 18047,8
Velha A 18047,9
Velha A 18047,4
Velha A 18047,9
Velha A 18047,7
Velha A 18047,7
Velha A 18047,6
Velha A 18047,8
Velha A 18047,8
Velha A 18047,6
Velha A 18047,8
Velha A 18047,6
Velha A 18047,9
Velha A 18047,8
Velha A 18047,8
Velha B 18047,8
Velha B 18047,7
Velha B 18047,8
Velha B 18047,7
Velha B 18047,9
Velha B 18047,8
Velha B 18047,7
Velha B 18048,1
Velha B 18048
Velha B 18047,6
Velha B 18047,8
Velha B 18047,6
Velha B 18047,9
Velha B 18047,9
Velha B 18047,9
Velha B 18047,8
Velha B 18047,5
Velha B 18048,3
Velha B 18048
Velha B 18047,7
Velha B 18047,6
Velha B 18047,6
Velha B 18047,6
Velha B 18047,7
Velha B 18047,6
Velha B 18047,7

Inicialmente, vamos avaliar o gráfico de interação. Para construirmos o gráfico de interação precisamos calcular as médias $ \overline{y_{ij.}} $ para $ i=1,2 $ e $ j=1,2 $ de cada combinação dos níveis dos fatores. Assim, para os fatores Ferramenta e Ângulo, temos:

Screenshot_28

interacao3

Ao avaliarmos o gráfico acima, não evidenciamos interação entre os fatores, pois independente da vida útil da ferramenta (Nova ou Velha), o efeito provocado pelo ângulo de corte é o mesmo (desprezível). Assim, concluímos que efeito do fator ângulo de corte (A e B) é o mesmo nos dois níveis do fator vida útil da ferramenta (Nova e Velha), o que caracteriza uma ausência de interação. Neste caso, podemos interpretar os gráficos de efeitos principais.

No gráfico de efeitos principais utilizamos as médias de cada nível, da seguinte forma

Screenshot_29

$$\overline{y}_{2..}=18047,79.$$

Repetindo o mesmo procedimento para os níveis do fator Ângulo, obtemos:

$$\overline{y}_{.1.}=18047,40~~~{e}~~~\overline{y_{.2.}}=18047,38.$$

Assim construímos a Figura 2.5, com os efeitos principais.

Resultados desse exemplo obtidos com o software Action:

EPrinc3

EPrinc4

Figura 2.5: Efeitos principais.

Através do gráfico de efeitos principais, temos evidência de que o fator ferramenta impacta no diâmetro da peça. Entretanto, não evidenciamos impacto do fator ângulo na característica de interesse (diâmetro).

2.1 - Modelos

Modelo para os dados

Para que possamos analisar os resultados do experimento, precisamos de um modelo que descreva os dados. Para facilitar a notação, apresentamos um modelo de dados balanceados (o número de réplicas (r) não depende do tratamento (ij)). Neste caso, tomamos:

Screenshot_32

restrito a

$$\alpha_{.}=\sum_{i=1}^{a}\alpha_i=0~,~\beta_{.}=\sum_{j=1}^{b}\beta_j=0~~~(2.1.2)$$

$$\tau_{.j}=\sum_{i=1}^{a}\tau_{ij}=0~,~\tau_{i.}=\sum_{j=1}^{b}\tau_{ij}=0~~ (2.1.2)$$

Durante o desenvolvimento deste módulo utilizaremos a seguinte notação:

$$y_{i..} = \sum_{j=1}^{b}\sum_{k=1}^{r}y_{ijk}~,~~y_{.j.}=\sum_{i=1}^{a}\sum_{k=1}^{r}y_{ijk}~,~~y_{ij.}=\sum_{k=1}^{r}y_{ijk}~,~~y_{…}=\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}y_{ijk}$$

Screenshot_33

Assumimos que os erros $ \varepsilon_{ijk} $ são independentes e têm distribuição normal com média 0 e variância $ \sigma^2 $.

Como os erros $ \varepsilon_{ijk} $ são independentes, obtemos que as observações $ Y_{ijk} $ também são independentes. Logo

$$\varepsilon_{ijk}\sim N(0;~\sigma^2)~~~{e}~~Y_{ijk}\sim N(\mu +\alpha_i+\beta_j+\tau_{ij};~\sigma^2).$$

Notação

  • $ Y_{ijk} $ representa a k-ésima leitura no i-ésimo nível do fator A e j-ésimo nível do fator B;

  • $ \mu $ é a média geral dos dados;

  • $ \alpha_i $ é o efeito do nível $ i $ do fator A;

  • $ \beta_j $ é o efeito do nível $ j $ do fator B;

  • $ \tau_{ij} $ é o efeito da interação $ ij $ entre os fatores;

  • $ \varepsilon_{ijk} $ é o erro aleatório.

Em um experimento com dois fatores, temos diversos interesses. Em primeiro lugar, precisamos avaliar se existe interação entre os fatores. Como vimos anteriormente, o gráfico de interação nos apresenta evidências da interação. Aqui, vamos avaliar o efeito da interação através de um teste de hipóteses. Caso o efeito da interação não seja significativo, avaliamos os efeitos principais (individuais), também através de testes de hipóteses apropriados. Na tabela abaixo, apresentamos um resumo dos testes de hipóteses.

Screenshot_34

2.2 - Decomposição da Soma de Quadrados

Aqui, vamos “quebrar” a variabilidade total dos dados, denominada soma de quadrados total, em diversos componentes. Neste caso, mostramos que

$ SQ_T = SQ_A + SQ_B + SQ_{AB} + SQ_E $

no qual $ SQ_T $ é a soma de quadrados total, $ SQ_A $ é a soma de quadrados do fator A, $ SQ_B $ é a soma de quadrados do fator $ B $, $ SQ_{AB} $ é a soma de quadrados da interação $ A\times B $ e $ SQ_E $ é a soma de quadrados do erro. Para isto, temos que

$$\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(y_{ijk}- \overline{y_{…}})^2=$$

$$=\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}\left[(\overline{Y_{i..}}-\overline{y_{…}})+(\overline{y_{.j.}}-\overline{y_{…}})+(\overline{y_{ij.}}-\overline{Y_{i..}}-\overline{y_{.j.}}+\overline{y_{…}})+ (y_{ijk}-\overline{y_{ij.}})\right]^2 $$

Após algumas manipulações algébricas, obtemos que

$$\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(y_{ijk}-\overline{y_{…}})^2=b~r \sum_{i=1}^{a}(\overline{Y_{i..}}-\overline{y_{…}})^2 +a~r\sum_{j=1}^{b}(\overline{y_{.j.}}-\overline{y_{…}})^2 +r~\sum_{i=1}^{a}\sum_{j=1}^{b}(\overline{y_{ij.}}-\overline{Y_{i..}}-\overline{y_{.j.}}+\overline{y_{…}})^2$$

$$+\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(y_{ijk}-\overline{y_{ij.}})^2$$

Portanto

$$SQ_T=\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(y_{ijk}-\overline{y_{…}})^2$$

$$SQ_A=b~r\sum_{i=1}^{a}(\overline{Y_{i..}}-\overline{y_{…}})^2$$

$$SQ_B=a~r\sum_{j=1}^{b}(\overline{y_{.j.}}-\overline{y_{…}})^2$$

$$SQ_{AB}=r~\sum_{i=1}^{a}\sum_{j=1}^{b}(\overline{y_{ij.}}-\overline{Y_{i..}}-\overline{y_{.j.}}+\overline{y_{…}})^2$$

$$SQ_E=\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(y_{ijk}-\overline{y_{ij.}})^2 $$

Uma forma conveniente para se calcular a soma de quadrados é utilizar o cálculo de variância amostral. Na Tabela 2.2.1 apresentamos quais variâncias devemos calcular.

Screenshot_35

Tabela 2.2.1: Entrada de dados e variâncias.

Portanto,

$$SQ_T=(a~b~r - 1)~s^2_g~~~(2.2.1)$$

$$SQ_A=b~r~(a - 1)~s^2_A~~~(2.2.2)$$

$$SQ_B=a~r~(b - 1)~s^2_B~~~(2.2.3)$$

$$SQ_E=(r - 1)~\sum_{i=1}^{a}\sum_{j=1}^{b}~s^2_{ij}~~~(2.2.4)$$

$$SQ_{AB}=SQ_T-SQ_B-SQ_A-SQ_E~~~(2.2.5)$$

Sendo que:

  • $ s^2_g $: representa a variância amostral com relação a todos os dados,

$$s^2_g~=~\frac{1}{a~b~r~-~1}\sum_{i=1}^{p}\sum_{j=1}^{b}\sum^{r}_{k=1}(y_{ijk}~-~\overline{y_{…}})^2;$$

  • $ s^2_A $: representa a variância amostral com relação as médias dos níveis do Fator A,

Screenshot_36

  • $ s^2_{ij} $: representa a variância amostral com relação a cada combinação de A e B,

$$s^2_{ij}~=~\frac{1}{r~-~1}\sum^{r}_{k=1}(y_{ijk}~-~\overline{y_{ij.}})^2.$$

Cálculo dos Graus de Liberdade

O número de graus de liberdade em uma soma de quadrados é a quantidade de elementos independentes nessa soma. Por exemplo, consideremos a soma de quadrados $ \sum\limits_{i=1}^{a}(\overline{Y_{i..}}- \overline{y_{…}})^2 $. Neste caso, como $ \sum\limits_{i=1}^{a}(\overline{Y_{i..}}-\overline{y_{…}})=0 $, nem todos os elementos $ (\overline{y_{1..}}-\overline{y_{…}}),\ldots, (\overline{y}_{a..}-\overline{y_{…}}) $ são independentes. Portanto, temos $ (a-1) $ graus de liberdade. Nesse sentido, os respectivos graus de liberdade associados a cada soma de quadrados são:

Efeito Grau de Liberdade
Fator A a - 1
Fator B b - 1
Interação $ A \times B $ $ (a - 1)(b - 1) $
Erro $ a~b~(r - 1) $
Total $ a~b~r - 1 $

Cálculo dos quadrados médios

Cada soma de quadrados dividido por seu grau de liberdade determina o quadrado médio (QM), ou seja

$$QM_A~~~=~~~\frac{SQ_A}{a - 1}~~~(2.2.6)~~~~~~~~~~~~~~~{Fator A}$$

$$QM_B~~~=~~~\frac{SQ_B}{b - 1}~~~(2.2.7)~~~~~~~~~~~~~~~{Fator B}$$

$$QM_{AB}~~~=~~~\frac{SQ_{AB}}{(a - 1)(b - 1)}~~~(2.2.8)~~~~{A\times B}$$

$$QM_E~~~=~~~\frac{SQ_E}{a~b~(r - 1)}~~~(2.2.9)~~~~~~~~~{Réplica}$$

Considerando as expressões (2.2.1)-(2.2.5) e lembrando que o modelo está restrito às condições (2.1.2)

$$\alpha_{.}=\sum_{i=1}^{a}\alpha_i=0,$$

$$\beta_{.}=\sum_{j=1}^{b}\beta_j=0,$$

$$\tau_{.j}=\sum_{i=1}^{a}\tau_{ij}=0,$$

$$\tau_{i.}=\sum_{j=1}^{b}\tau_{ij}=0,$$

vamos calcular o valor esperado do QM.

Para o Fator $ A $, temos que

Screenshot_37

com

Screenshot_40

Lembrando das restrições (2.1.2), ficamos com

Screenshot_39

De forma semelhante obtemos as esperanças dos demais quadrados médios. Resumidamente temos:

Screenshot_38

2.3 - Análise Estatística

A seguir, vamos desenvolver um teste $ F $ para avaliarmos o efeito da interação e os efeitos principais, conforme tabela abaixo:

Screenshot_41

Sabemos que a soma de quadrados total é decomposta na forma $ SQ_T = SQ_A + SQ_B + SQ_{AB} + SQ_E. $

Assim, através do teorema de Cochran, garantimos, sob $ {H}_0 $, a independência das somas de quadrados e

$$\cfrac{SQ_A}{\sigma^2} \sim \chi^2_{(a - 1)}~~~~~{e}~~~~~\cfrac{SQ_E}{\sigma^2 } \sim \chi^2_{(a~b~(r - 1))},$$

Desta forma, sob $ {H}_0 $ (hipóteses A) a estatística

Screenshot_44

isto é, $ {F}_0 $ tem distribuição F-Snedecor com (a-1) graus de liberdade no numerador e [ab(r-1)] graus de liberdade no denominador.

Para determinarmos a estatística do teste para as hipóteses B, obtemos do teorema de Cochran que, sob $ {H}_0 $

$$\cfrac{SQ_B}{\sigma^2} \sim \chi^2_{(b - 1)}~~~~~{e}~~~~~\cfrac{SQ_E}{\sigma^2} \sim \chi^2_{(a~b~(r - 1))}~,$$

são independentes. Assim, concluímos que a estatística (sob $ {H}_0 $)

Screenshot_45

ou seja, $ {F}_0 $ tem distribuição de F-Snedecor com (b-1) graus de liberdade no numerador e [a b (r - 1)] graus de liberdade no denominador.

Para determinarmos a estatística do teste para as hipóteses C, obtemos do teorema de Cochran que, sob $ {H}_0 $

$$\cfrac{SQ_{AB}}{\sigma^2} \sim \chi^2_{(a - 1)(b - 1)}~~~~~{e~também,}~~~~~\cfrac{SQ_E}{\sigma^2} \sim \chi^2_{(a~b~(r - 1))}~~,$$

são independentes. Assim, sob $ {H}_0 $ temos que a estatística

$$F_0=\cfrac{\displaystyle\cfrac{SQ_{AB}}{(\sigma^2)~(a-1)(b-1)}}{\cfrac{SQ_E}{(\sigma^2 )~(a~b~(r-1)))}}~~=~~\cfrac{QM_{AB}}{QM_E}~~\sim~F((a-1)(b-1);(ab(r-1)))$$

tem distribuição de F-Snedecor com (a - 1)(b - 1) graus de liberdade no numerador e [a b (r - 1)] graus de liberdade no denominador.

A região crítica (RC) do teste F é dada por $ RC=(F~\in~\Re^+ ~\mid~F > F_{1-\alpha}) $.

O valor crítico $ F_{1-\alpha} $ corresponde ao quantil $ (1-\alpha)100(porcentagem)% $ da distribuição F-Snedecor com os respectivos graus de liberdade do numerador e do denominador e o nível de significância $ \alpha $. A Figura 2.2.1 mostra a região crítica do teste.

F1

Figura 2.3.1: Região crítica do teste F.

O teste estatístico para as hipóteses (A, B, C) propostas, está resumido na tabela abaixo.

FV Graus de Liberdade Soma de Quadrados Quadrados Médios F P-Valor
Fator A $ a -1 $ $ SQ_A $ $ QM_A $ $ F_{A}=\cfrac{QM_A}{QM_E} $ $ P(F> F_A) $
Fator B $ b -1 $ $ SQ_B $ $ QM_B $ $ F_{B}=\cfrac{QM_B}{QM_E} $ $ P(F> F_B) $
Interação ($ A\times B $) $ (a -1)(b -1) $ $ SQ_{AB} $ $ QM_{AB} $ $ F_{AB}=\cfrac{QM_{AB}}{QM_E} $ $ P(F> F_{AB}) $
Erro $ a~b~(r -1) $ $ SQ_E $ $ QM_E $
Total $ a~b~r - 1 $ $ SQ_T $

Tabela 2.3.3: Tabela de Análise de Variância (ANOVA).

Exemplo 2.3.1

Faremos um estudo completo para os dados do Exemplo 2.1, que estão repetidos na Tabela 2.3.3.

Screenshot_42

Tabela 2.3.3: Ruído (dB) do limpador de para-brisa.

Para os dados do exemplo, temos:

$$y_{11.}=42,1+42+40,3+38,9+38,9+43,7+41+40,1+40,3=367,3,\quad{e}$$

$$\overline{y}_{11.}=\cfrac{367,3}{9}=40,81, \quad {e}$$

$$\sqrt{s^2_{11}}=\sqrt{\cfrac{1}{8}[(42,1-40,81)^2+(42-40,81)^2+\ldots+(40,1-40,81)^2+(40,3-40,81)^2]}$$

$$=\sqrt{\cfrac{19,79}{8}} = 1,5728.$$

Screenshot_43

Tabela 2.3.4: Ruído (dB) do limpador de para-brisa.

Na soma de quadrados, que segue, A representa o fator Tipo de Caixa Redutora e B o fator Tipo de Eixo.

$$SQ_A=3*9\left((40,63-40,41)^2+(40,19-40,41)^2\right)$$

$$=2,6224$$

$$SQ_B=2*9 \left((41,22-40,41)^2+(40,64-40,41)^2 + (39,36 - 40,41)^2\right)$$

$$=32,6670$$

$$SQ_E=(42,1-40,81)^2+(42-40,81)^2+\ldots+(37,2-37,70)^2+(36,7-37,70)^2$$

$$=167,8067$$

$$SQ_T=(42,1-40,41)^2+(42-40,41)^2+\ldots+(37,2-40,41)^2+(36,7-40,41)^2$$

$$=259,4254$$

$$SQ_{AB}=259,43-2,62-32,67-167,81$$

$$=56,3293$$

Os respectivos graus de liberdade associados a cada soma de quadrados são:

Efeito Grau de Liberdade
Fator A 1
Fator B 2
Interação $ A \times B $ 2
Erro 48
Total 53

Os quadrados médios (QM) são:

$$QM_A=\cfrac{2,62224}{1}=2,62224$$

$$QM_B=\cfrac{32,6670}{2}=16,3335$$

$$QM_{AB}=\cfrac{56,3293}{2}=28,1646$$

$$QM_E=\cfrac{167,8067}{48}=3,4960$$

FV Graus de Liberdade Soma de Quadrados Quadrados Médios F P-valor
Eixo (B) 2 32,6670 16,3335 $ \cfrac{16,3335}{3,4960}=4,6721 $ 0,0140
Caixa Redutora (A) 1 2,6224 2,6224 $ \cfrac{2,6224}{3,4960}=0,7501 $ 0,3907
Interação ($ A \times B $) 2 56,3629 28,1646 $ \cfrac{28,1646}{3,4960}=8,0563 $ 0,0010
Resíduo 48 167,8067 3,4960
Total 53 259,4254

Tabela 2.3.5: Tabela de Análise de Variância (ANOVA).

Resultados desse exemplo obtidos com o software Action:

anova2fat_0

Exemplo 2.3.2

Faremos um estudo completo para os dados do Exemplo 2.4

Para os dados do exemplo, temos:

Na soma de quadrados, que segue, A representa o fator Ferramenta e B o fator Ângulo.

$$SQ_A=15,8404$$

$$SQ_B=0,0059$$

$$SQ_E=3,547$$

$$SQ_{AB}=0,00037$$

$$SQ_T=19,3936$$

Os quadrados médios (QM) são:

$$QM_A=\cfrac{15,84}{1}=15,84$$

$$QM_B=\cfrac{0,0059}{1}=0,0059$$

$$QM_{AB}=\cfrac{0,00037}{1}=0,00037$$

$$QM_E=\cfrac{3,547}{96}=0,0369$$

FV GL SQ QM F P-valor
Ferramenta (A) 1 15,84 15,84 $ \cfrac{15,8404}{0,037}=428,73 $ 0
Ângulo (B) 1 0,0059 0,0059 $ \cfrac{0,0059}{0,037}=0,16 $ 0,6901
Interação ($ A \times B $) 1 0,00036 0,00036 $ \cfrac{0,00036}{0,037}=0,01 $ 0,9206
Resíduo 96 3,547 0,037
Total 99 19,3936

Tabela 2.3.6: Tabela de Análise de Variância (ANOVA).

Resultados desse exemplo obtidos com o software Action:

anova2fat6

2.4 - Estimação dos Parâmetros do Modelo

A seguir, vamos apresentar os estimadores para os parâmetros do modelo

Modelo

$$Y_{ijk}=\mu +\alpha_{i}+\beta_{j}+\tau_{ij}+\varepsilon_{ijk},\quad i=1,\ldots,a \quad {e} \quad j=1,\ldots,b.$$

e intervalos de confiança. Como estimador da média geral, tomamos

$$\widehat{\mu}=\overline{y_{…}},$$

para os efeitos tomamos

$$\widehat{\alpha_{i}}=\overline{Y_{i..}}-\overline{y_{…}}$$

$$\widehat{\beta_{j}}=\overline{y_{.j.}}-\overline{y_{…}}$$

Um intervalo de confiança para a média do i-ésimo nível do fator A e do j-ésimo nível do fator B, pode ser facilmente estabelecido. A média do i-ésimo nível do fator A e do j-ésimo nível do fator B, é dada por

$$\mu_{i.}=\mu + \alpha_i$$

$$\mu_{j.}=\mu + \beta_j$$

Então, um estimador pontual para $ \mu_{i.} $ e $ \mu_{j.} $ é definido por

$$\widehat{\mu_{i.}}=\widehat{\mu}+\widehat{\alpha_i}~=~\overline{Y_{i..}}$$

$$\widehat{\mu_{j.}}=\widehat{\mu}+\widehat{\beta_j}~=~\overline{y_{.j.}}$$

Sabemos que $ Y_{ijk} \sim N(\mu + \alpha_i + \beta_j +\tau_{ij}~;~\sigma^2) $.

Vamos assumir as restrições (2.1.2), ou seja, $ \sum\limits^{a_{i=1}}\alpha_i~=~0 $, $ \sum\limits^{b}_{j=1}\beta_j~=~0 $$ \sum\limits^{a}_{i=1}\tau_{ij}~=~0 $ e $ \sum\limits^{b}_{j=1}\tau_{ij}~=~0 $. Com isso, temos que

$$\overline{Y_{i..}}\sim N\left(\mu+\alpha_i~;~\frac{\sigma^2}{b~r}\right)~~{e}~~\overline{y_{.j.}}\sim N\left(\mu+\beta_j~;~\frac{\sigma^2}{a~r}\right).$$

Além disso, concluímos que

$$z~=~\frac{\overline{Y_{i..}}~-~\mu_{i.}}{\sqrt{{var}(\overline{Y_{i..}})}}\sim N(0,1)~~{e}~~\frac{a~b~(r - 1)QM_E}{\sigma^2}~\sim~\chi^2_{(a~b~(r-1))}$$

Desta forma, obtemos que

$$T~=~\cfrac{\cfrac{\overline{Y_{i..}}~-~\mu_{i.}}{\sqrt{{var}(\overline{Y_{i..}})}}}{\sqrt{\cfrac{\cfrac{a~b~(r-1)QM_E}{\sigma^2}}{a~b~(r-1)}}}~=~\cfrac{\overline{Y_{i..}}~-~\mu_{i.}}{\sqrt{\cfrac{QM_E}{b~r}}}~\sim~t_{(a~b~(r-1))}$$

ou seja, T tem distribuição t-Student com $ [a~b~(r - 1)] $ graus de liberdade. Portanto, o intervalo com confiança de $ (1-\alpha)100(porcentagem)% $ para a média do i-ésimo nível do fator A é definido por

$$\overline{Y_{i..}}-t(1-\alpha/2;a~b~(r-1))*\sqrt{\frac{QME}{b~r} }~~\leq~~\mu_{i.}~~\leq~~\overline{Y_{i..}}+t(1- \alpha/2;a~b~(r-1))*\sqrt{\frac{QME}{b~r}},$$

no qual $ t(1-\alpha/2;a~b~(r-1)) $ representa o quantil $ (1-\alpha/2) $ da distribuição t-Student com $ a~b~(r-1) $ graus de liberdade. Da mesma forma, temos que o intervalo com confiança de $ (1-\alpha)100(porcentagem)% $ para a média do j-ésimo nível do fator B é definido por

$$\overline{y_{.j.}}-t(1-\alpha/2;a~b~(r - 1))*\sqrt{\frac{QME}{a~r} } ~~\leq~~\mu_{.j}~~\leq~~ \overline{y_{.j.}}+ t(1-\alpha/2;a~b~(r-1))*\sqrt{\frac{QME}{a~r}}$$

Podemos ainda, criar um intervalo de confiança para a diferença entre as médias de um mesmo fator, visto que

$$\overline{Y_{i..}} \sim N\left(\mu+\alpha_i~;~\frac{\sigma^2}{b~r}\right)$$

são independentes para $ i=1,\ldots,a $, temos que

Screenshot_46

Logo

$$ \cfrac{\overline{Y_{i..}} - \overline{Y_{l..}}-(\alpha_i-\alpha_l)}{\sqrt{\cfrac{2\sigma^2}{b~r}}}\sim N(0,1)$$

Desta forma, obtemos que

$$T=\frac{\displaystyle\cfrac{\overline{Y_{i..}}-\overline{Y_{l..}}-(\alpha_i-\alpha_l)}{\displaystyle\sqrt{\cfrac{2\sigma^2}{b~r}}}}{\sqrt{\cfrac{\cfrac{a~b~(r - 1)QM_E}{\sigma^2}}{a~b~(r -1)}}}=\cfrac{\overline{Y_{i..}}-\overline{Y_{l..}}-(\alpha_i-\alpha_l)}{\sqrt{\cfrac{2*QM_E}{b~r}}}~\sim~t_{(a~b~(r- 1))}$$

Assim um intervalo de confiança de $ (1-\alpha)100(porcentagem)% $ para a diferença entre as médias dos níveis fator A, será dado por

$$ \overline{Y_{i..}}-\overline{Y_{l..}}-\Delta~~\leq~~ \mu_{i.}-\mu_{l.} ~~\leq~~ \overline{Y_{i..}} -\overline{Y_{l..}} + \Delta$$

onde

$$\Delta = t(1 - \alpha /2;a~b~(r - 1)) * \sqrt { \frac {2*QME}{b~r}}.$$

Similarmente podemos construir um intervalo de confiança de $ (1-\alpha)100(porcentagem)% $ para a diferença entre as médias dos níveis do fator B, na forma

$$ \overline{y_{.j.}}-\overline{y_{.l.}}-\Delta ~~\leq~~ \mu_{.j}-\mu_{.l}~~\leq~~\overline{y_{.j.}}-\overline{y_{.l.}} + \Delta$$

onde

$$\Delta=t(1- \alpha/2;a~b~(r - 1))* \sqrt{ \frac{2*QME}{a~r}}.$$

Exemplo 2.4.1

Voltando ao Exemplo 2.1 (ruído do limpador de para-brisa), encontramos as seguintes estimativas para a média geral e para os efeitos dos níveis.

$ \widehat{\mu}=\overline{y_{…}}~=~40,41 $ $ \widehat{\beta_{1}}=41,22-40,41=0,81 $
$ \widehat{\alpha_{1}}=40,63-40,41=0,22 $ $ \widehat{\beta_{2}}=40,64-40,41=0,24 $
$ \widehat{\alpha_{2}}=40,19-40,41=-0,22 $ $ \widehat{\beta_{3}}=39,36-40,41=-1,05 $

Um intervalo com confiança de 95 % para a média do nível 1 (Nacional) do fator A (Tipo de Caixa Redutora) é dado por

$$\overline{y_{1..}}-t_{(0,975; 48)}*\sqrt{\frac{QME}{b~r}}~~\leq~~\mu_{1.}~~0\leq~~\overline{y_{1..}}+t_{(0,975;48)}*\sqrt{\frac{QME}{b~r}}$$

$$40,63-2,010635*\sqrt{\frac{3,4960}{27}}~~\leq~~\mu_{1.}~~\leq~~40,63+2,010635*\sqrt{\frac{3,4960}{27}}$$

$$39,91 \leq {\mu_1.} \leq 41,35$$

Um intervalo com confiança de 95 % para a média do nível 2 (Importado) do fator B (Tipo de Eixo) é dado por

$$\overline{y_{.2.}}-t_{(0,975; 48)}*\sqrt{\frac{QME}{a~r}}~~\leq~~\mu_{.2}~~\leq~~\overline{y_{.2.}}+t_{(0,975; 48)}*\sqrt{\frac{QME}{a~r}}$$

$$39,36-2,010635*\sqrt{\frac{3,4960}{18}}~~\leq~~\mu_{.2}~~\leq~~39,36+2,010635*\sqrt{\frac{3,4960}{18}}$$

$$38,47~~\leq~~\mu_{.3}~~\leq~~40,23$$

Um intervalo com confiança de 95% para a diferença entres as médias do nível Cortado e Importado do fator B (Tipo de Eixo) é dado por

$$\Delta=t_{(0,975; 48)}*\sqrt{\frac{2*QME}{a~r}}$$

$$\Delta=2,010635*\sqrt{\frac{2*3.4960}{18}}=0,6232506$$

$$ \overline{y_{.2.}}-\overline{y}_{.3.}-\Delta~~\leq~~\mu_{2.}-\mu_{3.}~~\leq~~\overline{y_{.2.}}-\overline{y}_{.3.}+\Delta$$

$$40,64-39,36-0,6232506~~\leq~~\mu_{2.}-\mu_{3.}~~\leq~~40,64-39,36+0,6232506$$

$$0,6567~~\leq~~\mu_{2.}-\mu_{3.}~~\leq~~1,903251$$

Usando o software Action temos os seguintes resultados:

anova2fat2

anova2fat3

anova2fat4

anova2fat5

2.5 - Análise de resíduos

A decomposição da variabilidade na análise de variância é puramente algébrica. Entretanto, para realizarmos os testes estatísticos e os intervalos de confiança, utilizamos as seguintes hipóteses:

  • Os erros $ \varepsilon_{ijk} $ são normais e independentes, com média $ 0 $ e variância constante $ \sigma^2; $ e
  • As observações são descritas através do modelo $ y_{ijk}=\mu + \alpha_{i} + \beta_{j} + \tau_{ij} + \varepsilon_{ijk}. $

Na prática, precisamos verificar se estas suposições não são absurdas. Violações nestas suposições são verificadas através dos resíduos. O resíduo para a k-ésima observação do nível i do fator A e nível j do fator B é definido por:

$$\widehat{e_{ijk}}=y_{ijk}-\widehat{y_{ijk}}.~~~(2.5.1)$$

onde $ \widehat{y_{ijk}} $ é uma estimativa da observação $ y_{ijk} $

obtida por:

$$\widehat{y_{ijk}}=\widehat{\mu}+\widehat{\alpha}_i+\widehat{\beta_j}+\widehat{\tau_{ij}}$$

$$=\overline{y_{…}}+(\overline{y}_{i..}-\overline{y}_{..})+(\overline{y}_{.j.}-\overline{y}_{..})+\left(\overline{y_{ij.}}-(\widehat{\alpha}_i+\widehat{\beta_j}-\overline{y_{…}})\right)=\overline{y_{ij.}},$$

Portanto

$$\widehat{y_{ijk}}=\overline{y_{ij.}}.~~~(2.5.2)$$

Para mais detalhes verificar o conteúdo de Testes de Normalidade (Inferência Estatística).

Exemplo 2.5.1

Consideremos os dados apresentados no Exemplo 2.1, calcular os resíduos das observações.

Lembramos que os resíduos são calculados usando a equação $ \widehat{e_{ijk}}=y_{ijk}-\widehat{y_{ijk}}, $ conforme (2.5.1), sendo que os $ y_{ijk} $ são cada um dos valores da variável resposta, nesse caso o Ruído produzido pelo limpador de para-brisas, e que $ \widehat{y_{ijk}} = \overline{y_{ij.}}, $ conforme expressão (2.5.2).

A tabela 2.5.1 contém os resíduos dos dados do exemplo.

Screenshot_47

Tabela 2.5.1: Cálculo dos Resíduos.

Uma ferramenta importante na análise de resíduos são os gráficos apresentados a seguir.

Usando o software Action temos os seguintes resultados:

residuo2

Figura 2.5.1: Gráficos de resíduos.

3 - Teste de Comparações Múltiplas

Um problema muito comum nas ciências e na indústria é comparar diversos tratamentos para determinar quais, eventualmente, produzem um resultado superior. Como exemplo, suponhamos que um fabricante quer examinar o efeito nas vendas devido o modelo de embalagem empregado. Uma maneira razoável de prosseguir é selecionar um grupo de lojas com volume de vendas comparáveis e atribuir de forma aleatória e independentemente a cada loja, um modelo de embalagem para ser testado. Assumimos que condições relevantes que possam afetar as vendas, tais como preço, disposição das prateleiras e esforços promocionais são os mesmos para todas as lojas.

Quando a coleta de dados for concluída, pode acontecer que um modelo de embalagem é claramente superior aos outros. Neste caso, não há necessidade de fazer uma análise estatística. Por outro lado, a média de vendas para cada modelo pode estar tão próxima que não é fácil decidir se suas diferenças são reais ou são devido à variação inerente nas vendas entre as lojas. O método comum para investigar tais diferenças é a ANOVA.

Quando os resultados da Análise de Variância (ANOVA) levam à rejeição da hipótese nula, $ (H_0=\mu_1=\ldots=\mu_k) $, que representa a afirmação de que todas as médias (tratamentos) são iguais, temos evidências de que as médias entre os níveis diferem significativamente. Em nosso exemplo, H0 indica que todas as embalagens têm o mesmo impacto nas vendas e chamaremos aqui de hipótese nula global. Dessa maneira, se não rejeitarmos H0, concluímos que não existe diferença entre as médias dos níveis do fator e a Análise de Variância é suficiente para a conclusão. Porém, se rejeitarmos H0, temos evidências estatísticas de que pelo menos dois níveis do fator diferem entre si. Os testes de comparações múltiplas permitem identificar essas diferenças entre pares de médias específicos ou em combinações lineares das médias.

Abordagem por comparação

Uma possível abordagem para o problema de comparação múltipla é fazer cada comparação independentemente usando um procedimento estatístico adequado. Por exemplo, um teste de hipótese estatístico pode ser usado para comparar cada par de médias, $ \mu_i $ e $ \mu_j $, em que a hipótese nula e a hipótese alternativa são da forma

Screenshot_48

A técnica estatística usual nesse caso é conhecida como teste $ t $. Com esse teste, assim como com qualquer outro teste de hipóteses, existe chances de cometermos erros. Um dos possíveis erros é rejeitar a hipótese nula, quando esta é verdadeira (Erro Tipo I) ou então aceitar a hipótese nula, quando esta é falsa (Erro Tipo II). Qualquer regra para decidir entre as hipóteses H0 e H1 é avaliada em termos das probabilidades dos dois tipos de erros. Denotamos a probabilidade de rejeitar H0, quando esta for verdadeira por

$$\alpha= P({rejeitar}~H_0~{dado que}~H_0~{é verdadeira})$$

Como já visto, o valor $ \alpha $ é chamado de nível de significância. Especificando o nível de significância para o teste $ t $, o experimentador controla a probabilidade de encontrar diferenças errôneas. Quando cada um dos vários testes de hipóteses são feitos ao mesmo nível de significância $ \alpha $, $ \alpha $ é chamado de nível de significância por comparação.

Uma maneira alternativa para testar a diferença entre as médias $ \mu_i $ e $ \mu_j $ é calcular um intervalo de confiança para $ \mu_i-\mu_j $. Um intervalo de confiança é formado usando a seguinte expressão

$$({estimativa~pontual})\pm({margem~de~erro}),$$

em que a estimativa pontual é a melhor suposição para o valor $ \mu_i-\mu_j $ baseado nos dados da amostra. Em nosso exemplo, essa estimativa pontual seria a diferença das médias das vendas dos modelos de pacotes $ i $ e $ j $. A margem de erro reflete a precisão da estimativa baseada na variabilidade dos dados, que também depende do coeficiente de confiança que é frequentemente denotado por $ 1-\alpha $. O coeficiente de confiança é uma expressão do quanto estamos certos de que o procedimento experimental irá resultar em um intervalo que contém $ \mu_i-\mu_j $. Para vários intervalos de confiança, cada um com coeficiente de confiança $ 1-\alpha $, $ 1-\alpha $ é chamado de coeficiente de confiança por comparação.

A dificuldade com a abordagem “por comparação” para comparações múltiplas é a possibilidade do aumento da probabilidade do Erro Tipo I ou (equivalentemente) a possibilidade de diminuição do nível de confiança global. Como exemplo, consideremos dois testes de hipóteses independentes cada um ao nível de significância $ \alpha $. Assim, a probabilidade que nenhum tenha Erro Tipo I é $ (1-\alpha)^{2} $. Em outras palavras, a probabilidade de ao menos um Erro do Tipo I é $ 1-(1-\alpha)^{2} $. Geralmente, para testar as diferenças entre cada par de $ k $ médias é necessário o total de $ c=\frac{1}{2}k(k-1) $ testes $ t $ ao nível de significância $ \alpha $. Dessa forma, a chance de encontrarmos ao menos uma diferença incorreta é $ \alpha_c=1-(1-\alpha)^{c} $. Para $ k\geq3 $, além de termos $ \alpha_c $ maior que $ \alpha $, temos ainda que $ \alpha_c $ se aproxima de 1 conforme $ k $ aumenta. A tabela a seguir ilustra tal situação, em que calculamos a probabilidade de ao menos uma rejeição incorreta da hipótese nula para diferentes valores de $ c $.

$ c $ % $ c $ % $ c $ %
1 5,00 10 40,12 15 53,67
2 9,75 11 43,12 20 64,15
3 14,26 12 45,96 30 78,53
4 18,55 13 48,67 40 87,14
5 22,62 14 51,23 50 92,30

Tabela 3.1: Número de comparações ($ c $) e níveis de confiança conjunto (%).

Verificamos com isso que a insistência em realizar muitas comparações duas a duas ao nível de significância por comparação $ \alpha $, faz com que obtenhamos conclusões de que dois tratamentos são diferentes, embora não sejam.

Família

Uma família é um conjunto de inferências para o qual é importante levar em conta alguma medida de erro global. Por exemplo, a coleção de todas as comparações duas a duas que acabamos de discutir é uma família, em que a medida total de erros é a probabilidade de encontrarmos ao menos um Erro do Tipo I. Esta família é um exemplo de uma família finita (contendo c elementos ), mas pode haver famílias com números infinitos de elementos. Por exemplo, as inferências que incorporam cada contraste no conjunto de todos os contrastes das $ k $ médias formariam uma família infinita, no qual um contraste é uma combinação linear de duas ou mais médias em que a soma dos coeficientes é zero.

Taxa de erros

Como discutido anteriormente, quando uma família é composta por vários testes de hipóteses e cada teste de hipótese é realizado ao mesmo nível de significância $ \alpha $, então $ \alpha $ é a taxa de erro por comparação (TPC) (per-comparison error rate), isto é, a probabilidade de rejeitarmos incorretamente cada uma das hipóteses nulas que compõem a família. Uma taxa de erro mais apropriada é chamada de taxa de erro da família dos testes (familywise error rate (FWER)), que é a probabilidade de rejeitarmos incorretamente ao menos umas das hipóteses nulas que compõem a família.

Após especificar a FWER, o pesquisador deve ter o cuidado em realizar as análises de comparações múltiplas que garantem a taxa de erro válida em todas as possíveis configurações (formações) das médias populacionais. Assim, dissemos que tais análises devem “proteger” a FWER.

Há ainda um terceiro tipo de taxa de erro conhecido como taxa de erro por família (TPF)(per-family error rate), que não é uma probabilidade como as outras taxas são, mas representa o valor esperado dos erros na família. Por exemplo, assumimos que a hipótese nula global é verdadeira, se cada dos $ c $ testes é realizado com probabilidade de Erro Tipo I $ \alpha/c $, o valor esperado do Erro Tipo I é $ c\times (\alpha/c)=\alpha $. Dessa forma, quando $ \mu_1=\mu_2=\ldots=\mu_k $, a TPF é $ \alpha $. Para outras quaisquer configurações de médias, a TPF seria menor que $ \alpha $. Uma desigualdade importante e de fácil verificação é que

$$TPC\leq\ FWER \leq TPF$$

Muitos escritores seguidores de Tukey (1953) referem-se à taxa de erro da família dos testes (FWER) e à taxa de erro por família (TPF) como taxa de erro do experimento ( experimentwise error rate) e taxa de erro por experimento (per-experiment error rate) respectivamente.

Métodos de Comparações Múltiplas

Os Métodos de Comparações Múltiplas (MCMs) são procedimentos estatísticos designados para ter em conta e controlar o aumento da probabilidade global do Erro do Tipo I o u a diminuição do intervalo de confiança global. Os MCMs podem ser categorizados como “etapa única” (single step) ou “por etapas” (stepwise). Para os procedimentos de uma etapa, cada uma das inferências é realizada em uma única etapa, sem referência às outras inferências na família. Exemplos de MCMs de uma etapa que protegem a FWER incluem o Teste de Tukey (dados balanceados); Teste de Tukey-kramer (dados não balanceados); Teste de Dunnet; Teste de de Scheffe e Teste de Bonferroni. Esses exemplos serão vistos em detalhes na sequência.

Procedimentos por etapas realizam comparações em uma série de etapas, em que os resultados da etapa atual influenciam, se houver, comparações feitas na etapa seguinte. Tais procedimentos podem ser divididos em dois tipos: etapa abaixo (step-down) e etapa acima (step-up).

Um procedimento “etapa abaixo” pode ser iniciado, por exemplo, testando a hipótese nula global; se está for rejeitada, passamos para a etapa seguinte. Em sucessivas etapas, uma hipótese nula é testada para um subconjunto de médias somente se elas fizerem parte de um conjunto maior de médias para as quais a hipótese nula foi rejeitada durante uma etapa anterior. O teste de Fisher é um exemplo de procedimento etapa abaixo com duas etapas e será estudado com mais detalhes na sequência.

Um exemplo de como podemos iniciar um procedimento “etapa acima” é testar uma hipótese duas a duas e dependendo dos resultados, o procedimento etapa acima para uma hipótese envolve um número maior de médias. Em cada sucessão de etapas é tomada uma decisão que envolve um número maior de médias ou o procedimento termina.

Comparação de MCMs

Como já visto em seções anteriores, o poder de um teste de hipótese é a medida de sua capacidade em identificar diferenças, pois identificar diferenças é normalmente o motivo da análise, assim entre testes de hipóteses adequados, o preferido é o que apresenta maior poder. Quando a análise utiliza intervalos de confiança, o MCM que apresenta o menor intervalo é o mais poderoso.

Comparações duas a duas

Em muitas situações práticas desejamos comparar somente as médias duas a duas. Frequentemente nós podemos determinar quais médias diferem entre si testando todos os pares das médias dos tratamentos. Assim, estamos interessados em contrastes da forma $ \Gamma=\mu_{i}-\mu_{j} $ para todo $ i\neq j $. Há vários procedimentos para solucionar esse problema. Apresentaremos nas próximas seções alguns desses procedimentos.

3.1 - Teste de Tukey

Teste de Tukey (TSD - Tukey Significant Difference)

O Teste proposto por Tukey (1953) é também conhecido como teste de Tukey da diferença honestamente significativa (honestly significant difference)(HSD) e teste de Tukey da diferença totalmente significativa (wholly significant difference)(WSD). É um teste exato em que, para a família de todas as $ c=\frac{1}{2}k(k-1) $ comparações duas a duas, a taxa de erro da família dos testes (FWER) é exatamente $ \alpha $ (e o intervalo de confiança é exatamente 1-$ \alpha $). Métodos de comparações múltiplas exatos são raros. O teste de Tukey tem sido mostrado analiticamente ótimo, no sentido que, entre todos os procedimentos que resultam em intervalos de confiança com mesmo tamanho para todas diferenças duas a duas com coeficiente de confiança da família de pelo menos $ 1-\alpha $, o teste de Tukey resulta em intervalos menores. Isso quer dizer que, se a família consiste em todas comparações duas a duas e o teste de Tukey pode ser usado, ele resultará em intervalos menores que qualquer outro método de comparação múltipla de uma etapa.

A estratégia de Tukey consiste em definir a menor diferença significativa. Tal procedimento utiliza a amplitude da distribuição studentizada.

Suponhamos que temos $ k $ observações independentes, Y1,…,Yk, de uma distribuição normal com média μ e variância σ2. Seja $ w $ a amplitude para esse conjunto de observações, assim

$$w=\max(Y_{i})-\min(Y_{i}).$$

Suponhamos que temos uma estimativa s2 da variância σ2, que é baseada nos $ N-k $ graus de liberdade e é independente de Yi, em que $ N $ é o número total de observações. Dessa forma, a razão $ w/s $ é chamada amplitude studentizada e é denotada por $ q(k,N-k)=\frac{w}{s} $, em que $ q $ é um valor tabelado (ver Tabela do Teste de Tukey no apêndice).

Para tamanhos de amostras iguais (dados balanceados), o teste de Tukey declara duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

$$TSD = q_{\alpha}(k,N-k)\sqrt{\frac{QME}{n}},$$

em que $ n $ é o número de réplicas do nível. Em outras palavras, rejeitamos a igualdade da média de dois níveis se $ |\bar{y_{i.}}-\bar{y_{j.}}|> TSD $.

Um intervalo de confiança de 100(1-α)% para a diferença entre todos os pares das médias é dado como

$$\bar{y_{i.}}-\bar{y_{j.}}-q_{\alpha}(k,N-k)\sqrt{\frac{QME}{n}}\leq\mu_{i}-\mu_{j}\leq\bar{y_{i.}}-\bar{y_{j.}}+q_{\alpha}(k,N-k)\sqrt{\frac{QME}{n}},~~i\neq j.$$

Quando o tamanho das amostras são diferentes (dados não balanceados), o teste de Tukey é modificado e é chamado por vários escritores de Teste de Tukey-kramer. Esse teste não é exato, mas é minimamente conservativo no sentido em que a FWER real é muitas vezes menor que $ \alpha $. O teste de Tukey-kramer declara duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

$$TSD=\dfrac{q_{\alpha}(k,N-k)}{\sqrt{2}}\sqrt{QME\left(\dfrac{1}{n_{i}}+\dfrac{1}{n_{j}}\right)}$$

e o intervalo de confiança, para $ {i}\neq{j} $ é

$$\bar{y_{i.}}-\bar{y_{j.}}-\dfrac{q_{\alpha}(k,N-k)}{\sqrt{2}}\sqrt{QME\left(\dfrac{1}{n_{i}}+ \dfrac{1}{n_{j}}\right)}\leq\mu_{i}-\mu_{j}\leq\bar{y_{i.}}-\bar{y_{j.}}+\dfrac{q_{\alpha}(k,N-k)}{\sqrt{2}}\sqrt{QME \left(\dfrac{1}{n_{i}}+\dfrac{1}{n_{j}}\right)}$$

O teste de Tukey-Kramer também tem sido confirmado analiticamente que, para dados não balanceados, fornece intervalos uniformemente mais curtos que qualquer um do outros MCM de uma etapa para a família de todas as comparações duas a duas.

Exemplo 3.1.1

Para os dados do Exemplo 1, vamos calcular o valor de TSD e verificar quais níveis são iguais.

Fator Resistência_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Como os dados são balanceados, temos que:

$$TSD=q_{\alpha}(k,N-k)\sqrt{\frac{QME}{n}}$$

$$TSD=q_{0,05}(5,20)\sqrt{\frac{8,06}{5}}$$

$$TSD=4,232\sqrt{1,612}$$

$$TSD=5,373$$

Rejeitamos a igualdade entre dois níveis se:

$ \mid \overline{y_{i.}}-\overline{y}_{j.}\mid> 5,373 $

Screenshot_49

Usando o software Action temos os seguintes resultados:

tukey1

Tukey2_intervalo

Conclusão

Ao considerarmos um nível de significância de 5%, não rejeitamos a hipótese de igualdade entre as médias dos níveis: (15,35); (20,25); (20,35); (25,30).

Exemplo 3.1.2 (Dados não balanceados)

Uma empresa tem interesse em testar quatro tipos de modelos de pacotes para um novo cereal matinal. Vinte lojas com volumes aproximadamente iguais de vendas foram selecionadas. Para cada loja foi atribuído aleatoriamente um dos modelos de pacotes, com cada modelo de pacote atribuído a cinco lojas. Um incêndio ocorreu em uma loja durante o período de estudo, por isso tal estabelecimento teve que ser retirado da pesquisa. Assim, um dos modelos foi testado em apenas quatro lojas. As lojas foram escolhidas a fim de serem comparadas em relação ao volume de vendas. Condições relevantes que possam afetar as vendas como preço, promoções e disposição das prateleiras foram mantidas as mesmas para todas as lojas no experimento. Os dados desse experimento seguem abaixo. Vamos calcular o valor de TSD e verificar quais níveis são iguais.

Pacotes Lojas Total Média Nº de lojas
i $ Y_{i1} $ $ Y_{i2} $ $ Y_{i3} $ $ Y_{i4} $ $ Y_{i4} $ $ Y_{i} $ $ \bar{Y_{i.}} $ $ n_{i} $
1 11 17 16 14 15 73 14,6 5
2 12 10 15 19 11 67 13,4 5
3 23 20 18 17 78 19,5 4
4 27 33 22 26 28 136 27,2 5

Para efetuarmos as análises do software Action devemos montar a tabela da seguinte maneira:

Fator Vendas
1 11
1 17
1 16
1 14
1 15
2 12
2 10
2 15
2 19
2 11
3 23
3 20
3 18
3 17
4 27
4 33
4 22
4 26
4 28

Usando o software Action, a tabela da ANOVA para esses dados é

tuk_anova

Temos interesse em encontrar o intervalo de confiança de 95% para o Teste de Tukey para esses dados não balanceados. Para comparar os modelos de pacotes 1 e 2, por exemplo, obtemos:

$$TSD=\dfrac{q_{\alpha}(k,N-k)}{\sqrt{2}}\sqrt{QME\left(\dfrac{1}{n_{i}}+ \dfrac{1}{n_{j}}\right)}$$

$$TSD=\dfrac{q_{0,05}(4,15)}{\sqrt{2}}\sqrt{10,546\left(\dfrac{1}{n_{1}}+\dfrac{1}{n_{2}}\right)}$$

$$TSD=\dfrac{4,08}{\sqrt{2}}\sqrt{10,546\left(\dfrac{1}{5}+\dfrac{1}{5}\right)}=5,925.$$

Desse modo, o intervalo de confiança para $ \mu_{1}-\mu_{2} $ é

$$\bar{y_{1.}}-\bar{y_{3.}}-TSD\leq\mu_{1}-\mu_{3}\leq\bar{y_{1.}}-\bar{y_{3.}}+TSD$$

$$(14,6-13,4)-5,925\leq\mu_{1}-\mu_{3}\leq(14,6-13,4)+5,925$$

$$-4,72\leq\mu_{1}-\mu_{2}\leq7,12$$

Para comparar os modelos de pacotes 1 e 3, obtemos:

$$TSD=\dfrac{q_{\alpha}(k,N-k)}{\sqrt{2}}\sqrt{QME\left(\dfrac{1}{n_{i}}+ \dfrac{1}{n_{j}}\right)}$$

$$TSD=\dfrac{q_{0,05}(4,15)}{\sqrt{2}}\sqrt{10,546\left(\dfrac{1}{n_{1}}+\dfrac{1}{n_{3}}\right)}$$

$$TSD=\dfrac{4,08}{\sqrt{2}}\sqrt{10,546\left(\dfrac{1}{5}+\dfrac{1}{4}\right)}=6,28.$$

Assim, o intervalo de confiança para $ \mu_{1}-\mu_{3} $ é

$$\bar{y_{1.}}-\bar{y_{3.}}-TSD\leq\mu_{1}-\mu_{3}\leq\bar{y_{1.}}-\bar{y_{3.}}+TSD$$

$$(14,6-19,5)-6,28\leq\mu_{1}-\mu_{3}\leq(14,6-19,5)+6,28$$

$$-11,18\leq\mu_{1}-\mu_{2}\leq1,38$$

De maneira análoga, encontramos os intervalos de confianças de 95% para a diferença das outras médias.

$$-18,52\leq\mu_{1}-\mu_{4}\leq-6,68$$

$$-12,38\leq\mu_{2}-\mu_{3}\leq-0,17$$

$$-19,72\leq\mu_{2}-\mu_{4}\leq-7,88$$

$$-13,97\leq\mu_{3}-\mu_{4}\leq-1,42$$

Como os dados não são balanceados e temos neste exemplos dois valores distintos para TSD, consideramos aqui a média aritmética das duas taxas, ou seja, $ TSD=\frac{5,96+6,28}{2}=6,12 $.

Assim, rejeitamos a igualdade entre dois níveis se:

$ |\bar{y_{i.}}-\bar{y_{j.}}|>6,12 $

$ {Resultado} $ $ {Resultado} $
$ |\bar{y_{1.}}-\bar{y_{2.}}| $ $ 1,2 $ $ |\bar{y_{2.}}-\bar{y_{3.}}| $ $ 6,1 $
$ |\bar{y_{1.}}-\bar{y_{3.}}| $ $ 4,9 $ $ |\bar{y_{2.}}-\bar{y_{4.}}| $ $ 13,8 $
$ |\bar{y_{1.}}-\bar{y_{4.}}| $ $ 12,6 $ $ |\bar{y_{3.}}-\bar{y_{4.}}| $ $ 7,7 $

Usando o software Action temos os seguintes resultados:

tuk_resultado

Tukey3_intervalo

Conclusão

Ao considerarmos um nível de significância de 5%, não rejeitamos a hipótese de igualdade entre as médias dos níveis: (1,2), (1,3) e (2,3).

3.2 - Teste de Fisher

Teste de Fisher (ou LSD)

O método de Fisher, para comparar todos pares de médias, controla a taxa de erro ao nível de significância α para cada comparação dois a dois, mas não controla a taxa de erro do experimento. Esse procedimento usa a estatística $ t $ para testar $ H_{0}: \mu_{i}=\mu_{j} $, em que

$$t_{0}=\dfrac{\overline{y_{i.}}-\overline{y_{j.}}}{\sqrt{QME\left(\dfrac{1}{n_{i}}+\dfrac{1}{n_{j}}\right)}}.$$

O procedimento de Fisher consiste em realizar testes t múltiplos, cada um ao nível de significância α ,somente se o teste F preliminar é significante ao nível α. Este pode ser visto como um procedimento de duas etapas em que a hipótese nula H0 é testada no primeiro passo por um teste F de nível α. Se o teste F não é significativo, o procedimento termina sem precisar fazer inferências detalhadas nas diferenças dos pares das médias; caso contrário, cada diferença de par é testada por um teste t com nível α de significância. Esse procedimento é chamado de teste da diferença mínima significativa (least significant difference (LSD) test).

O LSD controla a taxa de erro do experimento ao nível α sobre H0 devido a “proteção” fornecida para essa hipótese pelo teste F preliminar. No entanto, em outras configurações (hipóteses) de médias verdadeiras, a taxa de erro do experimento pode ser maior que α.

Para tamanhos de amostras iguais (dados balanceados), o teste de Fisher considera duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

$$LSD=t_{(\frac{\alpha}{2},N-k)}\sqrt{2\frac{QME}{n}},$$

e para tamanhos de amostras diferentes (dados não balanceados)

$$LSD=t_{(\frac{\alpha}{2},N-k)}\sqrt{QME\left(\frac{1}{n_{i}}+\frac{1}{n_{j}} \right)},$$

em que $ t $ é um valor tabelado (ver Tabela do Teste de Fisher no Apêndice) que depende do número de graus de liberdade dos erros ($ N-k $).

Em outras palavras, rejeitamos a igualdade entre as médias dos dois níveis se $ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid> LSD. $

Há um segundo procedimento de Fisher popularmente chamado como procedimento de Bonferroni que controla a taxa de família de erros do experimento no sentido forte, ou seja, em todas as configurações (hipóteses). Veremos mais detalhes desse procedimento na próxima seção.

Exemplo 3.2.1

Voltando ao Exemplo 1 (resistência da fibra sintética), vamos calcular o valor de LSD e verificar quais tratamentos são iguais.

Fator Resistência_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Como os dados são balanceados, temos que:

$$LSD=t_{(\frac{\alpha}{2},N-k)}\sqrt{2\frac{QME}{n}}$$

$$LSD=t_{(0,025;25-5)}\sqrt{2\frac{8,06}{5}}$$

$$LSD=2,086\sqrt{3,224}$$

$$LSD=3,7455$$

Rejeita-se a igualdade entre dois níveis se

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid> 3,7455 $

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ $ {Resultado} $ $ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ $ {Resultado} $
$ \mid\overline{y_{15}}-\overline{y_{20}}\mid $ $ 5,6 $ $ \mid\overline{y_{20}}-\overline{y_{30}}\mid $ $ 6,2 $
$ \mid\overline{y_{15}}-\overline{y_{25}}\mid $ $ 7,8 $ $ \mid\overline{y_{20}}-\overline{y_{35}}\mid $ $ 4,6 $
$ \mid\overline{y_{15}}-\overline{y_{30}}\mid $ $ 11,8 $ $ \mid\overline{y_{25}}-\overline{y_{30}}\mid $ $ 4,0 $
$ \mid\overline{y_{15}}-\overline{y_{35}}\mid $ $ 1,0 $ $ \mid\overline{y_{25}}-\overline{y_{35}}\mid $ $ 6,8 $
$ \mid\overline{y_{20}}-\overline{y_{25}}\mid $ $ 2,2 $ $ \mid\overline{y_{30}}-\overline{y_{35}}\mid $ $ 10,8 $

Usando o software Action temos os seguintes resultados:

fisher1

fisher

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis: $ (15,35); (20,25) $.

Exemplo 3.2.2

Voltando ao Exemplo 3.2.1 (modelos de pacotes e volumes de vendas), vamos calcular o valor de LSD e verificar quais tratamentos são iguais.

Fator Vendas
1 11
1 17
1 16
1 14
1 15
2 12
2 10
2 15
2 19
2 11
3 23
3 20
3 18
3 17
4 27
4 33
4 22
4 26
4 28

Como os dados não são balanceados, temos que

$$LSD=t_{(\frac{\alpha}{2},N-k)}\sqrt{QME\left(\frac{1}{n_{i}}+\frac{1}{n_{j}}\right)}$$

Observemos que n1= n2= n4 . Dessa maneira, teremos aqui dois valores distintos para LSD, o valor para comparar o nível 3 com os demais e o valor que compara os níveis com mesmo tamanho de amostras (1, 2 e 4). Calculemos aqui para ilustrar, o valor da LSD para as diferenças entre as médias $ \mu_1 $ e $ \mu_2 $ e para $ \mu_1 $ e $ \mu_3 $.

$$LSD=t_{\left(\frac{\alpha}{2},N-k\right)}\sqrt{2\frac{QME}{n}}=t_{(\frac{0,05}{2},15)}\sqrt{2\frac{10,55}{5}}=4,378.$$

$$LSD=t_{\left(\frac{\alpha}{2},N-k\right)}\sqrt{QME\left(\frac{1}{n_{1}}+\frac{1}{n_{3}}\right)}=t_{(\frac{0,05}{2},15)}\sqrt{10,55\left(\frac{1}{5}+\frac{1}{4} \right)}=4,643.$$

Como os dados são não balanceados, a taxa LSD considerada é a média aritmética entre as todas as taxas do experimento. Neste exemplo, como temos dois valores distintos para LSD, o valor utlizado é $ LSD=\frac{4,643+4,378}{2}=4,513 $.

Assim, rejeitamos a igualdade entre os níveis se:

$$|\bar{y_{i.}}-\bar{y_{j.}}|>4,513$$

$ |\bar{y_{i.}}-\bar{y_{j.}}| $ $ {Resultado} $ $ |\bar{y_{i.}}-\bar{y_{j.}}| $ $ {Resultado} $
$ |\bar{y_{1.}}-\bar{y_{2.}}| $ $ 1,2 $ $ |\bar{y_{2.}}-\bar{y_{3.}}| $ $ 6,1 $
$ |\bar{y_{1.}}-\bar{y_{3.}}| $ $ 4,9 $ $ |\bar{y_{2.}}-\bar{y_{4.}}| $ $ 13,8 $
$ |\bar{y_{1.}}-\bar{y_{4.}}| $ $ 12,6 $ $ |\bar{y_{3.}}-\bar{y_{4.}}| $ $ 7,7 $

Usando o software Action temos os seguintes resultados:

fisher_dados_des

fisher_intervalo_desba2-396x440

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis 1 e 2.

3.3 - Teste de Bonferroni

O segundo método de comparação múltipla proposto por Fisher e usualmente chamado de teste ou procedimento de Bonferroni, consiste na realização de um teste $ t $ para cada par de médias a uma taxa de erro por comparação (TPC) de $ \frac{\alpha}{\binom{k}{2}} $. Usando esse teste, o nível de significância da família é no máximo $ \alpha $, para qualquer configuração (formação) das médias da população. Dessa forma, temos que o teste de Bonferroni protege a taxa de erro da família dos testes. Isso ilustra a taxa de erro conhecida como taxa de erro por família, que como vimos representa o valor esperado de erros na família.

O teste de Bonferroni pode ser usado para quaisquer que sejam os dados balanceados ou não balanceados. Não é um teste exato, sendo baseado em uma aproximação conhecida como primeira desigualdade de Bonferroni. Em algumas situações, o teste de Bonferroni se mostra bastante “conservativo” (fraco), isto é, a taxa de erro da família de testes (FWER) é muito menor do que o nível de significância $ \alpha $ estabelecido. Para a família de todas as comparações duas a duas, irá produzir intervalos de confiança maiores que o teste de Tukey ou Tukey-Kramer.

Para tamanhos de amostras iguais (dados balanceados), o teste de Bonferroni considera duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

$$LSD=t_{(\alpha^{,},N-k)}\sqrt{2\frac{QME}{n}},$$

e para tamanhos de amostras diferentes (dados não balanceados)

$$LSD=t_{(\alpha^{,},N-k)}\sqrt{QME\left(\frac{1}{n_{i}}+\frac{1}{n_{j}}\right)}$$

em que $ \alpha^{,}=\frac{1}{2}(\alpha/c) $ e $ c $ é o número de comparações duas a duas (ou também podemos dizer que é o número de intervalos em estudo). O quantil $ t_{(\alpha^{,},N-k)} $ é da distribuição de probabilidade $ t $-Student com parâmetro $ N-k $

(ver Tabela do Teste de Bonferroni no apêndice). Temos assim que a margem de erro da equação anterior depende do número de comparações.

Dado uma família de taxa de erros (FWER) de $ \alpha $, o intervalo de confiança para $ \mu_i-\mu_j $ é calculado usando a seguinte expressão

$$\bar{y_{i.}}-\bar{y_{j.}}-t_{(\alpha^{,},N-k)}\sqrt{QME\left(\dfrac{1}{n_{i}}+\dfrac{1}{n_{j}}\right)}\leq\mu_{i}-\mu_{j}\\leq\bar{y_{i.}}-\bar{y_{j.}}+t_{(\alpha^{,},N-k)}\sqrt{QME\left(\dfrac{1}{n_{i}}+ \dfrac{1}{n_{j}}\right)},$$

Exemplo 3.3.1

Voltando ao Exemplo 1 (resistência da fibra sintética), vamos calcular o valor de LSD para o Teste de Bonferroni e verificar quais níveis são iguais.

Fator Resistência_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Como os dados são balanceados, temos que

$$LSD=t_{(\alpha^{,},N-k)}\sqrt{2\frac{QME}{n}}$$

$$LSD= t_{(\frac{1}{2}(\alpha/\binom{5}{2}),25-5)}\sqrt{2\frac{8,06}{5}}$$

$$LSD= t_{(\frac{1}{2}(0,05/10),20)}\sqrt{2\frac{8,06}{5}}$$

$$LSD= 3,153\sqrt{3,224}$$

$$LSD= 5,662$$

Rejeitamos a igualdade entre os níveis se

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid> 5,662 $

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ $ {Resultado} $ $ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ $ {Resultado} $
$ \mid\overline{y_{15}}-\overline{y_{20}}\mid $ $ 5,6 $ $ \mid\overline{y_{20}}-\overline{y_{30}}\mid $ $ 6,2 $
$ \mid\overline{y_{15}}-\overline{y_{25}}\mid $ $ 7,8 $ $ \mid\overline{y_{20}}-\overline{y_{35}}\mid $ $ 4,6 $
$ \mid\overline{y_{15}}-\overline{y_{30}}\mid $ $ 11,8 $ $ \mid\overline{y_{25}}-\overline{y_{30}}\mid $ $ 4,0 $
$ \mid\overline{y_{15}}-\overline{y_{35}}\mid $ $ 1,0 $ $ \mid\overline{y_{25}}-\overline{y_{35}}\mid $ $ 6,8 $
$ \mid\overline{y_{20}}-\overline{y_{25}}\mid $ $ 2,2 $ $ \mid\overline{y_{30}}-\overline{y_{35}}\mid $ $ 10,8 $

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis: (15,35); (20,25); (20,35) e (25,30).

bonferroni

bonferroni1

Exemplo 3.3.2

Voltando ao Exemplo 3.2.1 (modelos de pacotes e volumes de vendas), vamos calcular o valor de LSD e verificar quais tratamentos são iguais.

Fator Vendas
1 11
1 17
1 16
1 14
1 15
2 12
2 10
2 15
2 19
2 11
3 23
3 20
3 18
3 17
4 27
4 33
4 22
4 26
4 28

Como os dados não são balanceados, temos que

$$LSD=t_{(\alpha^{,},N-k})\sqrt{QME\left(\frac{1}{n_{i}}+\frac{1}{n_{j}}\right)},$$

em que $ \alpha^{,}=\frac{1}{2}(\alpha/c) $, $ c=\binom{4}{2} $ e $ \alpha=0,05 $.

Observemos que n1= n2= n4 . Dessa maneira, teremos aqui dois valores distintos para LSD, o valor para comparar o nível 3 com os demais e o valor que compara os níveis com mesmo tamanho de amostras (1, 2 e 4). Calculemos aqui para ilustrar, o valor da LSD para as diferenças entre as médias $ \mu_1 $ e $ \mu_2 $ e para $ \mu_1 $ e $ \mu_3 $.

$$LSD=t_{(\alpha^{,},N-k})\sqrt{2\frac{QME}{n}}=t_{(\frac{1}{2}(\alpha/c),19-4})\sqrt{2 \frac{10,55}{5}}=3,036\sqrt{2\frac{10,55}{5}}=6,236.$$

$$LSD=t_{(\alpha^{,},N-k})\sqrt{QME\left(\frac{1}{n_{1}}+\frac{1}{n_{3}}\right)}=t_{(\frac{1}{2}(\alpha/c),19-4})\sqrt{10,55\left(\frac{1}{5}+\frac{1}{4}\right)}=6,615.$$

Rejeitamos as igualdades entre as médias dos níveis se $ |\bar{y_{1}}-\bar{y_{2}}|>6,236 $; $ |\bar{y_{1}}-\bar{y_{3}}|>6,615 $; $ |\bar{y_{1}}-\bar{y_{4}}|>6,236 $; $ |\bar{y_{2}}-\bar{y_{3}}|>6,615 $; $ |\bar{y_{2}}-\bar{y_{4}}|>6,236 $ e $ |\bar{y_{3}}-\bar{y_{4}}|>6,615. $

$ |\bar{y_{i.}}-\bar{y_{j.}}| $ Resultado $ |\bar{y_{i.}}-\bar{y_{j.}}| $ Resultado
$ |\bar{y_{1.}}-\bar{y_{2.}}| $ $ 1,2 $ $ |\bar{y_{2.}}-\bar{y_{3.}}| $ $ 6,1 $
$ |\bar{y_{1.}}-\bar{y_{3.}}| $ $ 4,9 $ $ |\bar{y_{2.}}-\bar{y_{4.}}| $ $ 13,8 $
$ |\bar{y_{1.}}-\bar{y_{4.}}| $ $ 12,6 $ $ |\bar{y_{3.}}-\bar{y_{4.}}| $ $ 7,7 $

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis (1,2), (1,3) e (2,3).

bonferroni2

bonferroni3

3.4 - Teste de Scheffe

O método proposto por Scheffe (1959) é também conhecido como teste de Scheffe da diferença completamente significativa (fully significant difference (FSD)) e como teste de Scheffe da diferença globalmente significativa (globally significant difference(GSD)). É um método exato no sentido em que, para as famílias (finitas) envolvendo todos os contrastes das $ k $ médias, a FWER é exatamente $ \alpha $.

O Teste de Scheffe pode ser usado quando as comparações são selecionadas depois de olhar para os dados e incluem os contrastes, que nem todos são aos pares. Também pode ser utilizado quando um grande número de contrastes, nem todos aos pares, são especificados antes de coletar os dados.

Dada uma FWER de valor $ \alpha $, o intervalo de confiança para o contraste

é calculado utilizando a seguinte fórmula

$$\sum\limits_{i=1}^{k}c_i\bar{y_{i}}\pm\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{QME\sum\limits_{i=1}^{k}\frac{c_{i}^{2}}{n_{i}}},$$

em que o quantil $ F_{\alpha,k-1,v} $ é da distribuição $ F $ com parâmetros $ k-1 $ e $ v $ (ver Tabela do Teste de Scheffe no apêndice). A margem de erro da expressão anterior não depende do número de contrastes, mas sim do número de médias no contraste.

O método de Sheffe também pode ser usado para a família de todas as comparações duas a duas, mas quase sempre resultará em intervalos de confiança maiores que os métodos estudados anteriormente (Tukey, Tukey-Kramer, Fisher e Bonferroni). Dado uma FWER de $ \alpha $, o intervalo de confiança para $ \mu_i-\mu_j $ é calculado usando a seguinte expressão

$$\bar{y_{i.}}-\bar{y_{j.}}\pm\sqrt{(k-1)F_{\alpha,k-1,N-k}}\sqrt{QME\left(\frac{1}{n_i}+\frac{1}{n_j}\right)}.$$

Dessa forma, temos que o Teste de Scheffe considera duas médias significativamente diferentes se o valor absoluto de suas diferenças amostrais ultrapassar

$$FSD=\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{QME\left(\frac{1}{n_i}+\frac{1}{n_j}\right)}.$$

Em outras palavras, rejeitamos a igualdade da média de dois níveis se

$$|\bar{y_{i.}}-\bar{y_{j.}}|> FSD$$

Uma observação trazida por alguns autores é que, pelo fato desse procedimento ser extremamente conservador, quando o interesse está apenas na comparação duas a duas, o teste de Scheffe não é adequado. Recomendam ainda que se o número de contrastes utilizados no estudo não é consideravelmente maior que o número de grupos, e os contrastes não foram sugeridos pelos dados, o procedimento de Bonferroni, provavelmente será mais poderoso que Scheffe. Contudo, se os contrastes forem sugeridos pelos dados, o método de Scheffe deve ser empregado ao invés de Bonferroni, desde que todos os contrastes possíveis tenham sido considerados implicitamente.

Exemplo 3.4.1

Para os dados do Exemplo 1, vamos calcular o valor de FSD e verificar quais níveis são iguais.

Fator Resistência_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Como os dados são balanceadoos, temos que:

$$FSD=\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{2\frac{QME}{n}}$$

$$FSD=\sqrt{(5-1)F_{(0.05,5-1,25-4)}}\sqrt{2\frac{8,06}{5}}$$

$$FSD= \sqrt{(5-1)2,866}\sqrt{3,224}$$

$$FSD=6,079$$

Rejeitamos a igualdade entre dois níveis se

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid> 6,079 $

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ Resultado $ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid $ Resultado
$ \mid\overline{y_{15}}-\overline{y_{20}}\mid $ $ 5,6 $ $ \mid\overline{y_{20}}-\overline{y_{30}}\mid $ $ 6,2 $
$ \mid\overline{y_{15}}-\overline{y_{25}}\mid $ $ 7,8 $ $ \mid\overline{y_{20}}-\overline{y_{35}}\mid $ $ 4,6 $
$ \mid\overline{y_{15}}-\overline{y_{30}}\mid $ $ 11,8 $ $ \mid\overline{y_{25}}-\overline{y_{30}}\mid $ $ 4,0 $
$ \mid\overline{y_{15}}-\overline{y_{35}}\mid $ $ 1,0 $ $ \mid\overline{y_{25}}-\overline{y_{35}}\mid $ $ 6,8 $
$ \mid\overline{y_{20}}-\overline{y_{25}}\mid $ $ 2,2 $ $ \mid\overline{y_{30}}-\overline{y_{35}}\mid $ $ 10,8 $

Usando o software Action temos os seguintes resultados:

sheffe_balance

scheffe_intervalo_balance

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis: $ (20,15),(15,35); (20,25); (20,35); (25,30) $

Exemplo 3.4.2

Voltando ao Exemplo 3.2.1 (modelos de pacotes e volumes de vendas), vamos calcular o valor de LSD e verificar quais tratamentos são iguais.

Fator Vendas
1 11
1 17
1 16
1 14
1 15
2 12
2 10
2 15
2 19
2 11
3 23
3 20
3 18
3 17
4 27
4 33
4 22
4 26
4 28

Como os dados não são balanceados, temos que

$$FSD=\sqrt{(k-1)F_{\alpha,k-1,N-k}}\sqrt{QME\left(\frac{1}{n_i}+\frac{1}{n_j}\right)}.$$

Observemos que n1= n2= n4 . Dessa maneira, teremos aqui dois valores distintos para FSD, o valor para comparar o nível 3 com os demais e o valor que compara os níveis com mesmo tamanho de amostras (1, 2 e 4). Calculemos aqui para ilustrar, o valor da FSD para as diferenças entre as médias $ \mu_1 $ e $ \mu_2 $ e para $ \mu_1 $ e $ \mu_3 $.

$$FSD=\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{2\frac{QME}{n}}=\sqrt{3\times F_{(0.05,3,15)}}\sqrt{2\frac{10,55}{5}}=6,450$$

$$FSD=\sqrt{(k-1)F_{\alpha,k-1,N-k}}\sqrt{QME\left(\frac{1}{n_i}+\frac{1}{n_j}\right)}=\sqrt{3\times F_{(0.05,3,15)}}\sqrt{10,55\left(\frac{1}{5}+\frac{1}{4}\right)}=6,841$$

Como os dados não são balanceados e temos neste exemplos dois valores distintos para FSD, consideramos aqui a média aritmética das duas taxas, ou seja, $ FSD=\frac{6,841+6,450}{2}=6,645 $.

Assim, rejeitamos a igualdades entre dois níveis se

$$|\bar{y_{i.}}-\bar{y_{j.}}|>6,645$$

$ |\bar{y_{i.}}-\bar{y_{j.}}| $ Resultado $ |\bar{y_{i.}}-\bar{y_{j.}}| $ Resultado
$ |\bar{y_{1.}}-\bar{y_{2.}}| $ $ 1,2 $ $ |\bar{y_{2.}}-\bar{y_{3.}}| $ $ 6,1 $
$ |\bar{y_{1.}}-\bar{y_{3.}}| $ $ 4,9 $ $ |\bar{y_{2.}}-\bar{y_{4.}}| $ $ 13,8 $
$ |\bar{y_{1.}}-\bar{y_{4.}}| $ $ 12,6 $ $ |\bar{y_{3.}}-\bar{y_{4.}}| $ $ 7,7 $

Usando o software Action temos os seguintes resultados:

sheffe_desbalance

sheffe_intervalo_desbalance2

Conclusão

Ao considerarmos um nível de significância de $ 5(porcentagem)% $, não rejeitamos a hipótese de igualdade entre as médias dos níveis (1,2), (1,3) e (2,3).

Exemplo 3.4.3 (Intervalos de confiança para diferentes contrastes das médias)

Os dados na tabela abaixo resultaram de um experimento executado em um delineamento (planejamento) inteiramente casualizado, em que cada um dos quatro tratamentos foi repetido cinco vezes. Para exemplificar, vamos considerar como os tratamentos 4 métodos de ensinos que foram aplicados cada um em 5 grupos de crianças em que, para cada aplicação de um método temos o desempenho médio de cada grupo de crianças.

Screenshot_50

Para efetuarmos as análises do software Action devemos montar a tabela da seguinte maneira:

Método Desempenho médio
1 7,2
1 6,7
1 5,6
1 4,4
1 5,2
2 8,8
2 6,5
2 7,1
2 9,4
2 5,7
3 7,8
3 9,9
3 8,3
3 7
3 9,1
4 4,9
4 4,6
4 6,2
4 5
4 6,3

Usando o software Action, a tabela da ANOVA para esses dados é

contraste1

Neste exemplo temos interesse em encontrar intervalos de confiança para diferentes contrastes das médias. Como vimos anteriormente, um contraste arbitrário é definido por

$$C=\sum\limits_{i=1}^{k}c_i\mu_i \quad{em que,}\quad \sum\limits_{i=1}^{k}c_i=0.$$

Estimamos $ C $ por $ \hat{C}=\sum\limits_{i=1}^{k}c_{i}\bar{Y_{i.}}, $ para que a variância estimada seja $ S^{2}_{\hat{C}}=QME\sum\limits_{i=1}^{k}\frac{c_{i}^{2}}{n_{i}}. $

Assim, como visto acima, todos os intervalos de confiança são dados por

$$\hat{C}=\sum\limits_{i=1}^{k}c_i\bar{y_{i}}\pm\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{QME\sum\limits_{i=1}^{k}\frac{c_{i}^{2}}{n_{1}}}.$$

Neste exemplo, desejamos estimar e contruir intervalos de confiança para os seguintes contrastes:

$$C_{1}=\frac{\mu_1+\mu_2}{2}-\frac{\mu_{3}+\mu_{4}}{2}$$

$$C_{2}=\frac{\mu_1+\mu_2}{2}-\frac{\mu_{3}+\mu_{4}}{2}$$

Os pontos estimados são:

$$\hat{C_{1}}=\frac{\bar{Y_{1}}+\bar{Y_{2}}}{2}-\frac{\bar{Y_{3}}+\bar{Y_{4}}}{2}=\frac{5,82+7,5}{2}-\frac{8,42+5,4}{2}=-0,25$$

$$\hat{C_{1}}=\frac{\bar{Y_{1}}+\bar{Y_{3}}}{2}-\frac{\bar{Y_{2}}+\bar{Y_{4}}}{2}=\frac{5,82+8,42}{2}-\frac{7,5+5,4}{2}=0,67$$

Pela tabela da Anova acima temos que QME=1,40. Aplicando as fórmulas anteriores obtemos em ambos os casos que

$$S_{\hat{C}}^{2}=QME\sum\limits_{i=1}^{k}\frac{c_{i}^{2}}{n_{i}}=1,4\sum\limits_{i=1}^{4} \frac{c_{i}^{2}}{5}=1,40\times\left(\frac{4\times(1/2)^{2}}{5}\right)=1,40\times 0,2=0,28.$$

Dessa maneira, um intervalo de confiança de 95% para os contrastes $ C1_{1} $ e $ C_{2} $ são dados por

$$\sum\limits_{i=1}^{k}c_i\bar{y_{i}}\pm\sqrt{(k-1)F_{(\alpha,k-1,N-k)}}\sqrt{QME\sum\limits_{i=1}^{k}\frac{c_{i}^{2}}{n_{1}}},$$

em que $ F_{\alpha,k-1,N-k}=F_{0,05;3;16}=3,239 $.

Assim, os limites de confiança para $ C_{1} $ e $ C_{2} $ serão respectivamente $ -0.25\pm\sqrt{(4-1)F_{(0,05;3;16)}}\sqrt{0,28}=1,631 $ e $ 0,67\pm\sqrt{(4-1)F_{(0,05;3;16)}}\sqrt{0,28}=1,631 $. Portanto, os intervalos de confiança são dados por

$$-1,881\leq C_{1}\leq1,381$$

$$-0,961\leq C_{2}\leq2,301$$

3.5 - Teste de Dunnett

Comparações de médias com um controle ou com um valor referência

Teste de Dunnett

Dunnett (1955) foi pioneiro no conceito de que, quando um controle está presente, as comparações de interesse preliminar podem ser as comparações de cada novo tratamento com o controle. Por exemplo, o controle pode ser um placebo, um tratamento “padrão”, ou qualquer outro tratamento específico (como uma nova droga). Suponhamos que μ1,…,μj-1 são as médias dos novos tratamentos e μj é a média do controle. Quando realizamos comparações múltiplas com um controle, os parâmetros de interesse primários são μi-μj para $ i=1, \ldots, j-1 $, a diferença entre cada nova média de tratamento μi e a média do controle μj, ou seja, queremos testar as hipóteses

Screenshot_51

O método de Dunnett é uma modificação do teste $ t $ usual. A menor diferença significativa neste caso é dada por

$$d=d^{*}_{\alpha}(k,N-k) \sqrt{2\times\frac{QME}{n}}~~~~~~~~~~~~~{(dados~balanceados)}.$$

$$d=d_{\alpha}^{*}(k,N-k) \sqrt{QME\left(\frac{1}{n_{i}}+\frac{1}{n_{j}}\right)}~~~~~{(dados~não~balanceados)}.$$

em que $ d^{*}_{\alpha}(k,N-k) $ é um valor tabelado proposto por Dunnet (ver Tabela do Teste de Dunnett no Apêndice), que depende do número de níveis (k) e dos graus de liberdade dos erros (N-k).

Se tomarmos o nível $ j $ como controle, rejeitamos a igualdade entre a média do nível $ i $ e a média do nível $ j $ se:

$ \mid\overline{y_{i.}}-\overline{y_{j.}}\mid> d. $

Exemplo 3.5.1

Consideremos o efeito do cigarro em doenças pulmonares. Nesse caso, tomemos as doenças pulmonares medidas de pessoas não fumantes (NF) e 5 grupos de fumantes classificados como FP: fumante passivo; NI: pessoas que fumam, mas não inalam a fumaça; FL: pessoas que fumam de 1 a 10 cigarros por dia; FM: pessoas que fumam de 11 a 39 cigarros por dia e FE: pessoas que fumam mais de 40 cigarros por dia. Tomamos os não fumantes como o grupo de controle, e estamos interessados em saber o quanto fumar pode afetar a saúde pulmonar em termos da capacidade da força vital (CFV), em relação a não fumar. Tomamos nesse exemplo α=0,05. Os dados desse exemplo estão na sequência.

Grupo CFV
NF 3,7890
NF 3,6953
NF 3,9272
NF 3,9563
NF 3,7490
NF 3,1549
NF 3,4596
NF 2,8963
NF 2,3569
NF 2,7896
NF 3,1549
FP 3,5633
FP 2,8318
FP 3,2156
FP 3,2136
FP 3,1877
FP 3,2451
FP 3,1050
FP 3,2312
FP 3,2014
FP 3,1877
FP 3,6395
NI 3,1492
NI 3,1945
NI 2,9791
NI 3,0127
NI 2,9985
NI 2,8963
NI 3,2520
NI 3,6271
NI 3,4651
NI 2,8963
NI 3,6271
FL 2,8356
FL 3,1546
FL 3,1579
FL 2,4663
FL 2,9863
FL 3,0356
FL 3,5669
FL 3,2619
FL 3,3480
FL 3,5669
FL 3,2619
FM 2,9865
FM 2,8384
FM 2,8000
FM 2,8963
FM 2,6934
FM 2,8183
FM 2,8963
FM 2,6934
FM 2,8183
FM 2,5693
FM 2,8183
FE 2,6397
FE 2,3976
FE 2,4112
FE 2,2356
FE 2,5282
FE 2,8963
FE 2,6539
FE 2,5550
FE 2,8957
FE 2,3694
FE 2,5550

Usando o software Action, a tabela da ANOVA para esses dados é

anova_dunnet

Como os dados são balanceados, temos que:

$$d=d^{*}_{\alpha}(k,N-k) \sqrt{2\frac{QME}{n}}$$

$$d=d^{*}_{0,05}(6,66-6) \sqrt{2\frac{0,09255}{6}}$$

$$d=2,58\sqrt{0.03085)}$$

$$d=0,4531$$

Dessa forma, rejeitamos a igualdade entre as médias dos dois grupos se

$ \mid\overline{y_{i.}}-\overline{y_{NF}}\mid>0,4531. $

$ \mid\overline{y_{i.}}-\overline{y_{NF}}\mid $ $ {Resultados} $ $ \mid\overline{y_{i.}}-\overline{y_{NF}}\mid $ $ {Resultados} $
$ \mid\overline{y_{FP}}-\overline{y_{NF}}\mid $ $ 0,118 $ $ \mid\overline{y_{FM}}-\overline{y_{NF}}\mid $ $ 0,554 $
$ \mid\overline{y_{NI}}-\overline{y_{NF}}\mid $ $ 0,166 $ $ \mid\overline{y_{FE}}-\overline{y_{NF}}\mid $ $ 0,799 $
$ \mid\overline{y_{FL}}-\overline{y_{NF}}\mid $ $ 0,207 $

Usando o software Action temos os seguintes resultados:

dunnet_fuma

dunnet_interv_fumante

Conclusão

Ao considerarmos um nível de significância de 5%, não rejeitamos a hipótese de igualdade entre os grupos (NF, NP) e (NF, NI).

Exemplo 3.5.2

Considerando os dados do Exemplo 1, vamos calcular o valor de d e verificar quais tratamentos são iguais. Usaremos o nível 25 como nível controle.

Fator Resistência_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Como os dados são balanceados, temos que:

$$d=d^{*}_{\alpha}(k,N-k) \sqrt{2\frac{QME}{n}}$$

$$d=d_{0,05}(5;20) \sqrt{2\frac{8,06}{5}}$$

$$d=2,65\sqrt{3,224}$$

$$d=4,7582$$

Rejeitamos a igualdade entre as médias dos dois tratamentos se:

$ \mid\overline{y_{i.}}-\overline{y_{25}}\mid> 4,7582. $

$ \mid\overline{y_{i.}}-\overline{y_{25}}\mid $ $ {Resultados} $ $ \mid\overline{y_{i.}}-\overline{y_{25}}\mid $ $ {Resultados} $
$ \mid\overline{y_{15}}-\overline{y_{25}}\mid $ $ 7,8 $ $ \mid\overline{y_{30}}-\overline{y_{25}}\mid $ $ 4,0 $
$ \mid\overline{y_{20}}-\overline{y_{25}}\mid $ $ 2,2 $ $ \mid\overline{y_{35}}-\overline{y_{25}}\mid $ $ 6,8 $

Usando o software Action temos os seguintes resultados:

dunnet1

dunnet

Conclusão

Ao considerarmos um nível de significância de 5%, não rejeitamos a hipótese de igualdade entre as médias dos níveis:(20,25) e (30,25).

3.6 - Teste de HSU

Teste de HSU (Multiple Comparisons with the Best-MCB)

Vimos anteriormente o problema de compararmos os tratamentos de estudo com um tratamento controle que é usado como uma “referência” (Teste de Dunnet). Em algumas aplicações, a referência relevante (desconhecida) é o “melhor” tratamento, que é, o tratamento que tem maior valor de média (largest) ou menor (smallest), dependendo da análise de interesse. O teste proposto por Jason Hsu, tem como característica comparar todos os tratamentos com o melhor.

Como motivação, consideremos a seguinte situação. Suponhamos que entre cinco tratamentos que estão sendo comparados, dois tratamentos são tão ruins que, a maioria dos pacientes que receberam um dos dois morreram dentro de um curto período de tempo. Então, possivelmente não é de interesse primordial saber qual desses dois tratamentos é pior, a inferência de que nenhum é melhor é suficiente. Suponhamos que o segundo melhor tratamento (entre os três restantes) é quase tão bom quanto o melhor tratamento verdadeiro. Assim, a inferência estatística que identifica ambos como praticamente o melhor pode ser de interesse, pois podem ter outras considerações que impactam na escolha do tratamento. Dessa maneira, nestas situações todas as comparações duas a duas não são de interesse. A principal questão aqui é “Quais comparações são de interesse preliminar?”

Podemos caracterizar as comparações de interesse principais nessas situações como “comparações múltiplas com o melhor.” Assim, se um efeito do tratamento maior é melhor, mesmo que o melhor tratamento seja desconhecido, podemos definir os parâmetros de interesse preliminar como

$$\max_{j=1,\ldots,k}\mu_{j}-\mu_{i},i=1,\ldots,k,\quad (3.6.1)$$

a diferença entre o efeito do melhor tratamento verdadeiro e cada um dos $ k $ efeitos do tratamento.

Contudo, na maioria dos casos tona-se vantajoso comparar cada tratamento com o melhor dos outros tratamentos. Suponhamos que o maior efeito do tratamento implica em um tratamento melhor. Então os parâmetros

$$\mu_{i}-\max_{j\neq i}\mu_{j}, i=1,\ldots,k$$

contém todas as informações que os parâmetros dados pela expressão (3.6.1).

Naturalmente, se o menor efeito do tratamento implica no melhor tratamento, então por simetria os parâmetros de interesse preliminares são

$$\mu_{i}-\min_{j\neq i}\mu_{j},i=1,\ldots,k.$$

Supondo que o melhor é a maior média entre os níveis do fator, vamos considerar um conjunto de intervalos com nível de confiança de $ (1-\alpha)100(porcentagem)% $ simultâneos para a diferença entre a média do i-ésimo nível do fator e o máximo entre as médias dos demais níveis do fator. O cálculo dos limites desses intervalos são obtidos usando as seguintes equações:

Screenshot_52

sendo que $ d_{\alpha}(k,N-k) $ é um valor tabelado (ver Tabela hsu no Apêndice) que depende do número de níveis ($ k $) e do número de graus de liberdade dos erros ($ N-k $) e $ n_i $ é o número de réplicas do nível $ i $ (para dados não balanceados). Para dados balanceados todos os $ n_i $ são iguais.

Se o intervalo ($ D^-_i~;~D^+_i $) assumir somente valores positivos, consideramos que o $ i $-ésimo nível do fator é o melhor.

Agora, suponhamos que o melhor á a menor média entre os níveis do fator, ou o a maior média é melhor, mas temos interesse em fazer comparação múltipla com o “pior” tratamento, assim os parâmetros de interesse são $ \mu_{i}-\min_{j\neq i}\mu_{j},i=1,\ldots,k. $Considerando um conjunto de intervalos com nível de confiança de $ (1-\alpha)100(porcentagem)% $ simultâneos para a diferença entre a média do i-ésimo nível do fator e o mínimo entre as médias dos demais níveis do fator. O cálculo dos limites desses intervalos são obtidos usando as seguintes equações:

Screenshot_53

sendo que $ d_{\alpha}(k,N-k) $ é um valor tabelado (ver Tabela do Teste HSU no Apêndice) que depende do número de níveis ($ k $) e do número de graus de liberdade dos erros ($ N-k $) e $ n_i $ é o número de réplicas do nível $ i $ (para dados não balanceados). Para dados balanceados todos os $ n_i $ são iguais.

Se o intervalo ($ D^-_i~;~D^+_i $) assumir somente valores negativos, consideramos que o $ i $-ésimo nível do fator é o melhor.

Para simplificar a análise e disposição dos resultados em um gráfico, realizamos a seguinte transformação dos limites dos intervalos de confiança. Para cada valor de $ D_i $, calculamos:

Screenshot_54

Exemplo 3.6.1

Voltando ao Exemplo 1.1, da resistência da fibra sintética, vamos calcular os Intervalos de Confiança para todos os níveis, supondo que quanto maior a resistência da fibra sintética melhor.

Fator Resistencia_da_Fibra
15 7
15 7
15 15
15 11
15 9
20 12
20 17
20 12
20 18
20 18
25 14
25 18
25 18
25 19
25 19
30 19
30 25
30 22
30 19
30 23
35 7
35 10
35 11
35 15
35 11

Screenshot_56

Como $ d_{\alpha}(k,N-k)=2,305 $, $ QME=8,06 $ e $ n=5 $. Então:

Screenshot_55

Para o nível $ 15 $, temos que:

$$D^-_1=-[-11,8 - 4,138]^-$$

$$=-[-15,938]^-$$

$$=-15,938$$

$$D^+_1=[-11,8 + 4,138]^+$$

$$=[-7,662]^+$$

$$=0$$

Repetindo este procedimento para os demais níveis, obtemos

$ {Nível} $ $ D^-_i $ $ {Centro} $ $ D^+_i $
$ 15 $ $ -15,938 $ $ -11,8 $ $ 0 $
$ 20 $ $ -10,338 $ $ -6,2 $ $ 0 $
$ 25 $ $ -8,138 $ $ -4,0 $ $ 0,138 $
$ 30 $ $ -0,138 $ $ 4,0 $ $ 8,138 $
$ 35 $ $ -14,938 $ $ -10,8 $ $ 0 $

Como o Intervalo de Confiança referente ao nível 30, possui grandes partes dos valores positivos, podemos dizer que ele é o melhor entre os demais.

Usando o software Action temos os seguintes resultados:

hsu1

hsu

Conclusão

Como o intervalo de confiança referente ao nível $ 30 $, possui grandes partes dos valores positivos, podemos dizer que ele é o melhor entre os demais.

Exemplo 3.6.2

A presença de insetos prejudiciais em campos de exploração agrícola pode ser detectada examinando os insetos presos nas placas cobertas com um material pegajoso erguidas nos campos. Foram relatados o número de besouros na folha do cereal presos quando 24 placas soram colocadas no campo de aveia em um determinado mês. Haviam 24 placas associadas em 4 grupos (6 placas em cada grupo) de acordo com as cores verde, branco, roxo e azul. Ao nível de significância de 0,05% vamos aplicar o Teste de HSU para esse exemplo. Os dados para esse exemplo estão na sequência.

Cor Insetos
verde 45
verde 59
verde 48
verde 46
verde 38
verde 47
branco 21
branco 12
branco 14
branco 17
branco 13
branco 17
roxo 37
roxo 32
roxo 15
roxo 25
roxo 39
roxo 41
azul 16
azul 11
azul 20
azul 21
azul 14
azul 7

Screenshot_57

Usando o software Action a tabela da ANOVA para esses dados é

HSU_anova

Temos que $ d_{o,05}(4,20)=2,192 $, $ QME=46,025 $ e $ n=6 $. Dessa maneira,

$$d_{\alpha}(k,N-k)\sqrt{2\left(\frac{QME}{n}\right)}= 8,585$$

Para a cor verde, temos:

$$D_{1}^{-}=-(47,17-14,83-8,585)^{-}=-(20,7)^{-}=0$$

$$D_{1}^{+}=(47,17-14,83+8,585)^{+}=(43,98)^{+}=40,919$$

Repetindo esse procedimento para as demais cores (níveis), obtemos:

Cor $ D_{i}^{-} $ Média $ D_{i}^{+} $
Verde 0 32,333 40,919
Azul -9,419 -0,833 7,752
Branco -7,752 0,833 9,419
Roxo 0 16,667 25,252

Como o intervalo de confiança referente à cor azul possui grandes partes dos valores negativos, podemos dizer que ele é o melhor entre os demais.

Usando o software Action temos os seguintes resultados:

hsu1_resultado

hsu1_intervalo

Conclusão

Como o intervalo de confiança referente à cor azul possui grandes partes dos valores negativos, podemos dizer que ele é o melhor entre os demais.

ANOVA - Modelo com Efeitos Aleatórios

No módulo anterior vimos o modelo da ANOVA com efeitos fixos e difere do modelo abordado neste módulo, em que modelamos a ANOVA com efeitos aleatórios. A distinção destes dois modelos é melhor visto através de um exemplo.

Na maioria das espécies de mamíferos o fator “sexo” têm dois níveis, que são “masculino” e “feminino”. Para uma análise deste fator, por exemplo, a pessoa do sexo feminino transmite uma grande quantidade de informações sobre a pessoa, e esta informação se baseia em experiência adquirida à partir de muitas outras pessoas que eram do sexo feminino. Esta pessoa vai ter um conjunto de atributos (associado a ela ser mulher), não importa qual a população que a pessoa está inserida.

Agora, quando avaliamos o nível de educação de matemática em uma determinada cidade, em que temos o fator “escola”. Quando avaliamos um nível deste fator, a escola “A” por exemplo, ela não transmite qualquer informação sobre as notas dos alunos no ensino de matemática, caso não tenhamos informações sobre o desempenho ou classificação (ranking) de desempenho publicado em pesquisas, e que o nível de ensino destas escolas podem influenciar na conclusão sobre as notas dos alunos. Caso não tenhamos este tipo de informação o fator escola não transmite qualquer informação sobre as notas, diferentemente do fator sexo que é informativa.

Por este último ter este tipo de característica, o fator sexo é modelado como efeitos fixos. Já o fator escola, as notas dos alunos diferem em muitos aspectos, mas que não sabemos exatamente como ou porque eles diferem, deste modo modelamos com efeitos aleatórios. No caso do sexo, sabemos que pessoas do sexo masculino e feminino são susceptíveis a variar de maneiras características e previsíveis, já no caso das notas dos alunos não. Assim, para aprofundarmos estes conceitos, vamos apresentar os modelos de ANOVA com efeitos aleatórios.

1 - ANOVA - Fatores Aleatórios (Um Fator)

Os módulos anteriores foram dedicados a um estudo de vários modelos com características comuns e que os mesmos números de observações foram tiradas de cada tratamento ou grupo em cada linha da subamostra. Quando esses números são os mesmos, os dados são conhecidos como dados balanceados, agora, quando o número de observações nas linhas não são todas iguais, os dados são conhecidos como dados desbalanceados. Em geral, é desejável ter um número igual de observações em cada subclasse, pois os experimentos com dados desbalanceados são muito mais complexas e difíceis de analisar e interpretar do que as com dados balanceados.

No entanto, em muitas situações práticas, nem sempre é possível ter um número igual de observações para os tratamentos ou grupos. Mesmo se um experimento é bem planejado para ser balanceado, podendo ter problemas durante à execução devido a circunstâncias além do controle do experimentador, por exemplo, valores faltando ou exclusão de observações com defeito pode resultar em diferentes tamanhos de amostra em diferentes grupos. Em muitos casos, os dados podem surgir através de amostragens, em que o número de observações por grupo não pode ser determinada, ou por meio de um experimento destinado a produzir dados balanceados, mas que na verdade podem resultar em dados desbalanceados. Podemos citar como exemplo, que plantas ou animais podem morrer, máquinas podem quebrar ou falhar e ainda os pacientes podem ser retirados do estudo.

As inferências sobre as componentes de variância para dados desbalanceados são muito mais complicadas do que as de dados balanceados. A razão é que a análise de variância de dados balanceados é bastante simples uma vez que há uma única partição da soma de quadrados total em componentes das somas de quadrados, que sob as suposições padrões de distribuição seguem um múltiplo de uma distribuição Qui-Quadrado. Este múltiplo sendo o produto dos graus de liberdade e quadrados médios esperados de um dos efeitos aleatórios. Assim, hipóteses sobre os efeitos do tratamento podem ser testadas pela divisão de quadrados médios de um dos efeitos pelo erro quadrático médio apropriado para formar uma relação de teste de variância F. Já os dados desbalanceados não tem estas propriedades, já que não existe uma única partição da soma de quadrados total e, consequentemente, não há uma única de análise de variância. Além disso, em qualquer decomposição dada, o somas de quadrados de componentes não são independentes ou identicamente distribuídos como variáveis do tipo Qui-Quadrado, e correspondente a qualquer tratamento quadrático médio em particular, significa que não existe um erro quadrático médio com esperança igual sob a hipótese nula.

Neste módulo apresentamos o modelo de um fator aleatório com dados balanceados, ressaltamos que as deduções são similares ao modelo da ANOVA com efeitos fixos. A seguir, temos o seguinte modelo

Screenshot_58

Para este modelo $ \mu $ é um parâmetro comum a todos os tratamentos e representa a média geral dos dados, $ \alpha_{i} $ é o efeito devido ao i-ésimo nível do fator. A variável aleatória $ \varepsilon_{ij} $ corresponde ao erro aleatório experimental, isto é, a variabilidade não explicada pelo modelo devido a variações presentes em diversas fontes não consideradas no estudo.

Além disso, assumimos que o erro tem distribuição Normal com média zero e variância $ \sigma^{2}_{\varepsilon} $ e que os erros são mutuamente independentes. Com isso, temos que

$$\varepsilon_{ij}\sim~N(0,\sigma^{2}_{\varepsilon}).$$

Agora, para o efeito $ \alpha_i $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{\alpha}. $ Assumimos também que os efeitos são mutuamente independentes. Assim,

$$\alpha_{i}\sim~N(0,\sigma^{2}_{\alpha}).$$

Além disso, assumimos que não temos correlação entre o efeito $ \alpha_i $ e o erro experimental $ \varepsilon_{ij} $ para todos $ i,j. $ Para ilustrarmos este modelo temos o exemplo a seguir:

Exemplo 1.1

Um especialista em educação quer avaliar o nível de ensino de matemática para alunos do ensino fundamental das escolas de sua cidade. Para isto, foi realizado uma amostragem entre os alunos das escolas, no qual foi aplicado uma prova. À partir dos dados coletados na tabela, o que podemos dizer a respeito da uniformidade do ensino entre as escolas?

Nota Escola A Escola B Escola C Escola D
1 3,94 4,23 5,2 3,86
2 4,45 5,69 6,3 3,74
3 4,43 5,37 9,92 4,35
4 6,21 4,5 7,38 5
5 3,63 3,78 9,41 5,99
6 5,89 6,19 8,47 3,95
7 6,36 5,43 6,74 2,84
8 3,89 5,64 7,93 5,37
9 5,84 5,74 8,91 4,39
10 5,15 4,2 4,99 3,89
11 4,16 2,91 6,91 2,06
12 4,44 6,92 8,73 2,72
13 4,8 6,84 5,61 3,29
14 4,04 5,91 8,89 3,14
15 4,15 6,74 6,28 3,61
16 3,46 5,09 7,38 5,38
17 4,04 8,01 6,85 4,24
18 3,29 4,45 6,57 3,58
19 3,7 4,36 8,38 5,01
20 3,8 4,76 8,06 3,97

Tabela 1.1: Notas dos alunos do ensino fundamental na prova de matemática em cada escola.

Inicialmente, foi feito uma análise descritiva dos dados, para facilitar a interpretação dos mesmos e a aplicação do modelo da ANOVA.

Boxplot_notas

Figura 1.1: Boxplot das Notas dos alunos do ensino fundamental na prova de matemática em cada escola.

Através do boxplot, notamos que a escola C tem notas maiores que as demais, 7,4 em média, em comparação com as outras escola de ensino fundamental. O objetivo deste exemplo é na uniformidade do ensino nas escola, para isto, vamos aplicar o método da ANOVA para respondermos esta pergunta.

Neste exemplo simples, os k níveis são escolhidos aleatoriamente de uma população de níveis e podemos estender as conclusões para todos os demais níveis da população, que no nosso caso são os alunos de cada escola. Neste caso, os efeitos são variáveis aleatórias e denominados efeitos aleatórios, a seguir vamos particionar a variabilidade total dos dados.

1.1 - Decomposição da Soma de Quadrados Total

Antes de calcularmos a decomposição da soma de quadrados, vamos estabelecer a estrutura de covariância:

$$E(Y_{ij})=\mu,\quad Var(Y_{ij})=\sigma^2_{\alpha}+\sigma^2_{\varepsilon}$$

$$Cov(Y_{ij})=Cov(Y_{ij})=\sigma^2_{\alpha},\quad {para}~j\neq j$$

A técnica da ANOVA está associada a partição da variabilidade total dos dados em componentes. A soma de quadrados total é definida como medida da variabilidade total dos dados,

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij} - \overline{y_{..}})^{2}.$$

Intuitivamente isto é razoável, pois se dividirmos SQT pelos seus graus de liberdade (N -1), obtemos a variância amostral dos dados.

Somando e subtraindo $ \overline{y_{i.}} $ obtemos

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{r}\left[(y_{ij}-\overline{y_{i.}})+(\overline{y_{i.}}-\overline{y_{..}})\right]^{2}=$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})^{2}+2\sum_{i=1}^{k} \sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})(\overline{y_{i.}}-\overline{y_{..}})+\sum_{i=1}^{k}\sum_{j=1}^{r}(\overline{y_{i.}}- \overline{y_{..}})^{2}=$$

Entretanto, o produto cruzado na equação acima é nulo, pois

$$=\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})(\overline{y_{i.}}-\overline{y_{..}})~=~\sum_{i=1}^{k}\sum_{j=1}^{r}\left(y_{ij}\overline{y_{i.}}- y_{ij}\overline{y_{..}}-\overline{y_{i.}}^2+\overline{y_{i.}}\overline{y_{..}}\right)=$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{r}y_{ij}\overline{y_{i.}}-\sum_{i=1}^{k}\sum_{j=1}^{r}y_{ij}\overline{y_{..}}-\sum_{i=1}^{k}\sum_{j=1}^{r}\overline{y_{i.}}^2+\sum_{i=1}^{k}\sum_{j=1}^{r}\overline{y_{i.}}\overline{y_{..}}=$$

$$=\sum_{i=1}^{k}r \overline{y_{i.}}^2 - \overline{y_{..}}\sum_{i=1}^{k}r \overline{y_{i.}} -\sum_{i=1}^{k}r \overline{y_{i.}}^2 + \overline{y_{..}}\sum_{i=1}^{k}r \overline{y_{i.}}=0$$

Logo

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})^{2}+\sum_{i=1}^{k}\sum_{j=1}^{r}(\overline{y_{i.}}-\overline{y_{..}})^{2}=\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})^{2}+\sum_{i=1}^{k}r(\overline{y_{i.}}-\overline{y_{..}})^{2}$$

isto é,

$$SQT=SQA+SQE.$$

Observações

  1. Soma de Quadrados do fator A (SQA) é o desvio das médias estimadas em cada tratamento (nível) em torno da média geral dos dados.Representa a variabilidade devido aos diferentes níveis do fator A.
  2. Soma de Quadrados do Erro (SQE) é o desvio das observações em torno da média estimada do seu nível (tratamento).Representa a variabilidade dentro de cada nível do fator.

Graus de liberdade e estimativas da variância

O conceito de grau de liberdade está sempre associado a uma soma de quadrados. Considere $ x_1, x_2, \ldots, x_n $ elementos, então

$$\overline{x}=\frac{\sum\limits_{i=1}^{n} x_{i}}{n}~~~{e}~~~\sum_{i=1}^{n}(x_{i}-\overline{x})=0.$$

Uma forma para calcularmos os graus de liberdade consiste em determinarmos o valor esperado das componentes SQA e SQE.

Vamos calcular os valores esperados das somas de quadrados.

$$E[SQE]=E\left[\sum_{i=1}^{k} \sum_{j=1}^{r}(y_{ij}-\overline{y_{i.}})^{2}\right]=E\left[\sum_{i=1}^{k}\sum_{j=1}^{r}(y_{ij}^2-2y_{ij}\overline{y_{i.}}+\overline{y_{i.}}^2)\right]=$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{r}y_{ij}^2-2\sum_{i=1}^{k}r\overline{y_{i.}}^2+\sum_{i=1}^{k} r\overline{y_{i.}}^2\right]=E\left[\sum_{i=1}^{k}\sum_{j=1}^{r}y_{ij}^{2}-\sum_{i=1}^{k}\frac{1}{r}y_{i.}^{2} \right]$$

Substituindo as informações do modelo em $ y_{ij} $ e $ y_{i.} $, obtemos

$$E[SQE]=E\left[\sum_{i=1}^{k}\sum_{j=1}^{r}(\mu+\alpha_{i}+\varepsilon_{ij})^{2}-\sum_{i=1}^{k}\frac{1}{r}\left(\sum_{j=1}^{r}(\mu+\alpha_{i}+\varepsilon_{ij})\right)^{2}\right]=$$

$$=E\left[\sum_{i=1}^{k} \sum_{j=1}^{r}(\mu^2+\alpha_i^2+\varepsilon_{ij}^2+2\mu\alpha_i+2\mu\varepsilon_{ij}+2\alpha_i\varepsilon_{ij})\right.-$$

$$-\left.\sum_{i=1}^{k}\frac{1}{r}\left(r^2\mu^2+r^2\alpha_i^2+\left(\sum_{j=1}^{r}\varepsilon_{ij}\right)^2+2~r^2\mu\alpha_i+2r\mu\sum_{j=1}^{r}\varepsilon_{ij}+2r\alpha_i\sum_{j=1}^{r}\varepsilon_{ij} \right)\right]=$$

$$=E\left[N\mu^2+\sum_{i=1}^{k} r\alpha_i^2+\sum_{i=1}^{k}\sum_{j=1}^{r}\varepsilon_{ij}^2+2\mu\sum_{i=1}^{k} r\alpha_i+2\mu\sum_{i=1}^{k}\sum_{j=1}^{r}\varepsilon_{ij}+2\sum_{i=1}^{k}\sum_{j=1}^{r}\alpha_i\varepsilon_{ij} \right.-$$

$$-\left.\left(N\mu^2+\sum_{i=1}^{k} r\alpha_i^2+\frac{1}{r}\sum_{i=1}^{k}\left(\sum_{j=1}^{r}\varepsilon_{ij}\right)^2+2\mu\sum_{i=1}^{k}r\alpha_i+ 2\mu\sum_{i=1}^{k}\sum_{j=1}^{r}\varepsilon_{ij}+2\sum_{i=1}^{k}\sum_{j=1}^{r}\alpha_i\varepsilon_{ij} \right)\right]=$$

$$=E\left[\sum_{i=1}^{k}\sum_{j=1}^{r}\varepsilon_{ij}^2-\frac{1}{r}\sum_{i=1}^{k}\left(\sum_{j=1}^{r}\varepsilon_{ij}\right)^2\right]=$$

Screenshot_59

$$=\sum_{i=1}^{k}\sum_{j=1}^{r}\left(1-\frac{1}{r}\right)E(\varepsilon^2_{ij})=$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{r}\left(1-\frac{1}{r}\right)(Var(\varepsilon_{ij})+[E(\varepsilon_{ij})]^2), \quad \text{mas } E(\varepsilon_{ij})=0, \text{ então}$$

$$=(N-k)\sigma^2_{\varepsilon}=k(r-1)~\sigma^2_{\varepsilon}$$

Agora calculamos o valor esperado de SQA, mas antes para facilitar a construção definimos $ \overline{y_{i.}}=\mu+\alpha_i+\overline{\varepsilon_{i.}} $ e

$$\overline{y_{..}}=\frac{1}{N}\sum^k_{i=1}\sum^{r}_{j=1}y_{ij}=\frac{1}{N}\sum^k_{i=1}\sum^{r}_{j=1}(\mu+\alpha_i+\varepsilon_{ij})=\frac{1}{N}\underbrace{\displaystyle\sum^k_{i=1}r\mu}_{N\mu}+\frac{1}{N}\sum^k_{i=1}r\alpha_i+\frac{1}{N}\underbrace{\displaystyle\sum^k_{i=1}\sum^{r}_{j=1}\varepsilon_{ij}}_{\displaystyle\sum^{r}_{j=1}r\varepsilon_{i.}}$$

Assim,

$$E[SQA]=E\left[\sum^k_{i=1}r(\overline{y_{i.}}-\overline{y_{..}})^2\right]=$$

$$=E\left[\sum^k_{i=1}r\left(\mu+\alpha_i+\overline{\varepsilon_{i.}}-\frac{1}{N}\left(N\mu+\sum^k_{i=1}r\alpha_i+\sum^{r}_{j=1}r\varepsilon_{i.}\right)\right)^2\right]=$$

$$=E\left[\sum^k_{i=1}r\left(\alpha_i-\frac{1}{N}\sum^k_{i=1}r\alpha_r-\overline{\varepsilon_{i.}}-\frac{1}{N}\sum^k_{i=1}r\overline{\varepsilon_{r.}}\right)^2\right]=$$

$$=\sum^k_{i=1}r \left(E\left[\alpha^2_i-\frac{2}{N}\alpha_i\sum^k_{i=1}r\alpha_r+\frac{1}{N^2}\left(\sum^k_{i=1}r\overline{\varepsilon_{r.}}\right)^2\right]\right)+$$

$$+\sum^k_{i=1}r \left(E\left[(\overline{\varepsilon_{i.}})^2-\frac{2}{N}\overline{\varepsilon_{i.}}\sum^k_{i=1}r\overline{\varepsilon_{r.}}+\frac{1}{N^2}\left(\sum^k_{i=1}r\overline{\varepsilon_{r.}}\right)^2\right]\right)\overset{(**)}{=}$$

$$=\sum^k_{i=1}r \left(\sigma^2_{\alpha}-\frac{2}{N}r\sigma^2_{\alpha}+\frac{1}{N^2}\sum^k_{i=1}r^2\sigma^2_{\alpha}\right)+\sum^k_{i=1}r \left(\frac{\sigma^2_{\varepsilon}}{r}-\frac{2r\sigma^2_{\varepsilon}}{N~r}+\frac{1}{N^2}\sum^k_{i=1}r^2\frac{\sigma^2_{\varepsilon}}{r}\right)=$$

$$=\left(\sum^k_{i=1}r-\frac{2}{N}\sum^k_{i=1}r^2+\frac{1}{N^2}\left(\sum^k_{i=1}r\right)\left(\sum^k_{i=1}r\right) \right)\sigma^2_{\alpha}+$$

$$+\left(\sum^k_{i=1}\frac{r}{r}-\frac{2}{N}\sum^k_{i=1}r^2+\frac{1}{N^2}\left(\sum^k_{i=1}r\right)\left(\sum^k_{i=1}r\right) \right)\sigma^2_{\varepsilon}=$$

$$=\left(N-\frac{1}{N}\sum^k_{i=1}r^2\right)\sigma^2_{\alpha}+(k-1)\sigma^2_{\varepsilon}=$$

$$=r(k-1)\sigma^2_\alpha+(k-1)\sigma^2_\varepsilon$$

Na passagem ($ ** $), usamos a propriedade $ E(X^2)=\text{Var}(X)+E^2(X) $ (para mais detalhes consulte o conteúdo variância de variáveis aleatórias) e o fato que $ \alpha_i $ tem distribuição normal com média zero e variância $ \sigma^2_\alpha $e $ \varepsilon_{ij} $ tem distribuição normal com média zero a variância $ \sigma^2_\varepsilon. $

Portanto, como argumentamos na seção (ANOVA efeitos fixos), o QME é um bom estimador para a variância pois

$$E[QME]=E\left[\frac{SQE}{N-k}\right]=\frac{1}{N-k}E[SQE]=\sigma^2_{\varepsilon};~~~{e}$$

$$E[QMA]=E\left[\frac{SQA}{k-1}\right]=\frac{1}{k-1}E[SQA]=\frac{1}{k-1}(k-1)(r\sigma^2_\alpha+\sigma^2_\varepsilon)=r\sigma^2_{\alpha}+\sigma^2_{\varepsilon}$$

Assim, QMA também é um bom estimador para a variância. Entretanto, se existe diferença entre as médias dos níveis, o valor esperado do quadrado médio do fator A (devido aos níveis) é maior do que $ \sigma^{2}_{\varepsilon} $.

Assim, temos os seguintes graus de liberdade:

Screenshot_60

Agora, mostramos um breve resumo dos valores esperados dos quadrados médios.

Screenshot_61

Tabela 1.1.1: Valores Esperados dos Quadrados Médios.

Screenshot_62

Tabela 1.1.2: Resumo dos Quadrados médios e médias para o modelo (1.1).

Com os resultados obtidos na tabela 1.1.1 temos os seguintes estimadores:

Para a componente do erro temos

$$\hat{\sigma}^2_\varepsilon=QME~~~~(1.1.1)$$

Agora, para calcular o efeito do fator A, utilizamos a equação (1.1.1) da seguinte forma

$$\hat{\sigma}^2_\alpha=\frac{QMA-\hat{\sigma}^2_\varepsilon}{r}\overset{(1.1.1)}{=}\frac{QMA-QME}{r}~~~~(1.1.2)$$

A tabela 1.1.3 representa os estimadores pontuais do modelo (1.1).

Screenshot_63

Tabela 1.1.3: Resumo dos Estimadores pontuais para o modelo (1.1).

1.2 - Análise Estatística

Como mencionado anteriormente, inferências sobre componentes de variância de dados desbalanceados são muito mais complicadas do que à partir de dados balanceados. A razão é que a análise de variância de dados balanceados é bastante simples uma vez que existe uma única partição da soma de quadrados total, que sob a suposição da distribuição padrão seguem um múltiplo de uma distribuição Qui-Quadrado. Este múltiplo sendo o produto dos graus de liberdade e valor esperado do quadrado médio de um dos efeitos aleatórios.

Assim, as hipóteses sobre os efeitos do tratamento pode ser testada pela divisão do quadrado médio do tratamento pelo erro quadrático médio apropriado para formar uma relação de variância (teste F). Agora, dados desbalanceados não tem estas propriedades já que não existe uma única partição da soma de quadrados total, consequentemente, não há uma única de análise de variância.

Além disso, em qualquer decomposição dada, as somas de quadrados de componentes não são independentes (em geral) ou identicamente distribuídos como variáveis do tipo Qui-Quadrado. Correspondente a qualquer quadrado médio do tratamento em particular significa que não existe um erro quadrático médio com valor esperado igual sob a hipótese nula.

Em modelos com dados balanceados, QME e QMA são independentes e,

$$\frac{SQE}{\sigma^2_{\varepsilon}}\sim \chi^2_{k(r-1)}$$

No entanto, a menos de $ \sigma^2_{\alpha}=0, $ temos que

$$\frac{SQA}{\sigma^2_{\alpha}}$$

não tem distribuição Qui-Quadrado.

Uma solução para este problema é construir intervalos de confiança usando um conjunto alternativo de estatísticas. Em particular, usamos somas não ponderadas dos quadrados (SQNP) para esta finalidade. Thomas e Hultquist propôs a estatística

$$(k-1)\frac{SQA_{*}}{\sigma^2_{\alpha *}}$$

em que

Screenshot_67

e

$$\sigma^2_{\alpha *}=E(QMA_{*})=n_H\sigma^2_{\alpha}+\sigma^2_{\varepsilon}$$

Computacionalmente,

$$\sum^k_{i=1}(\overline{y_{i.}}-\overline{y}^*_{..})^2=\sum^k_{i=1}(\overline{y_{i.}})^2-\frac{(\displaystyle\sum^k_{i=1}\overline{y}^*_{..})^2}{k}$$

A estatística $ SQA_{*} $ é a soma de quadrados não balanceadas SQNB das médias dos tratamentos e nH é a média harmônica dos ni valores. Thomas e Hultquist mostrou que sob as suposições do modelo (1.1) a função geradora de momentos de $ \displaystyle\frac{SQA_{*}}{\sigma^2_{\alpha *}} $ aproxima para uma variável aleatória Qui-Quadrado com k-1 graus de liberdade e para todo ni é aproximado para uma constante, ou se $ \rho=\displaystyle\frac{\sigma^2_{\alpha}}{\sigma^2_{\alpha}+\sigma^2_{\varepsilon}} $ aproxima para 1, ou se todo ni tende a infinito. Além disso, estudos feitos através de simulações, mostrou que esta aproximação tem resultado satisfatório para $ \rho< 0,20, $ mesmo em experimentos extremamente desbalanceados.

Agora, vamos supor que os dados são balanceados. Assim, desenvolvemos um teste para avaliar a hipótese de diferenças ou não entre as médias populacionais dos níveis, isto é,

Screenshot_64

Como os erros $ \varepsilon_{ij} $ tem distribuição Normal com média 0 e variância $ \sigma^{2}_{\varepsilon} $ independentes e como dito anteriormente ni → r (ni ≈ r).

Assim,

$$\frac{SQE}{\sigma^2_\varepsilon}\sim\chi^2_{k(r-1)}~~~{e}~~~~\frac{SQA}{\sigma^2_\alpha}\sim\chi^2_{(k-1)}$$

Entretanto, as três somas de quadrado não necessariamente são independentes, pois

$$SQT=SQE+SQA$$

Para estabelecer a independência entre as SQE e a SQA, vamos utilizar a seguinte versão do teorema de Cochran.

Teorema de Cochran

Se tivermos $ Q = Q_1 + Q_2 + … + Q_q $ no qual $ ~Q_i~,~i = 1, 2,…,q~(q \leq p) $ são somas de quadrados, cada um com pi graus de liberdade, tal que:

$$p=\sum^{q}_{i=1}p_i$$

obtemos que $ Q_i\sim \chi^{2}_{(p_i)} $ e são independentes para qualquer $ i = 1, 2,…, q $.

Teste da ANOVA - Um Fator

Como $ \displaystyle\frac{{SQA}}{\sigma_\alpha^{2}} $ e $ \displaystyle\frac{{SQE}}{\sigma^{2}_\varepsilon} $ têm distribuição Qui-Quadrado, independentes, obtemos que

$$F_0 =\frac{\displaystyle\frac{SQA}{(k-1)}}{\displaystyle\frac{SQE}{k(r-1)}}=\frac{QMA}{QME}\sim F_{(k-1; k(r-1))}$$

Se $ F_0> F_{(1-\alpha,k-1, k(r-1))} $, rejeitamos $ H_0 $ e concluímos que existe diferença significativa entre as médias dos níveis do fator (tratamentos), no qual $ F_{(1-\alpha, k-1, k(r-1))} $ corresponde ao quantil da distribuição F de Snedecor com nível de confiança de $ 1-\alpha, $

F2

Figura 1.2.1: Quantil da distribuição F-Snedecor.

Podemos ainda calcular o P-valor como, $ P[~F_{(k-1;k(r-1))}> F_0~\mid~H_0] $

A ANOVA pode ser representada na tabela a seguir:

Screenshot_65

Tabela 1.2.1: ANOVA - Um Fator.

Exemplo 1.2.1

Voltando ao exemplo 1.1 temos

Para testarmos as seguintes hipóteses:

Screenshot_68

as somas de quadrados são dadas por:

$$SQT~=\sum^n_{i=1}\sum^{n_i}_{j=1}y_{ij}^{2}-\frac{y^{2}_{..}}{N}=239,54$$

$$SQA=\sum^n_{i=1}\cfrac{1}{n_i}y_i^{2} -\frac{y^{2}_{..}}{N}= 138,2$$

Com isso, temos que

$$SQE=SQT-SQA= 101,33$$

A tabela 1.2.1 abaixo representa a ANOVA para o fator Escola.

Screenshot_66

Tabela 1.2.1: ANOVA para o fator Escola.

O valor aproximado do P-valor é: $ P[~F_{(3,76)}> F_0~\mid~H_0~]=3,4\times 10^{-14}≈0 $

Para $ \alpha = 0,05 $, obtemos que $ F[0,05, 3, 76] = 2,72 $. Portanto, com 95% de confiança, rejeitamos $ {H}_0 $, ou seja, pelo menos um $ \alpha_i $ é diferente de zero, para $ i=1,\ldots,n $.

Veja a seguir os resultados obtidos pelo software Action.

anova_efA_1fator_0

1.3 - Estimação dos parâmetros do modelo

O método de análise de variância (ANOVA) para estimar componentes de variância $ \sigma^2_{\varepsilon} $ e $ \sigma^2_{\alpha} $ consiste em igualar os valores observados dos quadrados médios QME e QMA aos seus valores esperados, e resolver as equações resultantes para $ \sigma^2_{\varepsilon} $ e $ \sigma^2_{\alpha}. $ Os estimadores para dados balanceados obtidos são

$$\hat{\sigma}^2_{\varepsilon}=QME~~~~~{e}~~~~\hat{\sigma}^2_{\alpha}=\frac{QMA-QME}{n_0}~~~~~(1.3.1)$$

Agora, para o caso de dados desbalanceados usaremos as estatística proposta por Thomas e Hultquist, com isso obtemos os seguintes estimadores

$$\hat{\sigma}^2_{\alpha *}=\frac{QMA_{*}-QME}{n_H}~~~~(1.3.2)$$

O problema da ponderação na estimativa de componentes de variância é discutida por Robertson (1962). Verificamos que a ponderação correta é dependente do valor da F da análise de variância.

Para o estimador de $ \hat{\sigma}^2_{\alpha} $ podemos obter uma estimativa negativa. Mathew et al. (1992) consideram estimadores não negativos à partir de modelos desbalanceados com duas componentes de variância, dos quais o modelo (equação 1.1) é um caso especial. Chatterjee e Das (1983) desenvolveram melhores estimadores assintoticamente normais para os componentes de variância. Kelly e Mathew (1993) discutiram um estimador quadrático invariante de $ \sigma^2_{\alpha} $ que tem uma probabilidade de $ QME $ ser menor que para produzir uma estimativa negativa de $ \hat{\sigma}^2_{\alpha}, $ ou seja, $ P[\hat{\sigma}^2_{\alpha}< 0]=P[QME< QMA]. $

Além disso, QMA pode ser expressa como uma combinação linear central variáveis Qui-Quadrado independentes. Assim, a distribuição de QMA pode ser aproximada para uma variável Qui-Quadrado central, usando a aproximação Satterthwaite.

Agora, a probabilidade de uma estimativa negativa pode ser avaliada em termos das distribuições F centrais. Singh (1989a) desenvolveu uma expressão para determinar um valor exato para a probabilidade $ P (\sigma^2_{\alpha}< 0), $ utilizando uma soma infinita ponderada das funções beta incompletas.

Um valor exato da probabilidade de uma estimativa negativa também pode ser avaliada à partir de Davies (1980), que dá um algoritmo para calcular a distribuição de uma combinação linear de variáveis Qui-Quadrado independentes (possivelmente não-centrais) com graus de liberdade arbitrários.

Para a construção dos intervalos de confiança, usamos algumas constantes para as combinações lineares citadas anteriormente. Por exemplo, construímos uma tabela com nível de significância 0,05, k=10 e N=17.

Constante Definição Valor
$ G_a $ $ 1-F_{\frac{\alpha}{2}:\infty;k-1} $ 0,5269
$ G_e $ $ 1-F_{\frac{\alpha}{2}:\infty;N-k} $ 0,5628
$ H_a $ $ F_{1-\frac{\alpha}{2}:\infty;k-1}-1 $ 2,333
$ H_e $ $ F_{1-\frac{\alpha}{2}:\infty;N-k}-1 $ 3,142
$ F_a $ $ F_{1-\frac{\alpha}{2}:k-1;N-k} $ 4,823
$ F_e $ $ F_{\frac{\alpha}{2}:k-1;N-k} $ 0,2383
$ G_{ae} $ $ \frac{(F1-1)^2-G^2_1F^2_1-H^2_2}{F_1} $ -0,356
$ H_{ae} $ $ \frac{(1-F2)^2-H^2_1F^2_2-G^2_2}{F_2} $ -0,191
$ H_{ae} $ $ \frac{(1-F2)^2-H^2_1 F^2_2-G^2_2}{F_2} $ -0,191

Tabela 1.3.1: Constantes usadas nos Intervalos de Confiança da equação 1.1.

Intervalo de Confiança para $ \mu $

O intervalo de confiança para $ \mu $ é obtido substituindo $ QMA $ por $ QMA_{*},~n_H $ por $ n_i~{e}~\overline{y}^*_{..} $ por $ \overline{y_{..}} $ Assim, o intervalo de confiança $ 100(1-\alpha)(porcentagem)% $ aproximada para $ \mu $ é

$$ LI=\overline{y_{..}}^*-\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}} $$

e

$$ LS=\overline{y_{..}}^*+\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}}~~~~~(1.3.4) $$

El-Bassiouni e Abdelhafez fez a comparação da equação 1.3.4 a nove outros intervalos para $ \mu. $ (A forma da equação 1.3.4 considerada por El-Bassiouni e Abdelhafez usou graus de liberdade estimados com base na aproximação Satterthwaite. No entanto, eles encontraram esta equação e foi adequadamente aproximada por p-1). A equação 1.3.4 manteve o nível de confiança declarado.

Intervalo de Confiança para $ \sigma^2_{\alpha} $

Um intervalo de confiança $ 100(1-\alpha)(porcentagem)% $ aproximado para $ \sigma^2_{\alpha} $ baseados nas modificações da Soma de Quadrados Não Balanceadas $ SQNB $ da equação 1.1 é

$$LI=\hat{\sigma}^2_{\alpha}-\frac{\sqrt{V_{\alpha I}}}{n_H}$$

e

$$LS=\hat{\sigma}^2_{\alpha}+\frac{\sqrt{V_{\alpha S}}}{n_H}~~~~~(1.3.5)$$

em que

$$V_{\alpha I}=G^2_{a} QMA^2_{\alpha *}+H^2_{e} QME^2+G_{ae} QMA_{\alpha *}QME,$$

$$V_{\alpha S}=H^2_{a} QMA^2_{\alpha *}+G^2_e QME^2+H_{ae} QMA_{\alpha *}QME$$

sendo $ G_{a}, G_e, H_a, H_e, G_{ae} $ e $ H_{ae} $ são definidos na tabela 1.3.1 e $ \hat{\sigma}^2_{\alpha *} $ é definido na equação 1.3.2.

Intervalo de Confiança para $ \sigma^2_{\varepsilon} $

O $ 100(1-\alpha)(porcentagem)% $ Intervalo de Confiança exato para $ \sigma^2_{\varepsilon} $ é

$$LI=(1-G_e)QME$$

e

$$LS=(1+H_e)QME~~~~(1.3.6)$$

em que $ G_e $ e $ H_e $ são definidas na Tabela 1.3.1 e $ \frac{SQE}{\sigma^2_{\varepsilon}} $ tem uma distribuição Qui-Quadrado em modelos com dados balanceados e desbalanceados.

Exemplo 1.3.1

Voltando ao exemplo 1.1, calculamos agora as estimativas dos parâmetros da seguinte forma

À partir dos resultados obtidos no exemplo 1.2.1 temos que

$$QME=1,33~e~QMA=46,07$$

Primeiramente, calculamos o intervalo de confiança para $ \mu.=\overline{y_{..}}=5,32 $

$$ LI=\overline{y_{..}}^*-\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}}=5,32-\sqrt{\frac{46,07\times 5,92}{20 \times 4}}=3,48~~~~e $$

$$ LS=\overline{y_{..}}^*+\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}}=5,32+\sqrt{\frac{46,07\times 5,92}{20\times 4}}=7,17 $$

O intervalo de confiança para $ \sigma^2_{\alpha} $ é dado por

$$\hat{\sigma}^2_{\alpha}=\sqrt{\frac{QMA-QME}{r}}=\sqrt{\frac{46,07-1,33}{20}}=1,496$$

$$LI=\sqrt{\hat{\sigma}^2_{\alpha}-\frac{\sqrt{V_{\alpha I}}}{n_H}}=\sqrt{2,237-\frac{\sqrt{980,708}}{20}}=0,819~~~~{e}$$

$$LS=\sqrt{\hat{\sigma}^2_{\alpha}+\frac{\sqrt{V_{\alpha S}}}{n_H}}=\sqrt{2,237+\frac{\sqrt{353261,7}}{20}}=5,653$$

em que

$$V_{\alpha I}=G^2_{a} QMA^2_{\alpha *}+H^2_{e} QME^2+G_{ae} QMA_{\alpha *}QME=$$

$$=0,679^2~46,07^2+0,413^2~1,33^2+(0,0263)~46,07~1,33=980,708$$

$$V_{\alpha S}=H^2_{a} QMA^2_{\alpha *}+G^2_e QME^2+H_{ae} QMA_{\alpha *}QME=$$

$$=12,902^2~46,07^2+0,255^2~1,33^2+(-0,776)~46,07~1,33=353261,7$$

O intervalo de confiança para $ \sigma^2_{\varepsilon} $ é dada por

$$\hat{\sigma}_\varepsilon=\sqrt{QME}=\sqrt{QME}=\sqrt{1,33}=1,15$$

$$LI=\sqrt{(1-G_e)QME}=\sqrt{(1-0,255)~1,33}=0,997$$

e

$$LS=\sqrt{(1+H_e)QME}=\sqrt{(1+0,413)~1,33}=1,373$$

A seguir apresentamos um resumo dos resultados

Fator Desvio padrão Limite Inferior Limite Superior
Erro 1,155 0,997 1,373
Escola 1,496 0,819 5,653
Total 1,889

anova_efA_1fator_02

Exemplo 1.3.2

Considere o estudo realizado para analisar a eficiência do sistema de medição para medir o dimensional da porta de uma máquina escavadeira. O sistema de medição utiliza uma máquina de medição por coordenada com CNC. Neste caso, consideramos que o operador não influência a medição, fato que nos levou a considerar apenas um operador e 15 peças na análise.

Peça Medições
1 461,28
2 458,17
3 460,57
4 459,28
5 461,28
6 460,25
7 458,82
8 461,58
9 459,36
10 459,62
11 461,38
12 458,67
13 462,57
14 459,58
15 461,76
1 461,5
2 458,62
3 460,28
4 459,66
5 461,12
6 460,68
7 458,95
8 461,1
9 459,52
10 459,34
11 461,57
12 459,03
13 462,28
14 459,66
15 461,12
1 461,2
2 458,61
3 460,32
4 459,58
5 461,18
6 460,28
7 458,66
8 461,18
9 459,57
10 459,54
11 461,53
12 458,98
13 462,32
14 459,28
15 461,15

As somas de quadrados são dadas por:

$$SQT=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2}+\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(\overline{y_{i.}}-\overline{y_{..}})^{2}=\sum_{i=1}^{k}\sum_{j=1}^{n_{i}}(y_{ij}-\overline{y_{i.}})^{2}+\sum_{i=1}^{k}n_{i}(\overline{y_{i.}}-\overline{y_{..}})^{2}=60,666$$

$$SQA=\sum^k_{i=1}n_i(\overline{y_{i.}}-\overline{y_{..}})^2=59,5$$

Com isso, temos que

$$SQE=SQT-SQA=60,666-59,5=1,166$$

Agora, calcularemos os Quadrados Médios

$$QME=\frac{SQE}{N-k}=\frac{1,166}{45-15}=0,03884$$

$$QMA=\frac{SQA}{k-1}=\frac{59,5}{15-1}=4,25$$

Calculamos os intervalos de confiança. Primeiramente, faremos o intervalo de confiança para $ \mu. $

$$LI=\overline{y_{..}}^*-\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}}=460,2662-\sqrt{\frac{4,25\times 4,6001}{15 \times 3}}=459,607$$

e

$$LS=\overline{y_{..}}^*+\sqrt{\frac{QMA_{*}F_{1-\frac{\alpha}{2}:1,k-1}}{k~n_H}}=460,2662+\sqrt{\frac{4,25\times 4,6001}{15\times 3}}=460,925$$

O intervalo de confiança para $ \sigma^2_{\alpha} $ é dado por

$$\sigma_{\alpha}=\sqrt{\frac{QMA-QME}{n_r}}=\sqrt{\frac{4,25-0,03884}{3}}=1,184$$

$$LI=\sqrt{\hat{\sigma}^2_{\alpha}-\frac{\sqrt{V_{\alpha I}}}{n_H}}=\sqrt{1,404-\frac{\sqrt{3,889244}}{3}}=0,863$$

e

$$LS=\sqrt{\hat{\sigma}^2_{\alpha}+\frac{\sqrt{V_{\alpha S}}}{n_H}}=\sqrt{1,404+\frac{\sqrt{39,94}}{3}}=1,873$$

em que

$$V_{\alpha I}=G^2_{a} QMA^2_{\alpha *}+H^2_{e} QME^2+G_{ae} QMA_{\alpha *}QME=$$

$$=0,464^2~4,25^2+0,787^2~0,03884^2+(-0,0025)4,25~0,03884=3,889244$$

$$V_{\alpha S}=H^2_{a} QMA^2_{\alpha *}+G^2_e QME^2+H_{ae} QMA_{\alpha *}QME=$$

$$=1,4872^2~4,25^2+0,36142^2~0,03884^2+(-0,068)4,25~0,03884=39,94$$

O intervalo de confiança para $ \sigma^2_{\varepsilon} $ é dada por

$$\sigma_\varepsilon=\sqrt{QME}=0,197$$

$$LI=\sqrt{(1-G_e)QME}=\sqrt{(1-0,3614)0,03884}=0,157$$

e

$$LS=\sqrt{(1+H_e)QME}=\sqrt{(1-0,787)0,03884}=0,263$$

ExSemOp

2 - ANOVA - Fatores Aleatórios (Dois Fatores)

Nesta seção apresentamos o modelo de ANOVA para dois fatores aleatórios, porém temos dois métodos que podem ser utilizados e são eles o método cruzado e o hierárquico. A seguir apresentamos o método cruzado.

2.1 - Método Cruzado (Crossed)

O experimento cruzado com dois fatores e interação é o modelo clássico de RR. Tipicamente, os dois fatores são referidos como “peças” e “operadores”. Neste capítulo consideramos experimentos balanceados, em que ambos fatores são aleatórios. Este modelo também é conhecido como componentes de variância.

Modelo

O modelo com dois fatores balanceados e com efeitos cruzados e interação é dado por

Screenshot_70

Para este modelo $ \mu $ é um parâmetro comum a todos os tratamentos e representa a média geral dos dados, $ \alpha_{i} $ e $ \gamma_j $ é o efeito devido ao i-ésimo e ao j-ésimo nível do fator P e O e são variáveis aleatórias independentes com média zero e variâncias $ \sigma^2_P $ e $ \sigma^2_O $ respectivamente e $ \tau_{ij} $ é a interação entre os fatores P e O, que também tem distribuição normal com média zero e variância $ \sigma^2_I. $ A variável aleatória $ \varepsilon_{ijk} $ corresponde ao erro aleatório experimental, isto é, a variabilidade não explicada pelo modelo devido a variações presentes em diversas fontes não consideradas no estudo. Este tem distribuição normal com média zero e variância $ \sigma^2. $

Resumindo,

$$\mu={média~geral~dos~dados;}$$

$$\alpha_{i}={efeito~do~nível~i~do~fator~P;}$$

$$\gamma_{j}={efeito~do~nível~j~do~fator~O;}$$

$$\tau_{ij}={efeito~do~nível~ij~da~interação~entre~P~e~O;}$$

$$\varepsilon_{ijk}={componente~aleatória~do~erro.}$$

Agora, vamos desenvolver a análise de variância para o modelo de efeitos aleatórios. A partir de considerações dos dados, temos:

Screenshot_69

Em resumo, assumimos que o erro tem distribuição Normal com média zero e variância $ \sigma^{2}_{\varepsilon} $ e que os erros são mutuamente independentes. Com isso, temos que

$$\varepsilon_{ijk}\sim~N(0,\sigma^{2}_{\varepsilon}).$$

Agora, para o efeito $ \alpha_i $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{P}. $ Assumimos também que os efeitos são mutuamente independentes. Assim,

$$\alpha_{i}\sim~N(0,\sigma^{2}_{P}).$$

Para o efeito $ \gamma_j $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{O}. $ Assumimos também que os efeitos são mutuamente independentes. Assim,

$$\gamma_{j}\sim~N(0,\sigma^{2}_{O}).$$

Por fim temos que para o efeito $ \tau_{ij} $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{I}. $ Assumimos também que os efeitos são mutuamente independentes. Assim,

$$\tau_{ij}\sim~N(0,\sigma^{2}_{I}).$$

Além disso, $ \alpha_i $, $ \gamma_j $, $ \tau_{ij} $ e $ \varepsilon_{ijk} $ são independentes para todo $ i,j,k $.

2.1.1 - Decomposição da Soma de Quadrados

A análise de variância para o modelo (2.4.1.1) é obtida pela decomposição da variação toral $ Y_{ijk}-\overline{Y_{…}} $ como segue

$$SQT=\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{r}(Y_{ijk}-\overline{Y_{…}})^2=$$

$$=\sum_{i=1}^{p}\sum_{j=1}^{o}\sum_{k=1}^{r}\left[(\overline{Y_{i..}}-\overline{Y_{…}})+(\overline{Y_{.j.}}-\overline{Y_{…}})+(\overline{Y_{ij.}}-\overline{Y_{i..}}-\overline{Y_{.j.}}+\overline{Y_{…}})+(Y_{ijk}-\overline{Y_{ij.}})\right]^2=$$

$$=o~r\sum_{i=1}^{p}(\overline{Y_{i..}}-\overline{Y_{…}})^2 +p~r\sum_{j=1}^{o}(\overline{Y_{.j.}}-\overline{Y_{…}})^2 +r~\sum_{i=1}^{p}\sum_{j=1}^{o}(\overline{Y_{ij.}}-\overline{y_{i..}}-\overline{Y_{.j.}}+\overline{Y_{…}})^2+\sum_{i=1}^{p}\sum_{j=1}^{o}\sum_{k=1}^{r}(Y_{ijk}-\overline{Y_{ij.}})^2$$

$$=SQP+SQO+SQI+SQE$$

em que

$$SQT=\sum_{i=1}^{p}\sum_{j=1}^{o}\sum_{k=1}^{r}(Y_{ijk}-\overline{Y_{…}})^2$$

$$SQP=o~r\sum_{i=1}^{p}(\overline{Y_{i..}}-\overline{Y_{…}})^2$$

$$SQO=p~r\sum_{j=1}^{o}(\overline{Y_{.j.}}-\overline{Y_{…}})^2$$

$$SQI=r~\sum_{i=1}^{p}\sum_{j=1}^{o}(\overline{Y_{ij.}}-\overline{Y_{i..}}-\overline{Y_{.j.}}+\overline{Y_{…}})^2$$

$$SQE=\sum_{i=1}^{p}\sum_{j=1}^{o}\sum_{k=1}^{r}(Y_{ijk}-\overline{Y_{ij.}})^2 $$

Graus de liberdade e estimativas da variância

Uma forma para calcularmos os graus de liberdade consiste em determinarmos o valor esperado das componentes SQP, SQO, SQI e SQE.

Vamos calcular os valores esperados das somas de quadrados. Inicialmente, calculamos para o fator P da seguinte forma.

$$E(QMP)=\frac{1}{p-1}\left[E\left(\sum_{i=1}^{p}\frac{Y_{i..}^2}{o~r}\right)-E\left(\frac{Y_{…}^2}{p~o~r}\right)\right]$$

$$=\frac{1}{p-1}\left(\frac{1}{o~r}\sum_{i=1}^{p}E\left[\left(\sum_{j=1}^{o}\sum_{k=1}^{r}Y_{ijk}\right)^2\right]-\frac{1}{p~o~r}E\left[\left(\sum^{p}_{i=1}\sum^{o}_{j=1}\sum_{k=1}^{r}Y_{ijk}\right)^2\right]\right)$$

$$=\frac{1}{p-1}\left(\frac{1}{o~r}\sum_{i=1}^{p}E\left[\left(\sum_{j=1}^{o}\sum_{k=1}^{r}\left(\mu + \alpha_i + \beta_j + \tau_{ij} + \varepsilon_{ijk}\right)\right)^2\right]\right.-$$

$$-\left.\frac{1}{p~o~r}E\left[\left(\sum_{i=1}^{p}\sum^{o}_{j=1}\sum_{k=1}^{r}\left(\mu + \alpha_i + \beta_j + \tau_{ij}+\varepsilon_{ijk}\right)\right)^2\right]\right)$$

$$=\frac{1}{p-1}\left(\frac{1}{o~r}\sum_{i=1}^{p}\left[\left(o~r~\mu\right)^2+\left(o~r~\sigma_P\right)^2 + o~r^2~\sigma^2_O + o~r^2~\sigma^2_I+o~r~\sigma^2_E \right]\right.-$$

$$-\left.\frac{1}{p~o~r}\left[\left(p~o~r~\mu\right)^2+p~\left(o~r~\sigma_P\right)^2+o~\left(p~r~\sigma_O\right)^2+o~p~\left(r~\sigma_I\right)^2 + p~o~r~\sigma^2_E \right]\right)$$

$$=o~r~\sigma^2_P+r~\sigma^2_I+\sigma^2_E$$

Agora, calculamos para o fator O da seguinte forma.

$$E(QMO)=E\left(\frac{SQO}{o-1}\right)=\frac{1}{o-1}E\left(p~r\sum_{j=1}^{o}(\overline{Y_{.j.}}-\overline{Y_{…}})^2\right)=\frac{1}{o-1}E\left(\sum^o_{j=1}\frac{\overline{Y}^2_{.j.}}{pr}-\frac{\overline{Y}^2_{…}}{por}\right)=$$

$$=\sum^o_{j=1}\frac{1}{pr}E\left((pr(\mu+\gamma_j)+\sum^p_{i=1}r\alpha_i+\sum^p_{i=1}r\tau_{ij}+\varepsilon_{.j.})^2\right)-$$

$$-\frac{1}{por}E\left((por\mu+\sum^p_{i=1}or\alpha_i+\sum^o_{j=1}pr\gamma_j+\sum^p_{i=1}\sum^o_{j=1}r\tau_{ij}+\varepsilon_{…})^2\right)=$$

$$=\frac{1}{o-1}((o-1)\sigma^2_E+r(o-1)\sigma^2_I+pr(o-1)\sigma^2_O)=$$

$$=\sigma^2_E+r\sigma^2_I+pr\sigma^2_O$$

Para o fator I temos

$$E(QMI)=E\left(\frac{SQI}{(p-1)(o-1)}\right)=\frac{1}{(p-1)(o-1)}E\left[r~\sum_{i=1}^{p}\sum_{j=1}^{o}(\overline{Y_{ij.}}-\overline{Y_{i..}}-\overline{Y_{.j.}}+\overline{Y_{…}})^2\right]=$$

$$=\frac{1}{(p-1)(o-1)}\left(\sum^p_{i=1}\sum^o_{j=1}\frac{1}{r}E\left[(\mu+\alpha_i+\gamma_j+\tau_{ij}+\varepsilon_{ij.})^2\right.-\right.$$

Screenshot_71

$$-\sum^o_{j=1}\frac{1}{or}E\left[(or~\mu+or~\gamma_j+r\sum^p_{i=1}(\alpha_i+\tau_{ij})+\varepsilon_{.j.})^2\right]+$$

$$\left.+\frac{1}{por}E\left[(por~\mu+pr\sum^p_{i=1}\alpha_i+or\sum^o_{j=1}\gamma_j+r\sum^p_{i=1}\sum^o_{j=1}\tau_{ij}+\varepsilon_{…})^2\right]\right)=$$

$$=\frac{1}{(p-1)(o-1)}\left[por(\mu^2+\sigma^2_P+\sigma^2_O+\sigma^2_I)+(po)\sigma^2_E-por(\mu^2+\sigma^2_P)+\frac{r^2}{or}(\sigma^2_O+\sigma^2_I)+\right.$$

$$\left.+p\sigma^2_E-por(\mu^2+\sigma^2_O)+\frac{r^2}{pr}(\sigma^2_P+\sigma^2_I)+o\sigma^2_E+por~\mu^2+(or)^2\sigma^2_P+(pr)^2\sigma^2_O+\frac{r^2}{por}\sigma^2_I+\sigma^2_E\right]=$$

$$=\sigma^2_E+r\sigma^2_I$$

Finalmente, para o quadrado médio do erro (QME) temos

$$E(QME)=E\left(\frac{SQE}{po(r-1)}\right)=\frac{1}{po(r-1)}E\left[\sum_{i=1}^{p}\sum_{j=1}^{o}\sum_{k=1}^{r}(Y_{ijk}-\overline{Y_{ij.}})^2 \right]=$$

$$=\frac{1}{po(r-1)}\left[\sum^p_{i=1}\sum^o_{j=1}\sum^r_{k=1}E[(\mu+\alpha_i+\gamma_j+\tau_{ij}+\varepsilon_{ijk})^2]\right.-$$

$$\left.-\sum^p_{i=1}\sum^o_{j=1}\frac{1}{r}E\left[(\mu+\alpha_i+\gamma_j+\tau_{ij}+\varepsilon_{ij.})^2]\right]\right]=$$

$$=\frac{1}{po(r-1)}\left[por(\mu^2+\sigma^2_P+\sigma^2_O+\sigma^2_I+\sigma^2_E)-por(\mu^2+\sigma^2_P+\sigma^2_P+\sigma^2_I)+(po)\sigma^2_E\right]=$$

$$=\sigma^2_E$$

O número de graus de liberdade em uma soma de quadrados é a quantidade de elementos independentes nessa soma. Por exemplo, considere a soma de quadrados $ \displaystyle\sum_{i=1}^{p}(\overline{Y_{i..}}-\overline{Y_{…}})^2 $. Neste caso, como $ \displaystyle\sum_{i=1}^{p}(\overline{Y_{i..}}-\overline{Y_{…}})~=~0 $, nem todos os elementos $ (\overline{Y_{1..}}-\overline{Y_{…}}),\cdots, (\overline{Y_{p..}}-\overline{Y_{…}}) $ são independentes. Portanto, temos $ p~-~1 $ graus de liberdade. Nesse sentido, os respectivos graus de liberdade associados a cada soma de quadrados são:

Soma de Quadrados Graus de Liberdade Quadrados Médios
SQP p-1 $ \cfrac{SQP}{p-1} $
SQO o-1 $ \cfrac{SQO}{o-1} $
SQI (p-1)(o-1) $ \cfrac{SQI}{(p-1)(o-1)} $
SQE po(r-1) $ \cfrac{SQE}{po(r-1)} $
SQT por-1

Agora, mostramos a seguir um breve resumo dos valores esperados dos quadrados médios e das estatísticas.

Fator Graus de Liberdade Quadrados Médios Valor Esperado dos Quadrados Médios
Fator P p-1 QMP $ E(QMP)=\sigma^2_E+r\sigma^2_I+or\sigma^2_P $
Fator O o-1 QMO $ E(QMO)=\sigma^2_E+r\sigma^2_I+pr\sigma^2_O $
Interação $ P\times O $ (p-1)(o-1) QMI $ E(QMI)=\sigma^2_E+r\sigma^2_I $
Erro po(r-1) QME $ E(QME)=\sigma^2_E $

Tabela 2.1.1.1: Valores Esperados dos Quadrados Médios.

Estatística:

$ QMP $ $ or\displaystyle\sum^p_{i=1}\frac{(\overline{Y_{i..}}-\overline{Y_{…}})^2}{p-1} $
$ QMO $ $ pr\displaystyle\sum^o_{j=1}\frac{(\overline{Y_{.j.}}-\overline{Y_{…}})^2}{o-1} $
$ QMI $ $ r\displaystyle\sum^p_{i=1}\sum^o_{j=1}\frac{(\overline{Y_{ij.}}-\overline{Y_{i..}}-\overline{Y_{.j.}}+\overline{Y_{…}})^2}{(p-1)(o-1)} $
$ QME $ $ \displaystyle\sum^p_{i=1}\sum^o_{j=1}\sum^r_{k=1}\frac{(Y_{ijk}-\overline{Y_{ij.}})^2}{po(r-1)} $
$ \overline{Y_{i..}} $ $ \displaystyle\sum^o_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{or} $
$ \overline{Y_{.j.}} $ $ \displaystyle\sum^p_{i=1}\sum^r_{k=1}\frac{Y_{ijk}}{pr} $
$ \overline{Y_{ij.}} $ $ \displaystyle\sum^r_{k=1}\frac{Y_{ijk}}{r} $
$ \overline{Y_{…}} $ $ \displaystyle\sum^p_{i=1}\sum^o_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{por} $

Tabela 2.1.1.2: Resumo dos Quadrados médios e médias para o modelo (2.1.1).

Com os resultados obtidos na tabela 2.1.1.1 temos os seguintes estimadores:

Para a componente do erro temos

$$\hat{\sigma}^2_E=QME~~~~(2.1.1.1)$$

Para o efeito da interação temos

$$\hat{\sigma}^2_I=\frac{QMI-\hat{\sigma}^2_E}{r}=\frac{QMI-QME}{r}~~~~(2.1.1.2)$$

Agora, para calcular o efeito do fator O, utilizamos as equações (2.1.1.1) e (2.1.1.2) da seguinte forma

$$\hat{\sigma}^2_O=\frac{QMO-\hat{\sigma}^2_E-r~\hat{\sigma}^2_I}{pr}\overset{(2.1.1.1)~{e}~(2.1.1.2)}{=}$$

$$=\frac{QMO-QME-(QMI-QME)}{pr}=\frac{QMO-QMI}{pr}~~~~(2.1.1.3)$$

Por fim, de forma análoga, para o efeito do fator P temos

$$\hat{\sigma}^2_P=\frac{QMP-QMI}{or}~~~(2.1.1.4)$$

A tabela 2.1.1.3 resume os estimadores pontuais do modelo (2.1.1).

Representação do Modelo Estimador Pontual
$ \mu_y $ $ \overline{Y_{…}} $
$ \sigma^2_P $ $ \cfrac{QMP-QMI}{or} $
$ \sigma^2_O $ $ \cfrac{QMO-QMI}{pr} $
$ \sigma^2_I $ $ \cfrac{QMI-QME}{po} $
$ \sigma^2_E $ $ QME $

Tabela 2.1.1.3: Resumo dos Estimadores pontuais para o modelo (2.1.1).

2.1.2 - Análise Estatística

A seguir, vamos desenvolver um teste $ F $ para avaliarmos o efeito da interação e os efeitos principais, conforme tabela abaixo:

Screenshot_72

Sabemos que a soma de quadrados total é decomposta na forma $ SQT = SQP + SQO + SQI + SQE. $

Assim, através do teorema de Cochran, garantimos, sob $ {H}_0 $, a independência das somas de quadrados e

$$\displaystyle\frac{SQP}{\sigma^2_P} \sim \chi^2_{(p - 1)}~~~~~{e}~~~~~\frac{SQI}{\sigma^2_I } \sim \chi^2_{((p-1)(o - 1))},$$

Desta forma, sob $ {H}_0 $ (hipóteses A) a estatística

$$F_0=\frac{\displaystyle\frac{SQP}{(\sigma_{P}^2)~(p-1)}}{\displaystyle\frac{SQI}{\sigma_{i}^2~(p-1)~(o-1)}}~~=~~\frac{QMP}{QMI}~~\sim~~F(p-1;~(p-1)~(o-1)),$$

isto é, $ {F}_0 $ tem distribuição F-Snedecor com (p-1) graus de liberdade no numerador e [(p - 1)(o - 1)] graus de liberdade no denominador.

Para determinarmos a estatística do teste para as hipóteses B, obtemos do teorema de Cochran que, sob $ {H}_0 $

$$\frac{SQO}{\sigma^2_O} \sim \chi^2_{(o - 1)}~~~~~{e}~~~~~\frac{SQI}{\sigma^2_I} \sim \chi^2_{((p-1)(o - 1))}~,$$

são independentes. Assim, concluímos que a estatística (sob $ {H}_0 $)

$$F_0 =\frac{\displaystyle\frac{SQO}{(\sigma_{O}^2)~(o-1)}}{\displaystyle\frac{SQI}{\sigma_{I}^2~((p-1)(o-1))}}~~=~~\frac{QMO}{QMI}~~\sim~~F(o - 1;(p-1)(o - 1)),$$

ou seja, $ {F}_0 $ tem distribuição de F-Snedecor com (b-1) graus de liberdade no numerador e [(p - 1) (o - 1)] graus de liberdade no denominador.

Para determinarmos a estatística do teste para as hipóteses C, obtemos do teorema de Cochran que, sob $ {H}_0 $

$$\frac{SQI}{\sigma_{I}^2} \sim \chi^2_{(p - 1)(o - 1)}~~~~~{e~também,}~~~~~\frac{SQE}{\sigma^2_E} \sim \chi^2_{(p~o~(r - 1))}~~,$$

são independentes. Assim, sob $ {H}_0 $ temos que a estatística

$$F_0=\frac{\displaystyle\frac{SQI}{(\sigma_{I}^2)~(p-1)(o-1)}}{\cfrac{SQE}{(\sigma_{E}^2)~(p~o~(r-1)))}}~~=~~\frac{QMI}{QME}~~\sim~F((p-1)(o-1);(po(r-1)))$$

tem distribuição de F-Snedecor com (p - 1)(o - 1) graus de liberdade no numerador e [p o (r - 1)] graus de liberdade no denominador.

A região crítica (RC) do teste F é dada por $ RC=(F~\in~\Re^+ ~\mid~F > F_{1-\alpha}) $.

O valor crítico $ F_{1-\alpha} $ corresponde ao quantil $ (1-\alpha)100(porcentagem)% $ da distribuição F-Snedecor com os respectivos graus de liberdade do numerador e do denominador e o nível de significância $ \alpha $. A Figura 2.2.1 mostra a região crítica do teste.

F13

Figura 2.1.2.1: Região crítica do teste F.

O teste estatístico para as hipóteses (A, B, C) propostas, está resumido na tabela abaixo.

Fator Graus de Liberdade Soma de Quadrados Quadrados Médios F P-Valor
Fator P $ p -1 $ $ SQP $ $ QMP $ $ F_{P}=\frac{QMP}{QMI} $ $ P(F> F_P) $
Fator O $ o -1 $ $ SQO $ $ QMO $ $ F_{O}=\frac{QMO}{QMI} $ $ P(F> F_O) $
Interação ($ P\times O $) $ (p -1)(o -1) $ $ SQI $ $ QMI $ $ F_{I}=\frac{QMI}{QME} $ $ P(F> F_{I}) $
Erro $ p~o~(r -1) $ $ SQE $ $ QME $
Total $ p~o~r - 1 $ $ SQT $

Tabela 2.1.2.1: Tabela de Análise de Variância (ANOVA).

2.1.3 - Estimação dos parâmetros do modelo

Apresentamos agora os intervalos de confiança para os parâmetros para o método cruzado definidos na Tabela 2.1.3.1 em que $ F_{\alpha,df_1, df_2} $ representa o quantil $ (1-\alpha)100(porcentagem)% $ da distribuição F-Snedecor com $ df_1 $ graus de liberdade no numerador e $ df_2 $ graus de liberdade no denominador. A tabela 2.1.3.1 representa o caso particular do modelo (2.1.1).

Constante Definição
$ G_a $ $ 1-F_{\left(\frac{\alpha}{2},\infty,(p-1)\right)} $
$ G_b $ $ 1-F_{\left(\frac{\alpha}{2},\infty,(o-1)\right)} $
$ G_i $ $ 1-F_{\left(\frac{\alpha}{2},\infty,(p-1)(o-1)\right)} $
$ G_e $ $ F_{\left(1-\frac{\alpha}{2},\infty,po(r-1)\right)}-1 $
$ H_a $ $ F_{\left(1-\frac{\alpha}{2},\infty,(o-1)\right)}-1 $
$ H_b $ $ F_{\left(1-\frac{\alpha}{2},\infty,(p-1)(o-1)\right)}-1 $
$ H_i $ $ F_{\left(1-\frac{\alpha}{2},\infty,po(r-1)\right)}-1 $
$ H_e $ $ F_{\left(1-\frac{\alpha}{2},(p-1),(p-1)(o-1)\right)} $
$ F_a $ $ F_{\left(\frac{\alpha}{2},(p-1),(p-1)(o-1)\right)} $
$ F_b $ $ F_{\left(1-\frac{\alpha}{2},(p-1),(p-1)(o-1)\right)} $
$ F_i $ $ F_{\left(1-\frac{\alpha}{2},(p-1),(o-1)\right)} $
$ F_e $ $ F_{\left(\frac{\alpha}{2},(p-1),(o-1)\right)} $
$ G_{ae} $ $ \frac{(F_a-1)^2-(G_a F_a)^2-H^2_i}{F_a} $
$ H_{ae} $ $ \frac{(1-F_b)^2-(H_a F_b)^2-G^2_i}{F_b} $
$ G_{be} $ $ \frac{(F_b-1)^2-(G_b F_b)^2-H^2_i}{F_b} $
$ H_{be} $ $ \frac{(1-F_a)^2-(H_b F_a)^2-G^2_i}{F_a} $
$ G_{ie} $ $ \frac{(F_i-1)^2-(G_i F_i)^2-H^2_e}{F_i} $
$ H_{ie} $ $ \frac{(1-F_e)^2-(H_i F_e)^2-G^2_e}{F_e} $

Tabela 2.1.3.1: Constantes usadas para construir o intervalo de confiança.

Intervalo de confiança para $ \mu_y $

Para o modelo (2.1.1), foram estudados vários métodos para a construção de intervalos de confiança para $ \mu_y $. Aqui, adotaremos o intervalo de confiança baseado em Milliken and Johnson página 281.

$$LI_{\mu_y}=\overline{Y_{…}}-C\sqrt{\frac{K}{por}}$$

e

$$LS_{\mu_y}=\overline{Y_{…}}+C\sqrt{\frac{K}{por}}~~~~(2.1.3.1)$$

em que

$$K=QMA+QMB-QMI$$

e

$$C=\frac{QMA\sqrt{F_{\left(1-\alpha,1,(p-1)\right)}}+QMB\sqrt{F_{\left(1-\alpha,1,(o-1)\right)}}-QMI\sqrt{F_{\left(1-\alpha,1,(p-1)(o-1)\right)}}}{K}$$

Se K<0 então, substitua K por QMI e C por $ \sqrt{F_{\left(1-\alpha,1,(p-1)(o-1)\right)}} $, mantendo o nível de confiança na equação (2.1.3.1).

Intervalo de confiança para $ \sigma^2_P $

Para o intervalo de confiança para $ \sigma^2_A, $ vimos na tabela 2.1.3.1 que

$$\hat{\sigma}^2_P=\frac{QMP-QMI}{or}$$

Assim, quando envolvemos a diferença de dois quadrados médios, usaremos o método proposto por Ting que é dado por:

$$LI_{\sigma^2_P}=\hat{\sigma}^2_P-\frac{\sqrt{V_{LP}}}{or}$$

e

$$LS_{\sigma^2_P}=\hat{\sigma}^2_P+\frac{\sqrt{V_{UP}}}{or}~~~~(2.1.3.2)$$

em que

$$V_{LP}=G^2_p*QMP^2+H^2_i*QMI^2+G_{pi}*QMP*QMI$$

e

$$V_{UP}=H^2_p*QMP^2+G^2_i*QMI^2+H_{pi}*QMP*QMI$$

Intervalo de confiança para $ \sigma^2_O $

Para o intervalo de confiança para $ \sigma^2_O, $vimos na tabela 2.1.3.1 que

$$\hat{\sigma}^2_O=\frac{QMO-QMI}{pr}$$

Assim, quando envolvemos a diferença de dois quadrados médios, usaremos o método proposto por Ting que é dado por:

$$LI_{\sigma^2_O}=\hat{\sigma}^2_O-\frac{\sqrt{V_{LO}}}{pr}$$

e

$$LS_{\sigma^2_O}=\hat{\sigma}^2_O+\frac{\sqrt{V_{UO}}}{pr}~~~~(2.1.3.3)$$

em que

$$V_{LO}=G^2_o*QMO^2+H^2_i*QMI^2+G_{oi}*QMO*QMI$$

e

$$V_{UO}=H^2_o*QMO^2+G^2_i*QMI^2+H_{oi}*QMO*QMI$$

Intervalo de confiança para $ \sigma^2_I $

Para o intervalo de confiança para $ \sigma^2_I, $vimos na tabela 2.1.3.1 que

$$\hat{\sigma}^2_I=\frac{QMI-QME}{po}$$

Assim, quando envolvemos a diferença de dois quadrados médios, usaremos o método proposto por Ting que é dado por:

$$LI_{\sigma^2_I}=\hat{\sigma}^2_I-\frac{\sqrt{V_{LI}}}{po}$$

e

$$LS_{\sigma^2_I}=\hat{\sigma}^2_I+\frac{\sqrt{V_{UI}}}{po}~~~~(2.1.3.4)$$

em que

$$V_{LI}=G^2_i*QMI^2+H^2_e*QME^2+G_{ie}*QME*QMI$$

e

$$V_{UI}=H^2_i*QMI^2+G^2_e*QME^2+H_{ie}*QME*QMI$$

Intervalo de confiança para $ \sigma^2_E $

Para o intervalo de confiança para $ \sigma^2_E, $vimos na tabela 2.1.3.1 que

$$\hat{\sigma}^2_E=QME$$

Assim, o intervalo de confiança para $ \sigma^2_E $ é dada por

$$LI_{\sigma^2_E}=(1-G_e) QME$$

e

$$LS_{\sigma^2_E}=(1+H_e) QME~~~~(eq6)$$

em que $ G_B $ e $ H_B $ são definidos na tabela 4.

2.2 - Método Hierárquico (Nested)

Às vezes, as restrições nos impede de cruzar todos os níveis de um fator com todos os níveis do outro fator. Nestes casos, somos forçados para o que é conhecido como uma disposição hierarquizada.

Análise de variância hierarquizada é uma extensão da ANOVA, em que cada fator é dividido em subgrupos destes fatores. Mais especificamente, estes subgrupos são escolhidos aleatoriamente à partir de um conjunto maior de subgrupos possíveis.

Por exemplo, em sistemas de medição, podemos citar os experimentos não replicáveis, ou seja, são experimentos que a peça não pode ser reavaliada devido à alterações em sua estrutura como o de destruição da peça.

A primeira medida a ser feita antes de abordar estes experimentos, neste caso é garantir que todas as condições que englobam o teste sejam definidas, padronizadas e controladas. No exemplo de sistemas de medição, os operadores devem ser similarmente qualificados e treinados, a iluminação deve ser adequada e sempre controlada, instruções de trabalho devem ser detalhadas e operacionalmente definidas, condições ambientais devem ser controladas dentro de um grau adequado, equipamentos devem ser calibrados e receber manutenção adequada etc.

Depois disto, uma vez que a peça não pode ser reavaliada devido à alterações em sua estrutura (ou destruição), diversas peças semelhantes (homogêneas) devem ser escolhidas para o estudo e deve ser feita a suposição de que as peças são idênticas (ou similares). Desta forma, as peças devem ser amostradas consecutivamente (dentro de um mesmo lote de produção) sendo idênticas (ou similares) o suficiente para que elas possam ser tratadas como se fossem a mesma peça.

Assim, no arranjo experimental definido, os níveis do fator lote (peças similares) ocorrem em combinação com os níveis do fator operador, por exemplo. Tais arranjos experimentais são denominados hierárquicos (“nested'').

O modelo de dois fatores aleatórios hierárquicos com dados desbalanceados é dada por

Screenshot_74

em que,

yijk é a k-ésima observação do j-ésimo nível do fator B dentro do i-ésimo nível do fator A;

μ é a média geral;

αi é o efeito devido ao i-ésimo nível do fator A;

βj(i) é o efeito devido ao j-ésimo nível do fator B hierarquizado sob o i-ésimo nível do fator A;

σk(ij) é a componente aleatória do erro.​

Agora, vamos desenvolver a análise de variância para o modelo de efeitos aleatórios. A partir de considerações dos dados, temos:

Screenshot_73

temos que $ N $ é o total de observações, isto é,

com $ n_{i.}=\displaystyle\sum^{b_i}_{j=1}n_{ij} $ e $ N = \displaystyle \sum^{a}_{i=1} n_{i.}, $ número total de observações, sendo $ a $ e $ b_i $ níveis do fator B (subclasses) dentro de cada nível do fator A.

Denotamos também $ b_{.} $ o número total de subclasses, sendo $ b_.=\displaystyle \sum^a_{i=1}b_i $ e o número de observações na j-ésima subclasse da i-ésima classe é $ n_{ij}. $

Assumimos que o erro tem distribuição Normal com média $ 0 $ e variância $ \sigma^{2}_{\varepsilon} $, além disso, temos que os erros são mutuamente independentes. Com isso, obtemos

$$\varepsilon_{k(ij)}\sim N(0,\sigma^{2}_{\varepsilon}).$$

Agora, para o efeito $ \alpha_i $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{\alpha}, $ e temos que os efeitos são mutuamente independentes. Assim,

$$\alpha_{i}\sim N(0,\sigma^{2}_{\alpha}).$$

E por fim, para o efeito $ \beta_{j(i)} $, assumimos que tem distribuição Normal com média zero e variância $ \sigma^2_{\beta(\alpha)}, $ e temos que os efeitos são mutuamente independentes. Assim,

$$\beta_{j(i)}\sim N(0,\sigma^{2}_{\beta(\alpha)}).$$

2.2.1 - Decomposição da Soma de Quadrados Total

Para o modelo (2.2.1) definimos a soma de quadrados da seguinte forma

$$SQT=\sum^a_{i=1}n_{i.}(\overline{y_{i..}}-\overline{y_{…}})^2+\sum^a_{i=1}\sum^{b_i}_{j=1}n_{ij}(\overline{y_{ij.}}-\overline{y_{i..}})^2+\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}(y_{ijk}-\overline{y_{ij.}})^2=$$

$$=\underbrace{\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}-\frac{y^2_{…}}{N}}_{SQA}+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}-\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}}_{SQB(A)}+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}}_{SQE}=$$

$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\frac{y^2_{…}}{N}~~~~(2.2.1.1)$$

Observações:

Soma de Quadrados do fator A (SQA) é o desvio das médias estimadas em cada tratamento (nível) em torno da média geral dos dados. Representa a variabilidade devido aos diferentes níveis do fator A.

Soma de Quadrados do B hierarquizado sob o fator A (SQB(A)) é o desvio das observações em torno da média estimada do seu nível (tratamento) B hierarquizado sob nível A e as médias estimadas em cada tratamento do nível A. Representa a variabilidade do nível do fator B hierarquizado sob o nível A .

Soma de Quadrados do Erro (SQE) é o desvio das observações em torno da média estimada do seu nível (tratamento) B hierarquizado sob nível A. Representa a variabilidade da componente aleatória do erro.

Graus de liberdade e estimativas da variância

Primeiramente, as suposições do modelo (2.2.1) são

$$E(\alpha_i)=E(\beta_{j(i)})=E(\varepsilon_{k(ij)})=0,$$

$$E(\alpha^2_{i})=\sigma^2_{\alpha},~~~~~~E(\beta^2_{j(i)})=\sigma^2_{\beta},~~~~~~E(\varepsilon^2_{k(ij)})=\sigma^2_{\varepsilon}$$

Além disso, todas as covariâncias entre os elementos de uma mesma variável aleatória e qualquer par de variáveis aleatórias são iguais a zero. Agora, vamos calcular os valores esperados das somas de quadrados.

$$E(SQE)=E\left(\sum^a_{i=1}\sum_{j=1}^{b_i}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\sum_{i=1}^a\sum_{j=1}^{b_i}\frac{y^2_{ij.}}{n_{ij}}\right)=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}E(y^2_{ijk})-\sum^a_{i=1}\sum_{j=1}^{b_i}E\left(\frac{y^2_{ij.}}{n_{ij}}\right)=$$

Screenshot_75

$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}[\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon}]-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}E\left[\left(n_{ij}(\mu+\alpha_i+\beta_{j(i)})+\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]=$$

$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}[n^2_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+n_{ij}\sigma^2_{\varepsilon}]=$$

$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-\sum^a_{i=1}\sum^{b_i}_{j=1}[n_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+\sigma^2_{\varepsilon}]=$$

$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})-b_{.}\sigma^2_{\varepsilon}=$$

$$=(N-b_{.})\sigma^2_{\varepsilon}$$

Agora, calcularemos o valor esperado de $ SQA. $

$$E(SQA)=E\left(\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}-\frac{y^2_{…}}{N}\right)=\sum^a_{i=1}\frac{1}{n_{i.}}E\left(y^2_{i..}\right)-\frac{1}{N}E\left(y^2_{…}\right)=$$

$$=\sum^a_{i=1}\frac{1}{n_{i.}}E\left[\left(n_{i.}(\mu+\alpha_i)+\sum^{b_i}_{j=1}n_{ij}\beta_{j(i)}+\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]-$$

Screenshot_76

$$=\sum^a_{i=1}\frac{1}{n_{i.}}\left(n^2_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+n_{i.}\sigma^2_{\varepsilon}\right)-\frac{1}{N}\left(N^2\mu^2+\sum^{a}_{i=1}n^2_{i.}\sigma^2_{\alpha}+\sum^{a}_{i=1}\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+N\sigma^2_{\varepsilon}\right)=$$

$$=\sum^a_{i=1}\left(n_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}\sigma^2_{\beta}+\sigma^2_{\varepsilon}\right)-N\mu^2+\underbrace{\sum^{a}_{i=1}\frac{n^2_{i.}}{N}}_{k_1}\sigma^2_{\alpha}-\underbrace{\sum^{a}_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{N}}_{k_3}\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$

$$=\underbrace{\sum^a_{i=1}n_{i.}}_{N}(\mu^2+\sigma^2_{\alpha})+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}}_{k_{12}}\sigma^2_{\beta}+a\sigma^2_{\varepsilon}-N\mu^2+k_1\sigma^2_{\alpha}-k_3\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$

$$=N(\mu^2+\sigma^2_{\alpha})+k_{12}\sigma^2_{\beta}+a\sigma^2_{\varepsilon}-N\mu^2+k_1\sigma^2_{\alpha}-k_3\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$

$$=(a-1)\sigma^2_{\varepsilon}+(k_{12}-k_3)\sigma^2_{\beta}+(N-k_1)\sigma^2_{\alpha}$$

Agora, calculamos o valor esperado de $ SQB(A). $

$$E(SQB(A))=E\left(\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}-\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}\right)=\sum^a_{i=1}\sum^{b_i}_{j=1}E\left(\frac{y^2_{ij.}}{n_{ij}}\right)-\sum^a_{i=1}E\left(\frac{y^2_{i..}}{n_{i.}}\right)=$$

$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}E\left[\left(n_{ij}(\mu+\alpha_i+\beta_{j(i)})+\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]-$$

$$-\sum^a_{i=1}\frac{1}{n_{i.}}E\left[\left(n_{i.}(\mu+\alpha_i)+\sum^{b_i}_{j=1}n_{ij}\beta_{j(i)}+\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]=$$

$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}[n^2_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+n_{ij}\sigma^2_{\varepsilon}]-\sum^a_{i=1}\frac{1}{n_{i.}}\left(n^2_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+n_{i.}\sigma^2_{\varepsilon}\right)=$$

$$=\sum^a_{i=1}\sum^{b_i}_{j=1}[n_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+\sigma^2_{\varepsilon}]-\sum^a_{i=1}\left(n_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}\sigma^2_{\beta}+\sigma^2_{\varepsilon}\right)=$$

$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+b_{.}\sigma^2_{\varepsilon}-\underbrace{\sum^a_{i=1}n_{i.}}_{N}(\mu^2+\sigma^2_{\alpha})-\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}}_{k_{12}}\sigma^2_{\beta}-a\sigma^2_{\varepsilon}=$$

$$=(b_{.}-a)\sigma^2_{\varepsilon}+(N-k_{12})\sigma^2_{\beta}$$

Para o modelo (2.2.1) não existe uma única análise de variância, porém a forma calculada até aqui é chamada Soma de Quadrados do Tipo I e são definidos, estabelecendo uma analogia com os termos correspondentes para dados balanceados. Na figura 2.2.1.1 apresentamos os diferentes tipos de soma de quadrados.

hierarquico

Figura 2.2.1.1: Diferentes tipo de soma de quadrados.

$$E(QME)=E\left[\frac{SQE}{N-b_{.}}\right]=\frac{1}{N-b_{.}}E[SQE]=\sigma^2_{\varepsilon},$$

Portanto, como argumentamos na seção (ANOVA efeitos fixos), o QME é um bom estimador para a variância pois

$$E(QMA)=E\left[\frac{SQA}{a-1}\right]=\frac{1}{a-1}E[SQA]=\frac{1}{a-1}[(a-1)\sigma^2_{\varepsilon}+(k_{12}-k_3)\sigma^2_{\beta}+(N-k_1)\sigma^2_{\alpha}]=$$

$$=\sigma^2_{\varepsilon}+\underbrace{\frac{(k_{12}-k_3)}{a-1}}_{r_1}\sigma^2_{\beta}+\underbrace{\frac{(N-k_1)}{a-1}}_{r_2}\sigma^2_{\alpha}=$$

$$=\sigma^2_{\varepsilon}+r_1\sigma^2_{\beta}+r_2\sigma^2_{\alpha},~~~~~~{e}$$

$$E(QMB(A))=E\left[\frac{SQB(A)}{b_{.}-a}\right]=\frac{1}{b_.-a}E[SQB(A)]=\frac{1}{b_{.}-a}[(b_{.}-a)\sigma^2_{\varepsilon}+(N-k_{12})\sigma^2_{\beta}]=$$

$$=\sigma^2_{\varepsilon}+\underbrace{\frac{(N-k_{12})}{b_.-a}}_{r_3}\sigma^2_{\beta}=$$

$$=\sigma^2_{\varepsilon}+r_3\sigma^2_{\beta}$$

Assim, QMA e QMB(A) também são bons estimadores para a variância. Entretanto, se existe diferença entre as médias dos níveis, os valores esperados do quadrado médio do fator A (devido aos níveis) são maiores do que $ \sigma^{2}_{\varepsilon}. $ O mesmo valendo para o fator B.

Portanto, temos os seguintes graus de liberdade:

Soma de Quadrados Graus de Liberdade Quadrados Médios
SQA $ a-1 $ $ \cfrac{SQA}{a-1} $
SQB(A) $ b_.-a $ $ \cfrac{SQB(A)}{b_.-a} $
SQE $ N-b_. $ $ \cfrac{SQE}{N-b_.} $
SQT $ N-1 $

Note que no caso de dados balanceados, $ b_. = ab, n_{ij}=r $ e $ N=abr $ para todo i e j, $ r_1 =r, $$ r_2=br $e $ r_3 = r. $

Agora, mostramos um breve resumo dos valores esperados dos quadrados médios.

Fator Graus de Liberdade Quadrados Médios Valor Esperado dos Quadrados Médios
Fator A $ a-1 $ $ QMA $ $ E(QMA)=\sigma^2_\varepsilon+r\sigma^2_\beta+br\sigma^2_\alpha $
Fator B hierárquico ao fator A $ a(b-1) $ $ QMB(A) $ $ E[QMB(A)]=\sigma^2_\varepsilon+r\sigma^2_\beta $
Erro $ ab(r-1) $ $ QME $ $ E(QME)=\sigma^2_\varepsilon $

Tabela 2.2.1.1: Valores Esperados dos Quadrados Médios.

Estatística:

$ QMA= $ $ br\displaystyle\sum^a_{i=1}\frac{(\overline{Y_{i..}}-\overline{Y_{…}})^2}{a-1} $
$ QMB(A) $ $ r\displaystyle\sum^a_{i=1}\sum^b_{j=1}\frac{(\overline{Y_{ij.}}-\overline{Y_{i..}})^2}{a(b-1)} $
$ QME= $ $ \displaystyle\sum^a_{i=1}\sum^b_{j=1}\sum^r_{k=1}\frac{(\overline{Y_{ijk}}-\overline{Y_{ij.}})^2}{ab(r-1)} $
$ \overline{Y_{ij.}}= $ $ \displaystyle\sum^r_{j=1}\frac{Y_{ijk}}{r} $
$ \overline{Y_{i..}}= $ $ \displaystyle\sum^b_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{br} $
$ \overline{Y_{…}}= $ $ \displaystyle\sum^a_{i=1}\sum^b_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{abr} $

Tabela 2.2.1.2: Resumo dos Quadrados médios e médias para o modelo (2.2.1).

Com os resultados obtidos na tabela 2.2.1.1 temos os seguintes estimadores:

Para a componente do erro temos

$$\hat{\sigma}^2_\varepsilon=QME~~~~(2.2.1.2)$$

Agora, para calcular a variabilidade para o efeito do fator B hierárquizado sob o fator A, utilizamos a equação (2.2.1.2) da seguinte forma

$$\hat{\sigma}^2_\beta=\frac{QMB(A)-\hat{\sigma}^2_\varepsilon}{r}\overset{(2.2.1.2)}{=}$$

$$=\frac{QMB(A)-QME}{r}~~~~(2.2.1.3)$$

Finalmente, para calcular a variabilidade para o efeito do fator A temos

$$\hat{\sigma}^2_\alpha=\frac{QMA-\hat{\sigma}^2_\varepsilon-\hat{\sigma}^2_\beta}{br}\overset{{(2.2.1.2) e (2.2.1.3)}}{=}$$

$$=\frac{QMA-QMB(A)}{br}$$

A tabela 2.2.1.3 representa os estimadores pontuais do modelo (2.2.1).

Representação do Modelo Estimador Pontual
$ \hat{\mu} $ $ \overline{Y_{…}} $
$ \hat{\sigma}^2_\alpha $ $ \displaystyle\cfrac{QMA-QMB(A)}{br} $
$ \hat{\sigma}^2_\beta $ $ \displaystyle\cfrac{QMB(A)-QME}{r} $
$ \hat{\sigma}^2_\varepsilon $ $ QME $

Tabela 2.2.1.3: Resumo dos Estimadores pontuais para o modelo (2.2.1).

2.2.2 - Análise Estatística

Sob a suposição de normalidade, QME é estatisticamente independente do QMA e QMB(A) e

$$\frac{SQE}{\sigma^2_{\varepsilon}}\sim \chi^2_{[N-b_{.}]}$$

No entanto, em geral, QMA e QMB(A) não tem distribuição Qui-Quadrado e nem são estatisticamente independentes. No caso especial quando nij = ni ( i = 1, 2,…, a ), tem sido demonstrado por Cummings (1972) que QMA e QMB(A) são independentes, mas eles não têm distribuição Qui-Quadrado devido a diferentes números de observações nas subclasses. Cummings (1972) também mostrou que os dados com bi= 2, ni1= n1, ni2= n2 ( i = 1,2,…,a ) têm quadrados médios QMA e QMB(A) com distribuição Qui-Quadrado, porém dependentes. Agora, se tomarmos nij= n para todo i e j, temos que QMA e QMB(A) são independentes pois

$$\frac{SQB(A)}{(\sigma^2_{\varepsilon}+n \sigma^2_{\beta})}\sim \chi^2_{[b_{.}-a]}$$

mas QMA, em geral, não tem distribuição Qui-Quadrado (ver, por exemplo, Scheffé, 1959, p. 252). Ela tem uma distribuição Qui-Quadrado, se e somente se $ \sigma^2_{\alpha}= 0. $ Finalmente, se bi= b para que o desbalanceamento ocorra apenas na última etapa, um método proposto por Khuri (1990) pode ser usado para construir um conjunto de somas de quadrados conjuntamente independentes para cada um tendo uma distribuição Qui-Quadrado exata.

Teste de Hipóteses

Vamos considerar o problema do teste de hipóteses

Screenshot_77

e

Screenshot_78

usando os resultados da análise de variância baseado na soma de quadrados do tipo I (ver figura 2.2.1.1).

Para o teste $ \sigma^2_{\beta}=0 $ em (2.2.2.2) note que QME e QMB(A) são independentes, com QME e QMB(A) tendo uma distribuição Qui-Quadrado com correção de escala, e, além disso, sob a hipótese nula, eles têm o mesmo valor esperado. Portanto, uma estatística de teste é construída pela razão de variâncias.

$$F^B_{0}=\cfrac{\cfrac{SQB(A)}{b_{.}-a}}{\cfrac{SQE}{N-b_{.}}}=\cfrac{QMB(A)}{QME}\sim F_{(b_{.}-a,~N-b_{.})}~~~~~(2.2.2.4)$$

O teste baseado na estatística em (2.2.2.4) é exata e é equivalente ao teste correspondente para dados balanceados. Tem sido demonstrado que não existe um teste uniformemente mais poderoso invariante ou uniformemente mais poderoso invariante imparcial. Porém, Hussein e Milliken (1978) discutem um teste exato para σ2β(α)= 0 em (2.2.2.2), quando $ \beta_{j(i)} $ têm estrutura de variância heterogênea.

No modelo desbalanceado em (2.2.1), não existe um teste exato para σ2α= 0 em (2.2.2.2). Temos que QMA e QMB(A) não são independentes e não têm uma distribuição Qui-Quadrado com correção de escala, o teste usual baseada na estatística $ \frac{QMA}{QMB(A)} $ já não é aplicável. Um procedimento comum é ignorar a suposição de independência e de que tem distribuição Qui-Quadrado e construir uma síntese do pseudo teste F usando quadrados médios com base no procedimento de Satterthwaite (ver, por exemplo, Cummings e Gaylor, 1974). Para a construção de um pseudo teste F podemos obter um componente numerador ou um componente denominador da estatística de teste, ou ambos. Para a construção de um componente do denominador da estatística de teste para σ2α=0 obtemos uma combinação linear de QMB(A) e QME que tem valor esperado igual $ \sigma^2_{\varepsilon}+r_3\sigma^2_{\beta}. $ Assim, a estatística é dada por

$$QM_{Den}=\frac{r_1}{r_3}QMB(A)+\left(1-\frac{r_1}{r_3}\right)QME~~~(2.2.2.5)$$

Agora, assumimos que QMB(A) tem distribuição Qui-Quadrado com correção de escala e é independente de QMA. Desde que, QME tem distribuição Qui-Quadrado com correção de escala e é independente de QMB(A) e QMA, a combinação linear (2.2.2.5) é aproximada por uma distribuição Qui-Quadrado com correção de escala. Seja (N-a) o grau de liberdade da estatística Qui-Quadrada aproximada dada por (2.2.2.5). Então, o procedimento de teste para testar σ2α= 0 em (2.2.2.3) é baseada na estatística

$$F^{A*}_{0}=\frac{QMA}{QM_{Den}}\sim F_{(a-1,~N-a)}~~~(2.2.2.6)$$

que pressupomos que elas sigam uma distribuição F aproximada com a - 1 e N - a graus de liberdade. Note que quando r1 > r3, o coeficiente $ 1 - \frac{r_1}{r_3}, $ pode assumir um valor negativo que pode afetar a precisão do teste F. As discussões sobre a adequação da aproximação envolvendo coeficiente negativo, consulte Ojeda (Apêndice F).

Alguns autores têm ignorado a estrutura de experimento desbalanceado e usa o teste F convencional baseado na estatística

$$F^A_{0}=\frac{QMA}{QMB(A)}\sim F_{(a-1,~b_.-a)}~~~(2.2.2.7)$$

(ver, por exemplo, Bliss, 1967, p. 353) .

Tietjen (1974) investigou o tamanho da amostra e poder de teste das estatísticas em (2.2.2.6) e (2.2.2.7) para uma variedade de experimentos desbalanceados utilizando simulação Monte Carlo. Ele descobriu que sob a hipótese nula a estatística de teste em (2.2.2.7) estava sempre no intervalo (0,044 , 0,058) para todos os 61 experimentos estudados por ele e, em geral, seu desempenho foi muito melhor do que a estatística em (2.2.2.6). Cummings e Gaylor (1974) também investigaram o efeito da violação das suposições de independência e de distribuição Qui-Quadrado na convergência do teste e em usar os procedimentos com base na estatística de teste em (2.2.2.6) e relataram que a dependência e não distribuição Qui-Quadrado parecem ter efeito de cancelamento e o procedimento parece ser satisfatório. Seus resultados parecem indicar que a convergência do teste desta estatística são apenas levemente afetadas para um amplo intervalo de relações de componentes de variância e experimentos desbalanceados. Tan e Cheng (1984) estudou o desempenho dos procedimentos de teste em (2.2.2.6) e (2.2.2.7), utilizando uma melhor aproximação para a distribuição da estatística de teste baseada na expansão polinomial Laguerre, e descobriu que todos eles tinham um desempenho satisfatório, mas a estatística do teste em (2.2.2.7) é inferior para experimentos extremamente desbalanceados e não pode ser recomendada para uso geral.

Logo, após todos os resultados apresentados vamos apresentar a tabela da ANOVA com efeitos aleatórios usando o método hierárquico para os testes (2.2.2.6) e (2.2.2.7).

Fator Graus de Liberdade Soma de Quadrados Quadrados Médios Estatística F p-valor
Fator A $ a-1 $ SQA QMA $ F_A=\frac{QMA}{QMB(A)} $ $ P(F> F_A) $
Fator B hierarquizado ao fator A $ b_.-1 $ SQB(A) QMB(A) $ F_B=\frac{QMB(A)}{QME} $ $ P(F> F_B) $
Erro $ N-b_. $ SQE QME
Total $ N-1 $ SQT

Tabela 2.2.2.1: Tabela da ANOVA baseado na estatística F.

2.2.3 - Estimação dos parâmetros do modelo

Apresentamos agora os intervalos de confiança para os parâmetros no método hierárquico em que $ F_{\alpha,n_1, n_2} $ representa o quantil $ (1-\alpha)100(porcentagem)% $ da distribuição F-Snedecor com n1 graus de liberdade no numerador e n2 graus de liberdade no denominador. Para a construção desses intervalos, utilizaremos constante, assim como no capítulo de ANOVA com 1 fator aleatório. A tabela 2.2.3.1 representa o caso particular do modelo (2.2.1).

Para facilitar a notação definimos $ n_1=a-1 $, $ n_2=a(b-1) $, $ n_3=a~b~(r-1) $ e $ w=b(a) $

Constante Definição
$ G_a $ $ 1-F_{\left(\frac{\alpha}{2},\infty,n_1\right)} $
$ G_b $ $ 1-F_{\left(\frac{\alpha}{2},\infty,n_2\right)} $
$ G_e $ $ 1-F_{\left(\frac{\alpha}{2},\infty,n_3\right)} $
$ G_c $ $ F_{\left(1-\frac{\alpha}{2},\infty,(n_1+n_2)\right)}-1 $
$ H_a $ $ F_{\left(1-\frac{\alpha}{2},\infty,n_1\right)}-1 $
$ H_b $ $ F_{\left(1-\frac{\alpha}{2},\infty,n_2\right)}-1 $
$ H_e $ $ F_{\left(1-\frac{\alpha}{2},\infty,n_3\right)}-1 $
$ H_c $ $ F_{\left(1-\frac{\alpha}{2},\infty,(n_1+n_2)\right)}-1 $
$ F_{ae1} $ $ F_{\left(\frac{\alpha}{2},n_1,n_3\right)} $
$ F_{ae2} $ $ F_{\left(1-\frac{\alpha}{2},n_1,n_3\right)} $
$ F_{ba1} $ $ F_{\left(1-\frac{\alpha}{2},n_2,n_3\right)} $
$ F_{ba2} $ $ F_{\left(\frac{\alpha}{2},n_2,n_3\right)} $
$ G_{ae} $ $ \cfrac{(F_{ae1}-1)^2-(G_a F_{ae1})^2-H^2_e}{F_{ae1}} $
$ H_{ae} $ $ \cfrac{(1-F_{ae2})^2-(H_a F_{ae2})^2-G^2_e}{F_{ae2}} $
$ G_{be} $ $ \cfrac{(F_{wa1}-1)^2-(G_w F_{wa1})^2-H^2_e}{F_{ae1}} $
$ H_{be} $ $ \cfrac{(1-F_{wa2})^2-(H_w F_{wa2})^2-G^2_e}{F_{ae2}} $
$ G_{aw} $ $ \cfrac{(n_1+n_2)^2}{n_1~n_2}G^2_c-\frac{n_1}{n_2}G^2_a-\frac{n_2}{n_1}G^2_w $

Tabela 2.2.3.1: Constantes para a construção dos intervalos de confiança para os parâmetros do modelo.

Intervalo de confiança para $ \mu_y $

Para o modelo (2.2.1), foram estudados vários métodos para a construção de intervalos de confiança para $ \mu_y $. Assim, o intervalo de confiança para $ \mu_y $ é dado por:

$$LI_{\mu_y}=\overline{Y_{…}}-\sqrt{\frac{QMA~F_{(1-\alpha,1,n_1)}}{a~b~r}}$$

e

$$LS_{\mu_y}=\overline{Y_{…}}+\sqrt{\frac{QMA~F_{(1-\alpha,1,n_1)}}{a~b~r}}~~~~(2.2.3.1)$$

Intervalo de confiança para $ \sigma^2_\alpha $

Para o intervalo de confiança para $ \sigma^2_\alpha, $ temos que

$$\hat{\sigma}^2_\alpha=\frac{QMA-QMB(A)}{a~r}$$

Assim, quando envolvemos a diferença de dois quadrados médios, temos um intervalo de confiança de:

$$LI_{\sigma^2_\alpha}=\hat{\sigma}^2_\alpha-\frac{\sqrt{V_{LA}}}{b~r}$$

e

$$LS_{\sigma^2_\alpha}=\hat{\sigma}^2_\alpha+\frac{\sqrt{V_{UA}}}{b~r}$$

em que

$$V_{LA}=G^2_a*QMA^2+H^2_i*QMB(A)^2+G_{aw}*QMA*QMB(A)$$

e

$$V_{UA}=H^2_a*QMA^2+G^2_i*QMB(A)^2+H_{aw}*QMA*QMB(A)$$

Intervalo de confiança para $ \sigma^2_{\beta(\alpha)} $

Para o intervalo de confiança para $ \sigma^2_{\beta(\alpha)}, $ temos que

$$\hat{\sigma}^2_{\beta(\alpha)}=\frac{QMB(A)-QME}{r}$$

Assim, quando envolvemos a diferença de dois quadrados médios, temos um intervalo de confiança de:

$$LI_{\sigma^2_{\beta(\alpha)}}=\hat{\sigma}^2_{\beta(\alpha)}-\frac{\sqrt{V_{L{B(A)}}}}{r}$$

e

$$LS_{\sigma^2_{\beta(\alpha)}}=\hat{\sigma}^2_{\beta(\alpha)}+\frac{\sqrt{V_{U{B(A)}}}}{r}~~~~(2.2.3.2)$$

em que

$$V_{L{B(A)}}=G^2_w*QM{B(A)}^2+H^2_e*QME^2+G_{ew}*QM{B(A)}*QME$$

e

$$V_{U{B(A)}}=H^2_w*QM{B(A)}^2+G^2_e*QME^2+H_{we}*QM{B(A)}*QME$$

Intervalo de confiança para $ \sigma^2_\varepsilon $

Para o intervalo de confiança para $ \sigma^2_\varepsilon, $ temos que

$$\hat{\sigma}^2_\varepsilon=QME$$

Assim, o intervalo de confiança para $ \sigma^2_\varepsilon $ é dada por

$$LI_{\sigma^2_\varepsilon}=(1-G_e) QME$$

e

$$LS_{\sigma^2_\varepsilon}=(1+H_e) QME~~~~(2.2.3.3)$$

ANOVA - Modelo com Efeitos Mistos

Nos módulos anteriores vimos os modelos de ANOVA com efeitos fixos e ANOVA com efeitos aleatórios, neste módulo veremos ANOVA com efeitos mistos.

Vimos anteriormente que um modelo linear é considerado fixo quando apresenta somente fatores fixos, além do erro experimental que é sempre aleatório, os modelos que apresentam somente fatores aleatórios, além da constante $ \mu $ é considerado modelos aleatórios, já os modelos que apresentam tanto fatores fixos como fatores aleatórios são considerados modelos mistos e são esses modelos que estudaremos nesse módulo.

1 - ANOVA - Efeito Cross-Over

Frequentemente nos deparamos com problemas onde temos mais de um grupo de indivíduos e cada grupo é submetido aleatoriamente a diferentes tratamentos, sendo que estes tratamentos são permutados entre os grupos em cada instante de tempo, assim, ao término do experimento, todos os grupos terão recebido todos os mesmos tratamentos, porém, em ordem distinta. Para problemas assim utilizamos o modelo de ANOVA com efeito Cross-Over.

Considere o planejamento fatorial de dois fatores com modelo de efeito fixo, em que um grupo de $ N $ indivíduos é dividido em subgrupos de tamanhos $ n_i(i=1, 2, \cdots, s) $, os quais receberam $ t $ tratamentos em $ p $ períodos diferentes. O termo $ p $ representa o número de períodos e $ s $ a sequência com que os tratamentos ou drogas foram aplicados. A tabela 1 apresenta como estão alocados os grupos de indivíduos nas respectivas sequências e períodos.

Screenshot_79

Tabela 1.1.1: Apresentação dos dados para dois fatores.

1.1 - Modelo

O modelo estatístico para este planejamento é

Screenshot_80

Em que:

$ y_{ijk} $ representa a resposta do k-ésimo indivíduo na i-ésima sequência no j-ésimo período;

$ \mu $ é uma média geral;

$ S_{ik} $ é o efeito aleatório do k-ésimo indivíduo na sequência $ i $;

$ \pi_j $ é o efeito do período $ j $, com $ \sum_{j=1}^{p}\pi_j=0 $;

$ \tau_{d[i,j]} $ é o efeito direto do tratamento administrado no período $ j $ da sequência $ i $ (Efeito da Formulação), com $ \sum\tau_d{}_{[i,j]}=0 $;

$ \lambda_d{[i,j-1]} $ é o efeito direto do tratamento administrado no período $ j-1 $ da sequência $ i $ (Efeito Carry-over), com $ \sum\tau_d{}_{[i,j-1]}=0 $;

$ \varepsilon_{ijk} $ é o erro aleatório para o k-ésimo indivíduo no j-ésimo período na i-ésima sequência.

O efeito $ S_{ik} $ será considerado aleatório pois, a partir da população dos possíveis indivíduos que podem receber os tratamentos, selecionamos uma amostra de forma aleatória, onde assumimos que:

  • $ S_{ik} $ e $ \varepsilon_{ijk} $ são variáveis aleatórias com densidade normal, independentes e identicamente distribuídos com média zero e variâncias $ \sigma^2_S $ e $ \sigma^2 $, respectivamente;

  • $ S_{ik} $ e $ \varepsilon_{ijk} $ são mutuamente independentes.

Podemos interpretar os parâmetros de variabilidade inter e intra na forma:

  • $ \sigma^2_S $, explica a variabilidade inter-individual (entre indivíduos);

  • $ \sigma^2 $, explica a variabilidade intra-individual (dentro do indivíduo) para a t-ésima formulação.

A componente inter-individual descreve à variação entre os indivíduos nos grupos, já a componente intra-individual descreve as mudanças individuais ao longo das observações, ou seja, as mudanças dentro de cada indivíduo.

1.2 - Decomposição da Soma

Vamos particionar a soma de quadrados total das $ 2(n_1+n_2) $ observações em componentes do efeito carry-over (efeitos residuais), do efeito do período, do efeito da droga e do erro. Para isso, temos inicialmente que

$$\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(y_{ijk}-\bar{y}_{…})^2=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(y_{ijk}-\bar{y}_{i.k})^2 +\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(\bar{y}_{i.k}-\bar{y}_{…})^2$$

$$SQ_T=SQ_{{dentro}}+SQ_{{entre}}$$

em que

  • $ SQ_{{dentro}} $ é a soma de quadrados dentro de cada indivíduo;

  • $ SQ_{{entre}} $ é a soma de quadrados entre os indivíduos;

com

Screenshot_84

Além disso, $ SQ_{{entre}} $ pode ser particionada em duas componentes, sendo uma para o efeito carry-over e outra para os erros entre os indivíduos. A partir disso,

$$SQ_{{entre}}=SQ_{{carry-over}}+SQ_{{inter}}$$

que é mais conveniente ser escrito da seguinte forma:

$$SQ_{{carry-over}}=\frac{2n_1n_2}{(n_1+n_2)}\left(\bar{y}_{1..}-\bar{y}_{2..}\right)^2$$

$$SQ_{{inter}}=\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}-\sum_{i=1}^{2}\frac{y^2_{i..}}{2n_i}$$

Analogamente, a soma de quadrados dentro de cada indivíduo pode ser decomposta em três componentes, sendo uma para o efeito da droga, outra para o efeito do período e a última para o erro dentro de cada indivíduo. A partir disso,

$$SQ_{{dentro}}=SQ_{{droga}}+SQ_{{período}}+SQ_{{intra}}$$

que em fórmula computacional pode ser escrito como:

$$SQ_{{droga}}=\frac{n_1n_2}{2(n_1+n_2)}\left(\bar{y}_{11.}-\bar{y}_{12.}-\bar{y}_{21.}+\bar{y}_{22.}\right)^2$$

$$SQ_{{período}}=\frac{n_1n_2}{2(n_1+n_2)}\left(\bar{y}_{11.}-\bar{y}_{12.}+\bar{y}_{21.}-\bar{y}_{22.}\right)^2$$

$$SQ_{{intra}}=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y^2_{ijk}-\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}-\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{y^2_{ij.}}{n_i}+\sum_{i=1}^{2}\frac{y^2_{i..}}{2~n_i}$$

$$SQ_{{dentre}}=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y^2_{ijk}-\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}$$

Em que:

Screenshot_85

O número de graus de liberdade em uma soma de quadrados é a quantidade de elementos independentes nessa soma. Por exemplo, na soma de quadrados $ \sum_{k=1}^{n_1}(\bar{y}_{1.k}-\bar{y}_{…})^2 $, nem todos os elementos $ (\bar{y}_{1.1}-\bar{y}_{…}), \cdots, (\bar{y}_{1.n_1}-\bar{y}_{…}) $ são independentes desde que $ \sum_{k=1}^{n_1}(\bar{y}_{1.k}-\bar{y}_{…})=0 $, de fato, somente $ n_1-1 $ deles são independentes. Nesse sentido, os respectivos graus de liberdade associados a cada soma de quadrados são:

Efeito Grau de Liberdade
carry-over $ 1 $
inter $ n_1+n_2-2 $
droga $ 1 $
período $ 1 $
intra $ n_1+n_2-2 $
Total $ 2(n_1+n_2)-1 $

Cada soma de quadrados dividido por seu grau de liberdade determina o quadrado médio (QM), ou seja

$$QM_{{carry-over}}=\frac{SQ_{{carry-over}}}{1}$$

$$QM_{{inter}}=\frac{SQ_{{inter}}}{n_1+n_2-2}$$

$$QM_{{droga}}=\frac{SQ_{{droga}}}{1}$$

$$QM_{{período}}=\frac{SQ_{{período}}}{1}$$

$$QM_{{intra}}=\frac{SQ_{{intra}}}{n_1+n_2-2}$$

Agora vamos calcular os valores esperados dos quadrados médios para cada um dos fatores.

Para isso, vamos denotar:

$$\tau_d{}_{[i,j]}=\quad F_R\quad {se}\quad i=j$$

$$\tau_d{}_{[i,j]}=\quad F_T\quad {se}\quad i\neq j$$

$$\lambda_d{}_{[i,j-1]}=\quad R_R\quad{se}\quad i=1\quad{e}\quad j=2$$

$$\lambda_d{}_{[i,j-1]}=\quad R_T\quad{se}\quad i=2\quad{e}\quad j=2$$

Primeiramente calculamos o valor esperado do $ QM_{{inter}} $, que é dado por:

$$E[QM_{{inter}}]=\frac{1}{n_1+n_2-2}E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}-\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]$$

$$=\frac{1}{n_1+n_2-2}\left(\underbrace{E\left[\frac{1} {2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}\right]}_{(*)}-\underbrace{E\left[\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]}_{(**)}\right)$$

Substituindo as informações do modelo em $ y_{i.k} $ e $ y_{i..} $, obtemos:

$$(*)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(\sum_{j=1}^{2}\left(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2\mu+2S_{ik}+\sum_{j=1}^{2}\pi_j+\sum_{j=1}^{2}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2^2\mu^2+2^2\mu S_{ik}+2\mu\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2\mu\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2\mu\sum_{j=1}^{2}\varepsilon_{ijk}+2^2\mu S_{ik}^2+2^2S_{ik}^2\right.\right.$$

$$\quad\left.\left.+2S_{ik}\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2S_{ik}\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2S_{ik}\sum_{j=1}^{2}\tau_d{}_{[i,j]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\tau_d{}_{[i,j]}^2+\sum_{j=1}^{2}\tau_d{}_{[i,j]}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\tau_d{}_{[i,j]}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}^2+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\varepsilon_{ijk}+\sum_{j=1}^{2}\varepsilon_{ijk}2\mu+\sum_{j=1}^{2}\varepsilon_{ijk}2S_{ik}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\varepsilon_{ijk}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\varepsilon_{ijk}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}^2\right)\right]$$

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu \sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}\right.\right.$$

$$\quad\left.\left.+\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2E\left[\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2\right]+\frac{1}{2}E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2var\left(\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\right)+\frac{1}{2}var\left(\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2$$

Analogamente,

$$(**)=E\left[\sum_{i=1}^{2}\frac{1}{2n_i}\left(\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2$$

Substituindo (*) e (**), obtemos:

$$=\frac{1}{n_1+n_2-2}\left(2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-\sigma_s^2-\sigma^2\right)$$

$$=\frac{1}{n_1+n_2-2}\left(2(n_1+n_2-2)\sigma_s^2+(n_1+n_2-2)\sigma^2\right)$$

$$=2\sigma_s^2+\sigma^2$$

Agora calculamos o valor esperado do $ QM_{droga} $.

$$E[QM_{{droga}}]=\frac{n_1n_2}{2(n_1+n_2)}E[(\overline{y_{11.}}-\overline{y_{12.}}-\overline{y_{21.}}+\overline{y_{22.}})^2]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}E\left[\left(\underbrace{\frac{1}{n_1}\sum_{k=1}^{n_1}y_{11k}}_{(*)}\underbrace{-\frac{1}{n_1}\sum_{k=1}^{n_1}y_{12k}}_{(**)}\underbrace{-\frac{1}{n_2}\sum_{k=1}^{n_2}y_{21k}}_{(***)}\underbrace{+\frac{1}{n_2}\sum_{k=1}^{n_2}y_{22k}}_{(****)}\right)^2\right]$$

Substituindo as informações do modelo em $ y_{11k} $, $ y_{12k} $, $ y_{21k} $ e $ y_{22k} $, obtemos:

$$(*)=\frac{1}{n_1}\sum_{k=1}^{n_1}\left(\mu + S_{1k}+\pi_1 + \tau_d{}_{[1,1]}+\lambda_d{}_{[1,1-1]}+\varepsilon_{11k}\right)$$

$$=\frac{1}{n_1}\left(n_1\mu\sum_{k=1}^{n_1}S_1k+n_1\pi_1+n_1\tau_d{}_{[1,1]}+n_1\lambda_d{}_{[1,1-1]}+\sum_{k=1}^{n_1}\varepsilon_{11k}\right)$$

$$=\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_1k+\pi_1+\tau_d{}_{[1,1]}+\lambda_d{}_{[1,1-1]}+\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{11k}$$

Analogamente,

$$(**)=-\mu-\frac{1}{n_1}\sum_{k=1}^{n_1}S_1k-\pi_2-\tau_d{}_{[1,2]}-\lambda_d{}_{[1,2-1]}-\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{12k}$$

$$(***)=-\mu-\frac{1}{n_2}\sum_{k=1}^{n_2}S_2k-\pi_1-\tau_d{}_{[2,1]}-\lambda_d{}_{[2,1-1]}-\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{21k}$$

$$(****)=\mu+\frac{1}{n_2}\sum_{k=1}^{n_2}S_2k+\pi_2+\tau_d{}_{[2,2]}+\lambda_d{}_{[2,2-1]}+\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{22k}$$

Screenshot_86

$$=\frac{n_1n_2}{2(n_1+n_2)}E\left[\left(2(F_R-F_T)+(R_T-R_R)+\frac{1}{n_1}\sum_{k=1}^{n_1}(\varepsilon_{12k}-\varepsilon_{12k})+\frac{1}{n_2}\sum_{k=1}^{n_2}(\varepsilon_{22k}-\varepsilon_{21k})\right)^2\right]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(E\left[\sum_{k=1}^{n_1}\varepsilon_{12k}^2\right]+E\left[\sum_{k=1}^{n_1}\varepsilon_{12k}^2\right]\right)\right.$$

$$\quad\left.+\frac{1}{n_2^2}\left(E\left[\sum_{k=1}^{n_2}\varepsilon_{22k}^2\right]+E\left[\sum_{k=1}^{n_2}\varepsilon_{21k}^2\right]\right)\right)$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(var\left(\sum_{k=1}^{n_1}\varepsilon_{12k}\right)+var\left(\sum_{k=1}^{n_1}\varepsilon_{12k}\right)\right)\right.$$

$$\quad\left.+\frac{1}{n_2^2}\left(var\left(\sum_{k=1}^{n_2}\varepsilon_{22k}\right)+var\left(\sum_{k=1}^{n_2}\varepsilon_{21k}\right)\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(n_1\sigma^2+n_1\sigma^2\right)+\frac{1}{n_2^2}\left(n_2\sigma^2-n_2\sigma^2\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+2\sigma^2\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+2\sigma^2\left(\frac{n_1+n_2}{n_1n_2}\right)\right)$$

$$=\frac{2n_1n_2}{(n_1+n_2)}\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\sigma^2$$

Para o carryover, calculamos o valor esperado do quadrado médio da seguinte forma:

$$E[QM_{{carryover}}]=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\overline{y_{1..}}-\overline{y_{2..}}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\underbrace{\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}y_{1jk}}_{(*)}-\underbrace{\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}y_{2jk}}_{(**)}\right)^2\right]$$

Substituindo as informações do modelo em $ y_{1jk} $ e $ y_{2jk} $, obtemos:

$$(*)=\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\left(\mu + S_{1k}+\pi_j + \tau_d{}_{[1,j]}+\lambda_d{}_{[1,j-1]}+\varepsilon_{1jk}\right)$$

$$=\frac{1}{2n_1}\left(2n_1\mu+2\sum_{k=1}^{n_1}S_{1k}+n_1\sum_{j=1}^{2}\pi_j+n_1\sum_{j=1}^{2}\tau_d{}_{[1,j]}+n_1\sum_{j=1}^{2}\lambda_d{}_{[1,j-1]}+\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}\right)$$

$$=\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}+\frac{1}{2}\sum_{j=1}^{2}\pi_j+\frac{1}{2}\sum_{j=1}^{2}\tau_d{}_{[1,j]}+\frac{1}{2}\sum_{j=1}^{2}\lambda_d{}_{[1,j-1]}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}$$

Analogamente, temos:

$$(**)=-\mu-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}-\frac{1}{2}\sum_{j=1}^{2}\pi_j-\frac{1}{2}\sum_{j=1}^{2}\tau_d{}_{[2,j]}-\frac{1}{2}\sum_{j=1}^{2}\lambda_d{}_{[2,j-1]}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}$$

Substituindo (*) e (**), obtemos:

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}+\frac{1}{2}\sum_{j=1}^{2}\pi_j+\frac{1}{2}\sum_{j=1}^{2}\tau_d{}_{[1,j]}+\frac{1}{2}\sum_{j=1}^{2}\lambda_d{}_{[1,j-1]}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}-\mu\right.\right.$$

$$\quad\left.\left.-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}-\frac{1}{2}\sum_{j=1}^{2}\pi_j-\frac{1}{2}\sum_{j=1}^{2}\tau_d{}_{[2,j]}-\frac{1}{2}\sum_{j=1}^{2}\lambda_d{}_{[2,j-1]}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left((R_R-R_T)+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}E\left[\sum_{k=1}^{n_1}S_{1k}^2\right]+\frac{1}{n_2^2}E\left[\sum_{k=1}^{n_2}S_{2k}^2\right]+\frac{1}{2^2n_1^2}E\left[\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}^2\right]\right.$$

$$\quad\left.+\frac{1}{2^2n_2^2}E\left[\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}^2\right]\right)$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}var\left(\sum_{k=1}^{n_1}S_{1k}\right)+\frac{1}{n_2^2}var\left(\sum_{k=1}^{n_2}S_{2k}\right)+\frac{1}{2^2n_1^2}var\left(\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}\right)\right.$$

$$\quad\left.+\frac{1}{2^2n_2^2}var\left(\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}\left(n_1^2\frac{\sigma_s^2}{n_1}\right)+\frac{1}{n_2^2}\left(n_2^2\frac{\sigma_s^2}{n_2}\right)+\frac{1}{2^2n_1^2}\left(2^2n_1^2\frac{\sigma_s^2}{2n_1}\right)+\frac{1}{2^2n_2^2}\left(2^2n_2^2\frac{\sigma_s^2}{2n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\sigma_s^2\left(\frac{1}{n_1}+\frac{1}{n_2}\right)+\sigma^2\left(\frac{1}{2n_1}+\frac{1}{2n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\sigma_s^2\left(\frac{n_1+n_2}{n_1n_2}\right)+\sigma^2\left(\frac{2(n_1+n_2)}{2^2n_1n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}(R_R-R_T)^2+2\sigma_s^2+\sigma^2$$

Para $ QM_{{intra}} $, calculamos:

$$E[QM_{{intra}}]=\frac{1}{n_1+n_2-2}E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}^{2}-\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}-\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{1}{n_i}y_{ij.}^{2}+\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left[\underbrace{E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}^{2}\right]}_{(*)}\underbrace{-\frac{1}{2}E\left[\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}\right]}_{(**)}\underbrace{-E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{1}{n_i}y_{ij.}^{2}\right]}_{(***)}\underbrace{+\frac{1}{2}E\left[\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]}_{(****)}\right]$$

Substituindo as informações do modelo em $ y_{ijk} $, $ y_{i.k} $, $ y_{ij.} $ e $ y_{i..} $, obtemos:

$$(*)=E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk})^2\right]$$

$$=E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu^2+\mu S_{ik}+\mu\pi_j+\mu\tau_d{}_{[i,j]}+\mu\lambda_d{}_{[i,j-1]}+\mu\varepsilon_{ijk}+S_{ik}\mu+S_{ik}^2+S_{ik}\pi_j+S_{ik}\tau_d{}_{[i,j]}\right.\right.$$

$$\quad\left.\left.+S_{ik}\lambda_d{}_{[i,j-1]}+S_{ik}\varepsilon_{ijk}+\pi_j\mu+\pi_jS_{ik}+\pi_j^2+\pi_j\tau_d{}_{[i,j]}+\pi_j\lambda_d{}_{[i,j-1]}+\pi_j\varepsilon_{ijk}+\tau_d{}_{[i,j]}\mu+\tau_d{}_{[i,j]}S_{ik}\right.\right.$$

Screenshot_83

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu \sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}\right.\right.$$

$$\quad\left.\left.+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[S_{ik}^2\right]+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}E\left[\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(S_{ik}\right)+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}var\left(\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+2(n_1+n_2)\sigma^2$$

Analogamente,

$$(**)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(\sum_{j=1}^{2}\left(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2\mu+2S_{ik}+\sum_{j=1}^{2}\pi_j+\sum_{j=1}^{2}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2^2\mu^2+2^2\mu S_{ik}+2\mu\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2\mu\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2\mu\sum_{j=1}^{2}\varepsilon_{ijk}+2^2\mu S_{ik}^2+2^2S_{ik}^2\right.\right.$$

$$\quad\left.\left.+2S_{ik}\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2S_{ik}\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\tau_d{}_{[i,j]}+2S_{ik}\sum_{j=1}^{2}\tau_d{}_{[i,j]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\tau_d{}_{[i,j]}^2+\sum_{j=1}^{2}\tau_d{}_{[i,j]}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\tau_d{}_{[i,j]}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}^2+\sum_{j=1}^{2}\lambda_d{}_{[i,j-1]}\varepsilon_{ijk}+\sum_{j=1}^{2}\varepsilon_{ijk}2\mu+\sum_{j=1}^{2}\varepsilon_{ijk}2S_{ik}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\varepsilon_{ijk}\tau_d{}_{[i,j]}+\sum_{j=1}^{2}\varepsilon_{ijk}\lambda_d{}_{[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}^2\right)\right]$$

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}\right.\right.$$

$$\quad\left.\left.+\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[S_{ik}^2\right]+\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[\sum_{j=1}^{2}\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(S_{ik}\right)+\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(\sum_{j=1}^{2}\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2$$

$$(***)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\left(\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+4\sigma^2$$

$$(****)=E\left[\sum_{i=1}^{2}\frac{1}{2n_i}\left(\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_d{}_{[i,j]}+\lambda_d{}_{[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2$$

Screenshot_87

$$=\frac{1}{n_1+n_2-2}\left(2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+2(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-2(n_1+n_2)\sigma_s^2\right.$$

$$\quad\left.-(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-4\sigma_s^2-4\sigma^2+2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2\right)$$

$$=\frac{1}{n_1+n_2-2}\left((n_1+n_2-2)\sigma^2\right)$$

$$=\sigma^2$$

Portanto o valor esperado do QM para os fatores são:

$$E\left(QM_{{carry-over}}\right)=\frac{2n_1n_2}{(n_1+n_2)}(R_R-R_T)^2+2\sigma^2_S+\sigma^2$$

$$E\left(QM_{{inter}}\right)=2\sigma^2_S+\sigma^2$$

$$E\left(QM_{{droga}}\right)=\frac{2n_1n_2}{(n_1+n_2)}\left[(F_R-F_T)-\frac{(R_R-R_T)}{2}\right]^2+\sigma^2$$

$$E\left(QM_{{período}}\right)=\frac{2n_1n_2}{(n_1+n_2)}(\pi_1-\pi_2)^2+\sigma^2$$

$$E\left(QM_{{intra}}\right)=\sigma^2$$

Exemplo 1.2.1

Considere um ensaio de bioequivalência com uma amostra de $ 24 $ indivíduos, a qual foi dividida em dois grupos de $ 12 $. Cada grupo recebeu dois tipos de tratamento em dois períodos diferentes.

Individuo Formulaçao Sequencia Período Cmax
1 2 T/R 1 5,771229
2 1 R/T 1 5,918942
3 2 T/R 1 5,753858
4 2 T/R 1 5,507472
5 2 T/R 1 5,634815
6 1 R/T 1 5,618185
7 2 T/R 1 5,790462
8 1 R/T 1 5,676459
9 1 R/T 1 5,960286
10 1 R/T 1 5,672687
11 2 T/R 1 5,937668
12 1 R/T 1 5,762966
13 2 T/R 1 5,836
14 1 R/T 1 5,508047
15 1 R/T 1 5,810569
16 2 T/R 1 5,730187
17 1 R/T 1 5,799308
18 2 T/R 1 5,950617
19 1 R/T 1 5,697382
20 2 T/R 1 5,775529
21 1 R/T 1 5,883044
22 2 T/R 1 5,771488
23 2 T/R 1 5,778946
24 1 R/T 1 5,715441
1 1 T/R 2 5,77721
2 2 R/T 2 5,863353
3 1 T/R 2 5,743881
4 1 T/R 2 5,476221
5 1 T/R 2 5,608805
6 2 R/T 2 5,564367
7 1 T/R 2 6,000553
8 2 R/T 2 5,702769
9 2 R/T 2 6,034215
10 2 R/T 2 5,750364
11 1 T/R 2 5,898801
12 2 R/T 2 5,596301
13 1 T/R 2 5,954801
14 2 R/T 2 5,741354
15 2 R/T 2 5,94414
16 1 T/R 2 5,751842
17 2 R/T 2 5,99174
18 1 T/R 2 6,168313
19 2 R/T 2 5,835787
20 1 T/R 2 5,754111
21 2 R/T 2 5,885648
22 1 T/R 2 5,616506
23 1 T/R 2 5,821823
24 2 R/T 2 5,747691

O modelo estatístico para este planejamento é

Screenshot_81

Em que:

$ y_{ijk} $ representa a resposta do k-ésimo indivíduo na i-ésima sequência no j-ésimo período;

$ \mu $ é uma média geral;

$ S_{ik} $ é o efeito aleatório do k-ésimo indivíduo na sequência $ i $;

$ \pi_j $ é o efeito do período $ j $, com $ \sum_{j=1}^{p}\pi_j=0 $;

$ \tau_{d[i,j]} $ é o efeito direto do tratamento administrado no período $ j $ da sequência $ i $ (Efeito da Formulação), com $ \sum\tau_d{}_{[i,j]}=0 $;

$ \lambda_{d[i,j-1]} $ é o efeito direto do tratamento administrado no período $ j-1 $ da sequência $ i $ (Efeito Carry-over), com $ \sum \tau_d{}_{[i,j-1]}=0 $;

$ \varepsilon_{ijk} $ é o erro aleatório para o k-ésimo indivíduo no j-ésimo período na i-ésima sequência.

Estamos interessados em testar se as duas formulações são equivalentes. Dessa forma, a partir do modelo proposto, definimos as hipóteses como:

Screenshot_82

Considerando o modelo e as hipóteses apresentadas calculamos:

$$SQ_{{carry-over}}=\frac{2*12*12}{(12+12)}\left(5,7784-5,7838\right)^2=0,00035$$

$$SQ_{{inter}}=1605,05-1604,206926=0,843074$$

$$SQ_{{droga}}=\frac{12*12}{2(12+12)}\left(5,7519-5,8048-5,7698+5,7977\right)^2=0,001875$$

$$SQ_{{período}}=\frac{12*12}{2(12+12)}\left(5,7519-5,8048+5,7698-5,7977\right)^2=0,01958592$$

$$SQ_{{intra}}=1605,20-1605,05-0,001875-0,01958592=0,12853908$$

$$QM_{{carry-over}}=\frac{0,00035}{1}=0,00035$$

$$QM_{{inter}}=\frac{0,843074}{12+12-2}=0,03832$$

$$QM_{{droga}}=\frac{0,001875}{1}=0,001875$$

$$QM_{{período}}=\frac{0,01958592}{1}=0,01958592$$

$$QM_{{intra}}=\frac{0,12853908}{12+12-2}=0,0058$$

1.3 - Estimação dos parâmetros do modelo

O interesse dos pesquisadores em estudos cross-over é saber o quanto as formulações são semelhantes, diferentes ou equivalentes. A análise estatística proposta por Westlake (1972 e 1976), Metzler (1974) é a utilização de intervalos de confiança para a diferença e razão entre as médias das formulações. Nesta seção, trataremos sobre intervalos de confiança para a média e para a diferença de médias.

Intervalo de Confiança para a Média

Seja o modelo (desprezando o efeito carry-over):

Screenshot_88

Considerando um planejamento cross-over, sem réplicas, para dois medicamentos (T = teste; R = referência), temos que cada indivíduo é aleatoriamente alocado para a sequência RT ou TR em dois períodos de dosagem. Isto é, indivíduos alocados na sequência RT (TR) recebem formulação R (T) no primeiro período de dosagem e formulação T (R) no segundo período de dosagem.

Seja:

Screenshot_89

Então:

$$E(\bar{Y}_R)=\frac{1}{2}\left(2\mu+\pi_1+\pi_2+2F_R\right)$$

$$var(\bar{Y}_R)=\frac{(\sigma^2_S+\sigma^2)}{4}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)$$

$$E(\bar{Y}_T)=\frac{1}{2}\left(2\mu+\pi_1+\pi_2+2F_T\right)$$

$$var(\bar{Y}_T)=\frac{(\sigma^2_S+\sigma^2)}{4}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)$$

Considerando $ \bar{Y}_l $ para $ l=R $ ou $ T $ a média de interesse, então, sabemos que $ \quad\frac{\bar{Y}_l-E(\bar{Y}_l)}{var(\bar{Y}_l)}\sim N(0,1). $

Screenshot_90

Intervalo de Confiança para diferença das Médias

Sabemos que

$$\bar{Y}_T\sim N\left(2\mu+\pi_1+\pi_2+2F_T;\frac{1}{4}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

e

$$\bar{Y}_R\sim N\left(2\mu+\pi_1+\pi_2+2F_R;\frac{1}{4}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

Nesse sentido,

$$\bar{Y}_T-\bar{Y}_R\sim N\left(F_T-F_R;\frac{1}{2}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

Temos então que,

$$Z=\frac{\left(\bar{Y}_T-\bar{Y}_R\right)-\left(F_T-F_R\right)}{\sqrt{\frac{(\sigma^2_S+\sigma^2)}{2}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}\sim~N(0,1).$$

Vamos considerar que $ (\sigma^2_S+\sigma^2) $ pode ser estimado por $ QM_{{intra}} $. Com isso,

$$U=\frac{(n_1+n_2-2)QM_{{intra}}}{(\sigma^2_S+\sigma^2)}\sim\chi^2(n_1+n_2-2)$$

Sendo Z e U independentes, então

Screenshot_91

A partir disso, fixando um valor $ \alpha $ tal que, $ 0 \ < \ 1-\alpha \ < \ 1 $, podemos encontrar um valor $ t_{\frac{\alpha}{2}} $ tal que $ P\left(-t_{\frac{\alpha}{2}} \ < \ T \ < \ t_{\frac{\alpha}{2}}\right)=1-\alpha $.

Assim, o intervalo de confiança para $ (F_T-F_R) $, com nível de significância $ \alpha $, é dado por:

Screenshot_92

Exemplo 1.3.1

Voltando ao Exemplo 1.2.1.

Calculamos o intervalo de confiança para $ \mu_l $.

Para $ l = R, T $ temos que:

Screenshot_93

1.4 - Análise Estatística

Especificamente, estamos interessados em testar as seguintes hipóteses sobre os efeitos dos fatores:

Screenshot_94

Vamos mostrar como essas hipóteses são testadas usando a análise de variância. Para determinarmos a estatística do teste, vamos observar que

$$SQ_{entre}=SQ_{{carry-over}}+SQ_{{inter}}$$

e

$$SQ_{dentro}=SQ_{{droga}}+SQ_{{período}}+SQ_{{intra}}$$

com isso,

$$\frac{SQ_{entre}}{2(2\sigma^2_S+\sigma^2)}=\frac{SQ_{{carry-over}}}{2(2\sigma^2_S+\sigma^2)}+\frac{SQ_{{inter}}}{2(2\sigma^2_S+\sigma^2)}\quad\quad\quad\quad\quad\quad(1)$$

e

$$\frac{SQ_{dentro}}{\sigma^2}=\frac{SQ_{{droga}}}{\sigma^2}+\frac{SQ_{{período}}}{\sigma^2}+\frac{SQ_{{intra}}}{\sigma^2}\quad\quad\quad\quad\quad(2)$$

Assim, sob $ H_0 $ temos que

$$\chi^2_{n_1+n_2-1}=\chi^2_{1}+\chi^2_{n_1+n_2-2}\quad\quad\quad\quad(3)$$

e

$$\chi^2_{n_1+n_2}=\chi^2_{1}+\chi^2_{1}+\chi^2_{n_1+n_2-2}\quad\quad\quad(4)$$

Portanto, a soma de quadrados da Equação (1) dividido por $ 2(2\sigma^2_S+\sigma^2) $ e a soma de quadrados da Equação (2) dividido por $ \sigma^2 $ tem distribuição qui-quadrado com $ n_1+n_2-1 $ e $ n_1+n_2 $ graus de liberdade, respectivamente. Além disso, cada parcela das Equações (1) e (2) também tem distribuição qui-quadrado com graus de liberdade expressos nas Equações (4) e (5), respectivamente. Pelo teorema de Cochram, verificamos que as distribuições qui-quadrado expressas no lado direito da Equação (3) são independentes, o mesmo ocorre na Equação (4). Portanto, a estatística para testar o efeito carry over,

$$F=\frac{\frac{SQ_{{carry-over}}}{2(2\sigma^2_S+\sigma^2)}}{\frac{SQ_{inter}}{2(2\sigma^2_S+\sigma^2)(n_1+n_2-2)}}=\frac{QM_{{carry-over}}}{QM_{inter}}\sim F(1;n_1+n_2-2)$$

tem distribuição de Fisher-Snedecor com $ 1 $ grau de liberdade no numerador e $ n_1+n_2-2 $ graus de liberdade no denominador.

A região crítica (RC) do teste F é dada por

$ RC=(F\in\Re^+|Fgt;F_c) $.

Com isso, utilizando o número de graus de liberdade do numerador e denominador, podemos, considerando um nível de significância $ \alpha $ encontrar o valor de $ F_c $ na tabela da distribuição F-Snedecor. A figura abaixo mostra a região crítica do teste.

F

Figura 1.1.3.1: Quantil da distribuição F-Snedecor.

Obs.: O teste $ F $ para as médias dos fatores droga e período se desenvolve da mesma forma porém, devemos observar que no denominador da estatística $ F $ deveremos usar $ SQ_{{intra}} $ ao invés de $ SQ_{{inter}} $.

O teste estatístico para a hipótese de igualdade de médias é resumido na tabela. Essa tabela é chamada de tabela de análise de variância.

Screenshot_95

Tabela 1.1.3.1: Tabela de Análise de Variância (ANOVA).

Exemplo 1.4.1:

Voltando ao Exemplo 1.2.1.

Calculando a estatística do teste temos:

$$F_0=\frac{0,00035}{0,03832}=0,01$$

$$F_0=\frac{0,001875}{0,0058}=0,321$$

$$F_0=\frac{0,01958592}{0,0058}=3,35$$

Substituindo os resultados encontrados na tabela da ANOVA, temos:

Screenshot_96

Aplicações da ANOVA

Nesta seção, vamos mostrar algumas aplicações da ANOVA. Todos os casos apresentados são reais e foram elaborados pelo cliente com a participação da equipe ESTATCAMP.

Aplicação 1 - Produção de produto

Uma empresa produz um certo tipo de produto e usa como fatores material e perfil do material. Para isso realizamos um experimento com 42 peças, com 2 tipos de materiais (MAS15, MAS17) e 3 tipos de perfil de material (Padrão, Ramp Pad1, Ramp Pad2 ). Os dados estão na Tabela 4.1.1.

Material Perfil Medida
MAS 15 Ramp and Pad #1 2,19
MAS 15 Ramp and Pad #2 3,16
MAS 15 Baseline 2,19
MAS 17 Ramp and Pad #1 5,59
MAS 17 Ramp and Pad #2 3,65
MAS 17 Baseline 2,68
MAS 15 Ramp and Pad #1 4,86
MAS 15 Ramp and Pad #2 3,4
MAS 15 Baseline 2,19
MAS 17 Ramp and Pad #1 8,27
MAS 17 Ramp and Pad #2 4,38
MAS 17 Baseline 3,16
MAS 15 Ramp and Pad #1 5,84
MAS 15 Ramp and Pad #2 1,95
MAS 15 Baseline 1,7
MAS 17 Ramp and Pad #1 5,11
MAS 17 Ramp and Pad #2 3,89
MAS 17 Baseline 6,57
MAS 15 Ramp and Pad #1 2,92
MAS 15 Ramp and Pad #2 4,38
MAS 15 Baseline 1,46
MAS 17 Ramp and Pad #1 9,24
MAS 17 Ramp and Pad #2 4,86
MAS 17 Baseline 5,84
MAS 15 Ramp and Pad #1 2,43
MAS 15 Ramp and Pad #2 5,84
MAS 15 Baseline 1,46
MAS 17 Ramp and Pad #1 7,05
MAS 17 Ramp and Pad #2 5,35
MAS 17 Baseline 3,16
MAS 15 Ramp and Pad #1 2,68
MAS 15 Ramp and Pad #2 2,19
MAS 15 Baseline 1,46
MAS 17 Ramp and Pad #1 8,27
MAS 17 Ramp and Pad #2 5,84
MAS 17 Baseline 2,68
MAS 15 Ramp and Pad #1 5,11
MAS 15 Ramp and Pad #2 6,08
MAS 15 Baseline 1,95
MAS 17 Ramp and Pad #1 7,78
MAS 17 Ramp and Pad #2 3,65
MAS 17 Baseline 2,19

Tabela 4.1.1: Dados de entrada.

Primeiramente vamos construir o gráfico de interações. Para o gráfico de interações precisamos de alguns cálculos auxiliares, que são as médias $ y_{ij.} $ para i = 1, 2 e j = 1, 2, 3.

Assim, quando temos MAS15 e Baseline, temos:

$$\overline{y_{11.}}=\frac{1}{r}\sum_{k=1}^{r}y_{11k}=\frac{2,19+2,19+1,7+1,46+1,46+1,46+1,95}{7}={12,41}{7}=1,77$$

MAS15 e Ramp Pad1, temos:

$$\overline{y_{12.}}=\frac{1}{r}\sum_{k=1}^{r}y_{11k}=\frac{2,19+4,86+5,84+2,92+2,43+2,68+5,11}{7}={26,03}{7}=3,71.$$

Da mesma forma, temos:

$ \overline{y_{13.}}=3,85, $$ \overline{y_{21.}}=3,75, $$ \overline{y_{22.}}=7,33 $ e $ \overline{y_{23.}}= 4,51. $

Com esses dados podemos construir o gráfico, obtendo a Figura 4.1.1.

interacao

Figura 4.1.1: Gráfico de interações.

Observamos no gráfico que há uma mudança de comportamento no nível Ramp and Pad#2. Assim, podemos ter indícios de interação no nível Ramp and Pad#2.

Agora, faremos um gráfico de efeitos principais para nos ajudar a detectar o efeito de cada fator individualmente, isto é, verificar em qual nível do fator o efeito é mais evidente.

Construiremos agora, o gráfico de efeitos principais e utilizaremos as médias de cada nível, da seguinte forma

$$\overline{y_{i..}} =\frac{1}{b~r}\sum_{j=1}^{b}\sum_{k=1}^{r}y_{ijk}~~~{e}~~~\overline{y_{.j.}}=\frac{1}{a~r}\sum_{i=1}^{a}\sum_{k=1}^{r}y_{ijk}.$$

Após feitos os cálculos, obtemos os seguintes resultados:

EfPrinc1

Figura 4.1.2: Intervalo de Confiança para os Efeitos.

EfPrinc

Figura 4.1.3: Gráfico de Efeitos Principais.

Notamos na Figura 4.1.3 que os níveis do fator Material e Perfil não apresentam o mesmo comportamento, indicando que sua mudança influencia na medição.

Modelo para os dados

Como parte da análise dos dados o ajuste de um modelo. Esse modelo pode ser definido como:

Screenshot_97

restrito a

$$\alpha_{.}=\sum_{i=1}^{a}\alpha_i=0~~,~~\beta_{.}=\sum_{j=1}^{b}\beta_j=0~~,~~\tau_{.j}=\sum_{i=1}^{a}\tau_{ij}=0~~,~~\tau_{i.}=\sum_{j=1}^{b}\tau_{ij}=0.$$

  • $ y_{ijk} $ representa a $ k $-ésima leitura no $ i $-ésimo nível do fator Material e $ j $-ésimo nível do fator Perfil;
  • $ \mu $ é a média geral dos efeitos;
  • $ \alpha_i $ é o efeito do Fator Material;
  • $ \beta_j $ é o efeito do Fator Perfil;
  • $ \tau_{ij} $ é o efeito da interação entre os fatores;
  • $ \varepsilon_{ijk} $ é o erro aleatório.

Assim, obtemos os seguintes resultados:

(imagem em falta)

Figura 4.1.4: Tabela da ANOVA.

residuo

Figura 4.1.5: Papel de Probabilidade.

Aplicação 2 - Influência na medição de um furo

Uma empresa de motores está interessada na influência dos fatores Dureza (HB) e Ferramenta, na medida de um furo. São usados três tipos de Ferramenta: Nova, Meia-vida e Velha, e duas medidas de Dureza: 91 HB e 95 HB. Os dados coletados no experimento estão na Tabela 4.2.1. A variável Medida está na unidade mícron (1 mícron equivale a 1 milésimo de milímetro).

Medida Dureza Ferramenta
18046,9 91 Nova
18046,9 91 Nova
18047 91 Nova
18047 91 Nova
18047,3 91 Nova
18047,3 91 Nova
18047 91 Nova
18047,1 91 Nova
18047 91 Nova
18046,9 91 Nova
18047,7 91 Nova
18047,7 91 Nova
18047,8 91 Nova
18047,6 91 Nova
18047,8 91 Nova
18047,6 91 Nova
18047,7 91 Nova
18047,7 91 Nova
18047,5 91 Nova
18047,4 91 Nova
18048 91 Meia-vida
18047,8 91 Meia-vida
18047,8 91 Meia-vida
18047,5 91 Meia-vida
18047,9 91 Meia-vida
18047,5 91 Meia-vida
18047,6 91 Meia-vida
18047,6 91 Meia-vida
18047,7 91 Meia-vida
18047,4 91 Meia-vida
18048,4 91 Meia-vida
18048,2 91 Meia-vida
18048,1 91 Meia-vida
18048,4 91 Meia-vida
18047,9 91 Meia-vida
18047,9 91 Meia-vida
18047,9 91 Meia-vida
18048 91 Meia-vida
18047,8 91 Meia-vida
18047,9 91 Meia-vida
18048 91 Meia-vida
18047,8 91 Meia-vida
18048,1 91 Meia-vida
18048,2 91 Meia-vida
18047,9 91 Meia-vida
18047,7 91 Meia-vida
18048,1 91 Meia-vida
18047,8 91 Meia-vida
18047,8 91 Meia-vida
18048 91 Meia-vida
18047,9 91 Velha
18047,4 91 Velha
18047,9 91 Velha
18047,7 91 Velha
18047,7 91 Velha
18047,6 91 Velha
18047,8 91 Velha
18047,8 91 Velha
18047,6 91 Velha
18047 91 Velha
18048,4 91 Velha
18048,6 91 Velha
18048,3 91 Velha
18048,3 91 Velha
18048,2 91 Velha
18048,3 91 Velha
18048,3 91 Velha
18048,4 91 Velha
18048,2 91 Velha
18048,4 91 Velha
18047,7 95 Meia-vida
18047,7 95 Meia-vida
18047,9 95 Meia-vida
18047,2 95 Meia-vida
18047,5 95 Meia-vida
18047,8 95 Meia-vida
18047,7 95 Meia-vida
18047,7 95 Meia-vida
18047,6 95 Meia-vida
18047,2 95 Meia-vida
18047,6 95 Velha
18047,9 95 Velha
18047,8 95 Velha
18047,8 95 Velha
18047,8 95 Velha
18047,7 95 Velha
18047,8 95 Velha
18047,7 95 Velha
18047,9 95 Velha
18047,8 95 Velha
18048 95 Velha
18048,3 95 Velha
18048,2 95 Velha
18048,3 95 Velha
18048,4 95 Velha
18048,5 95 Velha
18048,3 95 Velha
18048,3 95 Velha
18048,3 95 Velha
18048,3 95 Velha

Tabela 4.2.1: Dados do experimento.

Faremos uma Análise de Variância considerando os fatores Dureza e Ferramenta.

Para facilitar a notação, chamaremos Dureza (A) e Ferramenta (B), assim temos a tabela da ANOVA:

A tabela a seguir apresenta a Análise de Variância (ANOVA) para os fatores Fábrica, Máquina e a Interação.

Primeiramente vamos construir o gráfico de interações. Para o gráfico de interações precisamos de alguns cálculos auxiliares, que são as médias $ y_{ij.} $ para i = 1, 2 e j = 1, 2, 3.

Assim, quando temos Dureza de 91 HB, temos:

$$\overline{y_{11.}}=\frac{1}{r}\sum_{k=1}^{r}y_{11k}=\frac{18046,9+\dots+18048}{70}=\frac{1263343,4}{70}=18047,76$$

Dreza de 95 HB, temos:

$$\overline{y_{12.}}=\frac{1}{r}\sum_{k=1}^{r}y_{11k}=\frac{18047,7+\dots+18048,3}{30}=\frac{541436,7}{30}=18047,89.$$

Da mesma forma, temos:

$ \overline{y_{21.}}=18047,82, $$ \overline{y_{22.}}=18047,34 $ e $ \overline{y_{23.}}= 18048,01. $

Com esses dados podemos construir o gráfico, obtendo a Figura 4.2.1.

interacao21

Figura 4.2.1: Gráfico de interações.

Observamos no gráfico que há uma mudança de comportamento no nível de dureza de 95 HB. Assim, podemos ter indícios de interação no nível de dureza.

Agora, faremos um gráfico de efeitos principais para nos ajuda a detectar o efeito de cada fator individualmente, isto é, verificar em qual nível do fator o efeito é mais evidente.

Construiremos agora, o gráfico de efeitos principais e utilizamos as médias de cada nível, da seguinte forma

$$\overline{y_{i..}} =\frac{1}{b~r}\sum_{j=1}^{b}\sum_{k=1}^{r}y_{ijk}~~~{e}~~~\overline{y_{.j.}}=\frac{1}{a~r}\sum_{i=1}^{a}\sum_{k=1}^{r}y_{ijk}.$$

Após feitos os cálculos, obtemos os seguintes resultados:

EfPrinc2

Figura 4.2.2: Intervalo de Confiança para os Efeitos.

EfPrinc3

Figura 4.2.3: Gráfico de Efeitos Principais.

Notamos na Figura 4.2.3 que os níveis do fator Dureza e Ferramenta não apresentam o mesmo comportamento, indicando que sua mudança influencia na medição.

Modelo para os dados

Como parte da análise dos dados o ajuste de um modelo. Esse modelo pode ser definido como:

Screenshot_98

restrito a

$$\alpha_{.}=\sum_{i=1}^{a}\alpha_i=0~~,~~\beta_{.}=\sum_{j=1}^{b}\beta_j=0~~,~~\tau_{.j}=\sum_{i=1}^{a}\tau_{ij}=0~~,~~\tau_{i.}=\sum_{j=1}^{b}\tau_{ij}=0.$$

  • $ y_{ijk} $ representa a $ k $-ésima leitura no $ i $-ésimo nível do fator Dureza e $ j $-ésimo nível do fator Ferramenta;
  • $ \mu $ é a média geral dos efeitos;
  • $ \alpha_i $ é o efeito do Fator Dureza;
  • $ \beta_j $ é o efeito do Fator Ferramenta;
  • $ \tau_{ij} $ é o efeito da interação entre os fatores;
  • $ \varepsilon_{ijk} $ é o erro aleatório.

Assim, obtemos os seguintes resultados:

anova1

Figura 4.2.4: Tabela da ANOVA e Teste de Falta de Ajuste.

residuo12

Figura 4.2.5: Papel de Probabilidade.

Aplicação 3 - Programa de Recompensas de Cartão de Crédito

Em uma pesquisa de satisfação, 10 clientes opinaram sobre 4 programas de recompensas de cartão de crédito emitindo uma nota para cada programa. Os programas avaliados foram:

  • Programa de prêmios: clientes concorrem a prêmios semanais e mensais em dinheiro;
  • Programa de incentivo a compras: pontos acumulados que se transformam em compras grátis em grandes redes comerciais;
  • Programa de incentivo a viagens: compras viram pontos e dão direitos a passagens aéreas;
  • Programa de incentivo ao carro 0km: as compras transformam-se em descontos na compra de um carro 0km.
Programas Notas
1 8
1 9
1 8
1 10
1 7
1 8
1 9
1 9
1 8
1 9
2 7
2 6
2 8
2 8
2 7
2 6
2 7
2 8
2 9
2 6
3 5
3 8
3 6
3 9
3 6
3 7
3 8
3 6
3 5
3 8
4 7
4 6
4 5
4 8
4 5
4 7
4 7
4 6
4 5
4 6

Primeiramente, faremos o gráfico de efeitos principais e utilizamos as médias de cada nível, da seguinte forma

$$\overline{y_{i.}} =\frac{\displaystyle\sum_{j=1}^{n_i}y_{ij}}{n_i}.$$

Assim calcularemos a média em cada nível do fator Programas:

$$\overline{y_{1.}} =\frac{8+\dots+9}{10}=8,5~~{e}~~~\overline{y_{2.}} =\frac{7+\dots+6}{10}=7,2.$$

$$\overline{y_{3.}} =\frac{5+\dots+8}{10}=6,8~~{e}~~~\overline{y_{4.}} =\frac{7+\dots+6}{10}=6,2.$$

Após feitos os cálculos, obtemos os seguintes resultados:

aplicacao3

aplicacao33

Figura 4.3.1: Gráfico de Intervalo de Confiança das médias.

Modelo para os dados

Para uma boa análise é necessário descrever os dados através de um modelo apropriado. Um dos mais simples é o modelo de efeitos, descrito por:

$$y_{ij}=\mu +\alpha_i+\varepsilon_{ij} $$

em que, 1=1,…,ni e i = 1,2,…,k.

yij= j-ésima observação do nível i do fator A;

μ = média geral dos dados;

$ \alpha_i $ = efeito do nível i do fator;

εij = componente aleatória do erro.

A partir dos dados, utilizaremos a seguinte notação:

$ y_{i.}=\displaystyle \sum_{j=1}^{n_{i}} y_{ij} $: soma das observações do nível i do fator Programa,

$ \overline{y_{i.}}=\cfrac{\displaystyle\sum_{j=1}^{n_{i}} y_{ij}}{\displaystyle n_{i}} $: média das observações do nível i do fator Programa,

$ y_{..}=\displaystyle\sum_{i=1}^{n} \sum_{j=1}^{n_{i}}y_{ij} $: soma de todas as observações, e

$ \overline{y_{..}}=\frac{\displaystyle \sum_{i=1}^{n}\sum_{j=1}^{n_{i}} y_{ij}}{\displaystyle N} $: média geral das observações,

Screenshot_99

Assim, obtemos os seguintes resultados:

aplicacao32

Figura 4.3.1: Tabela da ANOVA um fator.

Adotando um nível de significância 0,05 (5%), rejeitamos a hipótese nula, ou seja, detectamos uma diferença significativa entre as notas em função do programa de recompensas do cartão de crédito.

aplicacao34

Figura 4.3.2: Gráfico de Resíduos.

Avaliamos a normalidade dos resíduos através do gráfico “papel de probabilidade” e do teste de Anderson-Darling. No nosso caso, tomamos como hipótese nula a normalidade dos resíduos, e utilizamos a estatística de Anderson-Darling para testar esta hipótese. Para o exemplo, como o P-valor é alto (aproximadamente 0,17) não rejeitamos a hipótese de normalidade dos resíduos.

Agora, faremos a comparação múltiplas dos níveis do fator programa de recompensa usando o teste de HSU.

aplicacao3_HSU

aplicacao3_HSU1

Como o intervalo de confiança referente ao programa 1, possui grandes partes dos valores positivos, podemos dizer que ele é o melhor entre os demais.

Aplicação 4 - Efeito na engorda de tilápias

Uma empresa deseja testar o efeito de duas diferentes dietas no desempenho de tilápias na engorda. Os peixes foram divididos aleatoriamente em 40 gaiolas e submetidos a dieta durante 90 dias.

  • Ração: Ração A e ração B;
  • Tamanho: Peixes pequenos e peixes grandes;
  • Densidade: Gaiolas com 102 (1) e 150 (2) peixes.

As gaiolas foram montadas com duas quantidades de peixes diferentes, considere: densidade 1 – 102 peixes; densidade 2 – 150 peixes.

A variável resposta é o peso médio por peixe ganho durante os 90 dias em que foram submetidos à dieta.

Raçao Tamanho Densidade Peso_médio
A Small 1 444,4
B Small 1 326,5
B Big 1 371,2
A Big 1 439,3
B Small 2 364,6
A Small 2 432,0
A Big 2 517,8
B Big 2 451,5
A Small 1 447,6
B Small 1 350,8
B Big 1 407,6
A Big 1 455,6
B Small 2 388,0
A Small 2 472,6
A Big 2 566,0
B Big 2 435,7
A Small 1 412,2
B Small 1 366,5
B Big 1 379,0
A Big 1 488,6
B Small 2 395,1
A Small 2 544,2
A Big 2 500,6
B Big 2 497,0
A Small 1 453,2
B Small 1 327,3
B Big 1 395,4
A Big 1 470,6
B Small 2 413,1
A Small 2 475,5
A Big 2 553,1
B Big 2 427,4
A Small 1 453,7
B Small 1 381,8
B Big 1 398,5
A Big 1 449,3
B Small 2 437,9
A Small 2 484,5
A Big 2 493,2
B Big 2 472,3

Primeiramente, a fim de conhecer melhor o comportamento dos dados em estudo, faremos a combinação de todos os fatores, com isso identificamos que há 8 possíveis combinações e 5 réplicas.

(imagem em falta)

Para conhecer melhor os dados faremos uma análise gráfica, dessa forma poderemos verificar se graficamente há diferença entre as rações.

(imagem em falta)

Em seguida, faremos o gráfico de interações a fim de verificar a existência das mesmas.

(imagem em falta)

Agora, faremos um gráfico de efeitos principais para nos ajudar a detectar o efeito de cada fator individualmente, isto é, verificar em qual nível do fator o efeito é mais evidente.

(imagem em falta)

(imagem em falta)

Modelo para os dados

Nessa análise consideramos Ração, Tamanho e Densidade como variáveis de entrada e Peso médio como variável de saída. Dessa forma obtemos o modelo abaixo:

Screenshot_100

Em que:

$ \mu $ é a média geral;

$ \alpha_i $ é o efeito do Fator Ração;

$ \beta_j $ é o efeito do Fator Tamanho;

$ \gamma_l $ é o efeito do Fator Densidade;

$ \alpha\beta_{ij} $ é o efeito da interação entre os fatores Ração e Tamanho;

$ \alpha\gamma_{il} $ é o efeito da interação entre os fatores Ração e Densidade;

$ \beta\gamma_{jl} $ é o efeito da interação entre os fatores Tamanho e Densidade;

$ \alpha\beta\gamma_{ijl} $ é o efeito da interação entre os fatores Ração, Tamanho e Densidade;

$ \varepsilon_{ijlk} $ é o erro aleatório.

Temos por interesse verificar se os dois diferentes tipos de rações tem impacto semelhante no desempenho das tilápias na engorda. Dessa forma, a partir do modelo proposto, definimos as hipóteses como:

Screenshot_101

Assim obtemos os seguintes resultados:

(imagem em falta)

Podemos notar que as interações não são significativas, como já havia sido observado através da análise gráfica, dessa forma deveremos repetir o processo, agora desconsiderando as interações.

(imagem em falta)

Verificaremos se as suposições necessárias para a ANOVA são atendidas.

(imagem em falta)

Em seguida calcularemos o intervalo de confiança de 95% para a média do i-ésimo nível do fator.

(imagem em falta)

(imagem em falta)

Agora calcularemos o intervalo de confiança de 95% para a diferença das médias no fator Ração.

$$\overline{y_{i…}}-\overline{y_{l…}}-t_{(1-{\frac{\alpha}{2} };abc(r-1))}*\sqrt{\frac{2*QME}{abr} }~~\leq~~\mu_{i…}-\mu_{l…}~~\leq~~\overline{y_{i…}}-\overline{y_{l…}}+t_{(1-{\frac{\alpha}{2} };abc(r-1))}*\sqrt{\frac{2*QME}{abr}}$$

$$477,69-399,36-t_{(0,975;32)}*\sqrt{\frac{2*687,95}{20} }~~\leq~~\mu_{1}-\mu_{2}~~477,69-399,36-t_{(0,975;32)}*\sqrt{\frac{2*687,95}{20}}$$

$$61,44~~\leq~~\mu_{1}-\mu_{2}~~95,22$$

Em que:

$ \mu_{1}= $ Média geral dos dados + efeito do nível 1 do fator Ração

$ \mu_{2}= $ Média geral dos dados + efeito do nível 2do fator Ração

Através dos resultados apresentados é possível notar que a Ração proporciona diferença no desempenho das tilápias na engorda, sendo que a diferença de peso varia entre 61,44 e 95,22.

Por fim, baseados nas análises apresentadas, podemos afirmar que:

  • A Ração que proporciona melhor desempenho na engorda das tilápias é a Ração A.

Aplicação 5 - Comparação de rações em cães

Uma empresa deseja testar a diferença entre dois tipos de ração para cães. 24 animais seguiram a dieta e foram avaliados durante 6 dias. Nos primeiros 3 dias foi oferecido um tipo de ração e nos últimos 3 dias outro tipo.

Animal Raçao Sequencia Período Consumido
1 1 AB 1 99,65
2 1 AB 1 43,97
3 1 AB 1 68,65
4 1 AB 1 77,50
5 1 AB 1 100,00
6 1 AB 1 100,00
7 1 AB 1 97,47
8 1 AB 1 29,58
9 1 AB 1 100,00
10 1 AB 1 100,00
11 1 AB 1 100,00
12 1 AB 1 31,62
13 2 BA 1 100,00
14 2 BA 1 45,73
15 2 BA 1 61,56
16 2 BA 1 99,40
17 2 BA 1 36,77
18 2 BA 1 100,00
19 2 BA 1 100,00
20 2 BA 1 100,00
21 2 BA 1 89,78
22 2 BA 1 74,10
23 2 BA 1 37,09
24 2 BA 1 36,08
1 2 AB 2 100,00
2 2 AB 2 0,00
3 2 AB 2 44,97
4 2 AB 2 43,15
5 2 AB 2 100,00
6 2 AB 2 100,00
7 2 AB 2 100,00
8 2 AB 2 16,49
9 2 AB 2 100,00
10 2 AB 2 100,00
11 2 AB 2 100,00
12 2 AB 2 19,10
13 1 BA 2 0,00
14 1 BA 2 80,80
15 1 BA 2 66,98
16 1 BA 2 100,00
17 1 BA 2 16,94
18 1 BA 2 100,00
19 1 BA 2 100,00
20 1 BA 2 100,00
21 1 BA 2 100,00
22 1 BA 2 75,09
23 1 BA 2 28,18
24 1 BA 2 13,07

O modelo estatístico para este planejamento é

Screenshot_103

Em que:

$ y_{ijk} $ representa a resposta do k-ésimo indivíduo na i-ésima sequência no j-ésimo período;

$ \mu $ é uma média geral;

$ S_{ik} $ é o efeito aleatório do k-ésimo indivíduo na sequência $ i $;

$ \pi_j $ é o efeito do período $ j $, com $ \sum_{j=1}^{p}\pi_j=0 $;

$ \tau_{d[i,j]} $ é o efeito direto do tratamento administrado no período $ j $ da sequência $ i $ (Efeito da Ração), com $ \sum\tau_d{}_{[i,j]}=0 $;

$ \lambda_{d[i,j-1]} $ é o efeito direto do tratamento administrado no período $ j-1 $ da sequência $ i $ (Efeito Carry-over), com $ \sum \tau_{d[i,j-1]}=0 $;

$ \varepsilon_{ijk} $ é o erro aleatório para o k-ésimo indivíduo no j-ésimo período na i-ésima sequência.

Estamos interessados emverificar se duas rações desenvolvidas para cães se diferem em relação ao consumo. Dessa forma, a partir do modelo proposto, definimos as hipóteses como:

Screenshot_104

Considerando o modelo e as hipóteses apresentadas calculamos:

$$SQ_{{carry-over}}=\frac{2*12*12}{(12+12)}\left(73,84-69,23\right)^2=255,02$$

$$SQ_{{inter}}=291538,4-245888,8=45649,6$$

$$SQ_{{ração}}=\frac{12*12}{2(12+12)}\left(79,04-68,64-73,38+65,09\right)^2=13,31$$

$$SQ_{{período}}=\frac{12*12}{2(12+12)}\left(79,04-68,64+73,38-65,09\right)^2=1047,01$$

$$SQ_{{intra}}=299726-291538,4-13,31-1047,01=7127,332$$

$$QM_{{carry-over}}=\frac{255,02}{1}=255,02$$

$$QM_{{inter}}=\frac{45649,6}{12+12-2}=2074,98$$

$$QM_{{ração}}=\frac{13,31}{1}=13,31$$

$$QM_{{período}}=\frac{1047,01}{1}=1047,01$$

$$QM_{{intra}}=\frac{7127,332}{12+12-2}=323,96$$

$$F_0=\frac{255,02}{2074,98}=0,1229$$

$$F_0=\frac{13,31}{323,96}=0,0410$$

$$F_0=\frac{1047,01}{323,96}=3,2318$$

Substituindo os resultados encontrados na tabela da ANOVA, temos:

Screenshot_102

Calculamos o intervalo de confiança para $ \mu_l $.

Para $ l = A, B $ temos que:

Screenshot_105

Apêndice

Nesta seção, estão algumas das tabelas usadas ao longo do conteúdo estatístico da ANOVA.

Tabela da Distribuição t-Student

GL $(1-\cfrac{\alpha}{2})$ 0,9 0,95 0,975 0,99
1 3,078 6,314 12,706 31,821
2 1,886 2,92 4,303 6,965
3 1,638 2,353 3,182 4,541
4 1,533 2,132 2,776 3,747
5 1,576 2,015 2,571 3,365
6 1,44 1,943 2,447 3,143
7 1,415 1,895 2,365 2,998
8 1,397 1,86 2,306 2,896
9 1,383 1,833 2,262 2,821
10 1,372 1,812 2,228 2,764
11 1,363 1,796 2,201 2,718
12 1,356 1,782 2,179 2,681
13 1,35 1,771 2,16 2,65
14 1,345 1,761 2,145 2,624
15 1,341 1,753 2,131 2,602
16 1,337 1,745 2,12 2,583
17 1,333 1,74 2,11 2,567
18 1,33 1,734 2,101 2,552
19 1,328 1,729 2,093 2,539
20 1,325 1,725 2,086 2,528
21 1,323 1,721 2,08 2,518
22 1,321 1,717 2,074 2,508
23 1,319 1,714 2,069 2,5
24 1,318 1,711 2,064 2,492
25 1,316 1,708 2,06 2,485
26 1,315 1,706 2,056 2,479
27 1,314 1,703 2,052 2,473
28 1,313 1,701 2,048 2,467
29 1,311 1,699 2,045 2,462
30 1,31 1,697 2,042 2,457
40 1,303 1,684 2,021 2,423
60 1,296 1,671 2 2,39
120 1,289 1,658 1,98 2,358
maior 1,282 1,645 1,96 2,326

Tabela para o Teste de Tukey

Screenshot_106

Screenshot_107

Screenshot_108

Tabela para o Teste de Dunnett

Screenshot_109

Screenshot_110

Screenshot_111

Tabela para o Teste de Fisher

Screenshot_112

Screenshot_113

Screenshot_114

Tabela para o Teste de Bonferroni

Screenshot_115

Screenshot_116

Screenshot_117

Tabela para o Teste de Scheffe

Screenshot_118

Screenshot_119

Screenshot_120

Tabela para o Teste HSU

Screenshot_121

Screenshot_122

Screenshot_123

Referências Bibliográficas

[1] Bussab, W. O. & Morettin, P. A. (1987), Estatística Básica, $ 4^{a} $ Edição, Atual, São Paulo.

[2] HSU, J. C. (1996), Multiple Comparisons: Theory and Methods, Chapman & Hall / CRC.

[3] Magalhães, M. N. & Lima, A. C. P. (2001), Noções de Probabilidade e Estatística, USP, São Paulo.

[4] Meyer, P. L. (1983), Probabilidade: Aplicações à Estatística, segunda edição, Livros técnicos e Científicos, Rio Janeiro.

[5] Montgomery, D. C., (1976) Design and Analysis of Experiments, John Wiley and Sons.

[6] Montgomery, D. C. & Myers, R. H., (1995) Response Surface Methodology: Process and Product Optimization Using Designed Experiments, John Wiley and Sons.

[7] Neter, J. & Wasserman, W. & Kutner, M. H. (1985), Applied Linear Statistical Models, Segunda edição, Irwin, Illinois.

[8] R. G. (1986), Beyond ANOVA, Basics of Applied Statistics, John Wiley & Sons: New York.

[9] Scheffé, H. (1959), The Analysis of Variance, primeira edição, John Wiley & Sons, New York.

[10] Searle, S. R., Casella, G. and McCulloch, C. E., (1992) , Variance Components, John Wiley and Sons.

[11] Vieira, S. (2006), Análise de variância: ANOVA, Atlas, São Paulo.

[12] J. D. THOMAS AND R. A. HULTQUIST, Interval estimation for the unbalanced case of the one-way random effects model, Annals in Statistics, 6 (1978), pp. 582-587.

[13] M. Y. EL-BASSIOUNI AND M. E. M. ABDELHAFEZ, Interval estimation of the mean in a two-stage nested model, Journal of Statistical Computation and Simulation, 67 (2000), pp. 333-350.

[14] G. A. MILLIKEN AND D. E. JOHNSON, Analysis of Messy Data: Designed Experiments, Volume 1, Lifetime Learning, Belmont, CA, 1984.

[15] N. TING, R. K. BURDICK, F. A. GRAYBILL, S. JEYARATMAN, AND T.-F. C. Lu, Confidence intervals on linear combinations of variance components that are unrestricted in sign, Journal of Statistical Computation and Simulation, 35 (1990), pp. 135-143.

[16] Ojeda, Mario M und Sahai, Hardeo , Analysis of Variance for Random Models, Volume 2: Unbalanced Data. Theory, Methods, Applications, and Data Analysis. Birkhäuser. 2005.

[17] G. L.Tietjen (1974), Exact and approximate tests for unbalanced random effects designs, Biometrics, 30, 573–581.

[18] C. I. Bliss (1967), Statistics in Biology, McGraw–Hill, New York.

[19] W. B. Cummings and D. W. Gaylor (1974), Variance component testing in unbalanced nested designs, J. Amer. Statist. Assoc., 69, 765–771.

[20] W.Y.Tan and S. S. Cheng (1984), Ontesting variance components in three-stage unbalanced nested random effects models, Sankhy¯a Ser. B, 46, 188–200.

[21] A. I. Khuri (1990), Exact test for random models with unequal cell frequencies in the last stage, J. Statist. Plann. Inference, 24, 177–193.