9.6 ANOVA - Efeito Cross-Over (Efeito Misto)

ANOVA - Modelo com Efeitos Mistos

Nos módulos anteriores vimos os modelos de ANOVA com efeitos fixos e ANOVA com efeitos aleatórios, neste módulo veremos ANOVA com efeitos mistos.

Vimos anteriormente que um modelo linear é considerado fixo quando apresenta somente fatores fixos, além do erro experimental que é sempre aleatório, os modelos que apresentam somente fatores aleatórios, além da constante $ \mu $ é considerado modelos aleatórios, já os modelos que apresentam tanto fatores fixos como fatores aleatórios são considerados modelos mistos e são esses modelos que estudaremos nesse módulo.

6 - ANOVA - Efeito Cross-Over

Frequentemente nos deparamos com problemas onde temos mais de um grupo de indivíduos e cada grupo é submetido aleatoriamente a diferentes tratamentos, sendo que estes tratamentos são permutados entre os grupos em cada instante de tempo, assim, ao término do experimento, todos os grupos terão recebido todos os mesmos tratamentos, porém, em ordem distinta. Para problemas assim utilizamos o modelo de ANOVA com efeito Cross-Over.

Considere o planejamento fatorial de dois fatores com modelo de efeito fixo, em que um grupo de $ N $ indivíduos é dividido em subgrupos de tamanhos $ n_i(i=1, 2, \cdots, s) $, os quais receberam $ t $ tratamentos em $ p $ períodos diferentes. O termo $ p $ representa o número de períodos e $ s $ a sequência com que os tratamentos ou drogas foram aplicados. A tabela 9.6.1 apresenta como estão alocados os grupos de indivíduos nas respectivas sequências e períodos.

$ Sequência $ $ 1 $ $ 2 $ $ \dots $ $ p $ $ \textbf{Média} $
$ 1 $ $ y_{111},\ldots,y_{11n_1} $ $ y_{121},\ldots,y_{12n_1} $ $ \ldots $ $ y_{1b1},\ldots,y_{1pn_1} $ $ \overline{y}_{1..} $
$ 2 $ $ y_{211},\ldots,y_{21n_2} $ $ y_{221},\ldots,y_{22n_2} $ $ \ldots $ $ y_{2b1},\ldots,y_{2pn_2} $ $ \overline{y}_{2..} $
$ \vdots $ $ \vdots $ $ \vdots $ $ \vdots $ $ \vdots $ $ \vdots $
$ s $ $ y_{s11},\ldots,y_{s1n_s} $ $ y_{s21},\ldots,y_{s2rn_s} $ $ \ldots $ $ y_{sp1},\ldots,y_{spn_s} $ $ \overline{y}_{s..} $
Média $ \overline{y}_{.1.} $ $ \overline{y}_{.2.} $ $ \ldots $ $ \overline{y}_{.p.} $ $ \overline{y}_{…} $

Tabela 9.6.1: Apresentação dos dados para dois fatores.

6.1 - Modelo

O modelo estatístico para este planejamento é

$$y_{ijk} = \mu + S_{ik} + \pi_j + \tau_{d[i,j]} + \lambda_{d[i,j-1]}~+~ \varepsilon_{ijk} ~~~~~\begin{cases} i = 1, \cdots, s~~ \hbox{(Sequência)} \cr j = 1, \cdots, p~~ \hbox{(Período)} \cr k = 1, \cdots,n_i~~ \hbox{(Indivíduo)} \end{cases}$$

Em que:

$ y_{ijk} $ representa a resposta do k-ésimo indivíduo na i-ésima sequência no j-ésimo período;

$ \mu $ é uma média geral;

$ S_{ik} $ é o efeito aleatório do k-ésimo indivíduo na sequência $ i $;

$ \pi_j $ é o efeito do período $ j $, com $ \sum_{j=1}^{p}\pi_j=0 $;

$ \tau_{d[i,j]} $ é o efeito direto do tratamento administrado no período $ j $ da sequência $ i $ (Efeito da Formulação), com $ \sum\tau_{d[i,j]}=0 $;

$ \lambda_d{[i,j-1]} $ é o efeito direto do tratamento administrado no período $ j-1 $ da sequência $ i $ (Efeito Carry-over), com $ \sum\tau_{d[i,j-1]}=0 $;

$ \varepsilon_{ijk} $ é o erro aleatório para o k-ésimo indivíduo no j-ésimo período na i-ésima sequência.

O efeito $ S_{ik} $ será considerado aleatório pois, a partir da população dos possíveis indivíduos que podem receber os tratamentos, selecionamos uma amostra de forma aleatória, onde assumimos que:

  • $ S_{ik} $ e $ \varepsilon_{ijk} $ são variáveis aleatórias com densidade normal, independentes e identicamente distribuídos com média zero e variâncias $ \sigma^2_S $ e $ \sigma^2 $, respectivamente;

  • $ S_{ik} $ e $ \varepsilon_{ijk} $ são mutuamente independentes.

Podemos interpretar os parâmetros de variabilidade inter e intra na forma:

  • $ \sigma^2_S $, explica a variabilidade inter-individual (entre indivíduos);

  • $ \sigma^2 $, explica a variabilidade intra-individual (dentro do indivíduo) para a t-ésima formulação.

A componente inter-individual descreve à variação entre os indivíduos nos grupos, já a componente intra-individual descreve as mudanças individuais ao longo das observações, ou seja, as mudanças dentro de cada indivíduo.

6.2 - Decomposição da Soma

Vamos particionar a soma de quadrados total das $ 2(n_1+n_2) $ observações em componentes do efeito carry-over (efeitos residuais), do efeito do período, do efeito da droga e do erro. Para isso, temos inicialmente que

$$\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(y_{ijk}-\bar{y}_{…})^2=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(y_{ijk}-\bar{y}_{i.k})^2 +\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(\bar{y}_{i.k}-\bar{y}_{…})^2$$

$$SQ_T=SQ_{\hbox{dentro}}+SQ_{\hbox{entre}}$$

em que

  • $ SQ_{{dentro}} $ é a soma de quadrados dentro de cada indivíduo;

  • $ SQ_{{entre}} $ é a soma de quadrados entre os indivíduos;

com

$$\bar{y}_{i.k}=\frac{1}{2}\sum_{j=1}^{2}y_{ijk}\quad\quad\bar{y}_{…}=\frac{1}{2(n_1+n_2)}\sum_{i=1}^{2} \sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}$$

Além disso, $ SQ_{{entre}} $ pode ser particionada em duas componentes, sendo uma para o efeito carry-over e outra para os erros entre os indivíduos. A partir disso,

$$SQ_{{entre}}=SQ_{{carry-over}}+SQ_{{inter}}$$

que é mais conveniente ser escrito da seguinte forma:

$$SQ_{\hbox{carry-over}}=\frac{2n_1n_2}{(n_1+n_2)}\left(\bar{y}_{1..}-\bar{y}_{2..}\right)^2$$

$$SQ_{\hbox{inter}}=\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}-\sum_{i=1}^{2}\frac{y^2_{i..}}{2n_i}$$

Analogamente, a soma de quadrados dentro de cada indivíduo pode ser decomposta em três componentes, sendo uma para o efeito da droga, outra para o efeito do período e a última para o erro dentro de cada indivíduo. A partir disso,

$$SQ_{\hbox{dentro}}=SQ_{\hbox{droga}}+SQ_{\hbox{período}}+SQ_{\hbox{intra}}$$

que em fórmula computacional pode ser escrito como:

$$SQ_{\hbox{droga}}=\frac{n_1n_2}{2(n_1+n_2)}\left(\bar{y}_{11.}-\bar{y}_{12.}-\bar{y}_{21.}+\bar{y}_{22.}\right)^2$$

$$SQ_{\hbox{período}}=\frac{n_1n_2}{2(n_1+n_2)}\left(\bar{y}_{11.}-\bar{y}_{12.}+\bar{y}_{21.}-\bar{y}_{22.}\right)^2$$

$$SQ_{\hbox{intra}}=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y^2_{ijk}-\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}-\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{y^2_{ij.}}{n_i}+\sum_{i=1}^{2}\frac{y^2_{i..}}{2~n_i}$$

$$SQ_{\hbox{dentre}}=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y^2_{ijk}-\sum_{i=1}^{2}\sum_{k=1}^{n_i}\frac{y^2_{i.k}}{2}$$

Em que:

$$\bar{y}_{ij.}=\frac{1}{n_i}\sum_{k=1}^{n_i}y_{ijk}\quad\quad y_{i.k}=\sum_{j=1}^{2}y_{ijk}\quad\quad y_{ij.}=\sum_{k=1}^{n_i}y_{ijk}\quad\quad y_{…}=\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}$$

O número de graus de liberdade em uma soma de quadrados é a quantidade de elementos independentes nessa soma. Por exemplo, na soma de quadrados $ \sum_{k=1}^{n_1}(\bar{y}_{1.k}-\bar{y}_{…})^2 $, nem todos os elementos $ (\bar{y}_{1.1}-\bar{y}_{…}), \cdots, (\bar{y}_{1.n_1}-\bar{y}_{…}) $ são independentes desde que $ \sum_{k=1}^{n_1}(\bar{y}_{1.k}-\bar{y}_{…})=0 $, de fato, somente $ n_1-1 $ deles são independentes. Nesse sentido, os respectivos graus de liberdade associados a cada soma de quadrados são:

Efeito Grau de Liberdade
carry-over $ 1 $
inter $ n_1+n_2-2 $
droga $ 1 $
período $ 1 $
intra $ n_1+n_2-2 $
Total $ 2(n_1+n_2)-1 $

Tabela 9.6.2: Graus de Liberdade

Cada soma de quadrados dividido por seu grau de liberdade determina o quadrado médio (QM), ou seja

$$QM_{\hbox{carry-over}}=\frac{SQ_{\hbox{carry-over}}}{1}$$

$$QM_{\hbox{inter}}=\frac{SQ_{\hbox{inter}}}{n_1+n_2-2}$$

$$QM_{\hbox{droga}}=\frac{SQ_{\hbox{droga}}}{1}$$

$$QM_{\hbox{período}}=\frac{SQ_{\hbox{período}}}{1}$$

$$QM_{\hbox{intra}}=\frac{SQ_{\hbox{intra}}}{n_1+n_2-2}$$

Agora vamos calcular os valores esperados dos quadrados médios para cada um dos fatores.

Para isso, vamos denotar:

$$\tau_{d[i,j]}=\quad F_R\quad {se}\quad i=j$$

$$\tau_{d[i,j]}=\quad F_T\quad {se}\quad i\neq j$$

$$\lambda_{d[i,j-1]}=\quad R_R\quad{se}\quad i=1\quad{e}\quad j=2$$

$$\lambda_{d[i,j-1]}=\quad R_T\quad{se}\quad i=2\quad{e}\quad j=2$$

Primeiramente calculamos o valor esperado do $ QM_{{inter}} $, que é dado por:

$$E[QM_{\hbox{inter}}]=\frac{1}{n_1+n_2-2}E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}-\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]$$

$$=\frac{1}{n_1+n_2-2}\left(\underbrace{E\left[\frac{1} {2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}\right]}_{(*)}-\underbrace{E\left[\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]}_{(**)}\right)$$

Substituindo as informações do modelo em $ y_{i.k} $ e $ y_{i..} $, obtemos:

$$(*)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(\sum_{j=1}^{2}\left(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2\mu+2S_{ik}+\sum_{j=1}^{2}\pi_j+\sum_{j=1}^{2}\tau_{d[i,j]}+\sum_{j=1}^{2}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2^2\mu^2+2^2\mu S_{ik}+2\mu\sum_{j=1}^{2}\tau_{d[i,j]}+2\mu\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2\mu\sum_{j=1}^{2}\varepsilon_{ijk}+2^2\mu S_{ik}^2+2^2S_{ik}^2\right.\right.$$

$$\quad\left.\left.+2S_{ik}\sum_{j=1}^{2}\tau_{d[i,j]}+2S_{ik}\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\tau_{d[i,j]}+2S_{ik}\sum_{j=1}^{2}\tau_{d[i,j]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\tau_{d[i,j]}^2+\sum_{j=1}^{2}\tau_{d[i,j]}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\tau_{d[i,j]}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\lambda_{d[i,j-1]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\lambda_{d[i,j-1]}\tau_{d[i,j]}+\sum_{j=1}^{2}\lambda_{d[i,j-1]}^2+\sum_{j=1}^{2}\lambda_{d[i,j-1]}\varepsilon_{ijk}+\sum_{j=1}^{2}\varepsilon_{ijk}2\mu+\sum_{j=1}^{2}\varepsilon_{ijk}2S_{ik}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\varepsilon_{ijk}\tau_{d[i,j]}+\sum_{j=1}^{2}\varepsilon_{ijk}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}^2\right)\right]$$

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu \sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}\right.\right.$$

$$\quad\left.\left.+\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2E\left[\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2\right]+\frac{1}{2}E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2var\left(\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\right)+\frac{1}{2}var\left(\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2$$

Analogamente,

$$(**)=E\left[\sum_{i=1}^{2}\frac{1}{2n_i}\left(\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2$$

Substituindo (*) e (**), obtemos:

$$=\frac{1}{n_1+n_2-2}\left(2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-\sigma_s^2-\sigma^2\right)$$

$$=\frac{1}{n_1+n_2-2}\left(2(n_1+n_2-2)\sigma_s^2+(n_1+n_2-2)\sigma^2\right)$$

$$=2\sigma_s^2+\sigma^2$$

Agora calculamos o valor esperado do $ QM_{\hbox{droga}} $.

$$E[QM_{\hbox{droga}}]=\frac{n_1n_2}{2(n_1+n_2)}E[(\overline{y_{11.}}-\overline{y_{12.}}-\overline{y_{21.}}+\overline{y_{22.}})^2]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}E\left[\left(\underbrace{\frac{1}{n_1}\sum_{k=1}^{n_1}y_{11k}}_{(*)}\underbrace{-\frac{1}{n_1}\sum_{k=1}^{n_1}y_{12k}}_{(**)}\underbrace{-\frac{1}{n_2}\sum_{k=1}^{n_2}y_{21k}}_{(***)}\underbrace{+\frac{1}{n_2}\sum_{k=1}^{n_2}y_{22k}}_{(****)}\right)^2\right]$$

Substituindo as informações do modelo em $ y_{11k} $, $ y_{12k} $, $ y_{21k} $ e $ y_{22k} $, obtemos:

$$(*)=\frac{1}{n_1}\sum_{k=1}^{n_1}\left(\mu + S_{1k}+\pi_1 + \tau_{d[1,1]}+\lambda_{d[1,1-1]}+\varepsilon_{11k}\right)$$

$$=\frac{1}{n_1}\left(n_1\mu\sum_{k=1}^{n_1}S_1k+n_1\pi_1+n_1\tau_{d[1,1]}+n_1\lambda_{d[1,1-1]}+\sum_{k=1}^{n_1}\varepsilon_{11k}\right)$$

$$=\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_1k+\pi_1+\tau_{d[1,1]}+\lambda_{d[1,1-1]}+\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{11k}$$

Analogamente,

$$(**)=-\mu-\frac{1}{n_1}\sum_{k=1}^{n_1}S_1k-\pi_2-\tau_{d[1,2]}-\lambda_{d[1,2-1]}-\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{12k}$$

$$(***)=-\mu-\frac{1}{n_2}\sum_{k=1}^{n_2}S_2k-\pi_1-\tau_{d[2,1]}-\lambda_{d[2,1-1]}-\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{21k}$$

$$(****)=\mu+\frac{1}{n_2}\sum_{k=1}^{n_2}S_2k+\pi_2+\tau_{d[2,2]}+\lambda_{d[2,2-1]}+\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{22k}$$

Substituindo $(\ast)$, $(\ast\ast)$, $(\ast\ast\ast)$ e $(\ast\ast\ast\ast)$ obtemos:

$$=\frac{n_1n_2}{2(n_1+n_2)}E\left[\left(\tau_{d[1,1]}+\lambda_{d[1,1-1]}+\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{11k}-\tau_{d[1,2]}-\lambda_{d[1,2-1]}-\frac{1}{n_1}\sum_{k=1}^{n_1}\varepsilon_{12k}-\tau_{d[2,1]}\right.\right.$$

$$\quad\left.\left.-\lambda_{d[2,1-1]}-\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{21k}+\tau_{d[2,2]}+\lambda_{d[2,2-1]}+\frac{1}{n_2}\sum_{k=1}^{n_2}\varepsilon_{22k}\right)^2\right]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}E\left[\left(2(F_R-F_T)+(R_T-R_R)+\frac{1}{n_1}\sum_{k=1}^{n_1}(\varepsilon_{12k}-\varepsilon_{12k})+\frac{1}{n_2}\sum_{k=1}^{n_2}(\varepsilon_{22k}-\varepsilon_{21k})\right)^2\right]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(E\left[\sum_{k=1}^{n_1}\varepsilon_{12k}^2\right]+E\left[\sum_{k=1}^{n_1}\varepsilon_{12k}^2\right]\right)\right.$$

$$\quad\left.+\frac{1}{n_2^2}\left(E\left[\sum_{k=1}^{n_2}\varepsilon_{22k}^2\right]+E\left[\sum_{k=1}^{n_2}\varepsilon_{21k}^2\right]\right)\right)$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(var\left(\sum_{k=1}^{n_1}\varepsilon_{12k}\right)+var\left(\sum_{k=1}^{n_1}\varepsilon_{12k}\right)\right)\right.$$

$$\quad\left.+\frac{1}{n_2^2}\left(var\left(\sum_{k=1}^{n_2}\varepsilon_{22k}\right)+var\left(\sum_{k=1}^{n_2}\varepsilon_{21k}\right)\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\frac{1}{n_1^2}\left(n_1\sigma^2+n_1\sigma^2\right)+\frac{1}{n_2^2}\left(n_2\sigma^2-n_2\sigma^2\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+2\sigma^2\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left(2^2\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+2\sigma^2\left(\frac{n_1+n_2}{n_1n_2}\right)\right)$$

$$=\frac{2n_1n_2}{(n_1+n_2)}\left((F_R-F_T)+\frac{(R_T-R_R)}{2}\right)^2+\sigma^2$$

Para o carryover, calculamos o valor esperado do quadrado médio da seguinte forma:

$$E[QM_{{carryover}}]=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\overline{y_{1..}}-\overline{y_{2..}}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\underbrace{\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}y_{1jk}}_{(*)}-\underbrace{\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}y_{2jk}}_{(**)}\right)^2\right]$$

Substituindo as informações do modelo em $ y_{1jk} $ e $ y_{2jk} $, obtemos:

$$(*)=\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\left(\mu + S_{1k}+\pi_j + \tau_{d[1,j]}+\lambda_{d[1,j-1]}+\varepsilon_{1jk}\right)$$

$$=\frac{1}{2n_1}\left(2n_1\mu+2\sum_{k=1}^{n_1}S_{1k}+n_1\sum_{j=1}^{2}\pi_j+n_1\sum_{j=1}^{2}\tau_{d[1,j]}+n_1\sum_{j=1}^{2}\lambda_{d[1,j-1]}+\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}\right)$$

$$=\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}+\frac{1}{2}\sum_{j=1}^{2}\pi_j+\frac{1}{2}\sum_{j=1}^{2}\tau_{d[1,j]}+\frac{1}{2}\sum_{j=1}^{2}\lambda_{d[1,j-1]}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}$$

Analogamente, temos:

$$(**)=-\mu-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}-\frac{1}{2}\sum_{j=1}^{2}\pi_j-\frac{1}{2}\sum_{j=1}^{2}\tau_{d[2,j]}-\frac{1}{2}\sum_{j=1}^{2}\lambda_{d[2,j-1]}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}$$

Substituindo (*) e (**), obtemos:

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left(\mu+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}+\frac{1}{2}\sum_{j=1}^{2}\pi_j+\frac{1}{2}\sum_{j=1}^{2}\tau_{d[1,j]}+\frac{1}{2}\sum_{j=1}^{2}\lambda_{d[1,j-1]}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}-\mu\right.\right.$$

$$\quad\left.\left.-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}-\frac{1}{2}\sum_{j=1}^{2}\pi_j-\frac{1}{2}\sum_{j=1}^{2}\tau_{d[2,j]}-\frac{1}{2}\sum_{j=1}^{2}\lambda_{d[2,j-1]}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}E\left[\left((R_R-R_T)+\frac{1}{n_1}\sum_{k=1}^{n_1}S_{1k}-\frac{1}{n_2}\sum_{k=1}^{n_2}S_{2k}+\frac{1}{2n_1}\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}-\frac{1}{2n_2}\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)^2\right]$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}E\left[\sum_{k=1}^{n_1}S_{1k}^2\right]+\frac{1}{n_2^2}E\left[\sum_{k=1}^{n_2}S_{2k}^2\right]+\frac{1}{2^2n_1^2}E\left[\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}^2\right]\right.$$

$$\quad\left.+\frac{1}{2^2n_2^2}E\left[\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}^2\right]\right)$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}var\left(\sum_{k=1}^{n_1}S_{1k}\right)+\frac{1}{n_2^2}var\left(\sum_{k=1}^{n_2}S_{2k}\right)+\frac{1}{2^2n_1^2}var\left(\sum_{k=1}^{n_1}\sum_{j=1}^{2}\varepsilon_{1jk}\right)\right.$$

$$\quad\left.+\frac{1}{2^2n_2^2}var\left(\sum_{k=1}^{n_2}\sum_{j=1}^{2}\varepsilon_{2jk}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\frac{1}{n_1^2}\left(n_1^2\frac{\sigma_s^2}{n_1}\right)+\frac{1}{n_2^2}\left(n_2^2\frac{\sigma_s^2}{n_2}\right)+\frac{1}{2^2n_1^2}\left(2^2n_1^2\frac{\sigma_s^2}{2n_1}\right)+\frac{1}{2^2n_2^2}\left(2^2n_2^2\frac{\sigma_s^2}{2n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\sigma_s^2\left(\frac{1}{n_1}+\frac{1}{n_2}\right)+\sigma^2\left(\frac{1}{2n_1}+\frac{1}{2n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}\left((R_R-R_T)^2+\sigma_s^2\left(\frac{n_1+n_2}{n_1n_2}\right)+\sigma^2\left(\frac{2(n_1+n_2)}{2^2n_1n_2}\right)\right)$$

$$=\frac{2n_1n_2}{n_1+n_2}(R_R-R_T)^2+2\sigma_s^2+\sigma^2$$

Para $ QM_{{intra}} $, calculamos:

$$E[QM_{{intra}}]=\frac{1}{n_1+n_2-2}E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}^{2}-\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}-\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{1}{n_i}y_{ij.}^{2}+\frac{1}{2}\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]$$

$$=\frac{n_1n_2}{2(n_1+n_2)}\left[\underbrace{E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}y_{ijk}^{2}\right]}_{(*)}\underbrace{-\frac{1}{2}E\left[\sum_{i=1}^{2}\sum_{k=1}^{n_i}y_{i.k}^{2}\right]}_{(**)}\underbrace{-E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\frac{1}{n_i}y_{ij.}^{2}\right]}_{(***)}\underbrace{+\frac{1}{2}E\left[\sum_{i=1}^{2}\frac{1}{n_i}y_{i..}^{2}\right]}_{(****)}\right]$$

Substituindo as informações do modelo em $ y_{ijk} $, $ y_{i.k} $, $ y_{ij.} $ e $ y_{i..} $, obtemos:

$$(*)=E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk})^2\right]$$

$$=E\left[\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu^2+\mu S_{ik}+\mu\pi_j+\mu\tau_{d[i,j]}+\mu\lambda_{d[i,j-1]}+\mu\varepsilon_{ijk}+S_{ik}\mu+S_{ik}^2+S_{ik}\pi_j+S_{ik}\tau_{d[i,j]}\right.\right.$$

$$\quad\left.\left.+S_{ik}\lambda_{d[i,j-1]}+S_{ik}\varepsilon_{ijk}+\pi_j\mu+\pi_jS_{ik}+\pi_j^2+\pi_j\tau_{d[i,j]}+\pi_j\lambda_{d[i,j-1]}+\pi_j\varepsilon_{ijk}+\tau_{d[i,j]}\mu+\tau_{d[i,j]}S_{ik}\right.\right]$$

$$\quad\left.\left.+\tau_{d[i,j]}\pi_j+\tau_{d[i,j]}^2+\tau_{d[i,j]}\lambda_{d[i,j-1]}+\tau_{d[i,j]}\varepsilon_{ijk}+\lambda_{d[i,j-1]}\mu+\lambda_{d[i,j-1]}S_{ik}+\lambda_{d[i,j-1]}\pi_j\right.\right.$$

$$\quad\left.\left.+\lambda_{d[i,j-1]}\tau_{d[i,j]}+\lambda_{d[i,j-1]}^2+\lambda_{d[i,j-1]}\varepsilon_{ijk}+\varepsilon_{ijk}\mu+\varepsilon_{ijk}S_{ik}+\varepsilon_{ijk}\pi_j+\varepsilon_{ijk}\tau_{d[i,j]}+\varepsilon_{ijk}\lambda_{d[i,j-1]}+\varepsilon_{ijk}^2\right)\right]$$

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu \sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}\right.\right.$$

$$\quad\left.\left.+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[S_{ik}^2\right]+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}E\left[\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(S_{ik}\right)+\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}var\left(\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+2(n_1+n_2)\sigma^2$$

Analogamente,

$$(**)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(\sum_{j=1}^{2}\left(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2\mu+2S_{ik}+\sum_{j=1}^{2}\pi_j+\sum_{j=1}^{2}\tau_{d[i,j]}+\sum_{j=1}^{2}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}\right)^2\right]$$

$$=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}\left(2^2\mu^2+2^2\mu S_{ik}+2\mu\sum_{j=1}^{2}\tau_{d[i,j]}+2\mu\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2\mu\sum_{j=1}^{2}\varepsilon_{ijk}+2^2\mu S_{ik}^2+2^2S_{ik}^2\right.\right.$$

$$\quad\left.\left.+2S_{ik}\sum_{j=1}^{2}\tau_{d[i,j]}+2S_{ik}\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\tau_{d[i,j]}+2S_{ik}\sum_{j=1}^{2}\tau_{d[i,j]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\tau_{d[i,j]}^2+\sum_{j=1}^{2}\tau_{d[i,j]}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\tau_{d[i,j]}\varepsilon_{ijk}+2\mu\sum_{j=1}^{2}\lambda_{d[i,j-1]}+2S_{ik}\sum_{j=1}^{2}\lambda_{d[i,j-1]}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\lambda_{d[i,j-1]}\tau_{d[i,j]}+\sum_{j=1}^{2}\lambda_{d[i,j-1]}^2+\sum_{j=1}^{2}\lambda_{d[i,j-1]}\varepsilon_{ijk}+\sum_{j=1}^{2}\varepsilon_{ijk}2\mu+\sum_{j=1}^{2}\varepsilon_{ijk}2S_{ik}\right.\right.$$

$$\quad\left.\left.+\sum_{j=1}^{2}\varepsilon_{ijk}\tau_{d[i,j]}+\sum_{j=1}^{2}\varepsilon_{ijk}\lambda_{d[i,j-1]}+\sum_{j=1}^{2}\varepsilon_{ijk}^2\right)\right]$$

$$=E\left[\left(2\mu^2(n_1+n_2)+4\mu\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}+2\mu\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}^2+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}S_{ik}\sum_{j=1}^{2}\varepsilon_{ijk}+\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\sum_{k=1}^{n_i}\varepsilon_{ijk}^2\right)\right]$$

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[S_{ik}^2\right]+\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}E\left[\sum_{j=1}^{2}\varepsilon_{ijk}^2\right]$$

Sabemos que $ E[x^2]=var(x)+E^2[x] $, sabemos também que $ E[S_{ik}]=0 $ e $ E[\varepsilon_{ijk}]=0 $, assim:

$$=2\mu^2(n_1+n_2)+2\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(S_{ik}\right)+\frac{1}{2}\sum_{i=1}^{2}\sum_{k=1}^{n_i}var\left(\sum_{j=1}^{2}\varepsilon_{ijk}\right)$$

$$=2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+(n_1+n_2)\sigma^2$$

$$(***)=E\left[\frac{1}{2}\sum_{i=1}^{2}\sum_{j=1}^{2}\left(\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+4\sigma^2$$

$$(****)=E\left[\sum_{i=1}^{2}\frac{1}{2n_i}\left(\sum_{j=1}^{2}\sum_{k=1}^{n_i}\left(\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\lambda_{d[i,j-1]}+\varepsilon_{ijk}\right)\right)^2\right]$$

$$=2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2$$

Substituindo $(\ast)$, $(\ast\ast)$, $(\ast\ast\ast)$ e $(\ast\ast\ast\ast)$, obtemos:

$$=\frac{1}{n_1+n_2-2}\left(2\mu^2(n_1+n_2)+2(n_1+n_2)\sigma_s^2+2(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-2(n_1+n_2)\sigma_s^2\right.$$

$$\quad\left.-(n_1+n_2)\sigma^2-2(n_1+n_2)\mu^2-4\sigma_s^2-4\sigma^2+2(n_1+n_2)\mu^2+4\sigma_s^2+2\sigma^2\right)$$

$$=\frac{1}{n_1+n_2-2}\left((n_1+n_2-2)\sigma^2\right)$$

$$=\sigma^2$$

Portanto o valor esperado do QM para os fatores são:

$$E\left(QM_{\hbox{carry-over}}\right)=\frac{2n_1n_2}{(n_1+n_2)}(R_R-R_T)^2+2\sigma^2_S+\sigma^2$$

$$E\left(QM_{\hbox{inter}}\right)=2\sigma^2_S+\sigma^2$$

$$E\left(QM_{\hbox{droga}}\right)=\frac{2n_1n_2}{(n_1+n_2)}\left[(F_R-F_T)-\frac{(R_R-R_T)}{2}\right]^2+\sigma^2$$

$$E\left(QM_{\hbox{período}}\right)=\frac{2n_1n_2}{(n_1+n_2)}(\pi_1-\pi_2)^2+\sigma^2$$

$$E\left(QM_{\hbox{intra}}\right)=\sigma^2$$

Exemplo 6.2.1

Considere um ensaio de bioequivalência com uma amostra de $ 24 $ indivíduos, a qual foi dividida em dois grupos de $ 12 $. Cada grupo recebeu dois tipos de tratamento em dois períodos diferentes.

Individuo Formulaçao Sequencia Período Cmax
1 2 T/R 1 5,771229
2 1 R/T 1 5,918942
3 2 T/R 1 5,753858
4 2 T/R 1 5,507472
5 2 T/R 1 5,634815
6 1 R/T 1 5,618185
7 2 T/R 1 5,790462
8 1 R/T 1 5,676459
9 1 R/T 1 5,960286
10 1 R/T 1 5,672687
11 2 T/R 1 5,937668
12 1 R/T 1 5,762966
13 2 T/R 1 5,836
14 1 R/T 1 5,508047
15 1 R/T 1 5,810569
16 2 T/R 1 5,730187
17 1 R/T 1 5,799308
18 2 T/R 1 5,950617
19 1 R/T 1 5,697382
20 2 T/R 1 5,775529
21 1 R/T 1 5,883044
22 2 T/R 1 5,771488
23 2 T/R 1 5,778946
24 1 R/T 1 5,715441
1 1 T/R 2 5,77721
2 2 R/T 2 5,863353
3 1 T/R 2 5,743881
4 1 T/R 2 5,476221
5 1 T/R 2 5,608805
6 2 R/T 2 5,564367
7 1 T/R 2 6,000553
8 2 R/T 2 5,702769
9 2 R/T 2 6,034215
10 2 R/T 2 5,750364
11 1 T/R 2 5,898801
12 2 R/T 2 5,596301
13 1 T/R 2 5,954801
14 2 R/T 2 5,741354
15 2 R/T 2 5,94414
16 1 T/R 2 5,751842
17 2 R/T 2 5,99174
18 1 T/R 2 6,168313
19 2 R/T 2 5,835787
20 1 T/R 2 5,754111
21 2 R/T 2 5,885648
22 1 T/R 2 5,616506
23 1 T/R 2 5,821823
24 2 R/T 2 5,747691

Tabela 9.6.3: Amostra do Ensaio de bioequivalência

O modelo estatístico para este planejamento é

$$y_{ijk} = \mu + S_{ik} + \pi_j + \tau_{d[i,j]} +\lambda_{d[i,j-1]}~+~ \varepsilon_{ijk} ~~~~~\begin{cases}i = 1, \cdots, s~~ \hbox{(Sequência)} \cr j = 1, \cdots, p~~ \hbox{(Período)} \cr k = 1, \cdots,n_i~~ \hbox{(Indivíduo)} \end{cases}$$

Em que:

$ y_{ijk} $ representa a resposta do k-ésimo indivíduo na i-ésima sequência no j-ésimo período;

$ \mu $ é uma média geral;

$ S_{ik} $ é o efeito aleatório do k-ésimo indivíduo na sequência $ i $;

$ \pi_j $ é o efeito do período $ j $, com $ \sum_{j=1}^{p}\pi_j=0 $;

$\tau_{d[i,j]}$ é o efeito direto do tratamento administrado no período $j$ da sequência $i$ (Efeito da Formulação), com $\sum\tau_{d[i,j]}=0$;

$ \lambda_{d[i,j-1]} $ é o efeito direto do tratamento administrado no período $ j-1 $ da sequência $ i $ (Efeito Carry-over), com $ \sum \tau_{d[i,j-1]}=0 $;

$ \varepsilon_{ijk} $ é o erro aleatório para o k-ésimo indivíduo no j-ésimo período na i-ésima sequência.

Estamos interessados em testar se as duas formulações são equivalentes. Dessa forma, a partir do modelo proposto, definimos as hipóteses como:

$$\begin{cases} H_0: F_R = F_T \cr H_1: F_R \neq F_T \end{cases} ~~~~ \hbox{Para testar o efeito da formulação}$$

Considerando o modelo e as hipóteses apresentadas calculamos:

$$SQ_{\hbox{carry-over}}=\frac{2*12*12}{(12+12)}\left(5,7784-5,7838\right)^2=0,00035$$

$$SQ_{\hbox{inter}}=1605,05-1604,206926=0,843074$$

$$SQ_{\hbox{droga}}=\frac{12*12}{2(12+12)}\left(5,7519-5,8048-5,7698+5,7977\right)^2=0,001875$$

$$SQ_{\hbox{período}}=\frac{12*12}{2(12+12)}\left(5,7519-5,8048+5,7698-5,7977\right)^2=0,01958592$$

$$SQ_{\hbox{intra}}=1605,20-1605,05-0,001875-0,01958592=0,12853908$$

$$QM_{\hbox{carry-over}}=\frac{0,00035}{1}=0,00035$$

$$QM_{\hbox{inter}}=\frac{0,843074}{12+12-2}=0,03832$$

$$QM_{\hbox{droga}}=\frac{0,001875}{1}=0,001875$$

$$QM_{\hbox{período}}=\frac{0,01958592}{1}=0,01958592$$

$$QM_{\hbox{intra}}=\frac{0,12853908}{12+12-2}=0,0058$$

6.3 - Estimação dos parâmetros do modelo

O interesse dos pesquisadores em estudos cross-over é saber o quanto as formulações são semelhantes, diferentes ou equivalentes. A análise estatística proposta por Westlake (1972 e 1976), Metzler (1974) é a utilização de intervalos de confiança para a diferença e razão entre as médias das formulações. Nesta seção, trataremos sobre intervalos de confiança para a média e para a diferença de médias.

Intervalo de Confiança para a Média

Seja o modelo (desprezando o efeito carry-over):

$$ Y_{ijk}=\mu+S_{ik}+\pi_j+\tau_{d[i,j]}+\varepsilon_{ijk}\begin{cases} i=1,\cdots,s\quad \hbox{(Sequência)} \cr j=1,\cdots,p\quad \hbox{(Período)} \cr k=1,\cdots,n_i\quad \hbox{(Indivíduo)} \end{cases}$$

Considerando um planejamento cross-over, sem réplicas, para dois medicamentos (T = teste; R = referência), temos que cada indivíduo é aleatoriamente alocado para a sequência RT ou TR em dois períodos de dosagem. Isto é, indivíduos alocados na sequência RT (TR) recebem formulação R (T) no primeiro período de dosagem e formulação T (R) no segundo período de dosagem.

Seja:

$ \bar{Y}_R=\frac{1}{2}\left(\bar{Y}_{11.}+\bar{Y}_{22.}\right) $ a média referente ao tratamento de referência

e

$ \bar{Y}_T=\frac{1}{2}\left(\bar{Y}_{21.}+\bar{Y}_{12.}\right) $ a média referente ao tratamento teste.

Então:

$$E(\bar{Y}_R)=\frac{1}{2}\left(2\mu+\pi_1+\pi_2+2F_R\right)$$

$$var(\bar{Y}_R)=\frac{(\sigma^2_S+\sigma^2)}{4}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)$$

$$E(\bar{Y}_T)=\frac{1}{2}\left(2\mu+\pi_1+\pi_2+2F_T\right)$$

$$var(\bar{Y}_T)=\frac{(\sigma^2_S+\sigma^2)}{4}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)$$

Considerando $ \bar{Y}_l $ para $ l=R $ ou $ T $ a média de interesse, então, sabemos que $ \quad\dfrac{\bar{Y}_l-E(\bar{Y}_l)}{var(\bar{Y}_l)}\sim N(0,1). $

Sendo $ E(\bar{Y}_l)=\mu_l $ e $ (\sigma^2_S+\sigma^2) $ estimado por $ QM_{\hbox{intra}} $ ,então:

$$T=\dfrac{\bar{Y}_l-\mu_l}{\sqrt{\frac{QM_{\hbox{intra}}}{4}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \sim t_{n_1+n_2-2}.$$

Intervalo de Confiança para diferença das Médias

Sabemos que

$$\bar{Y}_T\sim N\left(2\mu+\pi_1+\pi_2+2F_T;\frac{1}{4}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

e

$$\bar{Y}_R\sim N\left(2\mu+\pi_1+\pi_2+2F_R;\frac{1}{4}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

Nesse sentido,

$$\bar{Y}_T-\bar{Y}_R\sim N\left(F_T-F_R;\frac{1}{2}(\sigma^2_S+\sigma^2)\left(\frac{1}{n_1}+\frac{1}{n_2}\right)\right)$$

Temos então que,

$$Z=\frac{\left(\bar{Y}_T-\bar{Y}_R\right)-\left(F_T-F_R\right)}{\sqrt{\frac{(\sigma^2_S+\sigma^2)}{2}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}}\sim~N(0,1).$$

Vamos considerar que $ (\sigma^2_S+\sigma^2) $ pode ser estimado por $ QM_{{intra}} $. Com isso,

$$U=\frac{(n_1+n_2-2)QM_{\hbox{intra}}}{(\sigma^2_S+\sigma^2)}\sim\chi^2(n_1+n_2-2)$$

Sendo Z e U independentes, então

$$T=\frac{Z}{\sqrt{\frac{U}{n_1+n_2-2}}}=\frac{\left(\bar{Y}_T-\bar{Y}_R\right)-\left(F_T-F_R \right)}{\sqrt{\frac{QM_{\hbox{intra}}}{2}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}} \sim t(n_1+n_2-2)$$

A partir disso, fixando um valor $ \alpha $ tal que, $ 0 \ < \ 1-\alpha \ < \ 1 $, podemos encontrar um valor $ t_{\frac{\alpha}{2}} $ tal que $ P\left(-t_{\frac{\alpha}{2}} \ < \ T \ < \ t_{\frac{\alpha}{2}}\right)=1-\alpha $.

Assim, o intervalo de confiança para $ (F_T-F_R) $, com nível de significância $ \alpha $, é dado por:

$IC[(F_T-F_R) ; \gamma] = \left[\left(\bar{Y}_T-\bar{Y}_R \right)-t_{\frac{\alpha}{2}}\sqrt{\frac{QM_{\hbox{intra}}}{2}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)} \ < \ \left(F_T-F_R\right) \ < \ (\bar{Y}_T-\bar{Y}_R)+t_{\frac{\alpha}{2}}\sqrt{\frac{QM_{\hbox{intra}}}{2}\left(\frac{1}{n_1}+\frac{1}{n_2}\right)}\right]. $

Exemplo 6.3.1

Voltando ao Exemplo 1.2.1.

Calculamos o intervalo de confiança para $ \mu_l $.

Para $ l = R, T $ temos que:

  • Para $ \mu_R $.

Sabemos que $ \bar{y}_R=5,7748 $,$ n_1=12 $,$ n_2=12 $,$ QM_{\hbox{intra}}=0,005842685 $ e para $ \alpha = 10 \char37 $ temos que $ t_{(\frac{\alpha}{2},22)}=1,7171 $. Então, o intervalo é

$$\left(5,7480;5,8016\right)$$

  • Para $ \mu_T $.

Sabemos que $ \bar{y}_T=5,7873 $,$ n_1=12 $,$ n_2=12 $,$ QM_{\hbox{intra}}=0,005842685 $ e para $ \alpha=10 \char37 $ temos que $ t_{(\frac{\alpha}{2},22)}=1,7171 $. Então, o intervalo é

$$\left(5,7605;5,8141\right)$$

Agora calculamos o intervalo de confiança para $ (F_T-F_R) $.

Sabemos que $ \bar{y}_T=5,7873 $,$ \bar{y}_R=5,7748 $,$ n_1=12 $,$ n_2=12 $,$ QM_{\hbox{intra}}=0,005842685 $ e para $ \alpha=10 \char37 $ temos que $ t_{(\frac{\alpha}{2},22)}=1,7171 $. Então, o intervalo é

$$\left(-0,0254;0,0504\right)$$

6.4 - Análise Estatística

Especificamente, estamos interessados em testar as seguintes hipóteses sobre os efeitos dos fatores:

Objetivo Hipótese
efeito do Período $\begin{cases}H_0: \pi_1 = \pi_2 \cr H_1: \pi_1 \neq \pi_2 \end{cases}$
efeito da Formulação $ \begin{cases} H_0: F_R = F_T \cr H_1: F_R \neq F_T \end{cases} $
efeito Carry-over $\begin{cases}H_0: R_R = R_T \cr H_1: R_R \neq R_T \end{cases}$

Tabela 9.6.4: Hipóteses sobre os efeitos dos fatores

Vamos mostrar como essas hipóteses são testadas usando a análise de variância. Para determinarmos a estatística do teste, vamos observar que

$$SQ_{\hbox{entre}}=SQ_{\hbox{carry-over}}+SQ_{\hbox{inter}}$$

e

$$SQ_{\hbox{dentro}}=SQ_{\hbox{droga}}+SQ_{\hbox{período}}+SQ_{\hbox{intra}}$$

com isso,

$$\frac{SQ_{\hbox{entre}}}{2(2\sigma^2_S+\sigma^2)}=\frac{SQ_{\hbox{carry-over}}}{2(2\sigma^2_S+\sigma^2)}+\frac{SQ_{{inter}}}{2(2\sigma^2_S+\sigma^2)} \tag{1}$$

e

$$\frac{SQ_{\hbox{dentro}}}{\sigma^2}=\frac{SQ_{\hbox{droga}}}{\sigma^2}+\frac{SQ_{\hbox{período}}}{\sigma^2}+\frac{SQ_{\hbox{intra}}}{\sigma^2} \tag{2}$$

Assim, sob $ H_0 $ temos que

$$\chi^2_{n_1+n_2-1}=\chi^2_{1}+\chi^2_{n_1+n_2-2}\tag{3}$$

e

$$\chi^2_{n_1+n_2}=\chi^2_{1}+\chi^2_{1}+\chi^2_{n_1+n_2-2} \tag{4}$$

Portanto, a soma de quadrados da Equação (1) dividido por $ 2(2\sigma^2_S+\sigma^2) $ e a soma de quadrados da Equação (2) dividido por $ \sigma^2 $ tem distribuição qui-quadrado com $ n_1+n_2-1 $ e $ n_1+n_2 $ graus de liberdade, respectivamente. Além disso, cada parcela das Equações (1) e (2) também tem distribuição qui-quadrado com graus de liberdade expressos nas Equações (4) e (5), respectivamente. Pelo teorema de Cochram, verificamos que as distribuições qui-quadrado expressas no lado direito da Equação (3) são independentes, o mesmo ocorre na Equação (4). Portanto, a estatística para testar o efeito carry over,

$$F=\frac{\frac{SQ_{\hbox{carry-over}}}{2(2\sigma^2_S+\sigma^2)}}{\frac{SQ_{\hbox{inter}}}{2(2\sigma^2_S+\sigma^2)(n_1+n_2-2)}}=\frac{QM_{\hbox{carry-over}}}{QM_{\hbox{inter}}} \sim F(1;n_1+n_2-2)$$

tem distribuição de Fisher-Snedecor com $ 1 $ grau de liberdade no numerador e $ n_1+n_2-2 $ graus de liberdade no denominador.

A região crítica (RC) do teste F é dada por

$ RC=(F\in\Re^+|Fgt;F_c) $.

Com isso, utilizando o número de graus de liberdade do numerador e denominador, podemos, considerando um nível de significância $ \alpha $ encontrar o valor de $ F_c $ na tabela da distribuição F-Snedecor. A figura abaixo mostra a região crítica do teste.

Figura9.1.5

Figura 9.6.1: Quantil da distribuição F-Snedecor.

Obs.: O teste $ F $ para as médias dos fatores droga e período se desenvolve da mesma forma porém, devemos observa que no denominador da estatística $ F $ deveremos usar $ SQ_{\hbox{intra}} $ ao invés de $ SQ_{\hbox{inter}} $.

O teste estatístico para a hipótese de igualdade de médias é resumido na tabela. Essa tabela é chamada de tabela de análise de variância.

Fator Graus de Liberdade Soma de Quadrados Quadrados Médios F
entre
carry-over $1$ $SQ_{\text{carry-over}}$ $QM_{\text{carry-over}}$ $\dfrac{QM_{\text{carry-over}}}{QM_{\text{inter}}}$
inter $n_1 + n_2 - 2$ $SQ_{\text{inter}}$ $QM_{\text{inter}}$
dentro
droga $1$ $SQ_{\text{droga}}$ $QM_{\text{droga}}$ $\dfrac{QM_{\text{droga}}}{QM_{\text{intra}}}$
período $1$ $SQ_{\text{período}}$ $QM_{\text{período}}$ $\dfrac{QM_{\text{período}}}{QM_{\text{intra}}}$
intra $n_1 + n_2 - 2$ $SQ_{\text{intra}}$ $QM_{\text{intra}}$
Total $2(n_1 + n_2) - 1$ $SQT$

Tabela 9.6.5: Tabela de Análise de Variância (ANOVA).

Exemplo 1.4.1:

Voltando ao Exemplo 1.2.1.

Calculando a estatística do teste temos:

$$F_0=\frac{0,00035}{0,03832}=0,01$$

$$F_0=\frac{0,001875}{0,0058}=0,321$$

$$F_0=\frac{0,01958592}{0,0058}=3,35$$

Substituindo os resultados encontrados na tabela da ANOVA, temos:

Fator Graus de Liberdade Soma de Quadrados Quadrados Médios F
entre
carry-over 1 0,00035 0,00035 0,01
inter 22 0,843074 0,03832
dentro
droga 1 0,001875 0,001875 0,321
período 1 0,01958592 0,01958592 3,35
intra 22 0,12853908 0,0058
Total 47

Tabela 9.6.6: Tabela ANOVA

November 3, 2025: revisão (005eec7d)