4.1. Regressão Linear Simples
Motivação 1
Em problemas de tratamento térmico deseja-se estabelecer uma relação entre a temperatura da estufa e uma característica da qualidade (dureza, por exemplo) de uma peça. Desta forma, pretende-se determinar os valores de temperatura em °C que “otimizam” a performance do processo de tratamento térmico em relação a estrutura metalográfica do material, avaliada em relação de dureza em HB.
Considere que em um experimento, a dureza de pistões foi medida em diferentes níveis de temperatura escolhidos conforme interesse (T1 = 220ºC, T2 = 225ºC, T3 = 230ºC e T4 = 235ºC ). Para cada ponto de temperatura foram submetidos ao tratamento térmico 5 pistões. Os dados observados são apresentados na Tabela 4.1.1 e o objetivo é estabelecer uma relação entre a variável de entrada (temperatura) e a variável de saída (dureza).
| Observação | Dureza (HB) | Temperatura (ºC) | Observação | Dureza (HB) | Temperatura (ºC) |
|---|---|---|---|---|---|
| 1 | 137 | 220 | 11 | 128 | 230 |
| 2 | 137 | 220 | 12 | 124 | 230 |
| 3 | 137 | 220 | 13 | 126 | 230 |
| 4 | 136 | 220 | 14 | 129 | 230 |
| 5 | 135 | 220 | 15 | 126 | 230 |
| 6 | 135 | 225 | 16 | 122 | 235 |
| 7 | 133 | 225 | 17 | 122 | 235 |
| 8 | 132 | 225 | 18 | 122 | 235 |
| 9 | 133 | 225 | 19 | 119 | 235 |
| 10 | 133 | 225 | 20 | 122 | 235 |
Tabela 4.1.1: Dados de dureza em um conjunto de pistões à diferentes níveis de temperatura.
Na maioria das vezes não se conhece a princípio a real relação existente entre as variáveis de interesse. Assim, uma análise gráfica preliminar é realizada construindo-se o gráfico de dispersão entre as variáveis em questão. Este gráfico é importante em qualquer análise de regressão já que por meio dele é possível ter uma noção do tipo de relação existente entre as variáveis (relação linear, quadrática). Esta relação na maioria das vezes não é perfeita, ou seja, os pontos não estão dispostos perfeitamente sobre a função que relaciona as duas variáveis mas deseja-se que estes pontos estejam próximos. Além disto, o gráfico de dispersão dá indícios sobre a variabilidade associada as variáveis em questão e sobre pontos atípicos ou discrepantes. Para o conjunto de dados da Tabela 4.1, o gráfico de dispersão é dado por
Figura 4.1.1: Temperatura da Estufa vs Dureza dos pistões.
Pela Figura 4.1.1, observa-se que à medida que o nível da temperatura aumenta, a dureza dos pistões diminui. Desta forma, supor uma relação linear entre as variáveis temperatura e dureza, para valores de temperatura entre 220ºC e 235ºC é razoável.
1.1 Modelo Estatístico
Como visto na Figura 4.1.1 referente à Motivação 1, é razoável supor que a relação existente entre as variáveis dureza de pistões, denotada por Y e níveis de temperatura, denotada por X, é linear. Desta forma, definimos o seguinte modelo de regressão linear simples entre Y (variável resposta) e X (variável regressora).
Definição 1.1.1
Consideremos duas variáveis X e Y. Dados $n$ pares $(X_1,Y_1),(X_2,Y_2),…,(X_n,Y_n)$, se Y é função linear de X, pode-se estabelecer uma regressão linear simples cujo modelo estatístico é:
$$Y_i= \beta_0 + \beta_1 x_i+\varepsilon_i, \quad \hbox{para} \ i=1,\ldots,n, \tag{1.1.1}$$
em que substituímos $X_i$ por $x_i$ uma vez que $X_i$ é uma variável determinística (constante conhecida).
Neste modelo,
-
$Y_i$ é uma variável aleatória e representa o valor da variável resposta (variável dependente) na i-ésima observação;
-
$x_i$ representa o valor da variável explicativa (variável independente, variável regressora) na i-ésima observação;
-
$\epsilon_i$ é uma variável aleatória que representa o erro experimental;
-
$\beta_0$ e $\beta_1$ são os parâmetros do modelo, que serão estimados, e que definem a reta de regressão e $n$ é o tamanho da amostra.
1.1.1 Interpretação dos parâmetros do modelo
O parâmetro $\beta_0$ é chamado intercepto ou coeficiente linear e representa o ponto em que a reta regressora corta o eixo dos $y$’s, quando $x=0$. Já o parâmetro $\beta_1$ representa a inclinação da reta regressora e é dito coeficiente de regressão ou coeficiente angular. Além disso, temos que para um aumento de uma unidade na variável $x$, o valor $E(Y|x)$ aumenta $\beta_1$ unidades. A interpretação geométrica dos parâmetros $\beta_0$ e $\beta_1$ pode ser vista na Figura 4.1.2.
Figura 4.1.2: Reta Regressora
Um ponto negativo na Definição 1.1.1 é que o modelo de regressão linear simples não acomoda impactos de erros experimentais (variação de matéria prima), de erros de medida, entre outras inúmeras fontes de variabilidade, tornando-se inadequado nestes casos.
1.1.2 Suposições para o modelo
Ao estabelecer o modelo 1.1.1 para os dados, pressupomos que:
i) A relação matemática entre $Y$ e $X$ é linear;
ii) Os valores de $x$ são fixos (ou controlados), isto é, $x$ não é uma variável aleatória;
iii) A média do erro é nula, ou seja, $E(\epsilon_i)=0$. Desta forma, segue que
$$E(Y_{i})=E(\beta_{0}+\beta_{1}x_{i}+\epsilon_{i})=\beta_{0}+\beta_{1}x_{i}+E(\epsilon_{i})=\beta_{0}+\beta_{1}x_i$$
e portanto, a função de regressão para o modelo 1.1.1 é dada por:
$$E[Y\mid x]=\beta_{0}+\beta_{1}x$$
Note que o valor observado de $Y_i$ está em torno do valor da função de regressão com erro experimental $\epsilon_i$.
iv) Para um dado valor de $x$, a variância de $\epsilon_i$ é sempre $\sigma^2$, isto é,
$$Var(\varepsilon_i)= E(\varepsilon_i^2) - [E(\varepsilon_i)]^2 = E(\varepsilon_i^2) = \sigma^2, $$
isto implica em:
$$Var(Y_i)= E[Y_i - E(Y_i|x_i)]^2 = E(\varepsilon_i^2) = \sigma^2.$$
Neste caso, dizemos que o erro é homocedástico (tem variância constante);
v) O erro de uma observação é não correlacionado com o erro de outra observação, isto é,
$$Cov(\varepsilon_i, \varepsilon_j)-E(\varepsilon_i)E(\varepsilon_j)=E(\varepsilon_i, \varepsilon_j)=0, \quad para \quad i\neq0$$
Esta hipótese não implica que os erros sejam independentes. Se a distribuição dos erros for normal, esta hipótese é equivalente a independência dos erros.
vi) Frequentemente, supomos que os erros tem distribuição Normal.
Desta forma, combinando (iii), (iv) e (vi) temos que $\varepsilon_i \sim N(0 \ , \ \sigma^2)$. Como $Y_i$ é a soma de um termo constante, $\beta_{0}+\beta_{1}x_{i}$, com um termo aleatório, $\epsilon_{i}$, segue que $Y_i \sim N(\beta_0 + \beta_1 x_i \ ,\ \sigma^2).$ Além disso, por (v) e (vi) temos que $Y_i$ e $Y_j$ são independentes. A suposição de normalidade é necessária para a elaboração dos testes de hipóteses e obtenção de intervalos de confiança.
1.2 Estimação dos Parâmetros do Modelo
Supondo que a relação linear entre as variáveis $Y$ e $X$ é satisfatória, podemos estimar a linha de regressão e resolver alguns problemas de inferência. O problema de estimar os parâmetros $\beta_{0}$ e $\beta_{1}$ é o mesmo que ajustar a melhor reta em um gráfico de dispersão, como na Figura 4.1.3. O Método dos Mínimos Quadrados é uma eficiente estratégia de estimação dos parâmetros da regressão e sua aplicação não é limitada apenas às relações lineares.
Figura 4.1.3: Representação da Reta de Regressão
1.2.1 Método dos Mínimos Quadrados
O primeiro passo na análise de regressão é obter as estimativas $\widehat{\beta_0}$ e $\widehat{\beta_1}$ dos parâmetros do modelo. Os valores dessas estimativas serão obtidos a partir de uma amostra de $n$ pares de valores $(X_i,Y_i)$, $i=1,…,n$ que correspondem a $n$ pontos em um gráfico, como na Figura 1.2.1. No método de Mínimos Quadrados, não é necessário conhecer a forma da distribuição dos erros.
Suponha que é traçada uma reta arbitrária $\beta_0 + \beta_1 x$ passando por esses pontos. No valor $x_i$ da variável explicativa, o valor predito por esta reta é $\beta_0 + \beta_{1} x_i$, enquanto o valor observado é $Y_i$. Os desvios (erros) entre estes dois valores é $\varepsilon_i=Y_i-[\beta_0+\beta_1 x_i]$, que corresponde a distância vertical do ponto à reta arbitrária.
O objetivo é estimar os parâmetros $\beta_0$ e $\beta_1$ de modo que os desvios ($\varepsilon_i$) entre os valores observados e estimados sejam mínimos. Isso equivale a minimizar o comprimento do vetor de erros, $\varepsilon=(\varepsilon_1,\varepsilon_2,\ldots,\varepsilon_n)^{\prime}$.
Uma forma de obter essas estimativas é o Método de Mínimos Quadrados. Este método consiste em minimizar a soma dos quadrados dos desvios L, como na expressão abaixo
$$L=\displaystyle\sum^n_{i=1}\varepsilon_i^2=\sum^n_{i=1}[Y_i-\beta_0-\beta_1 x_i]^2. \tag{1.2.1.1}$$
Obviamente, que poderíamos calcular a distância entre a reta e os valores observados de diferentes formas. Por exemplo, poderíamos utilizar o módulo ao invés do quadrado, ou qualquer função de distância apropriada. A escolha do quadrado está na simplicidade dos cálculos envolvidos
Para encontrarmos estimativas para os parâmetros, vamos minimizar (1.2.1.1) em relação aos parâmetros $\beta_0$ e $\beta_1$. Para isto, derivamos em relação aos parâmetros $\beta_0$ e $\beta_1$. Assim,
$$\frac{\partial L(\beta_0,\beta_1)}{\partial \beta_0}=-2\sum^n_{i=1}(Y_i-\beta_0-\beta_1 x_i)$$
$$\hbox{e\ }\frac{\partial L(\beta_0,\beta_1)}{\partial\beta_1}=-2\sum^n_{i=1}(Y_i-\beta_0-\beta_1 x_i)x_i.$$
Substituindo $\beta_0$ e $\beta_1$ por $\widehat{\beta_0}$ e $\widehat{\beta_1}$, para indicar valores particulares dos parâmetros que minimizam L, e igualando as derivadas parciais a zero, obtemos
$$-2\sum^n_{i=1}(Y_i-\widehat{\beta_0}-\widehat{\beta_1} x_i)=0$$
$$\hbox{e\ }-2\sum^n_{i=1}(Y_i-\widehat{\beta_0}-\widehat{\beta_1} x_i)x_i=0.$$
Simplificando, obtemos as equações denominadas Equações Normais de Mínimos Quadrados.
$$ \begin{cases} n \widehat{\beta_0}+\widehat{\beta_1}\sum\limits^n_{i=1}x_i=\sum\limits^n_{i=1}Y_i \cr \widehat{\beta_0}\sum\limits^n_{i=1}x_i+\widehat{\beta_1}\sum\limits^n_{i=1} x_i^2 = \sum\limits_{i=1}^n x_i Y_i \quad \tag{1.2.1.2} \end{cases} $$
Para encontrarmos os valores de $\widehat\beta_{0}$ e $\widehat\beta_{1}$ que minimizam L, resolvemos o sistema de equações dado em (1.2.1.2). Considerando a primeira equação de (1.2.1.2) obtemos que,
$$ \widehat{\beta_0}=\frac{\sum\limits_{i=1}^n Y_i}{n}-\frac{\widehat{\beta_1}\sum\limits_{i=1}^n x_i}{n}, $$
ou seja,
$$\widehat{\beta_0}=\bar{Y}-\widehat{\beta_1}\bar{x}, \tag{1.2.1.3}$$
em que $\bar{x}=\dfrac{1}{n}\sum\limits^n_{i=1}x_i\quad\hbox{e}\quad\bar{Y}=\dfrac{1}{n}\sum\limits^n_{i=1} Y_i$ são as médias de x e da variável Y, respectivamente.
Desta forma, substituindo (1.2.1.3) na segunda equação de (1.2.1.2) temos que,
$$\widehat{\beta_1}\displaystyle\sum_{i=1}^n x_i^2=\displaystyle\sum_{i=1}^n x_i Y_i-\widehat{\beta_0}\displaystyle\sum_{i=1}^n x_i$$
$$=\displaystyle\sum_{i=1}^n x_i Y_i-\left(\bar{Y}-\widehat{\beta_1}\bar{x}\right)\displaystyle\sum_{i=1}^n x_i$$
$$=\displaystyle\sum_{i=1}^n x_i Y_i-\bar{Y}\displaystyle\sum_{i=1}^n x_i-\widehat{\beta_1}\bar{x}\displaystyle\sum_{i=1}^n x_i$$
$$=\displaystyle\sum_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}+n\widehat{\beta_1}\bar{x}^2.$$
Então,
$$\widehat{\beta_1}\left(\displaystyle\sum_{i=1}^n x_i^2-n\bar{x}^2 \right)=\sum_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}$$
e portanto, concluímos que
$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}}{\displaystyle\sum\limits_{i=1}^n x_i^2-n\bar{x}^2}.$$
Podemos também escrever
$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})(Y_i - \bar{Y})}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})x_i}=\dfrac{\displaystyle\sum\limits_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}}{\displaystyle\sum\limits_{i=1}^n x_i^2-n\bar{x}^2}.$$
Os valores de $\widehat{\beta_0}$ e $\widehat{\beta_1}$ assim determinados são chamados Estimadores de Mínimos Quadrados (EMQ).
O modelo de regressão linear simples ajustado é então
$$\widehat{Y}=\widehat{\beta_0}+\widehat{\beta_1}x, \tag{1.2.1.4}$$
sendo que $\widehat{Y}$ é um estimador pontual da média da variável Y para um valor de $x$, ou seja,
$$\widehat{E(Y|x_i)}=\widehat{\beta_0}+\widehat{\beta_1} x_{i},\quad i=1,\dots,n.$$
Notação
Considerando n pares de valores observados $(x_1,y_1),…,(x_n,y_n)$,
$$\bar{x}=\frac{1}{n}\sum^n_{i=1}x_i,\quad\bar{y}=\frac{1}{n}\sum^n_{i=1} y_i, \tag{1.2.1.5}$$
$$S _{xx}=\sum^n_{i=1}(x_i-\bar{x})^2=\sum^n_{i=1}(x_i-\bar{x})x_i=\sum^n_{i=1}x_i^2-n\bar{x}^2=\sum^n_{i=1}x_i^2-\frac{\left(\sum\limits_{i=1}^n x_i\right)^2}{n}, \quad \tag{1.2.1.6}$$
$$S_{yy}=\sum^n_{i=1}(y_i-\bar{y})^2=\sum^n_{i=1}(y_i-\bar{y})y_i=\sum^n_{i=1}y_i^2- n \bar{y}^2=\sum^n_{i=1}y_i^2-\frac{\left(\sum\limits_{i=1}^n y_i\right)^2}{n} \quad \tag{1.2.1.7}$$
$$\hbox{e\ }S_{xy}=\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})=\sum^n_{i=1}(x_i-\bar{x})y_i=\sum^n_{i=1}x_i y_i-n\bar{x}\bar{y}. \quad \tag{1.2.1.8}$$
As quantidades $\bar{x}$ e $\bar{y}$ são as médias amostrais de x e y. Já as quantidades $S _{xx}$ e $S_{yy}$ são as somas dos quadrados dos desvios das médias e $S_{xy}$ é a soma dos produtos cruzados dos desvios de x e y.
Desta forma, as estimativas de mínimos quadrados de $\beta_0$ e $\beta_1$, em termos desta notação são:
$$\widehat{\beta_1}=\frac{S_{xy}}{S _{xx}}\quad\hbox{e}\quad\widehat{\beta_0}=\bar {Y}-\widehat{\beta_1}\bar{x}.$$
Exemplo 1.2.1
Voltando à Motivação 1, em que queríamos determinar os valores de temperatura em $^{\circ}\mathrm{C}$ que otimizam a dureza do material, encontramos as estimativas dos parâmetros $\beta_{0}$ e $\beta_{1}$ pelo Método dos Mínimos Quadrados.
Solução:
As médias amostrais das variáveis temperatura $(X)$ e dureza $(Y)$ são, respectivamente,
$$\bar{x}=\dfrac{1}{20}\sum_{i=1}^{20}x_i=(220+220+\ldots+235+235)/20=227,5$$
$$\hbox{e\ }\bar{y}=\dfrac{1}{20}\sum_{i=1}^{20} y_i = 137+137+\ldots+119+122=129,4.$$
Além disso, na Tabela 1.2.1, apresentamos os valores de $x^2, y^2$ e $xy$ para cada observação $i$, $i=1,…,20$.
| Observação | Temperatura (x) | Dureza (y) | $x^2$ | $y^2$ | $x* y$ |
|---|---|---|---|---|---|
| 1 | 220 | 137 | 48.400 | 18.769 | 30.140 |
| 2 | 220 | 137 | 48.400 | 18.769 | 30.140 |
| 3 | 220 | 137 | 48.400 | 18.769 | 30.140 |
| 4 | 220 | 136 | 48.400 | 18.496 | 29.920 |
| 5 | 220 | 135 | 48.400 | 18.225 | 29.700 |
| 6 | 225 | 135 | 50.625 | 18.225 | 30.375 |
| 7 | 225 | 133 | 50.625 | 17.689 | 29.925 |
| 8 | 225 | 132 | 50.625 | 17.424 | 29.700 |
| 9 | 225 | 133 | 50.625 | 17.689 | 29.925 |
| 10 | 225 | 133 | 50.625 | 17.689 | 29.925 |
| 11 | 230 | 128 | 52.900 | 16.384 | 29.440 |
| 12 | 230 | 124 | 52.900 | 15.376 | 28.520 |
| 13 | 230 | 126 | 52.900 | 15.876 | 28.980 |
| 14 | 230 | 129 | 52.900 | 16.641 | 29.670 |
| 15 | 230 | 126 | 52.900 | 15.876 | 28.980 |
| 16 | 235 | 122 | 55.225 | 14.884 | 28.670 |
| 17 | 235 | 122 | 55.225 | 14.884 | 28.670 |
| 18 | 235 | 122 | 55.225 | 14.884 | 28.670 |
| 19 | 235 | 119 | 55.225 | 14.161 | 27.965 |
| 20 | 235 | 122 | 55.225 | 14.884 | 28.670 |
| Soma | 4.550 | 2.588 | 1.035.750 | 335.594 | 588.125 |
| Média | 227,5 | 129,4 |
Tabela 4.1.2: Dados da Motivação 1
Assim, encontramos as somas de quadrados
$$S _{xx}=\sum^n_{i=1}x_i^2-n\bar{x}^2=1035.750-20\times 227,50^2=625,$$
$$S_{yy}=\sum^n_{i=1}y_i^2-n\bar{y}^2= 335.594 - 20 \times 129,40^2=706,80$$
$$\hbox{e\ }S_{xy}=\sum^n_{i=1}x_i y_i-n\bar{x}\bar{y}=588.125 - 20 \times 227,50 \times 129,40=-645.$$
Logo, as estimativas dos parâmetros $\beta_{1}$ e $\beta_{0}$ são, respectivamente
$$\widehat\beta_1=\dfrac{-645}{625}=-1,032$$
$$\hbox{e\ }\widehat\beta_0=129,4-(-1,032)227,5=364,18.$$
Portanto, o modelo ajustado é dado por
$$\hbox{Dureza} = 364,18-1,032 \ \hbox{Temperatura}.$$
Pelos valores das estimativas, temos que a cada aumento da Temperatura, temos um decréscimo de 1,032 na Dureza.
1.2.2 Resíduos
A diferença entre o valor observado $Y_{i}$ e o correspondente valor ajustado $\widehat{Y}_{i}$, dado pela expressão (1.2.1.4), é chamada de resíduo e é denotado por
$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{0}+\widehat\beta_{1}x_{i}), \tag{1.2.2.1}$$
Essa medida é importante já que por meio dela verificamos o ajuste do modelo.
1.2.2.1 Algumas propriedades do ajuste de mínimos quadrados
(i) A soma dos resíduos é sempre nula.
$$\sum\limits_{i=1}^{n}e_{i}=\sum\limits_{i=1}^{n}(Y_{i}-\widehat{Y}_{i})=0 $$
Na realidade, basta substituirmos os estimadores de mínimos quadrados $$\sum\limits_{i=1}^{n}e_{i}=\sum_{i=1}^nY_i-n\hat{\beta_0}-\hat{\beta_1}\sum_{i=1}^nx_i=\sum_{i=1}^nY_i-n\bar{Y}+n\hat{\beta_1}\bar{x}-\hat{\beta_1}\sum_{i=1}^nx_i=0$$
(ii) A soma dos valores observados $Y_{i}$ é igual a soma dos valores ajustados $\widehat{Y}_{i}$.
$$\sum\limits_{i=1}^{n}Y_{i}=\sum\limits_{i=1}^{n}\widehat{Y}_{i}$$
(iii) A reta de regressão de mínimos quadrados passa pelo ponto $(\bar{x},\bar{Y})$. De fato,
$$Y_i=\beta_0+\beta_1x_1+\varepsilon_i=\beta_0+\beta_1(x_i-\bar{x})+\beta_1\bar{x}+\varepsilon_i=(\beta_0+\beta_1\bar{x})+\beta_1(x_i-\bar{x})+\varepsilon_i=$$ $$=\beta_0^{*}+\beta_1(x_i-\bar{x})+\varepsilon_i$$
com $\beta_0^{*}=\beta_0+\beta_1\bar{x}$. Assim, a reta de regressão ajustada é dada por
$$\widehat{Y}=\widehat{\beta_0}^{*}+\widehat{\beta_1}(x_i-\bar{x})=\widehat{\beta_0}+\widehat{\beta_1}\bar{x}+\widehat{\beta_1}(x_i-\bar{x})=(\bar{Y}-\widehat{\beta_1}\bar{x})+\widehat{\beta_1}\bar{x}+\widehat{\beta_1}(x_i-\bar{x})=$$ $$=\bar{Y}+\widehat{\beta_1}(x_i-\bar{x})$$
Logo, no ponto $x_i=\bar{x}$ temos que $$\widehat{Y}=\bar{Y}+\widehat{\beta}_{1}(\bar{x}-\bar{x})=\bar{Y}.$$ Portanto, temos que a reta ajustada passa por $(\bar{x},\bar{Y})$.
(iv) A soma dos resíduos ponderado pelo correspondente valor da variável regressora é sempre nula.
$$\sum\limits_{i=1}^{n}x_{i}e_{i}=0$$
(v) A soma dos resíduos ponderado pelo correspondente valor ajustado é sempre zero.
$$\sum\limits_{i=1}^{n}\widehat{Y}_{i}e_{i}=0$$
1.2.3 Estimador da variância residual
Assim como os parâmetros $\beta_{0}$ e $\beta_{1}$, a variância $\sigma^2$ dos termos do erro $\epsilon_i$ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de $Y$ requerem uma estimativa de $\sigma^2$. Consideremos os resíduos $e_{i}$ dado em (1.2.2.1). Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),
$$SQE = \sum\limits_{i=1}^n e_i^{2} = \sum\limits_{i=1}^n (Y_i-\widehat{Y}_i)^{2}=\sum\limits_{i=1}^n(Y_i-(\widehat{\beta_0}+\widehat{\beta_1}x_i))^{2}.$$
Será demonstrado a seguir em 1.3 Propriedades dos Estimadores que SQE é um estimador viciado de $\sigma^2$, isto é,
$$E(SQE)= \sigma^2(n-2).$$
Desta forma, um estimador não viciado para $\sigma^2$ é dado por
$$\widehat{\sigma}^2=QME=\dfrac{SQE}{n-2},$$
em que QME é o Quadrado Médio dos Erros (Resíduos).
Considerando $n$ pares de valores observados $(x_1,y_1),…,(x_n,y_n)$, podemos escrever
$$SQE=S_{yy}-\widehat{\beta}_{1}S_{xy},$$
será visto a seguir em 1.3 Propriedades dos Estimadores que $S_{yy}$ e $S_{xy}$ são dados respectivamente pelas expressões (1.2.1.6) e (1.2.1.7). Portanto,
$$QME=\dfrac{SQE}{n-2}=\dfrac{S_{yy}-\widehat{\beta}_{1}S_{xy}}{n-2}.$$
Daremos mais detalhes para a Soma de Quadrados dos Erros (SQE) e para o Quadrado Médio dos Erros (QME) na seção 1.5 Análise de Variância.
Exemplo 1.2.2
Obter um estimador não viesado para a variância residual do exemplo da Motivação 1.
Solução:
Temos que
$$SQE=S_{yy}-\widehat{\beta_1}S_{xy}.$$
Já vimos que $S_{yy}=706,8,$ $\widehat{\beta_1} = -1,032$ e $S_{xy}=-645,$ então
$$SQE=706,8 -(-1,032)(-645) = 706,8 - 665,64 = 41,16$$
$$\widehat{\sigma}^2=QME=\frac{SQE}{n-2} ~ = ~\frac{41,16}{18} ~ = ~2,2866.$$
Usando o Software Action obtemos os seguintes resultados:
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Temperatura | 1 | 665.64 | 665.64 | 291.0962 | 0 |
| Resíduos | 18 | 41.16 | 2.2867 |
Tabela 4.1.3: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -2.82 | -0.82 | 0.18 | 0 | 1.02 | 3.02 |
Tabela 4.1.4: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | 364.18 | 13.7649 | 26.4571 | 0 |
| Temperatura | -1.032 | 0.0605 | -17.0615 |
Tabela 4.1.5: Coeficientes
1.3 Propriedades dos Estimadores
Os estimadores de mínimos quadrados $\widehat\beta_{0}$ e $\widehat\beta_{1}$ possuem importantes propriedades: são não viciados e têm variância mínima entre todos os estimadores não viciados que são combinações lineares dos $Y_i$ (Teorema de Gauss-Markov). Desta forma, os estimadores de mínimos quadrados são frequentemente ditos “melhores estimadores lineares não viciados”.
1. Valor esperado (média) de $\widehat{\beta}_{1}$
Definindo
$$C_i=\dfrac{x_i-\bar{x}}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}\ \ i=1,\dots,n,$$
segue que,
$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\sum\limits_{i=1}^n C_i Y_i.$$
Assim, $\widehat{\beta_1}$ é uma combinação linear de $Y$. Desta forma,
$$E(\widehat{\beta_1})=E(\sum\limits_{i=1}^n C_i Y_i)=\sum\limits_{i=1}^n C_i E(Y_i)=\sum\limits_{i=1}^n C_i (\beta_0 + \beta_1 x_i)=\beta_0 \sum\limits_{i=1}^n C_i + \beta_1 \sum\limits_{i=1}^n C_i x_i.$$
Como
$$\sum\limits_{i=1}^n C_i = \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i -\bar{x})}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n x_i -n\bar{x}}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n x_i -\sum\limits_{i=1}^n x_i}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}=0$$
$$\hbox{e\ } \sum\limits_{i=1}^n C_i x_i= \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i -\bar{x})x_i}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2} = 1,$$
concluímos que $E(\widehat{\beta_1})=\beta_{1}$ (estimador não viciado).
2. Variância de $\widehat{\beta}_{1}$
De (1) temos que
$$Var(\widehat{\beta_1})=Var \left(\sum\limits_{i=1}^n C_i Y_i \right).$$
Como $Y_i$, $i=1,…,n$ são variáveis independentes, segue que
$$Var(\widehat{\beta_1})=\sum\limits_{i=1}^n C_i^2 Var(Y_i) = \displaystyle\sum\limits_{i=1}^n \left(\dfrac{(x_i - \bar{x})}{ \displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right)^2\sigma^2=\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$
Considerando n pares de valores observados $(x_1,y_1),…,(x_n,y_n)$, podemos escrever
$$Var(\widehat{\beta_1})=\dfrac{\sigma^2}{S _{xx}}.$$
3. Valor esperado (média) de $\widehat{\beta}_{0}$
$$E(\widehat{\beta_0})=E\left[\bar{Y}-\widehat{\beta_1}\bar{x}\right]=E(\bar{Y})-\bar{x}E(\widehat{\beta_1})=E\left(\sum\limits_{i=1}^n\dfrac{Y_i}{n}\right)-\bar{x}\beta_1= \sum\limits_{i=1}^n\dfrac{E(Y_i)}{n}-\bar{x}\beta_1.$$
Como $E(Y_i)=(\beta_0+\beta_1x_i)$, segue que
$$E(\widehat{\beta_0})= \dfrac{1}{n}\sum\limits_{i=1}^n(\beta_0+\beta_1x_i)-\bar{x}\beta_1= \beta_0+\beta_1 \dfrac{\displaystyle\sum\limits_{i=1}^n x_i}{n}-\bar{x}\beta_1= \beta_0.$$
(estimador não viciado).
4. Variância de $\widehat{\beta}_{0}$
$$Var(\widehat{\beta_0})=Var \left(\bar{Y}-\widehat{\beta_1} \bar{x}\right) = Var(\bar{Y}) + Var(\widehat{\beta_1} \bar{x})-2 Cov(\bar{Y},\widehat{\beta_1}\bar{x}).$$
Notemos que
$$Cov(\bar{Y},\widehat{\beta_1}\bar{x})=E(\bar{Y}\widehat{\beta_1}\bar{x})-E(\bar{Y})E(\widehat{\beta_1}\bar{x})=E(\bar{x}\bar{Y}\widehat{\beta_1})-E\left( \sum_{i=1}^n\dfrac{Y_i}{n}\right)\bar{x}\beta_1$$
$$=E\left(\bar{x}\dfrac{\displaystyle\sum\limits_{i=1}^n(\beta_0+\beta_1x_i+\varepsilon_i)}{n}\widehat{\beta_1}\right)-\dfrac{\bar{x}\beta_1}{n}\sum\limits_{i=1}^n(\beta_0+\beta_1x_i)=\dfrac{\bar{x}}{n}\sum\limits_{i=1}^n \left[ \beta_0\beta_1 + x_i\beta_1^2+E(\varepsilon_i \widehat{\beta_1})\right]$$
$$-\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)=\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)+\dfrac{\bar{x}}{n}\sum_{i=1}^nE(\varepsilon_i\widehat{\beta_1})-\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)=$$ $$=\dfrac{\bar{x}}{n}\sum_{i=1}^nE(\varepsilon_i\widehat{\beta_1}).$$
Como
$$ E(\varepsilon_i\widehat{\beta_1})=E\left[\varepsilon_i\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})Y_j}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right]=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E\left[\varepsilon_iY_j\right]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E\left[\varepsilon_i(\beta_0+\beta_1x_j+\varepsilon_j)\right]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} $$
$$ =\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})[\beta_0 E(\varepsilon_i)+\beta_1x_jE(\varepsilon_i)+E(\varepsilon_j\varepsilon_i)]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E(\varepsilon_j\varepsilon_i)}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=0,$$
já que para $i\neq j$,
$$E(\varepsilon_j\varepsilon_i)=0\Rightarrow E(\varepsilon_i\widehat{\beta_1})=0.$$
e para $i=j$,
$$E(\varepsilon_j\varepsilon_i)=\sigma^2\Rightarrow E(\varepsilon_i\widehat{\beta_1})=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\sigma^2\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=0;$$
segue que
$$Cov(\bar{Y},\widehat{\beta_1}\bar{x})=0.$$
Desta forma,
$$Var(\widehat{\beta_0})=Var(\bar{Y})+ Var(\widehat{\beta_1} \bar{x})=Var\left(\sum_{i=1}^n \frac{Y_i}{n}\right)+ \bar{x}^2 Var(\widehat{\beta_1}).$$
Como $Y_i$, $i=1,…,n$ são independentes, segue que
$$Var(\widehat{\beta_0})=\dfrac{1}{n^2}\sum\limits_{i=1}^n Var(Y_i)+ \bar{x}^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{n \sigma^2}{n^2}+ \bar{x}^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=$$ $$=\sigma^2 \left( \dfrac{1}{n} + \dfrac{\bar{x}^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$
Novamente, dados n pares de valores $(x_1,y_1),…,(x_n,y_n)$ escrevemos
$$Var(\widehat{\beta_0})=\sigma^2\left(\dfrac{1}{n}+\dfrac{\bar{x}^2}{S _{xx}}\right).$$
5. Covariância entre $\widehat{\beta_{0}}$ e $\widehat{\beta_{1}}$
$$Cov(\widehat{\beta_0}, \widehat{\beta_1})=E(\widehat{\beta_0}\widehat{\beta_1})-E(\widehat{\beta_0})E(\widehat{\beta_1})=E[(\bar{Y}-\widehat{\beta_1}\bar{x})\widehat{\beta_1}]-\beta_0\beta_1=E[\bar{Y}\widehat{\beta_1}-\bar{x}\widehat{\beta_1}^2]-\beta_0\beta_1=$$ $$ =E(\bar{Y}\widehat{\beta_1})$$
$$-\bar{x}E(\widehat{\beta_1}^2)-\beta_0\beta_1= E\left[\dfrac{1}{n}\sum\limits_{i=1}^n Y_i\widehat{\beta_1}\right]-\bar{x}[Var(\widehat{\beta_1})+ (E(\widehat{\beta_1}))^2]-\beta_0\beta_1=\dfrac{1}{n}\sum\limits_{i=1}^n E[(\beta_0+\beta_1x_i+\varepsilon_i)\widehat{\beta_1}]$$
$$-\bar{x}\left[ \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}+\beta_1^2\right] -\beta_0\beta_1=\dfrac{1}{n}\sum\limits_{i=1}^n E[\beta_0\widehat{\beta_1} + \beta_1\widehat{\beta_1}x_i+\varepsilon_i\widehat{\beta_1}]-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1$$
$$= \dfrac{1}{n} \sum\limits_{i=1}^n \left[\beta_0 \beta_1 + \beta_1^2 x_i + E(\varepsilon_i \widehat{\beta_1}) \right] - \dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1$$
$$= \beta_0 \beta_1 + \beta_1^2 \bar{x} + \dfrac{1}{n} \sum\limits_{i=1}^n E(\varepsilon_i \widehat{\beta_1})-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1=\dfrac{1}{n} \sum\limits_{i=1}^n E(\varepsilon_i \widehat{\beta_1})-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$
De (4) temos que
$$E(\varepsilon_i \widehat{\beta_1})=0$$
e portanto,
$$Cov(\widehat{\beta_0},\widehat{\beta_1})=-\dfrac{\bar{x}\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$
6. Distribuição amostral para $\widehat{\beta}_{1}$
Em (1), definimos
$$\widehat{\beta_1}=\sum\limits_{i=1}^n C_i Y_i.$$
Como $\widehat{\beta_1}$ é combinação linear de normais independentes (combinação linear dos $Y_i$), segue que $\widehat{\beta_1}$ também tem distribuição normal com média e variância dadas respectivamente em (1) e (2) e portanto,
$$\widehat{\beta_1} \sim N \left(\beta_1,\frac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$
7. Distribuição amostral para $\widehat{\beta}_{0}$
Como em (6), $\widehat{\beta_0}$ também é uma combinação linear de normais independentes $Y_i$, e portanto, também tem distribuição normal. A média e a variância de $\widehat{\beta}_{0}$ são apresentadas em (3) (4) respectivamente. Desta forma
$$\widehat{\beta_0} \sim N \left[\beta_0, \sigma^2 \left(\frac{1}{n} \frac{x^{-2}}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right)\right]. $$
8. Valor esperado (média) de QME
$$QME=\dfrac{SQE}{n-2}$$
Assim,
$$E(QME)=E\left(\dfrac{SQE}{n-2}\right)=\dfrac{E(SQE)}{n-2}.$$
Sabemos que
$$SQE = \sum e_i^{2}=\sum_{i=1}^n (Y_i-\widehat{Y}_i)^{2}=\sum_{i=1}^n(Y_i-(\widehat{\beta_0}+\widehat{\beta_1}x_i))^{2}=\sum_{i=1}^n[Y_i^{2}-2 Y_i(\widehat{\beta_0} +\widehat{\beta_1} x_i) + (\widehat{\beta_0} +\widehat{\beta_1} x_i)^{2}]$$
$$=\sum_{i=1}^n[Y_i^{2}-2 Y_i(\bar{Y} - \widehat{\beta_1} \bar{x} + \widehat{\beta_1} x_i) + (\bar{Y} - \widehat{\beta_1} \bar{x} +\widehat{\beta_1} x_i)^{2}]=\sum_{i=1}^n[Y_i^{2}-2 Y_i\bar{Y} +2Y_i\bar{x}\widehat{\beta_1} - 2Y_ix_i \widehat{\beta_1}+ [\bar{Y} - \widehat{\beta_1} (\bar{x} - x_i)^{2}]$$
$$=\sum_{i=1}^n[Y_i^{2}-2 Y_i\bar{Y} +2 Y_i\bar{x}\widehat{\beta_1}- 2Y_ix_i \widehat{\beta_1}+ \bar{Y}^2 - 2 \bar{Y} \widehat{\beta_1} (\bar{x} - x_i) + \widehat{\beta_1}^2 (\bar{x} - x_i)^2$$
$$=\sum_{i=1}^n[(Y_i -\bar{Y})^2 - 2 \widehat{\beta_1} (x_iY_i -\bar{x} Y_i + \bar{Y}\bar{x} - \bar{Y}x_i) + \widehat{\beta_1}^2 (\bar{x} - x_i)^2]$$
$$= \sum_{i=1}^n(Y_{i}-\bar{Y})^2- 2\widehat{\beta_1} \sum_{i=1}^n[(\bar{x}-x_i)(\bar{Y}-Y_i)]+\widehat{\beta_1}^{2} \sum_{i=1}^n(x_i-\bar{x})^2$$
$$=\sum_{i=1}^n(Y_i-\bar{Y})^{2}-2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_{i}+\widehat{\beta_1}^{2}(\sum_{i=1}^n x_i^{2}-n\bar{x}^{2})= \sum_{i=1}^n(Y_i -\bar{Y})^2-2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i+\widehat{\beta_1}^{2} \sum_{i=1}^n(x_i-\bar{x})^2$$
$$=\sum_{i=1}^n(Y_i-\bar{Y})^2 - 2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i+\widehat{\beta_1}^{2} \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\widehat{\beta_1}}=\sum_{i=1}^n(Y_i-\bar{Y})^2 -\widehat{\beta_1}\sum_{i=1}^{n}(x_i-\bar{x})Y_i.=S_{yy}-\widehat{\beta_1}S_{xy}.$$
Desta forma,
$$E(SQE)=E\left(\sum_{i=1}^{n}(Y_{i}-\bar{Y})^2 - \widehat{\beta}_{1}\sum_{i=1}^{n}(x_{i}-\bar{x})Y_{i}\right)$$
$$=E\left(\sum\limits_{i=1}^{n}(Y_{i}-\bar{Y})^2\right)-E\left(\dfrac{\displaystyle\sum\limits_{i=1}^{n}(x_{i}-\bar{x})Y_{i}}{\displaystyle\sum_{i=1}^n(x_{i}-\bar{x})^2}\sum_{i=1}^n(x_i-\bar{x})Y_{i}\right)$$
$$=\sum_{i=1}^nE(Y_{i}^2)-nE(\bar{Y}^2)-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}E\left[\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)^2\right]$$
$$=\sum_{i=1}^n[Var(Y_i)+E^2(Y_i)]-n[Var(\bar{Y})+E^2(\bar{Y})]$$
$$-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[Var\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)+E^2\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)\right].$$
Como
$$E\left(\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)=\sum_{i=1}^n(x_i-\bar{x})E(Y_i)=\sum_{i=1}^n(x_i-\bar{x})(\beta_0+\beta_1x_i)$$
e
$$Var\left(\sum_{i=1}^n(x_i-\bar{x})Y_i\right)=\sum_{i=1}^n(x_i-\bar{x})^2Var(Y_i)=\sum_{i=1}^n(x_i-\bar{x})^2\sigma^2.$$
Segue que
$$E(SQE)=\left(\sum_{i=1}^n\sigma^2+(\beta_0+\beta_1x_i)^2\right)-n\left(\dfrac{\sigma^2}{n}+(\beta_0+\beta_1\bar{x})^2\right)$$
$$-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\sum_{i=1}^n(x_i-\bar{x})^2\sigma^2-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})(\beta_0+\beta_1x_i)\right]^2$$
$$=n\sigma^2+\sum_{i=1}^n(\beta_0+\beta_1x_i)^2-\sigma^2-n(\beta_0+\beta_1\bar{x})^2-\sigma^2-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[\beta_0\sum_{i=1}^n(x_i-\bar{x})+\beta_1\sum_{i=1}^n(x_i-\bar{x})x_i\right]^2$$
$$=\sigma^2(n-2)+\sum_{i=1}^n(\beta_0+\beta_1x_i)^2-n(\beta_0+\beta_1\bar{x})^2-\beta_1^2\sum_{i=1}^n(x_i-\bar{x})^2=\sigma^2(n-2).$$
Portanto,
$$E(QME)=\dfrac{\sigma^2(n-2)}{n-2}=\sigma^2.$$
(estimador não viciado).
Exemplo 1.3.1
Para os dados do exemplo da Motivação 1, obter estimativas para a variância dos estimadores $\widehat{\beta_0}$ e $\widehat{\beta_0}$. O valor de QME foi calculado no Exemplo 1.2.2. Já os valores de $\bar{x}²$ e $S _{xx}$ foram calculados no Exemplo 1.2.1.
Solução:
$$ \widehat{\hbox{Var}}(\hat{\beta_0}) = \hat{\sigma}^2 \left[ \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} \right] = QME \left[ \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} \right] =$$ $$= 2,2866 \left[ \frac{1}{20} + \frac{51756,25}{625} \right] = 189,4732.$$
$$ \widehat{\hbox{Var}}(\hat{\beta_1}) = \frac{\hat{\sigma}^2}{S _{xx}} = \frac{QME}{S _{xx}} = \frac{2,2866}{625} = 0,003658. $$
Utilizando o Software Action obtemos os seguintes resultados:
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | 364.18 | 13.7649 | 26.4571 | 0 |
| Temperatura | -1.032 | 0.0605 | -17.0615 |
Tabela 4.1.6: Estimativas para a variância dos estimadores $\widehat{\beta_0}$ e $\widehat{\beta_0}$ (Tabela dos Coeficientes)
1.4 Testes e Intervalos de Confiança para os Parâmetros
Na regressão linear é importante avaliarmos se existe uma boa “correlação” entre a resposta e a variável explicativa. Por exemplo, se o aumento em cinco graus na temperatura de uma peça na estufa acarretará em uma mudança significativa no valor de dureza da peça. Para respondermos a esta questão, utilizamos testes de hipóteses e intervalos de confiança para os parâmetros. Em todos estes casos, é feita a suposição de que os erros são independentes e identicamente distribuídos $N(0,\sigma^2)$. Dessa forma, as observações $Y_i$ têm distribuição $N(\beta_0+\beta_1x_i,\sigma^2)$.
1.4.1 Inferência para $\bf\beta_0$
Não é com frequência que fazemos inferências sobre $\beta_{0}$. Isso só ocorre quando a variável x pode assumir o valor $x=0$.
Suponha que desejamos testar a hipótese de que o intercepto é igual a um determinado valor, denotado por $\beta_{00}$. Desta forma, sejam as hipóteses
$$ \begin{cases} H_0 : \beta_0 = \beta_{00}, \cr H_1 : \beta_0 \neq \beta_{00}, \end{cases} $$
Como visto em “Propriedades dos Estimadores”,
$$\hat{\beta_0} \sim N \left( \beta_0 , \sigma^2 \left[ \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^{n} (x_i - \bar{x})^2} \right] \right)$$
Assim, sob $H_0$ temos que
$$N_0=\frac{\widehat{\beta_0} - \beta_{00}}{\sqrt{Var(\widehat{\beta_0})}} \sim N(0,1)$$
Além disso, seja
$$\chi =\dfrac{(n-2)QME}{\sigma^2}~~\sim \chi_{(n-2)}^2.$$
Como as variáveis aleatórias $N_0$ e $\chi$ são independentes, segue que
$$ T = \frac{N_0}{\sqrt{\frac{\chi}{n-2}}} = \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{\sigma^2 \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} = \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{\frac{(n-2)QME}{\frac{\sigma^2}{n-2}}}} =$$ $$ \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} \sim t_{(n-2)}. $$
ou seja, $T$ tem distribuição t de Student com n-1 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_0$ podem ser feitos utilizando a distribuição t.
No modelo 1.1, queremos testar as hipóteses
$$ \begin{cases} H_0 : \beta_0 = 0 \cr H_1 : \beta_0 \neq 0, \end{cases} $$
Assim, a estatística do teste é dada por
$$ T_0 = \frac{\hat{\beta_0}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} \sim t_{(n-2)}. $$
no qual rejeitamos $H_0$ com um nível de confiança de $(1-\alpha)100\char37$ se $|T_0| > t_{(1-\alpha/2; n-2)}$. O p-valor associado ao teste é dado por
$$P-valor = 2*P(t_{(n-2)} > |T_0|)$$
Rejeitamos ${H}_0$ se o p-valor for menor do que o nível de significância $\alpha$ considerado. Geralmente adotamos $\alpha=0,05$.
Quando não rejeitamos ${H}_0$, podemos utilizar o Modelo de Regressão sem Intercepto.
O intervalo de confiança para $\beta_0$ com $(1-\alpha)100 \char37$ é dado por
$$ IC [\beta_0, (1-\alpha)] = \left[ \hat{\beta_0} - t_{\left(1 - \frac{\alpha}{2};n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} , \hat{\beta_0} + t_{\left(1 - \frac{\alpha}{2};n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} \right] $$
1.4.2 Inferência para $\bf\beta_1$
Inferência sobre $\beta_1$ é mais frequente já que por meio deste parâmetro temos um indicativo da existência ou não de associação linear entre as variáveis envolvidas.
Similarmente ao parâmetro $\beta_0$, consideremos as hipóteses
$$ \begin{cases} H_0 : \beta_1 = \beta_{10} \cr H_1 : \beta_1 \neq \beta_{10} \end{cases}. $$
no qual $\beta_{10}$ é uma constante. Em geral, consideramos $\beta_{10}=0$.
Pela seção 1.3 Propriedades dos Estimadores.
$$\widehat{\beta_1} \sim N \left(\beta_1,\frac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$
Assim, sob $H_0$ segue que
$$N_1 = \frac{\widehat{\beta_1} - \beta_{10}}{\sqrt{Var(\widehat{\beta_1})}} \sim N(0,1)$$
Novamente, considerando que
$$\chi =\dfrac{(n-2)QME}{\sigma^2} ~~\sim \chi_{(n-2)}^2$$
e que $N_1$ e $\chi$ são independentes, obtemos
$$T = \frac{N_1}{\sqrt{\frac{\chi}{n-2}}} = \frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{\sigma^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} = \frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{(n-2)QME}{\frac{\sigma^2}{n-2}}}} =$$ $$\frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} \sim t_{(n-2)}.$$
ou seja, $T$ tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_1$ podem ser realizados utilizando a distribuição t.
No modelo em questão, queremos testar as seguintes hipóteses
$$ \begin{cases} H_0 : \beta_1 = 0 \cr H_1 : \beta_1 \neq 0 \end{cases} $$
Neste caso, a estatística do teste é $$ T_0 = \frac{\hat{\beta_1}} {\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} \sim t_{(n-2)}. $$
Assim, rejeitamos $H_0$ com um nível de confiança $(1 - \alpha)100\char37$ se $|T_0| > t_{(1 - \alpha/2, , n-2)}$.
O p-valor associado ao teste é dado por
$$P-valor=2*P\left( t_{(n-2)}> \mid T_0 \mid \right).$$
Rejeitamos $ {H}_0$ se o P-valor for menor do que $\alpha.$
O intervalo de confiança para $\beta_1$ com $(1-\alpha)100\char37$ é dado por
$$ IC[\beta_1,(1-\alpha)] = \left[ \hat{\beta_1} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}, \hat{\beta_1} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} \right] $$
Exemplo 1.4.1
Aplicar testes de hipóteses e construir intervalos de confiança para os parâmetros ($\beta_0, \ldots ,\beta_1$), usando os dados do exemplo na Motivação 1. Como visto no Exemplo 1.2.1, as estimativas dos parâmetros são $\widehat{\beta_0}=364,18$ e $\widehat{\beta_1}= -1,032$.
Solução:
Para $\beta_0$, queremos testar as hipóteses $$ \begin{cases} H_0 : \beta_0 = 0, \cr H_1 : \beta_0 \neq 0, \end{cases} $$
Dos Exemplos 1.2.2 e 1.3.1, temos que
$$QME = 2,2866~~~{ e }~~~\widehat{Var}(\widehat{\beta_0}) = 189,47.$$
Desta forma, a estatística do teste é dada por
$$ T_0 = \frac{\hat{\beta_0}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} = \frac{364,18}{\sqrt{189,4732}} = 26,46. $$
Para $\alpha = 0,05$ temos $t_{(1-0,05/2;18)}=2,101$.
Como $T_0=26,46> 2,101 = t_{(1-0,05/2;18)}$, e
$P-valor =2*P\left( t_{(n-2)}> \mid T_0 \mid\right)= 0,000,$ rejeitamos $ {H}_0.$
Para $\alpha= 0,05,$ obtemos que $t_{(1-0,05/2;18)}=2,101$.
O intervalo de confiança, IC (95%), para $\beta_1$ é dado por
$$ \left[ \hat{\beta_0} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} ; \hat{\beta_0} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} \right] $$
$$ [364,18 - 2,101 \sqrt{189,4732} \ ; 364,18 + 2,101 \sqrt{189,4732}] $$
$$ [364,18 - 2,101 \times 13,7649 \ ; 364,18 + 2,101 \times 13,7649] $$
$$ [364,18 - 28,9190 \ ; 364,18 + 28,9190] $$
$$ [335,2609 \ ; 393,0990] $$
Para $\beta_1$, queremos testar as hipóteses
$$ \begin{cases} H_0 : \beta_1 = 0, \cr H_1 : \beta_1 \neq 0, \end{cases}. $$
Novamente, dos Exemplos 1.2.2 e 1.3.1, temos que
$$ QME = 2,2866 \quad \hbox{e} \quad \widehat{\hbox{Var}}(\hat{\beta_1}) = 0,003658 $$
A estatística do teste, sob (H_0), é dada por
$$ T_0 = \frac{\hat{\beta_1}}{\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} = \frac{-1,032}{\sqrt{0,003658}} = \frac{-1,032}{0,0605} = -17,06. $$
Para $\alpha = 0,05$, obtemos que $t_{(1 - 0,05/2; 18)} = 2,101$.
Como $T_0 = 17,06 > 2,101 = t_{(1 - 0,05/2; 18)}$ e
$$ 2 \times P\left(t_{(n-2)} > |T_0|\right) = 0,000, $$
rejeitamos $H_0$.
O intervalo de confiança, $IC(95\char37)$, para $\beta_1$ é dado por
$$ \left[ \hat{\beta_1} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} ; \hat{\beta_1} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} \right] $$
$$ [-1,032 - 2,101 \times \sqrt{0,003658} \ ; -1,032 + 2,101 \times \sqrt{0,003658}] $$
$$ [-1,032 - 0,127 \ ; -1,032 + 0,127] $$
$$ [-1,159 \ ; -0,905] $$
Usando o Software Action temos os seguintes resultados:
| 2.5 % | 97.5 % | |
|---|---|---|
| Intercepto | 335.261 | 393.099 |
| Temperatura | -1.1591 | -0.9049 |
Tabela 4.1.7: Intervalo de confiança para os parâmetros
1.5 Análise de Variância
No caso de um modelo linear simples, no qual temos apenas uma variável explicativa, testar a significância do modelo corresponde ao seguinte teste de hipóteses
$$ \begin{cases} H_{0}:\beta_1=0\cr H_{1}:\beta_1 \neq 0. \end{cases}. $$
Na seção sobre os testes dos parâmetros do modelo, utilizamos a estatística t-student realizar este teste de hipóteses. Aqui, vamos introduzir de análise de variância (ANOVA) para testarmos a hipótese ${H}_0$. Além disso, mostraremos que os dois testes são iguais. Assumimos o “Modelo de Regressão Linear Simples” com a suposição de que os erros tem distribuição Normal.
A análise de variância é baseada na decomposição da soma de quadrados. Em outras palavras, o desvio de uma observação em relação à média pode ser decomposto como o desvio da observação em relação ao valor ajustado pela regressão mais o desvio do valor ajustado em relação à média, isto é, podemos escrever $(Y_i-\bar{Y})$ como
$$(Y_i-\bar{Y})=(Y_i-\bar{Y}+\widehat{Y}_i-\widehat{Y}_i)=(\widehat{Y}_i-\bar{Y})+(Y_i-\widehat{Y}_i), \tag{1.3.1}.$$
1.5.1 Soma de Quadrados
Elevando cada componente de (1.3.1) ao quadrado e somando para todo o conjunto de observações, obtemos
$$\sum_{i=1}^n(Y_i-\bar{Y})^{2} = \sum_{i=1}^n(\widehat{Y}_i - \bar{Y})^2 + \sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2},$$
em que
$$\sum_{i=1}^n(Y_i-\bar{Y})^{2}=SQT \qquad \hbox{(é a Soma de Quadrados Total)};$$
$$\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^2=SQR \qquad \hbox{(é a Soma de Quadrados da Regressão) e}$$
$$\sum_{i=1}^n(Y_i-\widehat{Y}_i)^2=SQE \qquad \hbox{(é a Soma de Quadrados dos Erros (dos Resíduos))}.$$
Desta forma, escrevemos
$$SQT=SQR+SQE,$$
em que decompomos a Soma de Quadrados Total em Soma de Quadrados da Regressão e Soma de Quadrados dos Erros.
Prova
$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^{2}=\sum_{i=1}^n(Y_i-\bar{Y}+\widehat{Y}_i-\widehat{Y}_i)^{2}=\sum_{i=1}^n((Y_i-\widehat{Y}_i)+(\widehat{Y}_i-\bar{Y}))^{2}$$
$$=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^{2}+\sum_{i=1}^n2(Y_i-\widehat{Y}_i)(\widehat{Y}_i-\bar{Y})+\sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2}.$$
Notemos que
$$\sum_{i=1}^n2(Y_i-\widehat{Y}_i)(\widehat{Y}_i-\bar{Y})=\sum_{i=1}^n2(Y_i\widehat{Y}_i-Y_i\bar{Y}-\widehat{Y}_i^2+\widehat{Y}_i\bar{Y}).$$
Como visto em 1.1.2 Algumas propriedades do ajuste de mínimos quadrados,
$$\sum_{i=1}^n e_i=\sum_{i=1}^n(Y_i-\widehat{Y}_i)=0\Rightarrow\sum_{i=1}^n Y_i=\sum_{i=1}^n \widehat{Y}_i$$
e
$$\sum_{i=1}^n(\widehat{Y}_ie_i)=\sum_{i=1}^n\widehat{Y}_i(Y_i-\widehat{Y}_i)=0\Rightarrow\sum_{i=1}^n(\widehat{Y}_iY_i)=\sum_{i=1}^n(\widehat{Y}_i^2).$$
Desta forma,
$$\sum_{i=1}^n2(Y_i\widehat{Y}_i-Y_i\bar{Y}-\widehat{Y}_i^2+\widehat{Y}_i\bar{Y})=2(\sum_{i=1}^n\widehat{Y}_i^2-\bar{Y}\sum_{i=1}^nY_i-\sum_{i=1}^n\widehat{Y}_i^2+\bar{Y}\sum_{i=1}^n\widehat{Y}_i)=$$
$$=2(-\bar{Y}\sum_{i=1}^nY_i+\bar{Y}\sum_{i=1}^n\widehat{Y}_i)=2(-\bar{Y}\sum_{i=1}^nY_i+\bar{Y}\sum_{i=1}^nY_i)=0.$$
e portanto,
$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^{2}=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^{2}+\sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2}=SQR+SQE$$
Conforme demonstramos na seção propriedade dos estimadores, ao tomarmos os pares $\lbrace(x_i,y_i):i=1,\cdots ,n\rbrace$, temos que $SQT=S_{yy}$ e $SQE=S_{yy}-\hat{\beta_1}S_{xy}$. Portanto, concluímos que $SQR=\hat{\beta_1}S_{xy}$.
1.5.2 Partição dos Graus de Liberdade
Assim como temos a decomposição da soma de quadrados total, vamos derivar uma decomposição para os graus de liberdade. ë importante ressaltarmos que os graus de liberdade são definidos como a constante que multiplica $\sigma^2$ para definir o valor esperado da soma de quadrados. Conforme demonstrado na seção propriedade dos estimadores, temos que $\mathbb{E} [SQE]=(n-2)\sigma^2$. Assim, os graus de liberdade relacionado com a $SQE$ é dado por $n-2$.
Agora, sob ${H}_0: \beta_1=0$, temos que $Y_1, \cdots , Y_n$ é uma amostra aleatória simples de uma população com média $\beta_0$ e variância $\sigma^2$. Conforme demonstrado no módulo de inferência sobre propriedades gerais dos estimadores, temos que $\mathbb{E} [SQT]=(n-1)\sigma^2$. Então, como a soma de quadrados total foi decomposta na soma de quadrados dos erros mais a soma de quadrados da regressão, concluímos que sob ${H}_0$, $$\mathbb{E}[SQR]=\mathbb{E}[SQT]-\mathbb{E}[SQE]=(n-1)\sigma^2+(n-2)\sigma^2=\sigma^2.$$ Com isso, concluímos que a $SQR$ tem um grau de liberdade. Assim, sob ${H}_0$, obtemos a seguinte decomposição dos graus de liberdade:
(1) $SQT$ tem $n-1$ graus de liberdade;
(2) $SQR$ tem $1$ grau de liberdade;
(3) $SQE$ tem $n-2$ graus de liberdade.
De forma geral, não necessariamente sob ${H}_0$, também podemos calcular facilmente o valor esperado da soma de quadrado total. Para isto, temos que
$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^2=\sum_{i=1}^nY_{i}^2-n(\bar{Y})^2$$
A partir da definição de variância de uma variável aleatória, concluímos que
$$\mathbb{E}(Y_{i}^2) = Var(Y_{i}) + (\mathbb{E}(Y_{i}))^2 = \sigma ^2 + (\beta_0 + \beta_1 x_{i})^2$$
Da mesma forma, temos que $$\mathbb{E}(\bar{Y^2}) = Var(\bar{Y}) + (\mathbb{E}(\bar{Y}))^2 = \frac{\sigma^2}{n} + (\beta_0 + \beta_1\bar{x})^2$$
Portanto, obtemos que $$\mathbb{E}(SQT) = (n-1)\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2$$
Observe que sob ${H}_0$, obtemos que $\mathbb{E}[SQT]=(n-1)\sigma^2$. Por outro lado, o valor esperado do quadrado médio da regressão é dado por
$$\mathbb{E}(SQR) = (n-1)\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2-(n-2)\sigma^2 =$$
$$\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2 =$$
$$ \sigma^2 + \beta_1^2 S _{xx}$$
1.5.3 Quadrado Médio
A ideia básica do quadrado médio está em tornarmos as somas de quadrados comparáveis. Sabemos que, sob ${H}_0$, os graus de liberdade são constantes que vem muliplicando o $\sigma^2$ no cálculo do valor esperado da soma de quadrados. A partir da partição dos graus de liberdade obtidos na seção anterior, estimadores de momentos para $\sigma^2$ são dados pela divisão da soma de quadrados pelo seu respectivo grau de liberdade. Com isso, chegamos a definição dos quadrados médios:
$$QMR=\dfrac{SQR}{1}=SQR=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^2 \qquad \hbox{(é o Quadrado Médio da Regressão) e}$$
$$QME=\dfrac{SQE}{n-2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\widehat{Y}_i)^2}{n-2} \qquad \hbox{(é o Quadrado Médio dos Erros (dos Resíduos))}$$
Sob $H_0$, tanto o quadrado médio dos erros (QME) quanto o quadrado médio da regressão (QMR) são estimadores de momento para $\sigma^2$. Portanto, eles são comparáveis. A seguir, apresentamos algumas formas simplificados para o cálculo das somas de quadrados. Como visto em 1.3 Propriedades dos Estimadores,
$$SQE=\sum_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i=S_{YY}-\widehat{\beta_1}S_{xY}$$
Além disso,
$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^2=S_{YY}$$
Desta forma,
$$SQR=SQT-SQE=\sum_{i=1}^n(Y_i-\bar{Y})^2-\left(\sum_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta}_ 1\sum_{i=1}^n(x_i-\bar{x})Y_i\right)=\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i=\widehat{\beta_1}S_{xY}$$
e portanto,
$$QMR=\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i~~{e}$$
$$QME=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{n-2}$$
1.5.4 Teste F
Considerando o Modelo de Regressão Linear Simples, a siginificância do modelo linear pode ser avaliada através do seguinte teste de hipóteses
$$ \begin{cases} H_{0}:\beta_1=0\cr H_{1}:\beta_1 \neq 0 \end{cases}. $$
Se não rejeitamos $H_0$, concluímos que não existe relação linear significativa entre as variáveis explicativa ($x$) e dependente ($Y$). A estratégia para testarmos a hipótese $H_0$ consiste em compararmos o quadrado médio da regressão com o quadrado médio dos erros, pois sob $H_0$, ambos quadrados médios são estimadores de momentos para o parâmetro $\sigma^2$. Para isto precisamos do teorema de Cochran.
Teorema de Cochran
Sejam $Z_1, Z_2,…,Z_n$ variáveis aleatórias independentes com distribuição $N(0,1)$. Conforme a demonstração na seção sobre a distribuição Qui Quadrado, sabemos que $\sum_{(i=1)}^p Z_{i}^{2}$ e possui distribuição $\chi_{(p)}^{2}$.
Se tivermos
$$\sum_{i=1}^{p}Z_{i}^{2}=Q_1 + Q_2 + … + Q_q$$
em que $Q_i~,~i = 1, 2,…,q~~(q \leq p)$ são somas de quadrados, cada um com $p_i$ graus de liberdade, tal que
$$p=\sum^{q}_{i=1}p_i$$
então obtemos que $Q_i\sim \sigma^2\chi^{2}_{(p_i)}$ e são independentes para qualquer $i=1, 2,…, q$.
Sob ${H}_0,$ temos que $Y_1,\cdots ,Y_n$ é uma amostra aleatória simples da $N(\beta_0,\sigma^2)$. Com isso, obtemos da seção que aborda as propriedades dos estimadores da média e variância de uma população normal, que
$$\chi_T=\dfrac{SQT}{\sigma^2}\sim\chi_{(n-1)}^2$$
Assim, através do teorema de Cochran, concluímos que
$$\chi_E=\dfrac{SQE}{\sigma^2}\sim\chi_{(n-2)}^2, { e}$$
$$\chi_R=\dfrac{SQR}{\sigma^2}\sim\chi_{(1)}^2$$
tem distribuição qui-quadrado com $n-2$ e $1$ graus de liberdade, respectivamente. Além disso, temos que $\chi_E$ e $\chi_R$ são independentes. Desta forma, propomos a estatística do teste
$$F_0=\dfrac{\dfrac{\chi_R}{1}}{\dfrac{\chi_E}{n-2}}=\dfrac{\dfrac{SQR}{\sigma^2}}{\dfrac{SQE}{(n-2)\sigma^2}} = \dfrac{QMR}{QME}$$
Como $F_0$ é a divisão de duas variáveis qui-quadrado, cada uma dividida pelos seus graus de liberdade e são independentes, segue que $F_0$ tem distribuição F com $1$ grau de liberdade no numerador e $n-2$ graus de liberdade no denominador, denotada por $F_{(1,n-2)}$. Através da partição dos graus de liberdade obtido na seçao 1.5.2, obtemos que
$$\mathbb{E}[QME]=\sigma^2 \quad {e} \quad \mathbb{E}[QMR]=\sigma^2+\beta^2_1S _{xx}$$
Estes valores esperados nos sugerem que que valores grandes de $F_0$ nos indiam que $\beta_1$ deve ser diferente de zero, ou seja, devemos rejeitar $H_0$. Logo, rejeitamos $H_0$ com um nível de significância $\alpha$ se $F_0 > F_{(1-\alpha,1,n-2)}$, no qual $F_{(1-\alpha,1,n-2)}$ representa o quantil $(1-\alpha)$ da distribuição $F(1,n-1)$. Outra maneira é analisar o p_valor. Neste caso, rejeitamos $H_0$ se $\hbox{p-valor}=P[F_{(1;n-2)} > F_0]<\alpha$, no qual $\alpha$ é o nível de significância estabelecido para o teste.
Na Tabela 4.1.8 a seguir apresentamos a tabela ANOVA com a Estatística do Teste F.
| Fonte | GL | Soma de Quadrados | Quadrado Médio | $F_0$ |
|---|---|---|---|---|
| Regressão | 1 | $SQR=\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i$ | $QMR=SQR$ | $F_0=\dfrac{QMR}{QME}$ |
| Resíduo | $n−2$ | $SQE=\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2 - \widehat{\beta_1} \displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i$ | $QME=\displaystyle{\dfrac{SQE}{(n-2)}}$ | |
| Total | $n−1$ | $SQT=\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2$ |
Tabela 4.1.8: Análise de significância usando ANOVA
Exemplo 1.5.1
Construir a tabela da ANOVA para o exemplo dado na Motivação 1.
Solução:
$$SQT=S_{yy}=706,80$$
$$SQE= S_{yy}-\widehat{\beta_1} S_{xy}=41,16 \quad e$$
$$SQR= SQT - SQE = 706,80 - 41,16 = 665,64$$ Assim,
$$F_0=\dfrac{QMR}{QME}=\dfrac{\dfrac{665,64}{1}}{\dfrac{41,16}{18}}=\dfrac{665,64}{2,29}=291,10.$$
A tabela da ANOVA é então, dada por
| Fonte | GL | Soma de Quadrados | Quadrado Médio | $F_{0}$ |
|---|---|---|---|---|
| Regressão | 1 | 665,64 | $\dfrac{665,64}{1}=665,64$ | $\dfrac{665,64}{2,29}=291,10$ |
| Resíduo | 18 | 41,16 | $\dfrac{41,16}{18}=2,29$ | |
| Total | 19 | 706,80 |
Tabela 4.1.9: Análise de significância usando ANOVA
Para $\alpha=0,05$, obtemos que $F_{(0,95;1;18)}=4,4138.$
Logo,
$$F_0=291,1> 4,4138=F_{(0,95;1;18)}$$
Além disso,
$${P_valor}=P[F_{1;18}> F_0]=0,000< 0,05=\alpha.$$
Portanto, rejeitamos ${H}_0$ com um nível de confiança de 95% e concluímos que a variável explicativa tem correlação com a variável resposta.
Interpretação do P-valor
Quando o p-valor é aproximadamente zero significa que, se a hipótese nula $(\hbox{H}_0)$ for verdadeira, a chance de $F$ exceder o valor observado $(\hbox{F}_0)$ é praticamente nula. Esta é uma evidência muito forte, contra $\hbox{H}_0.$ Um p-valor pequeno fornece evidências contra $\hbox{H}_0.$ Por exemplo, se fixarmos um nível de significância ($\alpha$), então poderemos dizer que uma hipótese nula é rejeitada a este nível, quando o p-valor é menor do que esse $\alpha$.
1.6 Coeficiente de Determinação
Uma das formas de avaliar a qualidade do ajuste do modelo é através do coeficiente de determinação. Basicamente, este coeficiente indica quanto o modelo foi capaz de explicar os dados coletados. O coeficiente de determinação é dado pela expressão
$$R^2=\dfrac{SQR}{SQT}=1-\dfrac{SQE}{SQT}=\dfrac{\widehat\beta_1\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2},$$
ou seja, é a razão entre a soma de quadrados da regressão e a soma de quadrados total. No modelo com intercepto, podemos escrever
$$ R^2=\dfrac{\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}=\dfrac{\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}. $$
Notemos que
$$0 \leq R^2 \leq 1$$
O $R^2$ é, portanto, uma medida descritiva da qualidade do ajuste obtido. Em geral referimo-nos ao $R^2$ como a quantidade de variabilidade nos dados que é explicada pelo modelo de regressão ajustado. Entretanto, o valor do coeficiente de determinação depende do número de observações $(n)$, tendendo a crescer quando $n$ diminui. Se $n = 2$, tem-se sempre $R^2 = 1.$
O $R^2$ deve ser usado com precaução, pois é sempre possível torná-lo maior pela adição de um número suficiente de termos ao modelo. Assim, se, por exemplo, não há dados repetidos (mais do que um valor $y$ para um mesmo $x$) um polinômio de grau $(n - 1)$ dará um ajuste perfeito $(R^2 = 1)$ para $n$ dados. Quando há valores repetidos, o $R^2$ não será nunca igual a 1, pois o modelo não poderá explicar a variabilidade devido ao erro puro.
Embora $R^2$ aumente com a adição de termos ao modelo, isto não significa necessariamente que o novo modelo é superior ao anterior. A menos que a soma de quadrados residual do novo modelo seja reduzida por uma quantidade igual ao quadrado médio residual original, o novo modelo terá um quadrado médio residual maior do que o original, devido a perda de 1 grau de liberdade. Na realidade esse novo modelo poderá ser pior do que o anterior.
A magnitude de $R^2$, também, depende da amplitude de variação da variável regressora ($x$). Geralmente, $R^2$ aumentará com maior amplitude de variação dos $x$’s e diminuirá em caso contrário. Pode-se mostrar que
$$E[R^2]\cong \dfrac{\widehat{\beta}^2_1 \displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}{\widehat{\beta_1}^2\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2+\sigma^2}.$$
Assim, um valor grande de $R^2$ poderá ser grande simplesmente porque $x$ variou em uma amplitude muito grande. Por outro lado $R^2$ poderá ser pequeno porque a amplitude dos $x$’s foi muito pequena para permitir que uma relação com $y$ fosse detectada. Em geral, também, $R^2$ não mede a magnitude da inclinação da reta. Um valor grande de $R^2$ não significa uma reta mais inclinada. Além do mais, ele não leva em consideração a falta de ajuste do modelo; ele poderá ser grande, mesmo que $y$ e $x$ estejam não linearmente relacionados. Dessa forma, vê-se que $R^2$ não deve ser considerado sozinho, mas sempre aliado a outros diagnósticos do modelo.
Exemplo 1.6.1
Vamos calcular o coeficiente de determinação $R^2$ com os dados do exemplo na Motivação 1.
Solução:
$$R^2=\dfrac{(S_{xy})^2}{S _{xx}S_{yy}}=\dfrac{(-645)^2}{625*706,8}=\dfrac{416025}{441750}=0,9417.$$
1.6.1 Coeficiente de Determinação Ajustado
Para evitar dificuldades na interpretação de $R^2$, alguns estatísticos preferem usar o $R_a^2$ ($R^2$ ajustado), definido para uma equação com 2 coeficientes como
$$R^2_a=1-\left(\frac{n-1}{n-2}\right)(1-R^2).$$
Assim como o Coeficiente de Determinação $R^2$, quanto maior $R_a^2$, mais a variável resposta é explicada pela regressora $X$.
Exemplo 1.6.1.1
Vamos calcular agora o coeficiente de determinação $R^2_a$ com os dados do exemplo na Motivação 1.
Solução:
$$R_a^2=1-\left(\dfrac{19}{18}\right)(1-0,9417)=0,93846.$$
Usando o software Action temos os seguintes resultados:
| Desvio Padrão dos Resíduos | Graus de Liberdade | $R^2$ | $R^2$ Ajustado |
|---|---|---|---|
| 1.5122 | 18 | 0.9418 | 0.9385 |
Tabela 4.1.10: Medida Descritiva da Qualidade do Ajuste
1.7 Intervalo de Confiança para Resposta Média e Predição
1.7.1 Intervalo de confiança para a resposta média
A estimativa de um intervalo de confiança para $E\left(Y \mid X=x_0 \right)=\mu _{Y \mid x_0}= \beta_0+\beta_1 x_0$ é de grande interesse.
Um estimador pontual de $\mu _{Y \mid x_0}$ pode ser obtido a partir do modelo ajustado, isto é,
$$\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0=\widehat{Y}(x_0).$$
Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuída já que é uma combinação linear das observações $Y_i$. Além disso, temos que
$$ E(\widehat{\mu} _{Y \mid x_0}) = \beta_0+\beta_1 x_0 = \mu _{Y \mid x_0} \ \hbox{ , e}$$
$$ \hbox{Var}(\widehat{\mu} _{Y\mid x_0}) = \hbox{Var}[\bar{Y}+\widehat{\beta_1}(x_0-\bar{x})]= \hbox{Var}[\bar{Y}] + \hbox{Var}[\widehat{\beta} _1 (x_0-\bar{x})]=\dfrac{\sigma^2}{n}+(x_0-\bar{x})^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i-\bar{x})^2}$$
$$=\sigma^2\left[\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right]$$
ou seja, $\widehat{\mu} _{Y \mid x_0}$ é um estimador não viciado para $E\left( Y \mid X=x_0 \right).$
Assim, temos que
$$\dfrac{\widehat{Y}(x_0)-\mu _{Y \mid x_0}}{\sqrt{\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}\sim N(0,1)$$
Temos também que
$$\dfrac{(n-2)QME}{\sigma^2}\sim \chi_{(n-2)}^2$$
Logo,
$$t=\dfrac{N(0,1)}{\sqrt{\dfrac{\chi_{(n-2)}^2}{(n-2)}}}=\dfrac{\dfrac{\widehat{Y}(x_0)-\mu _{Y \mid x_0}}{\sqrt{\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}}{\sqrt{\dfrac{\dfrac{(n-2)QME}{\sigma^2}}{(n-2)}}}=\dfrac{\left[\widehat{Y}(x_0)-\mu _{Y \mid x_0}\right]}{{\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}}~~\sim t_{(n-2)}$$
Portanto, o intervalo de confiança para $\mu _{Y \mid x_0}=E[Y \mid X=x_0]$ é dado por
$$IC [\mu _{Y \mid x_0} , 1 - \alpha] = \left[\widehat{Y}(x_0)-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right.~;$$
$$\left.\widehat{Y}(x_0)+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$
em que $\widehat{Y}(x_0)$ é a resposta média estimada para o nível $x=x_0.$
Considerando vários valores para $x_0$ dentro do intervalo de realização dos dados, encontraremos vários valores para $\widehat{Y}(x_0).$ Com isso, ao calcularmos o intervalo de confiança para cada um dos $\widehat{Y}(x_0)$, temos um conjunto de intervalos de confiança que representam as bandas de confiança para a reta de regressão.
Exemplo 1.7.1
Calcular o intervalo de confiança para a reta de regressão usando, novamente, os dados do exemplo na Motivação 1.
Solução:
Adotemos $x_0=220,$ ou seja, um valor pertencente à amostra. Neste caso,
$$ \hbox{Limite Inferior:}\left[ \widehat{\beta_0}+\widehat{\beta_1} x_0 - t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$
$$\left[364,18(-1,032*220)-t_{\left(0,975;18\right)}*\sqrt{2,29\left(\dfrac{1}{20}+\dfrac{(220-227,5)^2}{625}\right)}\right]$$
$$\left[364,18 (-227,04)-2,101*\sqrt{2,29(0,14)}\right]$$
$$\left[137,14-2,101*0,5658 \right]$$
$$\left[137,14-1,1887\right]$$
$$\left[135,9513\right]$$
$$\hbox{Limite Superior:}\left[\widehat{\beta_0}+\widehat{\beta_1} x_0+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$
$$\left[364,18(-1,032*220)+t_{(0,975;18)}*\sqrt{2,29\left(\dfrac{1}{20}+\dfrac{(220-227,5)^2}{625}\right)}\right]$$
$$\left[364,18(-227,04)+2,101*\sqrt{2,29(0,14)}\right]$$
$$\left[137,14+2,101*0,5658\right]$$
$$\left[137,14+1,1887\right]$$
$$\left[138,3287\right]$$
Portanto o intervalo de confiança para a resposta média é
$$IC [\mu _{Y \mid x_0} , 95\char37] = [135,9513; 138,3287]$$
1.7.2 Intervalo de predição
Um modelo de regressão pode ser usado para prever a variável resposta, correspondente a valores da variável explicativa não considerada no experimento. Chamamos de predição a obtenção de um valor de $Y$ para um $x$ que não pertence aos dados, porém pertence ao intervalo de variação estudado. Em situações em que o valor de $x$ não pertence ao intervalo estudado, denominamos de extrapolação.
Seja $x_h$ um dado valor da variável explicativa $x$ que não pertence a amostra. Então,
$$\widehat{Y_h} = \widehat{\beta_0} + \widehat{\beta_1} x_h,$$
é um estimador não viciado para $Y_h = E [Y \mid x_h]=\beta_0+\beta_1 x_h,$ pois $E(Y_h-\widehat{Y_h})=0$.
Chamamos de erro na previsão a diferença $(Y_h-\widehat{Y_h}),$ cuja variância é dada por
$$ Var (Y_h - \widehat{Y_h}) = Var(Y_h) + Var( \widehat{Y_h} ) - 2 Cov (Y_h , \widehat{Y_h}) = $$
$$ \sigma^2 + \sigma^2\left(\dfrac{1}{n} + \dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2} \right) = \sigma^2\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)$$
De maneira semelhante à realizada em Intervalo de confiança para a resposta média, podemos demonstrar que
$$T = \dfrac{Y_h - \widehat{Y_h}}{\sqrt{QME \left( 1 + \dfrac{1}{n} + \dfrac{(x_h - \overline{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i-\bar{x})^2} \right)}} \sim t_{(n-2)}.$$
Assim, o intervalo de predição para $Y_h$ é,
$$ IP[Y_h, 1-\alpha] = \left[\widehat{Y_h}-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \right.~;$$ $$\left. \widehat{Y_h}+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \right].$$
Exemplo 1.7.2
Calcular o intervalo de confiança para uma nova observação aplicando o mesmo exemplo da Motivação 1.
Solução:
Utilizemos $x_h=217,5,$ isto é, um valor que não pertence à amostra mas que pertence ao intervalo de variação estudado.
Temos do Exemplo 1.2.1 que $\widehat{\beta_0}=364,18$ e $\widehat{\beta_1}=-1,032.$ Assim,
$$\widehat{Y}(x_h) = 364,18-1,032*217,5 = 139,72.$$
Logo, o intervalo de predição é
$$\left[\widehat{Y_h}-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \ ; \ \widehat{Y_h}+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$
$$\left[139,72-t_{(0,975;18)}\sqrt{2,29*\left(1+\dfrac{1}{20}+\dfrac{(217,5-227,5)^2}{625}\right)} \ ; \ 139,72 + t_{(0,975;18)}\sqrt{2,29*\left(1+\dfrac{1}{20}+\dfrac{(217,5-227,5)^2}{625}\right)}\right]$$
$$\left[139,72-2,101*\sqrt{2,29*(1+0,05+0,16)} \ ; \ 139,72+2,101*\sqrt{2,29*(1+0,05+0,16)}\right]$$
$$ [139,72-2,101*\sqrt{2,7668} \ ; \ 139,72+2,101*\sqrt{2,7668}] $$
$$\left[139,72-3,4946 \ ; \ 139,72+3,4946\right]$$
Assim,
$$IP[Y_h, 95\char37] = \left[136,2253 \ ; \ 143,2147\right]$$
Usando o software Action temos os seguintes resultados:
- Intervalo de 95% de confiança de Predição:
| Dureza | Temperatura | Valor Ajustado | Limite Inferior | Limite Superior | Desvio Padrão | |
|---|---|---|---|---|---|---|
| 1 | 137 | 220 | 137.14 | 135.9513 | 138.3287 | 0.5658 |
| 2 | 137 | 220 | 137.14 | 135.9513 | 138.3287 | 0.5658 |
| 3 | 137 | 220 | 137.14 | 135.9513 | 138.3287 | 0.5658 |
| 4 | 136 | 220 | 137.14 | 135.9513 | 138.3287 | 0.5658 |
| 5 | 135 | 220 | 137.14 | 135.9513 | 138.3287 | 0.5658 |
| 6 | 135 | 225 | 131.98 | 131.2018 | 132.7582 | 0.3704 |
| 7 | 133 | 225 | 131.98 | 131.2018 | 132.7582 | 0.3704 |
| 8 | 132 | 225 | 131.98 | 131.2018 | 132.7582 | 0.3704 |
| 9 | 133 | 225 | 131.98 | 131.2018 | 132.7582 | 0.3704 |
| 10 | 133 | 225 | 131.98 | 131.2018 | 132.7582 | 0.3704 |
| 11 | 128 | 230 | 126.82 | 126.0418 | 127.5982 | 0.3704 |
| 12 | 124 | 230 | 126.82 | 126.0418 | 127.5982 | 0.3704 |
| 13 | 126 | 230 | 126.82 | 126.0418 | 127.5982 | 0.3704 |
| 14 | 129 | 230 | 126.82 | 126.0418 | 127.5982 | 0.3704 |
| 15 | 126 | 230 | 126.82 | 126.0418 | 127.5982 | 0.3704 |
| 16 | 122 | 235 | 121.66 | 120.4713 | 122.8487 | 0.5658 |
| 17 | 122 | 235 | 121.66 | 120.4713 | 122.8487 | 0.5658 |
| 18 | 122 | 235 | 121.66 | 120.4713 | 122.8487 | 0.5658 |
| 19 | 119 | 235 | 121.66 | 120.4713 | 122.8487 | 0.5658 |
| 20 | 122 | 235 | 121.66 | 120.4713 | 122.8487 | 0.5658 |
Tabela 4.1.11: Resultado de Intervalo de Predição
1.8 Modelo de Regressão sem Intercepto
Suponha que dispomos de $n$ pares de observações $(x_i, y_i),$ $i=1,\ldots,n.$ O modelo de regressão linear simples, sem intercepto, é definido por
$$Y_i =\beta_1 x_i + \varepsilon_i, \quad i=1,\ldots, n.$$
Neste caso, a função de mínimos quadrados é
$$L=\sum_{i=1}^n\varepsilon^2_i=\sum_{i=1}^n(Y_i-\beta_1x_i)^2$$
que derivando em relação a $\beta_1$ resulta em
$$\dfrac{\partial L(\beta_1)}{\partial \beta_1}=2\sum_{i=1}^n(Y_i-\beta_1 x_i)(-x_i)$$
Substituindo $\beta_1$ por $\widehat\beta_1$ e igualando a zero, obtemos
$$\sum_{i=1}^n(Y_i -\widehat{\beta_1}x_i)(x_i)=\sum_{i=1}^n x_iY_i -\widehat{\beta_1}\sum_{i=1}^n x_i^2=0$$
que resolvendo em relação a $\widehat{\beta_1}$ resulta em
$$\widehat{\beta_1} = \dfrac{\sum\limits_{i=1}^n x_i Y_i}{\sum\limits_{i=1}^n x_i^2}$$
Podemos mostrar que
$$E(\widehat{\beta_1})=\beta_1 $$ e que $$ Var(\widehat{\beta_1})=\dfrac{\sigma^2}{\sum\limits_{i=1}^n x_i^2} $$
Sendo $\varepsilon_i \sim N(0, \sigma^2),$ temos que
i) $\dfrac{\widehat{\beta_1} - \beta_1}{\sqrt{\dfrac{\sigma^2}{\sum\limits_{i=1}^n x_i^2}}} \sim N(0, 1);$
ii) Um estimador não viciado para $\sigma^2$ é dado por
$$\widehat{\sigma}^2 = \frac{SQE}{n - 1};$$
iii) $\dfrac{(n-1)\widehat{\sigma}^2}{\sigma^2} \sim \chi_{(n-1)}^2;$
iv) $T = \dfrac{\widehat{\beta_1} - \beta_1}{\sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}} \sim t_{(n-1)}.$
Um intervalo de $100(1-\alpha)\char37$ de confiança para $\beta_1$ é dado por
$$IC[\beta_1, 1-\alpha] = \left[\widehat{\beta}_1 - t_{\left(\frac{\alpha}{2}, n - 1\right)} \sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}~~;~~\widehat{\beta}_1 + t_{\left(\frac{\alpha}{2}, n - 1\right)}\sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}\right]$$
Um intervalo de $100(1-\alpha)\char37$ de confiança para a resposta média em $X=x_0$ é dado por
$$IC[\mu _{Y\mid x_0}, 1-\alpha] = \left[ \widehat{\mu} _{Y\mid x_0} - t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\dfrac{\widehat{\sigma}^2 x_0^2}{\sum\limits_{i=1}^n x_i^2}} \ ; \ \widehat{\mu} _{Y\mid x_0} + t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\dfrac{\widehat{\sigma}^2 x_0^2}{\sum\limits_{i=1}^n x_i^2}} \right] ,$$
em que $\widehat{\mu}_{Y\mid x_0} = \widehat{\beta_1}x_0.$
Um intervalo de $100(1-\alpha)\char37$ de confiança para a predição de $Y_h$ dado $X=x_h$ é
$$IC[Y_h, 1-\alpha] = \left[\widehat{Y} _{h}-t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\widehat{\sigma}^2+\dfrac{\widehat{\sigma}^2 x_0}{\sum\limits_{i=1}^n x_i^2}} \ ; \ \widehat{Y} _{h}+t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\widehat{\sigma}^2+\dfrac{\widehat{\sigma}^2 x_0}{\sum\limits_{i=1}^n x_i^2}}\right],$$
em que $\widehat{Y}_{h} = \widehat{\beta_1} x_h.$
Exemplo 1.8.1
Voltando à Motivação 1, em que queríamos determinar os valores de temperatura em $^{\circ}\mathrm{C}$ que otimizam a dureza do material, calculemos a estimativa de $\beta_1$ considerando o modelo sem intercepto.
Temos que a estimativa de $\beta_1$ do modelo sem intercepto é
$$\widehat{\beta_1} = \dfrac{\sum\limits_{i=1}^n x_i Y_i}{\sum\limits_{i=1}^n x_i^2}=\dfrac{588125}{1035750}=0,567$$
Usando o Software Action temos os seguintes resultados:
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Temperatura | 1 | 333952.2236 | 333952.2236 | 3864.7726 | 0 |
| Resíduos | 19 | 1641.7764 | 86.4093 |
Tabela 4.1.12: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -14.4389 | -10.2292 | 1.3198 | 0.2198 | 9.3687 | 12.0784 |
Tabela 4.1.13: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Temperatura | 0.5678 | 0.0091 | 62.1673 |
Tabela 4.1.14: Coeficientes
| Desvio Padrão dos Resíduos | Graus de Liberdade | $R^2$ | $R^2$ Ajustado |
|---|---|---|---|
| 9.2957 | 19 | 0.9961 | 0.9949 |
Tabela 4.1.15: Medida Descritiva da Qualidade do Ajuste
1.9 Análise de Resíduos na Regressão Linear Simples
A Análise de Resíduos consiste em um conjunto de técnicas para investigar a adequabilidade do modelo com base nos resíduos
$$e_i=\widehat{\epsilon_i}=Y_i-\widehat{Y}_i.$$
A ideia básica é que se o modelo linear simples é apropriado, os resíduos devem refletir as suposições descritas na Seção 1.1, tais como independência, variância constante para diferentes níveis de X e distribuição Normal.
Na Seção 3 estão as principais técnicas utilizadas na verificação das suposições dos resíduos, que devem ser analisadas para que o modelo ajustado realmente faça sentido.
1.10 - Curva de Calibração
A calibração é um processo de comparação, por exemplo na metrologia, a comparação de um equipamento que desejamos calibrar com um padrão, que pode ser um outro equipamento (padrão) ou algum material padrão. Na área química a comparação pode ser feita usando medições obtidas de um material chamado de Material de Referência Certificado (MRC), como exemplo podemos citar os materiais certificados internacionais (ISO GUIDE). Consideramos que cada quantidade do material de referência utilizado é a mesma, pelo menos no que diz respeito às propriedades do analito.
A curva de calibração é uma relação funcional do sinal observado (y) dada uma certa quantidade de analito. Em geral, utilizamos a regressão linear simples (para mais detalhes consulte o conteúdo regressão linear simples) para estimarmos a incerteza devido a curva de calibração (para mais detalhes sobre o que é incerteza consulte o conteúdo 18. Incerteza de medição).
Segundo o documento orientativo do INMETRO de validação de métodos (DOQ-CGCRE-008), o método é mais sensível quando pequenas variações de concentração resultam em maior variação na resposta (coeficiente angular $\beta_1$). Em geral, são necessários vários níveis de concentração (no mínimo cinco) para construir a curva de calibração e o número de replicatas em cada nível de concentração deve ser o mais próximo possível daquele empregado na rotina do laboratório. Todo experimento de determinação da faixa de trabalho é iniciado pela escolha de uma faixa preliminar, no qual a faixa de trabalho deve cobrir a faixa de aplicação para o qual o ensaio vai ser usado. A orientação segundo DOQ-CGCRE-008 é que a concentração mais esperada da amostra deve, sempre que possível, se situar no centro da faixa de trabalho. No limite inferior da faixa de concentração, o fator limitante é o valor do limite de quantificação, já no limite superior, os fatores limitantes dependem do sistema de resposta do equipamento de medição.
A maioria das aplicações da curva de calibração é que na prática, temos interesse em predizer o valor de (X) dado uma observação(Y), para ilustrarmos o problema observe a seguinte aplicação.
Motivação 2
Considere a curva de calibração de um composto químico realizado por um equipamento chamado Espectrômetro de emissão ótica (ICP). A seguir apresentamos o conjunto de dados:
| Concentração | Área |
|---|---|
| 0,05 | 0,00000405 |
| 0,05 | 0,00000312 |
| 0,05 | 0,00000211 |
| 0,1 | 0,0000286 |
| 0,1 | 0,0000238 |
| 0,1 | 0,0000308 |
| 0,5 | 0,0001913 |
| 0,5 | 0,0001936 |
| 0,5 | 0,0002006 |
| 1 | 0,0004883 |
| 1 | 0,0004761 |
| 1 | 0,0004851 |
| 2 | 0,0009072 |
| 2 | 0,0009246 |
| 2 | 0,0009008 |
Tabela 4.1.16: Conjunto de dados da Motivação 2
Notamos através desta aplicação, que na prática temos interesse em predizer o valor de concentração (X) dado uma observação em área (Y). Neste caso, estamos tratando um problema de regressão inversa, em que predizemos de forma inversa. A principal diferença do modelo de regressão linear clássico é na predição da concentração $x_0$ e no cálculo da variância $(Var[x_0])$. Além disto, temos normas específicas para tratarmos as curvas de calibração.
O Ministério da Agricultura, Pecuária e Abastecimento (MAPA) publicou no Diário Oficial da União em 22/07/2009 a instrução normativa para tratarmos as curvas de calibração. No anexo II seção 7.1 apresenta os procedimentos mínimos requeridos como evidência objetiva da validação do método analítico, são elas:
7.1.1.1. A curva de calibração/resposta deve ser obtida a partir de 5 níveis de concentração, equidistante distribuídos (0,0 - 0,5 - 1,0 - 1,5 - 2,0 vezes o limite máximo de resíduo [LMR] / limite mínimo de desempenho requerido [LMDR]).
7.1.1.2. Cada ponto da curva deve ser ensaiado em pelo menos seis réplicas.
7.1.1.3. Três tipos de curvas de calibração/resposta devem ser elaborados:
i. Padrões de calibração em solução.
ii. Matriz branca fortificada com os padrões de calibração.
iii. Extrato da matriz branca fortificado com os padrões de calibração.
7.1.1.4. As replicatas de cada nível de concentração devem ser independentes ou repetições genuínas, e não somente repetições de leitura.
7.1.1.5. As medidas devem ser feitas em ordem aleatória, adotando-se os devidos cuidados para evitar contaminação cruzada.
7.1.1.6. As curvas de calibração não devem ser forçadas a passar pela origem.
7.1.1.7. Perfil sugerindo heteroscedasticidade significa que os dados da calibração são melhores se tratados por regressão ponderada.
7.1.1.8. Os intervalos de aceitação dos parâmetros da curva, faixa linear de trabalho, devem compreender os valores de LMR ou LMDR.
7.1.1.9. Na determinação dos demais parâmetros de validação (repetitividade, reprodutibilidade), assim como nas rotinas analíticas, os 5 pontos da curva resposta devem ser ensaiados em pelo menos três réplicas cada.
O item 7.1.1.10 trata da avaliação da linearidade e esta avaliação está descrita no conteúdo regressão linear simples. À partir do subitem ii, o conteúdo está descrito na seção análise resíduos. Nas demais seções deste conteúdo vamos aplicar os conceitos da regressão linear simples e fazer uma análise de diagnósticos através da análise dos resíduos.
1.10.1 - Modelo Estatístico para Curva de Calibração
Nesta seção vamos descrever o modelo estatístico para a motivação, para isto é razoável supor que a relação existente entre a variável Área (Y) e níveis de Concentração (X) é linear. Desta forma, definimos o seguinte modelo de regressão linear simples entre Y (variável resposta) e X (variável regressora).
Consideramos duas variáveis Concentração e Área, neste caso, podemos estabelecer uma regressão linear simples cujo modelo estatístico é
$$Y_{ij}=\beta_0+\beta_1~x_{i}+\varepsilon_{ij}\quad i=1,\cdots, n;$$
em que,
-
$Y_{ij}$: representa a j-ésima medição de área referente a i-ésima concentração;
-
$X_{i}$: representa a i-ésima concentração;
-
$\beta_0$: representa o coeficiente linear ou intercepto;
-
$\beta_1$: representa o coeficiente angular;
-
$\varepsilon_{ij}$: representa o j-ésimo erro cometido na medição da i-ésima área. Consideramos que os $\varepsilon_{ij}$ são independentes e identicamente distribuídos com distribuição $N(0,\sigma^2)$ .
Pelo método dos mínimos quadrados, obtemos
$$\hat{\beta_1}=\frac{S_{xy}}{S _{xx}}\quad e\quad\hat{\beta_0}=\overline{y}-\hat{\beta_1}\overline{x}$$
em que,
-
$S _{xx}=\displaystyle\sum^n_{i=1}(x_i-\overline{x})^2=\sum^n_{i=1}x_i^2-2\overline{x}\sum^n_{i=1}x_i+n\overline{x}^2 = \sum^n_{i=1} x_i^2-n\overline{x}^2;$
-
$S_{xy}=\displaystyle\sum^n_{i=1}(x_i-\overline{x})(y_i-\overline{y})=\sum^n_{i=1}(x_i-\overline{x})y_i;$
-
$\overline{y}=\frac{1}{n}\displaystyle\sum^n_{i=1}(y_i)$ representa a média das leituras de área;
-
$\overline{x}=\frac{1}{n}\displaystyle\sum^n_{i=1}(x_i)$ representa a média das leituras de concentração.
para mais detalhes consulte estimação dos parâmetros do modelo.
Exemplo 1.10.1.1
Voltando à Motivação 2, vamos calcular as estimativas dos parâmetros $\beta_{0}$ e $\beta_{1}$ pelo Método dos Mínimos Quadrados.
| n | Concentração | Área | Conc² | Área² | Conc x Área |
|---|---|---|---|---|---|
| 1 | 0,05 | 0,00000405 | 0,0025 | 1,64E-11 | 2,02E-07 |
| 2 | 0,05 | 0,00000312 | 0,0025 | 9,74E-12 | 1,56E-07 |
| 3 | 0,05 | 0,00000211 | 0,0025 | 4,43E-12 | 1,05E-07 |
| 4 | 0,1 | 0,0000286 | 0,01 | 8,21E-10 | 2,86E-06 |
| 5 | 0,1 | 0,0000238 | 0,01 | 5,67E-10 | 2,38E-06 |
| 6 | 0,1 | 0,0000308 | 0,01 | 9,48E-10 | 3,08E-06 |
| 7 | 0,5 | 0,0001913 | 0,25 | 3,66E-08 | 9,56E-05 |
| 8 | 0,5 | 0,0001936 | 0,25 | 3,75E-08 | 9,68E-05 |
| 9 | 0,5 | 0,0002006 | 0,25 | 4,03E-08 | 1,00E-04 |
| 10 | 1 | 0,0004883 | 1 | 2,38E-07 | 4,88E-04 |
| 11 | 1 | 0,0004761 | 1 | 2,27E-07 | 4,76E-04 |
| 12 | 1 | 0,0004851 | 1 | 2,35E-07 | 4,85E-04 |
| 13 | 2 | 0,0009072 | 4 | 8,23E-07 | 1,81E-03 |
| 14 | 2 | 0,0009246 | 4 | 8,55E-07 | 1,85E-03 |
| 15 | 2 | 0,0009008 | 4 | 8,12E-07 | 1,80E-03 |
| Soma | 10,95 | 0,005 | 15,788 | 0,00000331 | 0,007 |
| Média | 0,73 | 0,0003 |
Tabela 4.1.17: Estatísticas calculadas da amostra
Solução:
As médias amostrais das variáveis Concentração (X) e Área (Y) são, respectivamente,
$$\overline{x}=\dfrac{1}{15}\sum_{i=1}^{15}x_i=0,73\quad\hbox{e}\quad\overline{y}=\dfrac{1}{15}\sum_{i=1}^{15} y_i=0,039.$$
Além disso, na Tabela, apresentamos os valores de $x^2$, $y^2$ e $xy$ para cada observação $i=1,\ldots,15$.
Da tabela calculamos as somas de quadrados da seguinte forma:
$$S _{xx}=\sum^n_{i=1}x_i^2-n\overline{x}^2=15,788-15\times 0,73^2=7,794$$
$$S_{yy}=\sum^n_{i=1}y_i^2-n\overline{y}^2= 0,00000331 - 15 \times 0,73^2=1,73\times 10^{-6}$$
$$S_{xy}=\sum^n_{i=1}x_i y_i-n\overline{x}\overline{y}=0,007 - 15 \times 0,73 \times 0,0003=0,0036.$$
Logo, as estimativas dos parâmetros $\beta_{1}$ e $\beta_{0}$ são, respectivamente
$$\widehat\beta_1=\dfrac{0,0036}{7,794}=0,00047\quad\hbox{e }\quad\widehat\beta_0=0,0003-(0,00047)\times 0,73=-1,95\times 10^{-5}.$$
Portanto, o modelo ajustado é dado por
$$\hbox{Área}=-1,95 \times 10^{-5} + 0,00047 \times \hbox{Concentração}$$
Veja a seguir os resultados obtidos pelo software Action.
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Temperatura | 1 | 0.00000173 | 0.00000173 | 4337.62484141 | 0 |
| Resíduos | 13 | 1e-18 | 0 |
Tabela 4.1.18: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -0.00002445 | -0.00001515 | -8.3e-7 | 0 | 0.00000331 | 0.00003721 |
Tabela 4.1.19: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | -0.00001958 | 0.00000733 | -2.67080989 | 0.01923463 |
| Concentração | 0.00047067 | 0.00000715 | 65.86064714 |
Tabela 4.1.20: Coeficientes
| Desvio Padrão dos Resíduos | Graus de Liberdade | $R^2$ | $R^2$ Ajustado |
|---|---|---|---|
| 0.00001995 | 13 | 0.99701192 | 0.99678207 |
Tabela 4.1.21: Medida Descritiva da Qualidade do Ajuste
Figura 4.1.4: Diagrama de dispersão dos dados da Motivação 2
Da seção análise de variância obtemos que
$$QME=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\overline{Y})^2-\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})Y_i}{n-2}.$$
Substituindo os valores obtemos que
$$QME=3,98\times 10^{-10}$$
Com isso, podemos calcular as variâncias dos parâmetros
$$\widehat{\hbox{Var}}(\hat{\beta_0})=QME\left(\frac{1}{n}+\frac{\overline{x}^2}{S _{xx}}\right)=5,38\times 10^{-11}$$
$$\widehat{\hbox{Var}}(\hat{\beta_1})=\frac{QME}{S _{xx}}=5,11\times 10^{-11}$$
O $R^2$ é uma medida descritiva da qualidade do ajuste obtido. Como obtemos um $R^2$ de 0,99, logo a quantidade de variabilidade dos dados bem é explicada pelo modelo de regressão ajustado. Como dito anteriormente, na prática temos interesse em predizer o valor de concentração (X) dado uma observação em área (Y). Então, dado $y_0$ observado, tomamos como estimativa (invertendo a função linear)
$$\hat{x_0} = \frac{y_0 -\hat{\beta_0} }{\hat{\beta_1}}\quad \hbox{que é equivalente a}\quad \widehat{\hbox{Concentração}}_0=\dfrac{\hbox{Área}_0-\hat{\beta_0}}{\hat{\beta_1}}$$
Logo, a variância da estimativa $\hat{x_0}$ é dada por (Veja Brown [13], 1993, pg. 26)
$$\widehat{Var(\hat{x_0})}=\frac{QME}{\hat{\beta}^2 _1}=\frac{3,98\times 10^{-10}}{0,00047^2}=0,00179$$
1.10.2 - Análise de Diagnóstico
Após estimarmos os parâmetros da curva de calibração, as suposições do modelo ajustado precisam ser validadas para que os resultados sejam confiáveis. Chamamos de Análise dos Resíduos um conjunto de técnicas utilizadas para investigar a adequabilidade de um modelo de regressão com base nos resíduos. Os resíduos $\varepsilon_i$ é dado pela diferença entre a variável resposta observada (Área $Y_i$) e a variável resposta estimada $\hat{Y}_i.$
Ao estabelecer o modelo para curva de calibração, supomos que:
i) A relação matemática entre Y e X é linear (seção modelo estatístico para curva de calibração);
ii) Os valores de x são fixos (ou controlados), isto é, x não é uma variável aleatória;
iii) A média do erro é nula, ou seja, E(εi)=0. Desta forma, segue que
$$\mathbb{E}(Y_i|x_i)=\mathbb{E}(\beta_0+\beta_1 x_i+\varepsilon_i)=\beta_0+\beta_1 x_i+\mathbb{E}(\varepsilon_i)=\beta_0+\beta_1 x_i$$
iv) Para um dado valor de x, a variância de $\epsilon_i$ é sempre $\sigma^2$, isto é,
$$\hbox{Var}(\varepsilon_i)=\mathbb{E}(\varepsilon^2_i)+[\mathbb{E}(\varepsilon_i)]^2=\sigma^2$$
isto implica em:
$$\hbox{Var}(Y_i)=\mathbb{E}[(Y_i - \mathbb{E} (Y_i~|~x_i) )^2]=\mathbb{E}(\varepsilon^2_i)=\sigma^2$$
Então, podemos dizer que o erro é homocedástico (tem variância constante);
v) O erro de uma observação é independente do erro de outra observação (erros não correlacionados), isto é,
$$\hbox{Cov}(\varepsilon_i,\varepsilon_j)=0,\quad\hbox{para}~i\neq j$$
vi) Frequentemente, supomos que os erros tem distribuição Normal.
A suposição de normalidade é necessária para a elaboração dos testes de hipóteses e obtenção de intervalos de confiança.
Visando atender os requisitos do MAPA item 7.1.1.10 subitem ii e as disposições do modelo lde regressão linear, vamos realizar a análise de diagnósticos. Com isso, a primeira análise de diagnósticos é o teste de normalidade (para mais detalhes consulte o conteúdo teste de normalidade).
A partir do software Action, obtemos os seguintes resultados com os dados do Exemplo 1.10.1.1:
| Estatística | P-valor | |
|---|---|---|
| Anderson-Darling | 0.628952889 | 0.0817437178 |
| Shapiro-Wilk | 0.8967896632 | 0.0850237715 |
| Kolmogorov-Smirnov | 0.2315579312 | 0.0296353187 |
| Ryan-Joiner | 0.952119712 | 0.1165 |
Tabela 4.1.23: Teste de normalidade do Exemplo 1.10.1.1
Figura 4.1.5: Gráfico da análise de resíduos.
Figura 4.1.6: Gráfico QQ-plot
Dos resultados obtidos pela Tabela 4.1.23, temos que para qualquer estatística escolhida temos que os resíduos são normais. Assim, atendemos a suposição de normalidade dos resíduos.
Dos gráficos, notamos que o nível de concentração de 1, pode afetar a normalidade dos resíduos, porém dos testes (Tabela 4.1.23), notamos que os resíduos são normais. Do gráfico resíduos versus ordem de coleta não temos uma tendência, com isso temos indícios dos resíduos serem independentes. Por fim, analisando o gráfico de resíduos versus valores ajustados observamos uma variação pequena dos resíduos, com isso temos indícios de homoscedasticidade dos resíduos.
A seguir, vamos testar a independência dos resíduos.
| Estatística | P-valor |
|---|---|
| 1.373621368 | 0.110129994 |
Tabela 4.1.24: Teste de independência dos resíduos (Durbin-Watson).
Para testarmos a independência dos resíduos vamos utilizar a estatística de Durbin-Watson (para mais detalhes consulte diagnóstico de independência). Logo, para nível de significância $\alpha=0,05$ não rejeitamos $H_0$ (p-valor$=$0,0547). Portanto, podemos afirmar que com um nível de confiança de 95%, os resíduos são independentes.
Agora, vamos testar a suposição (iv), isto é, o teste de homoscedasticidade. Primeiramente, vamos apresentar a estatística de teste recomendada pelo MAPA.
Teste de Brown-Forsythe
O teste de Brown-Forsythe é utilizado para o teste de igualdade de variâncias, porém em certos casos utilizamos para testar a homoscedasticidade dos resíduos no caso de uma variável explicativa.
O teste $F$ e o teste de Bartlett são muito sensíveis à suposição de que as populações subjacentes têm distribuição normal. Quando as distribuições subjacentes são não têm distribuição normal, tais testes podem extrapolar seu nível de significância nominal.
Levene propôs uma estatística para dados balanceados, que foi generalizada posteriormente para dados desbalanceados. A estatística é obtida à partir de uma ANOVA (1 fator) entre os grupos, em que cada observação foi substituída pelo seu desvio absoluto da sua média do grupo. Segundo Brown e Forsythe esta estatística foi descrita para amostras muito pequenas, em que as correlações altas entre desvios no mesmo grupo fragilizam a validade do teste. Com isso, Brown e Forsythe consideraram a mediana ou 10 % da tri-média (mais robustas), como alternativas para a média no cálculo dos desvios absolutos.
Agora, vamos definir a estatística do teste, para isto seja $x_{ij}=\mu_i+\varepsilon_{ij}$ para j-ésima observação ($j=1,\dots,n_i$) no i-ésimo grupo ($i=1,\dots,g$), em que a média $\mu_i$ são desconhecidas e desiguais. Assumimos que $\varepsilon_{ij}$ são independentes e identicamente distribuídos com média zero variância possivelmente desiguais. Para cada grupo, tomamos a mediana ($\widetilde{x}_i$) e a variância amostral ($s^2_i$). Seja os desvios absolutos
$$z_{ij}=|x_{ij}-\widetilde{x}_i|$$
Portanto, temos a seguinte estatística:
$$F_{BF}=\dfrac{\displaystyle\sum^g_{i=1}\frac{n_{i}(\overline{z}_{i.}-\overline{z}_{..})^2}{(g-1)}}{\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1}(z_{ij}-\overline{z}_{i.})^2}{\displaystyle\sum^g_{i=1}(n_i-1)}}$$
em que, $\overline{z} _{i.} = \displaystyle\sum^g_{i=1}\frac{z _{ij}}{n_i}$ e $\overline{z} _{..}=\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1} z _{ij}}{\displaystyle\sum^g_{i=1}n_i}$
Agora vamos calcular a estatística de Brown-Forsythe, para isto vamos fazer um sumário dos dados necessários. Com isso, calculamos $\widetilde{x}_i$ e o tamanho da amostra $n_i$ para cada nível de concentração. Agora, vamos calcular os desvios absolutos.
| Concentração | Área | $\widetilde{x}_i$ | $z_{ij}$ | $\overline{z}_i$ | $(z_{ij}-\overline{z}_i)^2$ |
|---|---|---|---|---|---|
| 0,05 | 4,05E-06 | 3,00E-06 | 1,04829E-06 | 1,00E-06 | 2,33154E-15 |
| 0,05 | 3,12E-06 | 3,00E-06 | 1,20893E-07 | 1,00E-06 | 7,7283E-13 |
| 0,05 | 2,11E-06 | 3,00E-06 | 8,94803E-07 | 1,00E-06 | 1,10664E-14 |
| 0,1 | 2,86E-05 | 0,000029 | 3,52781E-07 | 2,00E-06 | 2,71333E-12 |
| 0,1 | 2,38E-05 | 0,000029 | 5,19687E-06 | 2,00E-06 | 1,022E-11 |
| 0,1 | 3,08E-05 | 0,000029 | 1,78221E-06 | 2,00E-06 | 4,74331E-14 |
| 0,5 | 0,000191 | 0,000194 | 2,72662E-06 | 3,00E-06 | 7,47356E-14 |
| 0,5 | 0,000194 | 0,000194 | 4,31653E-07 | 3,00E-06 | 6,59641E-12 |
| 0,5 | 0,000201 | 0,000194 | 6,62629E-06 | 3,00E-06 | 1,315E-11 |
| 1 | 0,000488 | 0,000485 | 3,27345E-06 | 0,000004 | 5,27876E-13 |
| 1 | 0,000476 | 0,000485 | 8,86904E-06 | 0,000004 | 2,37075E-11 |
| 1 | 0,000485 | 0,000485 | 1,05052E-07 | 0,000004 | 1,51706E-11 |
| 2 | 0,000907 | 0,000907 | 1,72542E-07 | 0,000008 | 6,12691E-11 |
| 2 | 0,000925 | 0,000907 | 1,75731E-05 | 0,000008 | 9,16435E-11 |
| 2 | 0,000901 | 0,000907 | 6,16094E-06 | 0,000008 | 3,38215E-12 |
| Média | 3,68897E-06 | soma | 2,29289E-10 |
Tabela 4.1.25: Tabela auxiliar para calcularmos a estatística de Brown-Forsythe.
Logo, da tabela obtemos os resultados de
$$z_{ij}=|x_{ij}-\widetilde{x}_i|$$
Por fim, calculamos a estatística de Brown-Forsythe, para isto observe a seguinte tabela:
| Concentração | $\overline{Z}_i$ | $n_i$ | $n_i-1$ | $Z..$ | $g-1$ | Numerador | $\displaystyle\sum^g_{i=1}(z_{ij}-\overline{z}_i)^2$ | Denominador | Estatística F |
|---|---|---|---|---|---|---|---|---|---|
| 0,05 | 1,00E-06 | 3 | 2 | 3,68897E-06 | 4 | 5,42291E-12 | |||
| 0,1 | 2,00E-06 | 3 | 2 | 3,68897E-06 | 4 | 2,13946E-12 | |||
| 0,5 | 3,00E-06 | 3 | 2 | 3,68897E-06 | 4 | 3,56006E-13 | |||
| 1 | 0,000004 | 3 | 2 | 3,68897E-06 | 4 | 7,25564E-14 | |||
| 2 | 0,000008 | 3 | 2 | 3,68897E-06 | 4 | 1,39388E-11 | |||
| Soma | 10 | 2,19297E-11 | 2,29289E-10 | 2,29289E-11 | 0,937442 |
Tabela 4.1.26: Teste de Brown-Forsythe.
Logo, temos que
$$F_{BF}=\dfrac{\displaystyle\sum^g_{i=1}\frac{n_{i}(\overline{z}_{i.}-\overline{z}_{..})^2}{(g-1)}}{\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1}(z_{ij}-\overline{z}_{i.})^2}{\displaystyle\sum^g_{i=1}(n_i-1)}}=\dfrac{\hbox{numerador}}{\hbox{denominador}}=0,937442$$
O p-valor é dado por:
$$\hbox{p-valor}=P[F_{4,10}> F_0]=0,480942$$
Para nível de significância $\alpha=0,05$, obtemos que $F_{0,05;4;10}=3,47.$ Portanto, com 95% de confiança, não rejeitamos $H_0$, ou seja, os resíduos são homocedásticos.
A seguir, através do software Action, testamos a homoscedasticidade através das estatísticas de Breusch-Pagan e Goldfeld-Quandt (para mais detalhes consulte diagnóstico de homoscedasticidade).
| Estatística | Número de Réplicas | P-valor |
|---|---|---|
| 0.662633998 | 3 | 0.064770204 |
Tabela 4.1.27: Teste de Homocedasticidade - Cochran
| Variável | Estatística | G.L.Num. | G.L.Den. | P-valor |
|---|---|---|---|---|
| Grupo | 0.947095236 | 4 | 10 | 0.476288565 |
Tabela 4.1.28: Teste de Homocedasticidade (Brown-Forsythe)
| Estatística | GL | P-valor |
|---|---|---|
| 1.312140041 | 1 | 0.252007555 |
Tabela 4.1.29: Teste de Homocedasticidade - Breusch Pagan
| Variável | Estatística | GL1 | GL2 | P-valor |
|---|---|---|---|---|
| Concentracao | 13.9374713735602 | 4 | 4 | 0.0256902573810213 |
Tabela 4.1.30: Teste de Homocedasticidade - Goldfeld Quandt
| Estatística | P-valor |
|---|---|
| 1.373621368 | 0.110129994 |
Tabela 4.1.31: Teste de Homocedasticidade - Durbin-Watson
Através das tabelas notamos que para nível de significância $\alpha=0,05$, obtemos que com 95% de confiança, não rejeitamos $H_0$, ou seja, os resíduos são homoscedásticos para os testes de Breusch-Pagan e Brown-Forsythe (Teste de Levene modificado). Uma observação importante é que para o teste de Goldfeld-Quandt rejeitamos $H_0,$ porém dentre as limitações deste teste é que necessitamos de uma amostra relativamente grande, o que não acontece com este exemplo. Portanto, podemos concluir que a homoscedasticidade dos resíduos (variância constante).
Diagnóstico de outliers e pontos influentes
A seguir, vamos analisar os outliers, que é uma observação extrema, ou seja, é um ponto com comportamento diferente dos demais. Se um outlier for influente, ele interfere sobre a função de regressão ajustada (a inclusão ou não do ponto modifica substancialmente os valores ajustados).
Mas uma observação ser considerada um outlier não quer dizer que consequentemente é um ponto influente. Por isso, um ponto pode ser um outlier em relação a Y ou a X, e pode ou não ser um ponto influente. A detecção de pontos atípicos tem por finalidade identificar outliers com relação a X, outliers com relação a Y e observações influentes.
Primeiramente, vamos analisar os outliers em X, para isto observe os resultados obtidos pelo software Action:
Figura 4.1.7: Boxplot dos pontos de alavanca (Leverage).
Figura 4.1.8: Gráfico dos pontos de alavanca (leverage hii) versus nº da observação.
Da Figura 4.1.7 notamos alguns indícios de que observações podem alavancar o ajuste do modelo. Da Figura 4.1.8 observamos que os pontos são o de concentração igual a 2. Notamos que ele está muito distante em relação a concentração de 1. Pelo critério $2(p+1)/n=0,27$ temos que os pontos 13,14 e 15 são um outlier em X (Concentração).
Agora, vamos analisar os outliers em Y, para isto observe os resultados obtidos pelo software Action:
Figura 4.1.9: Gráfico dos resíduos padronizados versus valores ajustados.
Figura 4.1.10: Gráfico dos resíduos studentizados versus valores ajustados.
Das Figuras 4.1.9 e 4.1.10 não observamos nenhum outlier em Y (Área), pois nenhum ponto está fora da zona (-3,3).
A seguir, vamos analisar os pontos influentes, para isto observe os resultados obtidos pelo software Action:
| Diagnóstico | Fórmula | Valor |
|---|---|---|
| hii (Leverage) | (2*(p+1))/n | 0.27 |
| DFFITS | 2* raíz ((p+1)/n) | 0.73 |
| DCOOK | 4/n | 0.2667 |
| DFBETA | 2/raíz(n) | 0.52 |
| Resíduos Padronizados | (-3,3) | 3 |
| Resíduos Studentizados | (-3,3) | 3 |
Tabela 4.1.32: Critérios para cada diagnóstico de outliers e pontos influentes
Figura 4.1.11: Gráfico dos pontos DFFITS
Figura 4.1.12: Gráfico dos pontos D-COOK
Vale lembrar que um ponto é influente, se sua exclusão do ajuste da regressão causa uma mudança substancial nos valores ajustados. DFFITS medem a influência que a observação i tem sobre seu próprio valor ajustado. Pelo critério DFFITS, não detectamos pontos influentes, porém pelo critério da distância de Cook, obtemos que a observação 15 é um ponto influente.
Figura 4.1.13: Gráfico dos pontos DBETAS
O DFBETA mede a influência da observação i sobre o coeficiente de X (Concentração). Pelo critério observamos que o ponto 15 é um ponto influente para o coeficiente de Concentração.
Figura 4.1.14: Análise de Diagnóstico de outliers e pontos influentes
Um resumo geral da análise de diagnóstico é que os pontos 13, 14 e 15 podem influenciar na normalidade dos resíduos. Já para análise de outliers em Y, temos nenhum ponto é um outlier em Y (Concentração). Já o ponto 15 é um ponto influente que pode causar uma mudança substancial no ajuste do modelo.
1.10.3 - Incerteza devido à Curva de Calibração
Após as validações das suposições do modelo ajustado, o próximo passo é calcular a incerteza devido à curva de calibração. Para isto propomos calcular a incerteza (para mais detalhes consulte o conteúdo 18. Incerteza de medição) por quatro métodos:
-
Método MGQ (Manual da Garantia da Qualidade);
-
Método da projeção do intervalo de predição;
-
Método Delta;
-
Método Fieller.
A seguir vamos descrever o primeiro método, que é o método do manual da garantia da qualidade (MGQ).
1.10.3.1 - Incerteza devido a curva de calibração: Método MGQ
Ao relatarmos o resultado da medição de uma grandeza física é obrigatório que seja dado alguma indicação quantitativa da qualidade do resultado, de tal forma que aqueles que utilizam o resultado da medição possam avaliar sua confiabilidade. O conceito de incerteza de medição será utilizado como um atributo quantificável para determinar a qualidade de um sistema de medição. Afim de atender este conceito referente a incerteza devido à curva de calibração para métodos analíticos e controle de resíduos contaminantes em alimentos, o Ministério da Agricultura, Pecuária e Abastecimento (MAPA), por intermédio da Secretaria de Defesa Agropecuária e da Coordenação-Geral de Apoio Laboratorial (CGAL), resolveu redigir e publicar o Manual de Garantia da Qualidade Analítica.
No anexo IV do MGQ é descrito de como é calculado da incerteza de previsão da concentração do analito da Curva de Calibração (Cálculo de Incerteza de Calibração). A incerteza padrão da concentração de analito não é a incerteza da concentração de analito na amostra de ensaio, pois nela não consideramos outras fontes de incerteza como a incerteza da preparação das soluções e os níveis de concentração da curva de calibração, tampouco a repetibilidade do ensaio. Esta incerteza é uma das fontes de incerteza do ensaio analítico.
Inicialmente, notamos que na prática o maior interesse é predizer o valor da concentração (X) dado uma observação em área (Y), por exemplo, em análises cromatográficas ou por espectrometria (ICP). Então, dado $y_0$ observado, tomamos como estimativa (invertendo a função linear)
$$\hat{x_0} = \frac{y_0 -\hat{\beta_0} }{\hat{\beta_1}}\quad \tag{1.10.3.1.1}$$
Chamamos de erro na previsão a diferença $(y_0-\widehat{y}_0),$ cuja variância é dada por
$$Var(y_0-\widehat{y_0})=Var(y_0)+Var(\widehat{y_0})-2\hbox{Cov}(y_0,\widehat{y_0})$$
Um estimador pontual pode ser obtido à partir do modelo ajustado
$$\widehat{y}(x_0)=\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0.$$
Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuída já que é uma combinação linear das observações $Y_i$. Além disso, temos que
$$\mathbb{E}(\widehat{y}_0)=\mathbb{E}(\widehat{\mu} \ _{Y \mid x_0})=\beta_0+\beta_1 x_0 =\mu _{Y\mid x_0} \ ,\quad \hbox{e}$$
$$\hbox{Var}(\widehat{y} _0)=\hbox{Var}(\widehat{\mu} _{Y\mid x_0})=\hbox{Var}[\overline{Y}+\widehat{\beta_1}(x_0-\overline{x})]=\hbox{Var}[\overline{Y}]+\hbox{Var}[\widehat{\beta_1}(x_0-\overline{x})]=\hbox{Var}[\overline{Y}]+(x_0-\overline{x})^2\hbox{Var}[\widehat{\beta_1}]=$$
$$=\dfrac{\sigma^2}{n}+(x_0-\overline{x})^2\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}=\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right) = \sigma^2\left(\dfrac{1}{n} + \dfrac{(x_0-\overline{x})^2}{S _{xx}}\right),$$
Com isso temos que $\widehat{\mu} _{Y \mid x_0}$ é um estimador não viciado para $E\left( Y \mid X=x_0 \right).$ Outra observação importante, é que $\hbox{Var}(\widehat{\beta_1})$ é obtida na seção testes e intervalo de confiança dos parâmetros. Logo, temos que
$$\hbox{Var}(y_0-\widehat{y_0})=\hbox{Var}(y_0)+\hbox{Var}(\widehat{y_0})-2\hbox{Cov}(y_0,\widehat{y_0})=$$
$$=\hat{\sigma}^2+\hat{\sigma}^2\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right)=\hat{\sigma}^2\left(1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right).$$
Logo, voltando em (1.10.3.1.1) obtemos
$$\hbox{Var}(\widehat{x}_0)=\dfrac{\hbox{Var}(y_0-\widehat{y_0})}{\widehat{\beta}^2_1}=$$
$$\dfrac{\widehat{\sigma}^2}{\widehat{\beta}^2_1}\left(1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right)$$
Portanto a incerteza devido à curva de calibração pelo método MGQ é dada por:
$$ u(\widehat{x}_0) = \frac{\sqrt{\hbox{QME}}}{\beta_1} \sqrt{1+\frac{1}{n}+\frac{(x_0-\bar{x})^2}{S _{xx}}} = \dfrac{s _{\hbox{res}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}}$$
ou equivalentemente
$$u(\widehat{x}_0)=\dfrac{\sqrt{\hbox{QME}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(y_0-\overline{y})^2}{\beta^2_1 S _{xx}}} =\dfrac{s _{\hbox{res}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(y_0-\overline{y})^2}{\beta^2_1 S _{xx}}}$$
Vale lembrar que:
$x_{0}$: é a concentração de analito da solução injetada no instrumento de medição analítica obtida por interpolação ou extrapolação da curva de calibração.
$y_{0}$: é a resposta instrumental média das injeções no instrumento de medição analítica das soluções obtidas.
$s_{res}$: é o desvio-padrão da resposta instrumental para solução da amstra injetada no instrumento de medição analítica. Mais especificamente é o desvio-padrão dos resíduos do modelo de regressão linear simples.
Exemplo 1.10.3.1.1:
Voltando ao exemplo de Motivação 2 da seção 1.10.1 - Modelo Estatístico para Curva de Calibração. Já temos calculado:
-
$\overline{x} = 0,73 $
-
$S _{xx} = 7,794$
-
$S_{yy} = 1,73 \times 10^{-6}$
-
$S_{xy} = 0,0036$
-
$\widehat{\beta_1} = 0,00047$
-
$\widehat{\beta_0} = -1,95 \times 10^{-5}$
-
$QME = 3,98 \times 10^{-10}$
Tomamos o ponto $\widehat{x}_0=1.$ Logo, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por
$$u(\widehat{x_0})=\dfrac{\sqrt{\hbox{QME}}}{\widehat{\beta}_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}}= \dfrac{\sqrt{3,98\times 10^{-10}}}{0,00047}\sqrt{1+\dfrac{1}{15}+\dfrac{(1-0,73)^2}{7,794}}=0,042389$$
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 0.0000017266 | 0.0000017266 | 4337.6248414089 | 0 |
| Resíduos | 13 | 5.2e-9 | 4e-10 |
Tabela 4.1.33: Tabela da ANOVA
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | -0.0000195813 | 0.0000073316 | -2.6708098938 | 0.0192346319 |
| Concentracao | 0.0004706666 | 0.0000071464 | 65.8606471378 | 0 |
Tabela 4.1.34: Coeficientes
Na próxima seção, vamos descrever o método da projeção do intervalo de confiança da resposta média.
1.10.3.2 - Incerteza devido a curva de calibração: Método da Projeção
Nesta seção vamos deduzir outra metodologia para calcularmos a incerteza devido à curva de calibração, que denominamos método da projeção do intervalo de confiança da resposta média. Para ilustrarmos esta denominação, observe o exemplo da motivação.
Figura 4.1.15: Representação do método da projeção do intervalo de confiança da resposta média com os dados da Motivação 2.
A estimativa de um intervalo de confiança para $\mathbb{E}\left(Y \mid X=x_0 \right)=\mu _{Y \mid x_0}= \beta_0+\beta_1 x_0$ é de grande interesse.
Um estimador pontual de $μ_{Y∣x0}$ pode ser obtido a partir do modelo ajustado, isto é,
$$\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0=\widehat{Y}(x_0)\quad \tag{1.10.3.2.1}$$
Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuida já que é uma combinação linear das observações $Y_i$. Além disso, vimos na seção anterior (1.10.3.1) que
$$\mathbb{E}(\hat{\mu} \ _{Y \mid x_0}) = \beta_0 + \beta_1 x_0 = \mu \ _{Y \mid x_0} \qquad \hbox{e} $$
$$\hbox{Var}(\widehat{\mu} _{Y\mid x_0})=\hbox{Var}[\overline{Y}+\widehat{\beta_1}(x_0-\overline{x})]= \dfrac{\sigma^2}{n}+(x_0-\overline{x})^2\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2} = \sigma^2\left[\dfrac{1}{n} + \dfrac{(x_0-\overline{x})^2}{S _{xx}}\right],$$
Portanto, o intervalo de confiança para $\mu _{Y \mid x_0}=E[Y \mid X=x_0]$ é dado por
$$IC[\mu _{Y \mid x_0}, 1-\alpha] = \left[\widehat{Y}(x_0)-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right)}\right.~;$$
$$\left.\widehat{Y}(x_0)+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right)}\right],$$
em que $\widehat{Y}(x_0)$ é a resposta média estimada para o nível $x=x_0$. Observe a Figura (4.1.16) que ilustra o intervalo de predição
Figura 4.1.16: Banda de confiança do intervalo de predição.
$$\mathbb{E}[ Y | X=x_{LI} ] = \widehat{y}_{0} - t_{(1-\alpha/2;n-2)} \sqrt{ QME\left( \dfrac{1}{n} + \dfrac{ ( x_{LI} - \overline{x} )^2 }{ S _{xx} } \right) } \tag{1.10.3.2.2}$$
$$\mathbb{E}[ Y | X=x_{LS} ] = \widehat{y}_{0} + t_{(1-\alpha/2;n-2)} \sqrt{ QME\left( \dfrac{1}{n} + \dfrac{ ( x_{LS} - \overline{x} )^2 }{ S _{xx} } \right) } \tag{1.10.3.2.3}$$
Primeiramente, traçamos uma linha paralela ao eixo $X$ na altura de $Y$ estimado em $\widehat{x_0}$, que denominaremos por $Y_0$. Projetamos linhas à partir das bandas de confiança, em seguida, traçamos uma reta perpendicular ao eixo $Y$ para obtermos os os valores de $x_{LI}$ e $x_{LS}$.
Igualando as equações (1.10.3.2.1) e (1.10.3.2.2), temos:
$$= \hat{\beta} _0 + \hat{\beta} _1 \bar{x} _0 = \hat{y} _0 - t_1 \sqrt{QME \left( \frac{1}{n} + \frac{(x _{LI} - \bar{x})^2}{S _{xx}} \right)}$$ $$\hat{\beta} _0 + \hat{\beta} _1 \bar{x} _0 = \hat{\beta} _0 + \hat{\beta} _1 x_{LI} - t_1 \sqrt{QME \left( \frac{1}{n} + \frac{(x _{LI} - \bar{x})^2}{S _{xx}} \right)}, \quad \hbox{elevando ambos os lados ao quadrado,} $$ $$(\hat{\beta} _1 \bar{x} _0 - \hat{\beta} _1 x_{LI})^2 = t^2 QME \left( \frac{1}{n} + \frac{(x_{LI} - \bar{x})^2}{S _{xx}} \right)$$ $$\hat{\beta}^2 _1 \bar{x} _0^2 - 2 \hat{\beta} _1^2 \bar{x} _0 x _{LI} + \hat{\beta} _1^2 x_{LI}^2 = \frac{t^2 QME}{n} + \frac{t^2 QME (x^2 _{LI} - 2 x_{LI} \bar{x} + \bar{x}^2)}{S _{xx}}$$ $$\hat{\beta}^2 _1 \bar{x} _0^2 - 2 \hat{\beta}^2 _1 \bar{x} _0 x _{LI} + \hat{\beta}^2 _1 x_{LI}^2 = \frac{t^2 QME}{n} + \frac{x _{LI}^2 t^2 QME}{S _{xx}} - \frac{\bar{x}^2 t^2 QME}{S _{xx}} $$
Colocando em evidência $x^2_{LI}$ e $x_{LI}$, temos,
$$ x_{LI}^2 \underbrace{\left(\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right)}_{a} + x_{LI} \underbrace{\left(\frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right)}_{b} + $$ $$ + \underbrace{\hat{\beta}^2 _1 \bar{x}^2 _0 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}}}_{c} = 0 \tag{1.10.3.2.4} $$
Vale lembrar que (1.10.3.2.4) é uma equação do segundo grau do tipo $a x^2 + b x + c = 0$ (Bhaskara) com:
$$\begin{align*} a &= \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \cr b &= 2 \left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \cr c &= \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}} \end{align*} $$
Assim, resolvendo a equação (1.10.3.2.4) em x encontramos xLS e xLI. Com isso, temos que
$$x = \dfrac{-b \pm \sqrt{\Delta}}{2a}$$
Resolvendo $δ$, temos
$$ \begin{align*} \Delta &= b^2 - 4ac \cr \Delta &= \left[ 2 \left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \right]^2 - 4 \left( \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right) \left( \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}} \right) \cr \end{align*} $$
$$\begin{align*} \ \ \Delta &= 4 \left[ \left( \dfrac{\bar{x} t^2 QME}{S _{xx}} \right)^2 - \dfrac{2 \bar{x} t^2 QME \hat{\beta}^2 _1 \bar{x} _0}{S _{xx}} + \hat{\beta}^4 _1 \bar{x} _0^2 \right] \cr &\quad - 4 \left[ \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{\hat{\beta}^2 _1 t^2 QME}{n} - \frac{\hat{\beta}^2 _1 \bar{x}^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 x_0^2 t^2 QME}{S _{xx}} + \left( \frac{t^2 QME}{n S _{xx}} \right)^2 + \left( \frac{\bar{x} t^2 QME}{S _{xx}} \right)^2 \right] \cr \Delta &= 4 \left[ \frac{2 \bar{x} t^2 QME \hat{\beta}^2 _1 \bar{x} _0}{S _{xx}} + \frac{\hat{\beta}^2 _1 t^2 QME}{n} + \frac{\hat{\beta}^2 _1 \bar{x}^2 t^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 \bar{x} _0^2 t^2 QME}{S _{xx}} - \left( \frac{t^2 QME}{n S _{xx}} \right)^2 \right] \cr \Delta &= 4 \hat{\beta}^2 _1 t^2 QME \left( - \frac{2 \bar{x} \bar{x} _0}{S _{xx}} + \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} + \frac{\bar{x} _0^2}{S _{xx}} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right) \cr \Delta &= 4 \hat{\beta}^2 _1 t^2 QME \left( \frac{(\bar{x} - \bar{x} _0)^2}{S _{xx}} + \frac{1}{n} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right) \end{align*} $$
Dessa maneira, temos
$$ \begin{align*} x &= \frac{-b \pm \sqrt{\Delta}}{2a} \cr &= \frac{-2\left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \pm \sqrt{4 \hat{\beta}^2 _1 t^2 QME \underbrace{\left( \frac{(\bar{x} - \bar{x} _0)^2}{S _{xx}} + \frac{1}{n} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right)}_{\delta_*}}} {2\left( \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right)} \cr x &= \frac{-\left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \end{align*} $$
Somamos e subtraímos $\widehat{x}_0$, e obtemos
$$ \begin{align*} x &= \bar{x} _0 - \frac{\bar{x} t^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 \bar{x} _0 \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \cr x &= \bar{x} _0 + \frac{-\bar{x} _0 \hat{\beta}^2 _1 + \frac{t^2 QME \bar{x} _0}{S _{xx}} - \frac{\bar{x} t^2 QME}{S _{xx}} + \hat{\beta}^2 _1 \bar{x} _0 \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \cr x &= \bar{x} _0 + \frac{\frac{t^2 QME (\bar{x} _0 - \bar{x})}{S _{xx}} \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \end{align*} $$
Multiplicamos e dividimos o segundo termo do lado direito da igualdade por $1 / \widehat{\beta_1}^2$
$$ x = \hat{x}_0 + \frac{ \left( \dfrac{t^2 QME (\hat{x}_0 - \bar{x})}{S _{xx}} \pm \hat{\beta_1} t \sqrt{\delta^*} \right) / \hat{\beta}^2 _1 }{ \left( \dfrac{\hat{\beta}^2 _1 - t^2 QME / S _{xx}}{\hat{\beta}^2 _1} \right) } $$
$$ x = \hat{x}_0 + \frac{ \dfrac{t^2 QME (\hat{x}_0 - \bar{x})}{\hat{\beta}^2 _1 S _{xx}} \pm \dfrac{t}{\hat{\beta_1}}\sqrt{\delta^*} }{ 1 - \dfrac{t^2 QME}{\hat{\beta}^2 _1 S _{xx}} } $$
Substituímos g por $\dfrac{t^2 QME}{\widehat{\beta_1}^2 S _{xx}}$
$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1} (1-g)} \sqrt{\delta^*}, $$
$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1}} \sqrt{\frac{\delta^*}{(1-g)^2}}, $$
$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}(1-g)^2} + \frac{1}{n(1-g)} \right)}. $$
Vamos escrever $h=\dfrac{(\widehat{x}_0 - \overline{x} )}{1-g}$. Com isso temos
$$x = \hat{x}_0 + gh \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{h^2}{S _{xx}} + \frac{1}{n(1-g)} \right)} \quad \hbox{para } g \neq 1$$
em que $g = \dfrac{t^2 QME}{\widehat{\beta_1}^2 S _{xx} }$. Quando g é zero para x , temos os limites para $\widehat{x}_0$. Com isso temos que
$$x=\widehat{x}_0 \pm \dfrac{t}{ \widehat{\beta_1} }\sqrt{QME \left( \dfrac{ (x_0-\overline{x})^2 }{ S _{xx} } + \dfrac{1}{n} \right) }$$
$x = \hat{x}_0 \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{(x_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)}$, que são os limites do intervalo de confiança da resposta média dividido pelo parâmetro $\widehat{\beta_1}$.
Podemos encontrar dois tipos de problemas quando calculamos o intervalo de confiança por este método.
-
$QME \left( \dfrac{ h^2 }{ S _{xx} } + \dfrac{1}{n(1-g)} \right)$ pode ser negativo. Quando isso acontece, não existe um intervalo de confiança real para $\widehat{x} _0$, pois as soluções das equações não são números reais e sim números complexos. No caso em que as soluções de $x_{LI}$ e $x_{LS}$ são complexas, não existe um intervalo de confiança para $\widehat{x} _0$.
-
É possível encontrar $x_{LI}$ e $x_{LS}$ ambas menores ou ambas maiores que $\widehat{x}_0$. Quando isso acontece, a incerteza calculada por este método não é válido.
Portanto, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por
$$u(\hat{x}_0) = \frac{1}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)} = \frac{1}{\hat{\beta_1}} \sqrt{\operatorname{Var}(\hat{y}_0)}$$
Exemplo 1.10.3.2.1
Voltando ao exemplo de Motivação 2 da seção 1.10.1 - Modelo Estatístico para Curva de Calibração. Já temos calculado:
- $\bar{x} = 0,73$
- $S _{xx} = 7,794$
- $S_{yy} = 1,73 \times 10^{-6}$
- $S_{xy} = 0,0036$
- $\hat{\beta_1} = 0,00047$
- $\hat{\beta_0} = -1,95 \times 10^{-5}$
- $QME = 3,98 \times 10^{-10}$
Tomamos o ponto $\widehat{x}_0$ = 1. Logo, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por
$$u(\hat{x}_0) = \frac{1}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)} = $$ $$=\frac{1}{0,00047} \sqrt{3,98 \times 10^{-10} \left( \frac{(1 - 0,73)^2}{7,794} + \frac{1}{15} \right)} = 0,01168$$
A seguir apresentamos os resultados obtidos pelo software Action:
Tabela da ANOVA
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 0.0000017266 | 0.0000017266 | 4337.6248414089 | 0 |
| Resíduos | 13 | 5.2e-9 | 3.98e-10 |
Tabela 4.1.35: Tabela da ANOVA
Coeficientes
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | -0.0000195813 | 0.0000073316 | -2.6708098938 | 0.0192346319 |
| Concentracao | 0.0004706666 | 0.0000071464 | 65.8606471378 | 0 |
Tabela 4.1.36: Coeficientes
Na próxima seção, vamos descrever o método delta.
1.10.3.3 - Incerteza devido a curva de calibração: Método Delta
Nesta seção, vamos utilizar o método delta para calcularmos a incerteza devido a curva de calibração. O método delta é uma técnica para aproximar um vetor aleatório, através da expansão pela séria de Taylor. Ela proporciona transformações que levam a uma variância assintótica que é independente do parâmetro. Se usarmos a aproximação de 1a ordem para $g(\widehat{x}_0)$ obtemos
$$g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} ) = \widehat{x_0} = \dfrac{\widehat{y_0} - \widehat{\beta_0} }{ \widehat{\beta_1} }$$
Expandimos em série de Taylor até primeira ordem, com isso obtemos,
$\mathbb{E}(g(\widehat{x}_0))=g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} ) \approx g( y_0, \beta_0, \beta_1 ) + ( \hat{y_0} - y_0 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial y_0 } +$
$+( \hat{\beta_0} - \beta_0 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial \beta_0 }+ ( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial \beta_1 } + 2 (\hat{y_0} - y_0)( \hat{\beta_0} - \beta_0 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial y_0 \partial \beta_0}+$
$+ 2 (\hat{y_0} - y_0)( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial y_0 \partial \beta_1} + 2 (\hat{\beta_0} - \beta_0)( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial \beta_0 \partial \beta_1}$
Então $\hat{\phi} = g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} )$ é o estimador de $g( y_0, \beta_0, \beta_1 )$ e temos aproximadamente,
$\hbox{Var}( \hat{\phi} ) = \hbox{Var} ( \widehat{x_0} ) \approx \hbox{Var}( \widehat{y_0} ) \left( \dfrac{\partial \hat{\phi} }{ \partial y_0 } \right)^2 + \hbox{Var}( \widehat{\beta_0} ) \left( \dfrac{\partial \hat{\phi} }{ \partial \beta_0 } \right)^2 + \hbox{Var}( \widehat{\beta_1} ) \left( \dfrac{\partial \hat{\phi} }{ \partial \beta_1 } \right)^2$
$+ 2 \hbox{Cov}( \hat{y_0}, \hat{\beta_0} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } \right) + 2 \hbox{Cov}( \widehat{y_0}, \widehat{\beta_1} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } \right) + 2 \hbox{Cov}( \widehat{\beta_0}, \widehat{\beta_1} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial \beta_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } \right)$ (1.10.3.3.1)
Da seção 1.3 Propriedades dos Estimadores, temos que
-
$\hbox{Var}( y_0 ) = \sigma^2 $
-
$\hbox{Var} ( \widehat{\beta_0} ) = \sigma^2 \left( \dfrac{1}{n} + \dfrac{ \overline{x}^2 }{ S _{xx} } \right)$
-
$\hbox{Var} ( \widehat{\beta_1} ) = \dfrac{ \sigma^2 }{ S _{xx} }$
-
$\hbox{Cov} ( \widehat{\beta_0}, \widehat{\beta_1} ) = - \dfrac{ \overline{x}\sigma^2 }{ S _{xx} }$
Agora, é necessário calcularmos as derivadas. Assim,
$\dfrac{ \partial \hat{\phi} }{ \partial y_0 } = \dfrac{1}{ \beta_1 }$
$\dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } = -\dfrac{1}{ \beta_1 }$
$\dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = - \dfrac{(y_0 - \beta_0) }{ \beta_1^2 } = - \dfrac{\phi}{\beta_1}$
$\dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } = \dfrac{1}{\beta_1} \left( -\dfrac{1}{\beta_1} \right) = - \dfrac{1}{\beta_1^2}$
$\dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = \dfrac{1}{\beta_1} \left( - \dfrac{(y_0 - \beta_0) }{ \beta_1^2 } \right) = \left( - \dfrac{ y_0 - \beta_0 }{ \beta_1^3 } \right) = - \dfrac{\phi}{\beta_1^2} $
$\dfrac{ \partial \hat{\phi} }{ \partial \beta_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = \left( -\dfrac{1}{\beta_1} \right) \left( -\dfrac{y_0 - \beta_0}{ \beta_1^2 } \right) = \dfrac{y_0 - \beta_0}{ \beta_1^3 } = \dfrac{\phi}{\beta_1^2}$
em que $\phi = \dfrac{y_0 - \beta_0}{\beta_1}$
Substituímos as derivadas e os dados obtidos nas seções anteriores em (1.10.3.3.1).
$$ \hbox{Var}(\widehat{x_0}) \approx \dfrac{2 \hbox{QME}}{n\widehat{\beta}^2_1}+\dfrac{\widehat{x}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +\dfrac{2\overline{x}^2 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}- 2\dfrac{\widehat{x}_0\overline{x} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +$$
$+\dfrac{\widehat{y}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+\dfrac{\widehat{\beta}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} - 2\dfrac{\widehat{y}_0\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+2\dfrac{\hbox{QME}}{2\widehat{\beta}^2_1}+ 2\dfrac{\overline{x}^2 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}-$
$-2\dfrac{\widehat{x}_0\overline{x}\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} -4\dfrac{\widehat{y}^2_0\overline{x}\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} - 4\dfrac{\widehat{\beta}^2_0\overline{x}\hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +8\dfrac{\widehat{y}_0\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+ $
$+ 2\dfrac{\widehat{x}^2_0\widehat{y}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+2\dfrac{\widehat{x}^2_0\widehat{\beta}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} -4\dfrac{\widehat{x}^2_0\widehat{y}_0\widehat{y}_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}$
Com algumas manipulações algébricas obtemos
$ \hbox{Var}(\widehat{x_0}) \approx \dfrac{ \hbox{QME}}{\widehat{\beta}^2_1}\left[\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + +\dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)\right]$
Portanto, a incerteza devido à curva de calibração pelo método delta é dada por
$$u(\widehat{x_0}) \approx \dfrac{ \sqrt{\hbox{QME}}}{\widehat{\beta_1}}\sqrt{\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + \dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)}$$
Exemplo 1.10.3.3.1:
Voltamos ao exemplo da Motivação 2. Já temos calculado:
-
$\overline{x} = 0,73 $
-
$S _{xx} = 7,794$
-
$\widehat{\beta_1} = 0,00047$
-
$\widehat{\beta_0}=-1,958\times 10^{-5}$
-
$QME = 3,98 \times 10^{-10}$
-
$\widehat{y}_0=0,000451085$
Suponhamos, $\hat{x}_0 = 1,$ logo a incerteza devido à curva de calibração pelo método Delta é dada por
$$u(\widehat{x_0}) = \dfrac{ \sqrt{\hbox{QME}}}{\widehat{\beta_1}}\sqrt{\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + \dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)}$$
$$=\dfrac{ \sqrt{3,98\times 10^{-10}}}{0,00047}\sqrt{\dfrac{4}{15}+\dfrac{(1-2\times 0,73)^2}{7,794} + \dfrac{(0,000451+1,958\times 10^{-5})^2}{7,794}(1-4\times 0,73+2 \times 1^2)}=$$
$$=0,022977$$
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 0.0000017266 | 0.0000017266 | 4337.6248414089 | 0 |
| Resíduos | 13 | 5.2e-9 | 3.98e-10 |
Tabela 4.1.37: Tabela da ANOVA
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | -0.0000195813 | 0.0000073316 | -2.6708098938 | 0.0192346319 |
| Concentracao | 0.0004706666 | 0.0000071464 | 65.8606471378 | 0 |
Tabela 4.1.38: Coeficientes
Na próxima seção, vamos descrever o método de Fieller.
1.10.3.4 - Incerteza devido a curva de calibração: Método Fieller
A incerteza devido à curva de calibração como dito na seção modelo estatístico para curva de calibração, na prática temos interesse em predizer o valor da concentração X, dado uma observação em Área (Y). Com isso obtemos:
$$\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}$$
que é uma razão de duas variáveis aleatórias com distribuição normal (para mais detalhes consulte a distribuição Normal), ou seja, $\widehat{y_0}-\widehat{\beta_0}$ tem distribuição normal com média $\beta_1 x_0$ e variância $\dfrac{\sigma^2~x^2_0}{S _{xx}}$ e $\widehat{\beta_1}$ tem distribuição normal com média $\beta_1$ e variância $\dfrac{\sigma^2}{S _{xx}}.$ Ao padronizarmos estas duas variáveis aleatórias, obtemos duas variáveis aleatórias normais padrão, isto é, $W,V\sim N(0,1).$ Logo a razão destas duas variáveis aleatórias terá uma distribuição de Cauchy (para mais detalhes consulte o conteúdo da distribuição de Cauchy), que não possui média e variância, o que impossibilitaria calcularmos a incerteza devido à curva de calibração. Porém, vamos utilizar um resultado que possibilitará calcularmos a incerteza devido à curva de calibração, que é o teorema de Fieller.
O teorema de Fieller é um resultado geral para intervalos de confiança da razão de duas variáveis aleatórias normalmente distribuídas.
Seja a variável aleatória $\rho=\dfrac{\beta_0}{\beta_1},$ em que $\beta_0$ e $\beta_1$ são estimados por $\widehat{\beta_0}$ e $\widehat{\beta_1}$ e estes estimadores são normalmente distribuídos com médias $\beta_0,~\beta_1$ e variâncias $\hbox{Var}(\beta_0)$ e $\hbox{Var}(\beta_1)$ respectivamente.Consideramos $\psi=\widehat{\beta_0}-\rho \widehat{\beta_1}.$
Com isso, como $\widehat{\beta_0},$ e $~\widehat{\beta_1}$ são estimadores não viciados de $\beta_0$ e $\beta_1,$ temos que
$$\mathbb{E}(\psi)=\beta_0-\rho\beta_1\quad \hbox{e}$$
$$\hbox{Var}(\psi)=\hbox{Var}(\widehat{\beta_0})+\hbox{Var}(\rho\widehat{\beta_1})-2\hbox{Cov}(\widehat{\beta_0},\rho\widehat{\beta_1}) \tag{1.10.3.4.1}$$
Suponhamos que $\psi$ seja normalmente distribuído e
$$\dfrac{\widehat{\beta_0}-\rho\widehat{\beta_1}}{\hbox{Var}(\psi)}$$
tem distribuição normal padrão. Agora, observemos a seguinte desigualdade,
$$|\widehat{\beta_0}-\rho \widehat{\beta_1}|\leq z_{\alpha/2}\sqrt{\hbox{Var}(\psi)}$$
Elevamos ao quadrado em ambos os lados e igualamos a zero.
$$\widehat{\beta_0}^2+\rho^2\widehat{\beta_1}^2-2\rho\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2}\hbox{Var}(\psi)=0$$
Substituimos $\hbox{Var}(\psi)$ por (1.10.3.4.1), com isso obtemos
$$\widehat{\beta_0}^2+\rho^2\widehat{\beta_1}^2-2\rho\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2}(\hbox{Var}(\widehat{\beta_0})+\hbox{Var}(\widehat{\beta_1})-2\rho\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1}))=0$$
Para facilitar a notação, substituímos $\hbox{Var}(\widehat{\beta_0})=v_1,$ $\hbox{Var}(\widehat{\beta_1})=v_2,$ $\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=v_{12}$ e $z_{\alpha/2}=w.$ Com isso, temos que
$$\widehat{\beta_0}^2+(\widehat{\rho}\widehat{\beta_1})^2-2\widehat{\rho}\widehat{\beta_0}\widehat{\beta_1}-w^2 v_1-\widehat{\rho}^2 w^2 v_2+2\widehat{\rho} w^2 v_{12}=0$$
$$(\widehat{\beta_1}^2-w^2 v_2)\widehat{\rho}^2-(2\widehat{\beta_0}\widehat{\beta_1}-2w^2 v_{12})\widehat{\rho}+(\widehat{\beta_0}^2-w^2 v_1)=0$$
Assim esta expressão é uma equação do segundo grau do tipo $ a \rho^2 + b \rho + c = 0 $ (Bhaskara). Logo resolvemos esta equação da seguinte forma:
$$\Delta=4(2\widehat{\beta_0}\widehat{\beta_1}-2w^2 v_{12})^2-4(\widehat{\beta_1}^2-w^2 v_2)(\widehat{\beta_0}^2-w^2 v_1)$$
$$=4 w^2(w^2 v^2_{12}-w^2v_1 v_2+\beta_0^2 v_2+\beta_0^2 v_1-2\beta_0\beta_1v_{12})$$
Logo, a solução para $\widehat{\rho}$ é dada por
$$\widehat{\rho}=\dfrac{\widehat{\beta_0}\widehat{\beta_1}-w^2 v_{12}}{\widehat{\beta_1}^2-w^2 v_2}\pm\dfrac{w}{\widehat{\beta_1}^2-w^2 v_2}\sqrt{w^2 v^2_{12}-w^2v_1 v_2+\beta_0^2 v_2+\beta_1^2 v_1-2\beta_0\beta_1v_{12}}$$
Voltamos as notações originais e chegamos a seguinte expressão:
$\widehat{\rho}=\gamma_1\pm\gamma_2\sqrt{\left(z_{\alpha/2}\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})\right)^2 -z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_0}) \hbox{Var}(\widehat{\beta_1})+\beta^2_0 \hbox{Var}(\widehat{\beta_1})+\beta^2_1 \hbox{Var}(\widehat{\beta_0})-2\beta_0\beta_1\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})}$
em que
$$\gamma_1=\dfrac{\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2} \hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})}{\widehat{\beta_1}^2-z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_1})}\quad\hbox{e}\quad \gamma_2=\dfrac{z_{\alpha/2}}{\widehat{\beta_1}^2-z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_1})}$$
As duas raízes da equação do segundo grau, são os limites de confiança 100(1-$\alpha$)% para $\rho,$ que é o método de Fieller. Agora vamos calcular a variância para $\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}.$ Para isto, vamos adaptar o resultado obtido para $\widehat{\rho}.$ Então basta trocarmos $\widehat{\beta_0}$ por $\widehat{y}_0-\widehat{\beta_0}.$ Mas para isto vamos fazer alguns cálculos:
$$\hbox{Var} (\widehat{y} _0 - \widehat{\beta} _0) = \hbox{Var} (\widehat{y} _0) + \hbox{Var} (\widehat{\beta} _0) - 2 \hbox{Cov} (\widehat{y} _0 , \widehat{\beta} _0) \tag{1.10.3.4.2} $$
Porém, temos
$$\hbox{Cov}(\widehat{y}_0,\widehat{\beta_0})=\mathbb{E}(\widehat{y}_0\widehat{\beta_0})-\mathbb{E}(\widehat{y}_0)\mathbb{E}(\widehat{\beta_0})\quad \tag{1.10.3.4.3}$$
Calculamos agora
$$\mathbb{E}(\widehat{y}_0\widehat{\beta_0})=\mathbb{E}(\widehat{\beta}^2_0+\widehat{\beta_0}\widehat{\beta_1} x_0)=\mathbb{E}(\widehat{\beta}^2_0)+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0=\hbox{Var}(\widehat{\beta_0})+\mathbb{E}^2(\widehat{\beta_0})+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0$$
Voltamos em (1.10.3.4.3) e obtemos
$$\hbox{Cov}(\widehat{y}_0,\widehat{\beta_0})=\hbox{Var}(\widehat{\beta_0})+\mathbb{E}^2(\widehat{\beta_0})+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0-\mathbb{E}^2(\widehat{\beta_0})-\mathbb{E}(\widehat{\beta_0})\mathbb{E}(\widehat{\beta_1}) x_0=$$
$$=\hbox{Var}(\widehat{\beta_0})+\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0$$
Agora, voltamos em (1.10.3.4.2) e obtemos
$$\hbox{Var}(\widehat{y}_0-\widehat{\beta_0})=\hbox{Var}(\widehat{y}_0)+\hbox{Var}(\widehat{\beta_0})-2\hbox{Var}(\widehat{\beta_0})-2\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0=$$
$$=\hbox{Var}(\widehat{y}_0)-\hbox{Var}(\widehat{\beta_0})-2\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0$$
Vale lembrar que
$$\hbox{Cov}(\widehat{y}_0-\widehat{\beta_0},\widehat{\beta_1})=\hbox{Cov}(\widehat{y}_0,\widehat{\beta_1})-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=\hbox{Cov}(\widehat{\beta_0}+\widehat{\beta_1} x_0,\widehat{\beta_1})-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=$$
$$=\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})+\hbox{Cov}(\widehat{\beta_1},\widehat{\beta_1}) x_0-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=\hbox{Var}(\widehat{\beta_1}) x_0$$
Logo, temos que
$$u(\widehat{x} _0)=\gamma_1\pm\gamma_2\left(\left(z_{\alpha/2}\hbox{Var}(\widehat{\beta} _1) x_0\right)^2 -z^2_{\alpha/2}\hbox{Var}(\widehat{y}_0)\hbox{Var}(\widehat{\beta}_1)+z^2_{\alpha/2}\hbox{Var}(\widehat{\beta}_0)\hbox{Var}(\widehat{\beta}_1)+\right.$$
$$+2z^2_{\alpha/2}\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})\hbox{Var}(\widehat{\beta_1})x_0+\widehat{\beta}^2_0\hbox{Var}(\widehat{\beta_1})+\widehat{\beta}^2_1\hbox{Var}(\widehat{y}_0)-\widehat{\beta}^2_1\hbox{Var}(\widehat{\beta_0})$$
$$\left.-2\widehat{\beta}^2_1\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0-2\widehat{\beta_0}\widehat{\beta_1}\hbox{Var}(\widehat{\beta_1}) x_0\right)^{1/2}$$
Substituímos a equação anterior pelos valores:
$$\hbox{Var}(\widehat{\beta_1})=\dfrac{\hbox{QME}}{S _{xx}}, \quad\hbox{Var}(\widehat{\beta_0})=\hbox{QME}\left(\dfrac{1}{n}+\dfrac{\overline{x}^2}{S _{xx}}\right)\quad \hbox{e}\quad \hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=-\dfrac{\overline{x}\hbox{QME}}{S _{xx}}$$
e com algumas manipulações algébricas obtemos que
$$V(\widehat{x}_0)=\dfrac{\widehat{\beta}_0 \widehat{\beta}_1+ \overline{x}g}{(\widehat{\beta}^2_1-g)}\pm\dfrac{z_{\alpha/2}}{(\widehat{\beta}^2_1-g)}\sqrt{2g \dfrac{\hbox{QME}}{S _{xx}}\overline{x}\widehat{x}_0+\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$
em que $g=\dfrac{z^2_{\alpha/2}~\hbox{QME}}{S _{xx}}.$ Quando g é zero para $V(\widehat{x}_0)$ , temos os limites para $\widehat{\rho}(\widehat{x}_0).$ Com isso temos que
$$V(\widehat{x} _0)=\widehat{\rho}\pm\dfrac{z_{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2 _0}{S _{xx}}}$$
Agora, observe que
$$-\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}\leq \dfrac{\widehat{\beta_0}}{\widehat{\beta_1}}\leq\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$
Multiplicamos por -1 a inequação e somamos $\dfrac{\widehat{y}_0}{\widehat{\beta_1}},$ obtemos que
$$\dfrac{\widehat{y} _0}{\widehat{\beta} _1}- \dfrac{z _{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME} \dfrac{\widehat{y}^2 _0}{S _{xx}}}\leq \dfrac{\widehat{y} _0}{\widehat{\beta} _1}- \dfrac{\widehat{\beta} _0}{\widehat{\beta} _1}\leq \dfrac{\widehat{y} _0}{\widehat{\beta} _1}+\dfrac{z _{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME} \dfrac{\widehat{y}^2 _0}{S _{xx}}}$$
Logo, temos que
$$\dfrac{\widehat{y} _0}{\widehat{\beta}_1}-\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}\leq\widehat{x}_0 \leq\dfrac{\widehat{y}_0}{\widehat{\beta}_1}+\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$
Portanto, a incerteza padronizada devido a curva de calibração é dada por:
$$u(\widehat{x}_0)=\dfrac{\widehat{y}_0+\widehat{\beta_1}}{\widehat{\beta_1}}\sqrt{\dfrac{\hbox{QME}}{\widehat{\beta}^2_1} \dfrac{\widehat{y}^2_0}{S _{xx}\widehat{\beta}^2_1}}$$
Exemplo 1.10.3.4.1:
Voltamos ao exemplo da Motivação 2. Já temos calculado:
- $\overline{x} = 0,73 $
- $S _{xx} = 7,794$
- $\widehat{\beta_1} = 0,00047$
- $\widehat{\beta_0}=-1,958\times 10^{-5}$
- $QME = 3,98 \times 10^{-10}$
- $\widehat{y}_0=0,000451085$
Suponhamos, $\hat{x}_0 = 1,$ logo a incerteza devido à curva de calibração pelo método Fieller é dada por
$$u(\widehat{x}_0)=\dfrac{\widehat{y}_0+\widehat{\beta_1}}{\widehat{\beta_1}}\sqrt{\dfrac{\hbox{QME}}{\widehat{\beta}^2_1} \dfrac{\widehat{y}^2_0}{S _{xx}\widehat{\beta}^2_1}} = \dfrac{0,000451085 + 0,00047}{0,00047} \sqrt{\dfrac{3,98\times10^{-5}}{0,00047^2} \dfrac{0,000451085^2}{7,794 \times 0,00047^2}}$$ $$= 9,04328$$
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 0.0000017266 | 0.0000017266 | 4337.6248414089 | 0 |
| Resíduos | 13 | 5.2e-9 | 3.98e-10 |
Tabela 4.1.39: Tabela da ANOVA
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | -0.0000195813 | 0.0000073316 | -2.6708098938 | 0.0192346319 |
| Concentracao | 0.0004706666 | 0.0000071464 | 65.8606471378 | 0 |
Tabela 4.1.40: Coeficientes
1.10.3.5 - Comparação entre os métodos para incerteza devido à curva de calibração
O modelo de regressão linear inversa foi aplicado à avaliação da incerteza na determinação de compostos químicos à partir da construção de curva de calibração para diferentes níveis de concentrações. Nas seções anteriores utilizamos cinco métodos para determinar a incerteza devido à curva de calibração $u(\widehat{x}_0)$ e são elas:
-
Método Ingênuo;
-
Método MGQ (Manual da Garantia da Qualidade);
-
Método da projeção do intervalo de confiança da resposta média;
-
Método Delta;
-
Método Fieller.
Na presente seção vamos fazer uma comparação entre os quatro métodos para aplicação obtida na seção 1.10 (ICP - Espectrômetro de emissão ótica).
| Concentração | Área Ajustada | u (Ing) | u (MGQ) | u (Proj) | u (delta) | u (Fieller) |
|---|---|---|---|---|---|---|
| 0,05 | 0,000004 | 0,04239 | 0,04521 | 0,0157 | 0,0318 | 0,00011 |
| 0,1 | 0,000027 | 0,04239 | 0,04508 | 0,0153 | 0,0314 | 0,00083 |
| 0,25 | 0,000098 | 0,04239 | 0,04474 | 0,0143 | 0,0303 | 0,00339 |
| 0,5 | 0,000216 | 0,04239 | 0,04438 | 0,0132 | 0,0286 | 0,00899 |
| 1 | 0,000451 | 0,04239 | 0,04442 | 0,0133 | 0,0263 | 0,0253 |
| 2 | 0,000922 | 0,04239 | 0,04746 | 0,0213 | 0,0266 | 0,078 |
| 3 | 0,001392 | 0,04239 | 0,05379 | 0,0331 | 0,0329 | 0,16 |
| 5 | 0,002334 | 0,04239 | 0,07253 | 0,0589 | 0,0541 | 0,40 |
Tabela 4.1.41: Resumo das incertezas devido à curva de calibração para todos os métodos.
Comparamos as incertezas obtidas na Tabela 4.1.41, e notamos que os métodos ingênuo (Ing) e do manual da garantia da qualidade (MGQ) estão bem próximos em concentrações até 1 μg/mL, comparando com os demais métodos. Vale lembrar que o método ingênuo (para mais detalhes consulte modelo estatístico para curva de calibração) é dado pela fórmula:
$$u(\widehat{x}_0)=\dfrac{\sqrt{\hbox{QME}}}{\widehat{\beta_1}}$$
e este método mantêm constante a incerteza para qualquer nível de concentração.
Em concentrações até 0,5 μg/mL, temos que o método de Fieller é tem menor incerteza e cresce linearmente, à medida que aumentamos os níveis de concentração. Os métodos delta e MGQ tem variação pequena ao longo dos níveis de concentração adotados, enquanto o método da projeção (Proj) cresce linearmente à medida que aumentamos os níveis de concentração, porém com menos intensidade comparado com o método de Fieller.
Resumindo, notamos que o método de Fieller, para níveis de concentração baixo têm incerteza baixa, enquanto que para níveis de concentração altos a incerteza é muito maior comparado com os demais métodos.
Incerteza relativa aos níveis de concentração (%)
| Concentração | u (Ing) | u (MGQ) | u (Proj) | u (delta) | u (Fieller) |
|---|---|---|---|---|---|
| 0,05 | 84,78 | 90,42 | 31,44 | 63,66 | 0,23 |
| 0,1 | 42,39 | 45,08 | 15,34 | 31,44 | 0,83 |
| 0,25 | 16,96 | 17,90 | 5,73 | 12,12 | 1,36 |
| 0,5 | 8,48 | 8,88 | 2,63 | 5,73 | 1,80 |
| 1 | 4,24 | 4,44 | 1,33 | 2,63 | 2,53 |
| 2 | 2,12 | 2,37 | 1,07 | 1,33 | 3,90 |
| 3 | 1,41 | 1,79 | 1,10 | 1,10 | 5,25 |
| 5 | 0,85 | 1,45 | 1,18 | 1,08 | 7,95 |
Tabela 4.1.42: Incertezas em porcentagem em relação aos níveis de concentração.
A Tabela 4.1.42 nos mostra a porcentagem da incerteza devido a curva de calibração em relação aos níveis de concentração. Desta tabela, obtemos que a incerteza para os baixos níveis de concentração é bem alto. Por exemplo, vamos observar o nível de concentração de 0,05 μg/mL. A incerteza que mais alta é o obtido pelo método do manual da garantia da qualidade (MGQ). O método da projeção do intervalo de confiança da resposta média (Proj), embora com incerteza menor que os métodos MGQ, delta e ingênuo, ainda assim tem cerca de 32% em relação a concentração de 0,05 μg/mL. Ao compararmos a incerteza obtida pelo método Fieller com os demais, observamos que ela é a mais adequada para incertezas com níveis de concentração baixos. Os demais métodos decrescem à medida que aumentamos os níveis de concentração (Tabela 4.1.42), enquanto que o método de Fieller cresce. Outro argumento de favorece o método de Fieller é que $\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}$ é a razão de duas variáveis aleatórias com distribuição normal e este método leva em conta esta suposição. Ao contrário dos demais métodos que não usam esta suposição. Portanto, o método de Fieller é o método mais plausível para calcularmos a incerteza devido à curva de calibração.
1.11 - Regressão Linear Ponderada
Em muitos casos, ao analisarmos os resíduos do modelo de regressão linear podemos concluir que a variância dos erros experimentais não é constante ao longo do valor ajustado pelo modelo. Neste caso, temos que uma das suposições do modelo de regressão não é atendida. Quando isso acontece, dizemos que o modelo apresenta heterocedasticidade nos erros, ou ainda que o modelo é heterocedástico. Alguns efeitos causados por essa falha na suposição do modelo são:
-
Os erros padrões dos estimadores, obtidos pelo Método dos Mínimos Quadrados Ordinários, são incorretos e portanto a inferência estatística não é valida.
-
Não podemos mais dizer que os Estimadores de Mínimos Quadrados Ordinários são os melhores estimadores de variância mínima para $\beta$, embora ainda possam ser não viciados.
O fato curioso da heterocedasticidade é que os estimadores mínimos quadrados ordinários são não viciados. Porém, a variância destes estimadores é incorreta. Para provarmos que a variância está incorreta, tomamos o modelo de regressão linear simples
$$Y_i = \beta_0 + \beta_1 x_i + \varepsilon_i$$
no qual $\varepsilon_i$ são variáveis aleatórias não correlacionadas com média zero e variância $\sigma^2_i$ para todo $i=1, \cdots , n$. Sabemos que os estimadores de mínimos quadrados são dados por
$$\hat{\beta_1} = \frac{Sxy}{Sxx} = \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2}$$
Desta forma, obtemos que
$$\mathbb{E} [\hat{\beta_1}] = \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) Y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] =\beta_0 \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] + \beta_1 \mathbb{E} \left[\frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) x_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2 } \right] + \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) \varepsilon_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2 } \right]=\beta_1$$
Com isso, concluímos que as estimativas de mínimos quadrados são não viciadas. Por outro lado, temos que
$$Var [\hat{\beta_1}] = Var \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} Y_i\right] = \sum_{i=1}^n Var \left[ \frac{ (x_i - \bar{x}) Y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] = \sum_{i=1}^n \left[ \frac{ (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right]^2 Var[Y_i]=\sum_{i=1}^n \left[ \frac{ (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right]^2 \sigma^2_i$$
Assim, a variância da estimativa de mínimos quadrados depende da variância dos erros experimentais, o que torna inviável obtermos estimativas para tal variância sem alguma hipótese adicional.
Suponha que a variância do erro experimental não seja constante, mas pode ser respresentada na forma $Var (\varepsilon ) = \sigma^2 V$ no qual $V$ é uma matriz diagonal conhecida e $\varepsilon=(\varepsilon_1, \cdots , \varepsilon_n)^\top$ o vetor de erros experimentais. Neste caso, temos que as observações são não correlacionadas mas tem variâncias distintas. Como apresentamos acima, os estimadores de mínimos quadrados não são apropriados, pois não temos como garantir que eles são de variância mínima entre todos os não viciados. A ideia é transformar as observações para que possamos aplicar o método dos mínimos quadrados ordinários. Considere o modelo linear
$$Y=X\beta + \varepsilon$$
no qual $Y$ é o vetor de observações, $X$ a matriz de variáveis independentes, $\beta = (\beta_0 , \beta_1)^\top$ o vetor de parâmetros e $\varepsilon$ o vetor de erros experimentais. Desde que $\sigma^2 V$ é a matriz de covariâncias do vetor de erros experimentais , sabemos que $V$ é uma matriz não singular e positiva definida. Então existe uma matriz não singular e simétrica $K_{(n \times n)}$ tal que $K^\top K =V$. A matrix $K$ é denominada raiz quadrada de $V$. Definimos as novas variáveis
$$Z=K^{-1} Y, \quad B=K^{-1} X, \quad \eta = K^{-1} \varepsilon$$
Desta forma, obtemos que
$$Z=K^{-1} Y = B \beta + \eta $$
O erro experimental $\eta$ no modelo transformado satisfazem
$$Var(\eta) = \mathbb{E} \left[ \left( \eta - \mathbb{E}(\eta) \right) \left( \eta - \mathbb{E}(\eta) \right)^\top\right] = \mathbb{E} \left( \eta ~ \eta^\top\right)$$
$$ = \mathbb{E} \left( K^{-1} \varepsilon ~ \varepsilon^\top \left(K^{-1})^\top\right)=K^{-1} \mathbb{E} \left( \varepsilon ~ \varepsilon^\top \right) (K^\top) \right)^{-1}$$
$$=\sigma^2 K^{-1} V \left(K^\top\right)^{-1} = \sigma^2 K^{-1} KK^\top (\left(K^\top\right))^{-1} = \sigma^2 I.$$
e
$$\mathbb{E}(\eta)=\mathbb{E}(K^{-1}\varepsilon)= K^{-1}\left\lbrace\mathbb{E}(Z)-B\mathbb{E}(\widehat{\beta})\right\rbrace= K\left\lbrace\mathbb{E}(Y)-X\mathbb{E}(\widehat{\beta})\right\rbrace=0$$
Portanto, os elementos de $\eta$ tem média zero, são não correlacionados e tem variância constante. Assim, o erro experimental $\eta$ satisfaz as hipóteses usuais para aplicarmos o método do mínimos quadrados ordinários. Este argumento nos garante que se conhecemos a forma da heterocedasticidade da matriz de convariâncias do vetor de erro experimentias $V$, podemos transformar o modelo linear de forma que este atenda às hipóteses usuais para aplicarmos o método dos mínimos quadrados ordinários.
Motivação 3
Considere o experimento para determinar a curva de calibração para um determinado ativo. A seguir apresentamos os dados:
| Área | Concentração |
|---|---|
| 0,078 | 0 |
| 1,329 | 0 |
| 0,483 | 0 |
| 0,698 | 0 |
| 0,634 | 0 |
| 0,652 | 0 |
| 0,071 | 0 |
| 20,718 | 25 |
| 21,805 | 25 |
| 16,554 | 25 |
| 19,948 | 25 |
| 21,676 | 25 |
| 22,207 | 25 |
| 19,671 | 25 |
| 33,833 | 50 |
| 34,726 | 50 |
| 35,463 | 50 |
| 34,04 | 50 |
| 34,194 | 50 |
| 33,664 | 50 |
| 34,517 | 50 |
| 79,224 | 100 |
| 73,292 | 100 |
| 85,514 | 100 |
| 82,072 | 100 |
| 85,044 | 100 |
| 73,876 | 100 |
| 82,568 | 100 |
| 108,065 | 150 |
| 118,268 | 150 |
| 108,89 | 150 |
| 127,183 | 150 |
| 121,447 | 150 |
| 122,414 | 150 |
| 135,555 | 150 |
| 224,932 | 250 |
| 200,113 | 250 |
| 200,368 | 250 |
| 205,17 | 250 |
| 213,059 | 250 |
| 207,931 | 250 |
| 201,766 | 250 |
| 371,534 | 500 |
| 408,86 | 500 |
| 383,509 | 500 |
| 405,143 | 500 |
| 404,132 | 500 |
| 379,243 | 500 |
| 387,419 | 500 |
Tabela 4.1.43: Dados da amostra da Motivação 3
Considere o modelo de calibração dado por
$$Y_{ij} = \beta_0 + \beta_1 x_{ij} + \varepsilon_{ij}$$
nos quais $j=1, \cdots , n_i$ e $i=1, \cdots , k$. Como hipótese usual de modelos lineares, admitimos que $\varepsilon_{ij}$ são variável aleatórias iid com variância constante $\sigma^2$. Ajustamos o modelo de regressão linear, com o apoio computacional do softwarze Action, para o qual obtemos o seguinte gráfico da análise de resíduos:
Figura 4.1.17: Análise da homocedasticidade modelo.
Vale lembrar que as suposições para aplicarmos o método dos mínimos quadrados é que os erros são não correlacionados e com variâncias constantes, isto é, o modelo é homocedástico. Ao avaliarmos o gráfico de resíduos versus valores ajustados, podemos verificar indícios de heterocedasticidade. Note que gráfico do resíduo pelo valor ajustado tem a forma de funil.
Na avaliação da homocedasticidade, esperamos que esse gráfico apresente seus pontos dispostos aleatoriamente em torno da linha traçada em 0. Como o gráfico apresenta a forma de funil, temos indícios de que os erros não possuem variâncias contantes, neste caso dizemos que o modelo apresenta heterocedasticidade nos erros. A avaliação da hipótese de homoscedasticidade da variância dos erros experimentais pode ser realizada através de testes de hipóteses apropriados como Cochran, Brown-Forsyte (Levene), Breusch-Pagan e Goldfeld-Quandt. Para isto, testamos as seguintes hipóteses:
$$\begin{cases} H_0:\sigma^2_1=\sigma^2_2 = … =\sigma^2_k \cr H_1:~\hbox{pelo menos um dos} \ \sigma_i^2 \ \hbox{diferente,} \quad i=1,\ldots,k. \end{cases}$$
A seguir, com auxílio do software Action, vamos avaliar a homocedasticidade através dos testes de hipóteses:
| Estatística | Número de Réplicas | P-valor |
|---|---|---|
| 0.51051508 | 7 | 0.00099733 |
Tabela 4.1.44: Teste de Homocedasticidade - Cochran
| Variável | Estatística | G.L.Num. | G.L.Den. | P-valor |
|---|---|---|---|---|
| grupo | 5.76046332 | 6 | 42 | 0.00019229 |
Tabela 4.1.45: Teste de Homocedasticidade (Brown-Forsythe)
| Estatística | GL | P-valor |
|---|---|---|
| 12.81922038 | 1 | 0.00034308 |
Tabela 4.1.46: Teste de Homocedasticidade - Breusch Pagan
| Variável | Estatística | GL1 | GL2 | P-valor |
|---|---|---|---|---|
| Concentracao | 37.8362623 | 18 | 17 | 5.765522e-10 |
Tabela 4.1.47: Teste de Homocedasticidade - Goldfeld Quandt
A partir dos resultados, notamos que para todas as estatísticas utilizadas rejeitamos a hipótese nula $H_0$, isto é, o modelo é heterocedástico ao nível de significância de 5% ($\alpha=0,05$). Ao testarmos a hipótese de homocedasticidade e este for rejeitado, então temos um modelo heterocedástico. Para contornar a falha na suposição do modelo de regressão linear, descrevemos a estimativa por Mínimos Quadrados Ponderados.
Modelo Estatístico
Neste momento, consideramos o modelo de regressão linear simples e vamos denotar por $\sigma_i^2$ a variância relacionada ao i-ésimo erro $\varepsilon_i,$, A suposição do modelo é que $\varepsilon_i \sim N(0,\sigma_i)$ e são independentes. Observe que estamos considerando que a variância $\sigma_i^2$ depende da i-ésima observação, podendo ser não constante ao longo das observações. O modelo descrito é da forma:
$$Y_i=\beta_{w0} + \beta_{w1}X_i + \varepsilon_i \tag{1.11.1}$$
em que,
-
$Y_i$ é a i-ésima observação da variável resposta;
-
$X_i$ é a i-ésima observação da covariável constante e conhecida;
-
$\beta_{w0}$ e $\beta_{w1}$ são os parâmetros desconhecidos da regressão;
-
$\varepsilon_i$ é o i-ésimo erro, consideramos $\varepsilon_i \sim N(0,\sigma_i^2)$ para $i=1,2,\dots,n$ e $n$ é o número de observações.
Com estas hipóteses, a matriz de covariância é definida na forma $\sigma^2 V$, no qual os elementos da diagonal de $V$ são dados por $\sigma^2_i / \sigma^2$. A ideia principal é obtermos estimadores para os parâmetros de regressão de forma que estes sejam consistentes e de variância mínima. Desta forma, a inferência sobre o modelo se torna válida. Para tratar este caso, admitimos que a matriz $V$ é “conhecida” e assim, sabemos que o modelo transformado $Z = B \beta + \eta$ satisfazem as hipóteses do modelo de regressão linear simples. Com isso, sabemos que os estimadores de mínimos quadrados ordinários são consistentes e de variância mínima.
Como dito, vamos introduzir os princípios dos estimadores de mínimos quadrados ponderados, no qual devemos considerar que cada uma das $n$ observações podem não gerar a mesma variabilidade nos resíduos. Para determinarmos o peso que cada observação terá sobre os estimadores, utilizamos a ideia de que o peso atribuído a uma observação é inversamente proporcional a variância do resíduo relacionado a ela, em outras palavras, consideramos que as observações que causam maior variabilidade nos resíduos têm menor confiabilidade em termos de inferência para os parâmetros da função de regressão. De maneira análoga, as observações com menor variância são mais confiáveis. Na prática, temos diversas fomas de considerarmos os pesos, caso tenhamos informação de que a variância é diretamente proporcional à variável independente ($X$), podemos tomar como peso $1/x$.
No exemplo acima, temos $7$ réplicas de cada ponto de concentração. No caso de réplicas ou “quase réplicas” utilizamos o inverso da variância de cada ponto como peso. Ao denotarmos por $s_i^2$ a variância do ponto, defimos o peso por
$$w_i = \frac{1}{s^2_i} \quad \hbox{e} \quad w_i = k \frac{1/s^2_i}{\sum_{i=1}^k 1 / s^2_i}$$
no qual $i=1, \cdots ,k$ e $k$ é o número de pontos.
1.11.1 - Modelo de regressão linear ponderada
Vamos considerar um modelo de regressão linear no qual a variância dos erros não é constante, mas os erros são não correlacionados. A matriz de convariância dos erros é dada por $\sigma^2 V$ no qual $V$ é uma matriz diagonal e positiva definida.
Na seção anterior, fizemos uma boa discussão sobre a necessidade da ponderação, aplicada aos casos nos quais detectamos heterocedasticidade. O modelo é descrito na forma:
$$K^{-1}Y_i=K^{-1}\beta_{0} + K^{-1}\beta_{1}X_i + K^{-1}\varepsilon_{i}$$
$$Z_{i}=\beta_{0w} + \beta_{1w}B_{i} + \eta_{i}\tag{1.11.1}$$
em que,
- $Y_i$ é a i-ésima observação da variável resposta;
- $X_i$ é a i-ésima observação da covariável constante e conhecida;
- $\beta_{w0}$ e $\beta_{w1}$ são os parâmetros desconhecidos da regressão;
- $\eta_{i}$ é o i-ésimo erro, consideramos $\eta_{i} \sim N(0,\sigma^2 V)$ para $i=1,2,\dots,n$ e $n$ é o número de observações.
Como apresentado na seção “Regressão Linear Ponderada”, ao denotarmos por $K$ a raiz quadrada de $V$ $(K^\top K =V)$, sabemos que o modelo $Z = B \beta + \eta$, nos quais $Z=K^{-1} Y$, $B = K^{-1} X$ e $\eta = K^{-1} \varepsilon$, satisfazem as hipóteses usuais do modelo de regressão linear. Assim, as estimativas de mínimos quadrados são consistentes e de variância mínima.
1.11.2 - Estimação dos parâmetros do modelo
Para estimarmos os parâmetros do modelo de regressão linear heterocedástico tomamos a função de mínimos quadrados por
$$Q_w=\displaystyle\sum^n_{i=1}\eta^2_{i}= \sum_{i=1}^{n} w_i\left( Y_i-\left(\beta_{w0}+\beta_{w1}X_i\right) \right)^2$$
que é soma dos desvios ponderados por $w_i$. No modelo de regressão admitimos que o vetor de erros experimentais tem matriz de covariância dada por $\sigma^2 V$. Assim, temos que $V$ é uma matriz diagonal com elementos da diagonal dados por $1/w_i$.
Os estimadores $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w1}}$ que minimizam a função de mínimos quadrados são conhecidos como estimadores de mínimos quadrados ponderados. Notamos que esses estimadores, coincidem com os estimadores de mínimos quadrados ordinários apresentados nas seções anteriores (para mais detalhes consulte Estimação dos Parâmetros do Modelo) quando consideramos a suposição de homocedasticidade, que implica em pesos $(w_{i})$ iguais.
As observações de maior variância têm menos influência sobre os estimadores de $\beta_{w0}$ e $\beta_{w1}$, e as de menor variância têm mais influência. Isso é devido ao fato de que as observações de menor variância apresentam informações mais pertinentes a respeito da $\mathbb{E}[Y|X_i],~~i=1,\dots,n.$
Calculamos os estimadores de mínimos quadrados ponderados derivando $Q_w$ em relação aos parâmetros e igualando a zero para obter o ponto de mínimo, ou seja:
$$ \dfrac{\partial Q_w}{\partial \beta_{w0}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)=2\displaystyle \sum_{i=1}^{n} w_i Y_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_iX_i=0$$
$$ \dfrac{\partial Q_w}{\partial \beta_{w1}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)X_i=2\displaystyle \sum_{i=1}^{n} w_i Y_i X_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_iX_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_i{X_i}^2=0$$
Desta forma, obtemos o sistema:
$$\begin{cases}\displaystyle \sum_{i=1}^{n} w_iY_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_i + \beta_{w_{w1}} \displaystyle \sum_{i=1}^{n} w_iX_i \cr \displaystyle \sum_{i=1}^{n} w_iY_iX_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_iX_i + \beta_{w1} \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 \end{cases}$$
Com isso, a solução das equações são dadas por:
$$\beta_{w0}= \dfrac { \displaystyle\displaystyle \sum_{i=1}^{n} w_i Y_i - \beta_{w1} \displaystyle\displaystyle \sum_{i=1}^{n} w_i X_i }{ \displaystyle\displaystyle \sum_{i=1}^{n} w_i}\quad \hbox{e}\quad\beta_{w1} = \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n} w_iY_iX_i - \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n}w_iY_i \displaystyle \displaystyle \sum_{i=1}^{n}w_iX_i }{ \displaystyle \displaystyle \sum_{i=1}^{n} {w_i}}}{ \displaystyle \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 - \dfrac{\left(\displaystyle \displaystyle \sum_{i=1}^{n} w_i X_i \right)^2}{\displaystyle \displaystyle \sum_{i=1}^{n} w_i}}$$
Para facilitar a notação, denotamos $\overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n} w_i}$ e $\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n} wi}$ as médias ponderadas de $Y$ e $X$, respectivamente. Afim de facilitar os cálculos, vamos reescrever o estimador de mínimos quadrados ponderados de $\beta_{w1}$ da seguinte maneira:
$\widehat{\beta} _{w1}=\dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X} _w)(Y_i - \overline{Y} _w) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X} _w)^2} =$
$$=\dfrac{\displaystyle \sum_{i=1}^n w_i X_i Y_i -\displaystyle \sum_{i=1}^{n} w_i X_i \overline{Y}_w -\displaystyle \sum_{i=1}^n w_i \overline{X}_w Y_i +\displaystyle \sum_{i=1}^n w_i\overline{X}_w \overline{Y}_w}{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{ \displaystyle \sum_{i=1}^{n} w_i } \right) - \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i\displaystyle \sum_{i=1}^{n} w_i X_i}{ \displaystyle \sum_{i=1}^{n} w_i }- \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \dfrac{\displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{i=1}^{n}\overline{X}_w w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i} }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$= \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_iY_i \overline{X}_w - \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w + \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_iY_iX_i -\displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2 } = \dfrac{ \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)Y_i }{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \tag{1.11.1.5}$$
Logo, os estimadores de mínimos quadrados ponderados são dadas por:
$$\widehat{\beta_{w0}} = \overline{Y}_w - \widehat{\beta_{w1}}\overline{X}_w\quad \hbox{e}\quad \widehat{\beta_{w1}} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } $$
Os valores de $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w0}}$ obtidos são denominados Estimadores de Mínimos Quadrados Ponderados (EMQP).
O modelo de regressão linear simples ponderado ajustado é dado por
$$\widehat{Y_i}=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i\quad i=1,\dots,n$$
em que $\widehat{Y}$ é um estimador pontual da média da variável Y para um valor de $x$, ou seja,
$$\widehat{\mathbb{E}(Y|X_i)}=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i,\quad i=1,\dots,n$$
Exemplo 1.11.1.1
Voltamos à motivação, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as estimativas dos parâmetros $\beta_{w0}$ e $\beta_{w1}$ pelo método dos mínimos quadrados ponderados. Vale lembrar que estamos desenvolvendo a teoria, como se as variâncias fossem conhecidas, porém para resolvermos este exemplo vamos admitir que as variâncias sejam desconhecidas. Com isso, vamos utilizar a variância amostral $s^2_i$ no lugar de $\sigma^2_i.$ Através do software Action obtemos os valores dos pesos $1/s^2_i:$
Dos resultados obtidos do Action, calculamos $w_i=1/s^2_i=$ 1/Variância. Com isso, obtemos a Tabela 4.1.48:
| n | Área $(Y_i)$ | Concentração $(X_i)$ | $w_i$ | $w_i X_i$ | $w_i Y_i$ | $V=(X_i-\overline{X}_w)$ | $w_i * V * Y_i$ | $w_i*V^2$ |
|---|---|---|---|---|---|---|---|---|
| 1 | 0.08 | 0 | 5.446476181 | 0.000 | 0.425 | -17.811 | -7.566 | 1727.748 |
| 2 | 1.33 | 0 | 5.446476181 | 0.000 | 7.238 | -17.811 | -128.921 | 1727.748 |
| 3 | 0.48 | 0 | 5.446476181 | 0.000 | 2.631 | -17.811 | -46.854 | 1727.748 |
| 4 | 0.70 | 0 | 5.446476181 | 0.000 | 3.802 | -17.811 | -67.710 | 1727.748 |
| 5 | 0.63 | 0 | 5.446476181 | 0.000 | 3.453 | -17.811 | -61.502 | 1727.748 |
| 6 | 0.65 | 0 | 5.446476181 | 0.000 | 3.551 | -17.811 | -63.248 | 1727.748 |
| 7 | 0.07 | 0 | 5.446476181 | 0.000 | 0.387 | -17.811 | -6.887 | 1727.748 |
| 8 | 20.72 | 25 | 0.266796416 | 6.670 | 5.527 | 7.189 | 39.738 | 13.789 |
| 9 | 21.81 | 25 | 0.266796416 | 6.670 | 5.817 | 7.189 | 41.823 | 13.789 |
| 10 | 16.55 | 25 | 0.266796416 | 6.670 | 4.417 | 7.189 | 31.752 | 13.789 |
| 11 | 19.95 | 25 | 0.266796416 | 6.670 | 5.322 | 7.189 | 38.262 | 13.789 |
| 12 | 21.68 | 25 | 0.266796416 | 6.670 | 5.783 | 7.189 | 41.576 | 13.789 |
| 13 | 22.21 | 25 | 0.266796416 | 6.670 | 5.925 | 7.189 | 42.594 | 13.789 |
| 14 | 19.67 | 25 | 0.266796416 | 6.670 | 5.248 | 7.189 | 37.730 | 13.789 |
| 15 | 33.83 | 50 | 2.647451047 | 132.373 | 89.571 | 32.189 | 2883.229 | 2743.149 |
| 16 | 34.73 | 50 | 2.647451047 | 132.373 | 91.935 | 32.189 | 2959.330 | 2743.149 |
| 17 | 35.46 | 50 | 2.647451047 | 132.373 | 93.887 | 32.189 | 3022.137 | 2743.149 |
| 18 | 34.04 | 50 | 2.647451047 | 132.373 | 90.119 | 32.189 | 2900.870 | 2743.149 |
| 19 | 34.19 | 50 | 2.647451047 | 132.373 | 90.527 | 32.189 | 2913.994 | 2743.149 |
| 20 | 33.66 | 50 | 2.647451047 | 132.373 | 89.124 | 32.189 | 2868.827 | 2743.149 |
| 21 | 34.52 | 50 | 2.647451047 | 132.373 | 91.382 | 32.189 | 2941.520 | 2743.149 |
| 22 | 79.22 | 100 | 0.040140331 | 4.014 | 3.180 | 82.189 | 261.368 | 271.151 |
| 23 | 73.29 | 100 | 0.040140331 | 4.014 | 2.942 | 82.189 | 241.798 | 271.151 |
| 24 | 85.51 | 100 | 0.040140331 | 4.014 | 3.433 | 82.189 | 282.120 | 271.151 |
| 25 | 82.07 | 100 | 0.040140331 | 4.014 | 3.294 | 82.189 | 270.764 | 271.151 |
| 26 | 85.04 | 100 | 0.040140331 | 4.014 | 3.414 | 82.189 | 280.569 | 271.151 |
| 27 | 73.88 | 100 | 0.040140331 | 4.014 | 2.965 | 82.189 | 243.725 | 271.151 |
| 28 | 82.57 | 100 | 0.040140331 | 4.014 | 3.314 | 82.189 | 272.400 | 271.151 |
| 29 | 108.07 | 150 | 0.010528595 | 1.579 | 1.138 | 132.189 | 150.401 | 183.977 |
| 30 | 118.27 | 150 | 0.010528595 | 1.579 | 1.245 | 132.189 | 164.601 | 183.977 |
| 31 | 108.89 | 150 | 0.010528595 | 1.579 | 1.146 | 132.189 | 151.550 | 183.977 |
| 32 | 127.18 | 150 | 0.010528595 | 1.579 | 1.339 | 132.189 | 177.009 | 183.977 |
| 33 | 121.45 | 150 | 0.010528595 | 1.579 | 1.279 | 132.189 | 169.026 | 183.977 |
| 34 | 122.41 | 150 | 0.010528595 | 1.579 | 1.289 | 132.189 | 170.372 | 183.977 |
| 35 | 135.56 | 150 | 0.010528595 | 1.579 | 1.427 | 132.189 | 188.661 | 183.977 |
| 36 | 224.93 | 250 | 0.012536482 | 3.134 | 2.820 | 232.189 | 654.740 | 675.865 |
| 37 | 200.11 | 250 | 0.012536482 | 3.134 | 2.509 | 232.189 | 582.496 | 675.865 |
| 38 | 200.37 | 250 | 0.012536482 | 3.134 | 2.512 | 232.189 | 583.238 | 675.865 |
| 39 | 205.17 | 250 | 0.012536482 | 3.134 | 2.572 | 232.189 | 597.216 | 675.865 |
| 40 | 213.06 | 250 | 0.012536482 | 3.134 | 2.671 | 232.189 | 620.180 | 675.865 |
| 41 | 207.93 | 250 | 0.012536482 | 3.134 | 2.607 | 232.189 | 605.253 | 675.865 |
| 42 | 201.77 | 250 | 0.012536482 | 3.134 | 2.529 | 232.189 | 587.308 | 675.865 |
| 43 | 371.53 | 500 | 0.00470075 | 2.350 | 1.746 | 482.189 | 842.138 | 1092.955 |
| 44 | 408.86 | 500 | 0.00470075 | 2.350 | 1.922 | 482.189 | 926.743 | 1092.955 |
| 45 | 383.51 | 500 | 0.00470075 | 2.350 | 1.803 | 482.189 | 869.281 | 1092.955 |
| 46 | 405.14 | 500 | 0.00470075 | 2.350 | 1.904 | 482.189 | 918.318 | 1092.955 |
| 47 | 404.13 | 500 | 0.00470075 | 2.350 | 1.900 | 482.189 | 916.026 | 1092.955 |
| 48 | 379.24 | 500 | 0.00470075 | 2.350 | 1.783 | 482.189 | 859.612 | 1092.955 |
| 49 | 387.42 | 500 | 0.00470075 | 2.350 | 1.821 | 482.189 | 878.144 | 1092.955 |
| Soma | 33845,74 | 46960,42 | ||||||
| Média ponderada | 12,86 | 17,81 | $\widehat{\beta}_{w1}$ | 0,720729081 | ||||
| $\widehat{\beta}_{w0}$ | 0,020396847 |
Tabela 4.1.48: Cálculo dos coeficientes de regressão.
Agora, vamos calcular as médias ponderadas.
$\overline{Y} _w =\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i}=\dfrac{758,58}{59}=12,86~~$ e $~\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi}=\dfrac{1050,84}{59}=17,81$
Para ilustrar as contas, vamos tomar a observação 8, com isso obtemos:
$$w_8(X_8-\overline{X}_w)Y_8=0,27(25\sqrt{0,27}-17,81)20,718=39,74$$
e
$$w_8(X_8-\overline{X}_w)^2=0,27~(25\sqrt{27}-17,81)^2=13,79 $$
Repetimos as contas para todas as observações e obtemos:
$$\widehat{\beta_{w1}} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{33845,74}{46960,42}=0,7207 $$
$$\widehat{\beta_{w0}} = \overline{Y_w} - \widehat{\beta_{w1}}\overline{X_w}=12,86-0,7207\times 17,81=0,02039.$$
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentração | 1 | 24393.617047064 | 24393.617047064 | 4688.040436639 | 0 |
| Resíduos | 47 | 244.558471009 | 5.203371724 |
Tabela 4.1.49: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -3.893404242 | 0.187295875 | 1.465691028 | 1.108825534 | 2.336105311 | 5.008184259 |
Tabela 4.1.50: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | 0.020396895 | 0.351200081 | 0.058077706 | 0.953932958 |
| Concentração | 0.720729068 | 0.010526315 | 68.469266366 | 0 |
Tabela 4.1.51: Coeficientes
Figura 4.1.18: Gráfico de dispersão
Notamos que as faixas de maior concentração apresentam maior variabilidade que as faixas iniciais de concentração.
Exemplo 1.11.1.2
Neste exemplo aplicamos o modelo de regressão ponderada para peso $w_i = k\times \frac{1/s_i^2}{\displaystyle\sum_{i=1}^k 1/s_i^2}$ em que $s_i$ é a estimativa do desvio padrão no nível $i$, $i=1,…,k$ e $k=8.$ Aqui utilizamos a coluna ponto, pois foi utilizado concentrações reais, o que são muito utilizados na prática. Na tabela a seguir, temos os valores da Concentração e da Absorbância do analito e alguns cálculos que serão utilizados para a estimativa dos parâmetros.
| Ponto | Concentração | Área |
|---|---|---|
| A | 0,020253 | 0,00154 |
| A | 0,020713 | 0,00152 |
| A | 0,020289 | 0,00152 |
| B | 0,11507 | 0,00617 |
| B | 0,11644 | 0,00608 |
| B | 0,1093 | 0,00608 |
| C | 0,23444 | 0,01234 |
| C | 0,22935 | 0,01215 |
| C | 0,22946 | 0,01215 |
| D | 0,35652 | 0,0185 |
| D | 0,35304 | 0,01823 |
| D | 0,34955 | 0,01823 |
| E | 0,47907 | 0,02467 |
| E | 0,48037 | 0,02431 |
| E | 0,47239 | 0,02431 |
| F | 0,60912 | 0,03084 |
| F | 0,59584 | 0,03038 |
| F | 0,58696 | 0,03038 |
| G | 0,73821 | 0,03701 |
| G | 0,69549 | 0,03646 |
| G | 0,71271 | 0,03646 |
| H | 0,80135 | 0,04009 |
| H | 0,76376 | 0,0395 |
| H | 0,77783 | 0,0395 |
Tabela 4.1.52: Validação de regressão ponderada.
A seguir descrevemos os passos da validação
- Estimativas dos Parâmetros
Para calcularmos as estimativas dos parâmetros do modelo de regressão ponderada, consideramos os cálculos:
$\overline{Y_w}=\dfrac{\displaystyle\sum_{i=1}^{n}w_i Y_i }{\displaystyle\sum_{i=1}^{n}w_i}=\dfrac{0,051262319}{24,018679112}= 0,002134269$
$\overline{X_w} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i X_i}{\displaystyle\sum_{i=1}^{n}wi}=\dfrac{0,782306555}{24,018679112}=0,032570757$
$\widehat{\beta_{w1}} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X_w}) Y_i }{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2 }=\dfrac{0,005730354}{0,111810742}=0,051250474 $
$\widehat{\beta_{w0}} = \overline{Y_w} - \widehat{\beta_{w1}}\overline{X_w}=0,002134269-0,051250474\times 0,032570757 =0,000465002.$
Portanto, o modelo ponderado ajustado é
$$\hbox{Absorbância} = 0,000465002 + 0,051250474*\hbox{Concentração}$$
Comprovamos estes cálculos através da tabela a seguir:
| Ponto | Concentração | Área | $\frac{k\frac{1}{s^2_i}}{\displaystyle\sum^k_{i=1}\frac{1}{s^2_i}}$ | $w_i X_i$ | $w_i Y_i$ | $w^{1/2}_i X_i$ | $w^{1/2}_i Y_i$ | $X_i-\overline{X}_w$ | $w^{1/2}_i(X_i-\overline{X}_w)$ | $w_i(X_i-\overline{X}_w)Y_i$ | $w_i(X_i-\overline{X}_w)^2$ |
|---|---|---|---|---|---|---|---|---|---|---|---|
| A | 0.02025 | 0.00154 | 7.452965696 | 0.150944914 | 0.011477567 | 0.055290934 | 0.004204219 | -0.012317757 | -0.033627624 | -0.000141378 | 0.001130817 |
| A | 0.02071 | 0.00152 | 7.452965696 | 0.154373278 | 0.011328508 | 0.056546739 | 0.004149618 | 0.020713000 | 0.056546739 | 0.000234647 | 0.003197534 |
| A | 0.02029 | 0.00152 | 7.471644808 | 0.151592202 | 0.011356900 | 0.055458581 | 0.004154815 | 0.020289000 | 0.055458581 | 0.000230420 | 0.003075654 |
| B | 0.11507 | 0.00617 | 0.368047689 | 0.042351248 | 0.002270854 | 0.069809441 | 0.003743150 | 0.115070000 | 0.069809441 | 0.000261307 | 0.004873358 |
| B | 0.11644 | 0.00608 | 0.368047689 | 0.042855473 | 0.002237730 | 0.070640578 | 0.003688550 | 0.116440000 | 0.070640578 | 0.000260561 | 0.004990091 |
| B | 0.10930 | 0.00608 | 0.368047689 | 0.040227612 | 0.002237730 | 0.066308959 | 0.003688550 | 0.109300000 | 0.066308959 | 0.000244584 | 0.004396878 |
| C | 0.23444 | 0.01234 | 0.082581337 | 0.019360369 | 0.001019054 | 0.067370950 | 0.003546142 | 0.234440000 | 0.067370950 | 0.000238907 | 0.004538845 |
| C | 0.22935 | 0.01215 | 0.082581337 | 0.018940030 | 0.001003363 | 0.065908238 | 0.003491542 | 0.229350000 | 0.065908238 | 0.000230121 | 0.004343896 |
| C | 0.22946 | 0.01215 | 0.082581337 | 0.018949114 | 0.001003363 | 0.065939849 | 0.003491542 | 0.229460000 | 0.065939849 | 0.000230232 | 0.004348064 |
| D | 0.35652 | 0.01850 | 0.040894188 | 0.014579596 | 0.000756542 | 0.072096584 | 0.003741128 | 0.356520000 | 0.072096584 | 0.000269723 | 0.005197917 |
| D | 0.35304 | 0.01823 | 0.040894188 | 0.014437284 | 0.000745501 | 0.071392848 | 0.003686527 | 0.353040000 | 0.071392848 | 0.000263192 | 0.005096939 |
| D | 0.34955 | 0.01823 | 0.040894188 | 0.014294563 | 0.000745501 | 0.070687089 | 0.003686527 | 0.349550000 | 0.070687089 | 0.000260590 | 0.004996665 |
| E | 0.47907 | 0.02467 | 0.023002981 | 0.011020038 | 0.000567484 | 0.072659270 | 0.003741633 | 0.479070000 | 0.072659270 | 0.000271864 | 0.005279370 |
| E | 0.48037 | 0.02431 | 0.023002981 | 0.011049942 | 0.000559202 | 0.072856438 | 0.003687033 | 0.480370000 | 0.072856438 | 0.000268624 | 0.005308061 |
| E | 0.47239 | 0.02431 | 0.023002981 | 0.010866378 | 0.000559202 | 0.071646132 | 0.003687033 | 0.472390000 | 0.071646132 | 0.000264162 | 0.005133168 |
| F | 0.60912 | 0.03084 | 0.014088782 | 0.008581759 | 0.000434498 | 0.072300214 | 0.003660590 | 0.609120000 | 0.072300214 | 0.000264661 | 0.005227321 |
| F | 0.59584 | 0.03038 | 0.014088782 | 0.008394660 | 0.000428017 | 0.070723929 | 0.003605990 | 0.595840000 | 0.070723929 | 0.000255030 | 0.005001874 |
| F | 0.58696 | 0.03038 | 0.014088782 | 0.008269552 | 0.000428017 | 0.069669907 | 0.003605990 | 0.586960000 | 0.069669907 | 0.000251229 | 0.004853896 |
| G | 0.73821 | 0.03701 | 0.009855161 | 0.007275179 | 0.000364740 | 0.073284443 | 0.003674100 | 0.738210000 | 0.073284443 | 0.000269254 | 0.005370610 |
| G | 0.69549 | 0.03646 | 0.009855161 | 0.006854166 | 0.000359319 | 0.069043493 | 0.003619500 | 0.695490000 | 0.069043493 | 0.000249903 | 0.004767004 |
| G | 0.71271 | 0.03646 | 0.009855161 | 0.007023872 | 0.000359319 | 0.070752977 | 0.003619500 | 0.712710000 | 0.070752977 | 0.000256090 | 0.005005984 |
| H | 0.80135 | 0.04009 | 0.008564166 | 0.006862895 | 0.000343337 | 0.074159157 | 0.003710040 | 0.801350000 | 0.074159157 | 0.000275133 | 0.005499581 |
| H | 0.76376 | 0.03950 | 0.008564166 | 0.006540968 | 0.000338285 | 0.070680474 | 0.003655440 | 0.763760000 | 0.070680474 | 0.000258368 | 0.004995729 |
| H | 0.77783 | 0.03950 | 0.008564166 | 0.006661465 | 0.000338285 | 0.071982551 | 0.003655440 | 0.777830000 | 0.071982551 | 0.000263128 | 0.005181488 |
| Soma | 24.018679112 | 0.782306555 | 0.051262319 | 1.647209777 | 0.089194596 | 0.005730354 | 0.111810742 | ||||
| Média | 0.411146875 | 0.021184167 | 0.032570757 | 0.002134269 | |||||||
| $\widehat{\beta}_{1w}$ | 0.051250474 | ||||||||||
| $\widehat{\beta}_{0w}$ | 0.000465002 |
Tabela 4.1.53: Validação dos cálculos dos coeficientes de regressão para o exemplo 1.11.1.2.
A seguir apresentamos os resultados obtidos pelo Action Stat.
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentração | 1 | 0.018183 | 0.018183 | 84350,03285 | 0 |
| Resíduos | 22 | 0.000005 | 0 |
Tabela 4.1.54: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -0.000818 | -0.000289 | 0.00008 | -0.000002 | 0.000238 | 0.001157 |
Tabela 4.1.55: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor | |
|---|---|---|---|---|
| Intercepto | 0.000492 | 0.000037 | 13.223138 | 0 |
| Temperatura | 0.050328 | 0.000173 | 290.430771 | 0 |
Tabela 4.1.56: Coeficientes
| Desvio Padrão dos Resíduos | Graus de Liberdade | $R^2$ | $R^2$ Ajustado |
|---|---|---|---|
| 0.000464 | 22 | 0.999739 | 0.999727 |
Tabela 4.1.57: Medida Descritiva da Qualidade do Ajuste
1.11.2.1 Resíduos
A diferença entre o valor observado $Y_{i}$ e o correspondente valor ajustado $\widehat{Y}_{i}$, é chamada de resíduo e é denotada por
$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{w0}+\widehat\beta_{w1}x_{i})$$
Essa medida é importante já que por meio dela verificamos o ajuste do modelo.
Algumas propriedades do ajuste de mínimos quadrados
- A soma dos resíduos ponderados é sempre nula.
$$\sum^n_{i=1}\eta_i=\sum\limits_{i=1}^{n}(w_i)^{1/2}e_{i}=\sum\limits_{i=1}^{n}(w_i)(Y_{i}-\widehat{Y}_{i})=0;$$
De fato,
$$\sum^n_{i=1}\eta_i=\sum^n_{i=1}w_i(Y_i-\widehat{Y}_i)=\sum^n_{i=1}w_i \left\lbrace Y_i-\widehat{\beta_{w0}}-\widehat{\beta_{w1}}x_i \right\rbrace=$$
$$=\sum^n_{i=1}w_i \left \lbrace Y_i-\overline{Y}_{w}+\widehat{\beta_{w1}}\overline{X}_{w}-\widehat{\beta_{w1}}x_i \right \rbrace=$$
$$=\sum^n_{i=1}w_i \left \lbrace Y_i-\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta_{w1}}\left(x_i-\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right) \right \rbrace=$$
$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta_{w1}}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)=$$
$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_iY_i-\widehat{\beta_{w1}}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_ix_i\right)=0$$
- A reta de regressão de mínimos quadrados passa pelo ponto $(\overline{X},\overline{Y})$. De fato,
$$Y_i=\beta_{w0}+\beta_{w1}X_i+\varepsilon_i=\beta_{w0}+\beta_{w1}(X_i-\overline{X})+\beta_{w1}\overline{X}+\varepsilon_i=$$
$$=(\beta_{w0}+\beta_{w1}\overline{X})+\beta_{w1}(X_i-\overline{X})+\varepsilon_i=\beta_{w0}^{*}+\beta_{w1}(X_i-\overline{X})+\varepsilon_i,$$
com $\beta_{w0}^{*}=\beta_{w0}+\beta_{w1}\overline{X}$. Assim, a reta de regressão ajustada é dada por
$$\widehat{Y}=\widehat{\beta_{w0}}^{*}+\widehat{\beta_{w1}}(X_i-\overline{X})=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}\overline{X}+\widehat{\beta_{w1}}(X_i-\overline{X})=$$
$$=(\overline{Y}-\widehat{\beta_{w1}}\overline{X})+\widehat{\beta_{w1}}\overline{X}+\widehat{\beta_{w1}}(X_i-\overline{X})=\overline{Y}+\widehat{\beta_{w1}}(X_i-\overline{X}).$$
Logo, $$\widehat{Y}=\overline{Y}+\widehat{\beta_{w1}}(\overline{X}-\overline{X})=\overline{Y}$$
e portanto, temos que a reta ajustada passa por $(\overline{X},\overline{Y})$.
- A soma dos resíduos ponderados pelo correspondente valor da variável regressora é sempre nula.
$$\sum\limits_{i=1}^{n}(w_i)^{1/2} x_{i}e_{i}=0;$$
- A soma dos resíduos ponderados pelo correspondente valor ajustado é sempre zero.
$$\sum\limits_{i=1}^{n}(w_i) \widehat{Y}_{i}e_{i}=0.$$
| Área | Concentração | $w_i$ | $w_i\times X_i$ | $w_i\times Y_i$ | $\widehat{Y}_i$ | $e_i$ | $w_i\times e_i$ | $w_i\times \widehat{Y}_i\times e_i$ |
|---|---|---|---|---|---|---|---|---|
| 0,078 | 0 | 5,446474769 | 0 | 0,424825 | 0,020397 | 0,057603 | 0,313734574 | 0,00639917 |
| 1,329 | 0 | 5,446474769 | 0 | 7,238365 | 0,020397 | 1,308603 | 7,12727451 | 0,145373333 |
| 0,483 | 0 | 5,446474769 | 0 | 2,630647 | 0,020397 | 0,462603 | 2,519556855 | 0,051390806 |
| 0,698 | 0 | 5,446474769 | 0 | 3,801639 | 0,020397 | 0,677603 | 3,690548931 | 0,075275254 |
| 0,634 | 0 | 5,446474769 | 0 | 3,453065 | 0,020397 | 0,613603 | 3,341974545 | 0,068165465 |
| 0,652 | 0 | 5,446474769 | 0 | 3,551102 | 0,020397 | 0,631603 | 3,440011091 | 0,070165093 |
| 0,071 | 0 | 5,446474769 | 0 | 0,3867 | 0,020397 | 0,050603 | 0,27560925 | 0,005621537 |
| 20,718 | 25 | 0,266796415 | 6,66991 | 5,527488 | 18,03862 | 2,679376 | 0,714848045 | 12,89487474 |
| 21,805 | 25 | 0,266796415 | 6,66991 | 5,817496 | 18,03862 | 3,766376 | 1,004855748 | 18,12621451 |
| 16,554 | 25 | 0,266796415 | 6,66991 | 4,416548 | 18,03862 | -1,48462 | -0,39609223 | -7,14495857 |
| 19,948 | 25 | 0,266796415 | 6,66991 | 5,322055 | 18,03862 | 1,909376 | 0,509414805 | 9,189141874 |
| 21,676 | 25 | 0,266796415 | 6,66991 | 5,783079 | 18,03862 | 3,637376 | 0,97043901 | 17,50538394 |
| 22,207 | 25 | 0,266796415 | 6,66991 | 5,924748 | 18,03862 | 4,168376 | 1,112107907 | 20,06089582 |
| 19,671 | 25 | 0,266796415 | 6,66991 | 5,248152 | 18,03862 | 1,632376 | 0,435512198 | 7,856040571 |
| 33,833 | 50 | 2,647451113 | 132,3726 | 89,57121 | 36,05685 | -2,22385 | -5,88753479 | -212,28596 |
| 34,726 | 50 | 2,647451113 | 132,3726 | 91,93539 | 36,05685 | -1,33085 | -3,52336095 | -127,041298 |
| 35,463 | 50 | 2,647451113 | 132,3726 | 93,88656 | 36,05685 | -0,59385 | -1,57218947 | -56,6882004 |
| 34,04 | 50 | 2,647451113 | 132,3726 | 90,11924 | 36,05685 | -2,01685 | -5,33951241 | -192,525999 |
| 34,194 | 50 | 2,647451113 | 132,3726 | 90,52694 | 36,05685 | -1,86285 | -4,93180494 | -177,825352 |
| 33,664 | 50 | 2,647451113 | 132,3726 | 89,12379 | 36,05685 | -2,39285 | -6,33495403 | -228,418489 |
| 34,517 | 50 | 2,647451113 | 132,3726 | 91,38207 | 36,05685 | -1,53985 | -4,07667823 | -146,992176 |
| 79,224 | 100 | 0,040140331 | 4,014033 | 3,180078 | 72,0933 | 7,130696 | 0,286228509 | 20,6351588 |
| 73,292 | 100 | 0,040140331 | 4,014033 | 2,941965 | 72,0933 | 1,198696 | 0,048116066 | 3,468846133 |
| 85,514 | 100 | 0,040140331 | 4,014033 | 3,43256 | 72,0933 | 13,4207 | 0,53871119 | 38,83746944 |
| 82,072 | 100 | 0,040140331 | 4,014033 | 3,294397 | 72,0933 | 9,978696 | 0,400548171 | 28,87684095 |
| 85,044 | 100 | 0,040140331 | 4,014033 | 3,413694 | 72,0933 | 12,9507 | 0,519845235 | 37,47736038 |
| 73,876 | 100 | 0,040140331 | 4,014033 | 2,965407 | 72,0933 | 1,782696 | 0,071558019 | 5,158853989 |
| 82,568 | 100 | 0,040140331 | 4,014033 | 3,314307 | 72,0933 | 10,4747 | 0,420457775 | 30,31219009 |
| 108,065 | 150 | 0,010528595 | 1,579289 | 1,137773 | 108,1298 | -0,06476 | -0,0006818 | -0,0737231 |
| 118,268 | 150 | 0,010528595 | 1,579289 | 1,245196 | 108,1298 | 10,13824 | 0,106741449 | 11,54192695 |
| 108,89 | 150 | 0,010528595 | 1,579289 | 1,146459 | 108,1298 | 0,760243 | 0,008004288 | 0,865501761 |
| 127,183 | 150 | 0,010528595 | 1,579289 | 1,339058 | 108,1298 | 19,05324 | 0,20060387 | 21,69124775 |
| 121,447 | 150 | 0,010528595 | 1,579289 | 1,278666 | 108,1298 | 13,31724 | 0,140211851 | 15,16107342 |
| 122,414 | 150 | 0,010528595 | 1,579289 | 1,288847 | 108,1298 | 14,28424 | 0,150393002 | 16,26195881 |
| 135,555 | 150 | 0,010528595 | 1,579289 | 1,427204 | 108,1298 | 27,42524 | 0,288749264 | 31,22238783 |
| 224,932 | 250 | 0,012536482 | 3,134121 | 2,819856 | 180,2027 | 44,72934 | 0,560748529 | 101,0483789 |
| 200,113 | 250 | 0,012536482 | 3,134121 | 2,508713 | 180,2027 | 19,91034 | 0,249605574 | 44,9795894 |
| 200,368 | 250 | 0,012536482 | 3,134121 | 2,51191 | 180,2027 | 20,16534 | 0,252802377 | 45,55566182 |
| 205,17 | 250 | 0,012536482 | 3,134121 | 2,57211 | 180,2027 | 24,96734 | 0,313002565 | 56,40389611 |
| 213,059 | 250 | 0,012536482 | 3,134121 | 2,67101 | 180,2027 | 32,85634 | 0,411902874 | 74,22599531 |
| 207,931 | 250 | 0,012536482 | 3,134121 | 2,606723 | 180,2027 | 27,72834 | 0,347615793 | 62,64129197 |
| 201,766 | 250 | 0,012536482 | 3,134121 | 2,529436 | 180,2027 | 21,56334 | 0,270328379 | 48,71389413 |
| 371,534 | 500 | 0,00470075 | 2,350375 | 1,746488 | 360,3849 | 11,14907 | 0,052408983 | 18,88740762 |
| 408,86 | 500 | 0,00470075 | 2,350375 | 1,921949 | 360,3849 | 48,47507 | 0,227869174 | 82,1206165 |
| 383,509 | 500 | 0,00470075 | 2,350375 | 1,80278 | 360,3849 | 23,12407 | 0,108700463 | 39,17400882 |
| 405,143 | 500 | 0,00470075 | 2,350375 | 1,904476 | 360,3849 | 44,75807 | 0,210396486 | 75,82372325 |
| 404,132 | 500 | 0,00470075 | 2,350375 | 1,899723 | 360,3849 | 43,74707 | 0,205644028 | 74,11100895 |
| 379,243 | 500 | 0,00470075 | 2,350375 | 1,782726 | 360,3849 | 18,85807 | 0,088647064 | 31,94706596 |
| 387,419 | 500 | 0,00470075 | 2,350375 | 1,82116 | 360,3849 | 27,03407 | 0,127080395 | 45,7978594 |
| Soma | 59,00039919 | 1050,842 | 758,5758 | 5,84061E-13 | 2,90896E-11 | |||
| Média | 17,81076 | 12,85713 | 1,19196E-14 |
Tabela 4.1.58: Exemplo de cálculo dos resíduos ponderados.
Exemplo 1.11.1.3
Voltando o exemplo 1.11.2, aplicamos os mesmos conjunto de dados para calcularmos os resíduos ponderados. Desta forma, calculamos os resíduos ponderados para primeira observação obtidas da Tabela 4.1.1, os demais são calculados de forma análoga.
$$e_{1}=Y_1-\widehat{Y_1}= Y_1-\widehat{\beta_{0w}}-\widehat{\beta_{1w}}x_1=0,00154-0,000497721-0,050245873\times 0,020253=2,46498\times 10^{-5}$$
$$e_{1w}=w^{1/2}_1\times e_1= \sqrt{7,453}\times 2,46498\times 10^{-5}=6,72942\times 10^{-5}$$
| Ponto | Concentração | Área | $\widehat{Y}_i$ | $e_i$ | $w_i^{1/2}e_i$ |
|---|---|---|---|---|---|
| A | 0,020253 | 0,00154 | 0,001515 | 2,46E-05 | 6,72942E-05 |
| A | 0,020713 | 0,00152 | 0,001538 | -1,8E-05 | -5,04051E-05 |
| A | 0,020289 | 0,00152 | 0,001517 | 2,84E-06 | 7,75575E-06 |
| B | 0,11507 | 0,00617 | 0,00628 | -0,00011 | -6,64383E-05 |
| B | 0,11644 | 0,00608 | 0,006348 | -0,00027 | -0,0001628 |
| B | 0,1093 | 0,00608 | 0,00599 | 9,04E-05 | 5,48462E-05 |
| C | 0,23444 | 0,01234 | 0,012277 | 6,26E-05 | 1,8E-05 |
| C | 0,22935 | 0,01215 | 0,012022 | 0,000128 | 3,68949E-05 |
| C | 0,22946 | 0,01215 | 0,012027 | 0,000123 | 3,53066E-05 |
| D | 0,35652 | 0,0185 | 0,018411 | 8,86E-05 | 1,79212E-05 |
| D | 0,35304 | 0,01823 | 0,018237 | -6,5E-06 | -1,31923E-06 |
| D | 0,34955 | 0,01823 | 0,018061 | 0,000169 | 3,41422E-05 |
| E | 0,47907 | 0,02467 | 0,024569 | 0,000101 | 1,53167E-05 |
| E | 0,48037 | 0,02431 | 0,024634 | -0,00032 | -4,91904E-05 |
| E | 0,47239 | 0,02431 | 0,024233 | 7,66E-05 | 1,16225E-05 |
| F | 0,60912 | 0,03084 | 0,031103 | -0,00026 | -3,12749E-05 |
| F | 0,59584 | 0,03038 | 0,030436 | -5,6E-05 | -6,6733E-06 |
| F | 0,58696 | 0,03038 | 0,02999 | 0,00039 | 4,6287E-05 |
| G | 0,73821 | 0,03701 | 0,03759 | -0,00058 | -5,75513E-05 |
| G | 0,69549 | 0,03646 | 0,035443 | 0,001017 | 0,000100939 |
| G | 0,71271 | 0,03646 | 0,036308 | 0,000152 | 1,50442E-05 |
| H | 0,80135 | 0,04009 | 0,040762 | -0,00067 | -6,2212E-05 |
| H | 0,76376 | 0,0395 | 0,038874 | 0,000626 | 5,79772E-05 |
| H | 0,77783 | 0,0395 | 0,03958 | -8E-05 | -7,44675E-06 |
| $\widehat{\beta}_{1w}$ | 0,050246 | ||||
| $\widehat{\beta}_{0w}$ | 0,000498 |
Tabela 4.1.59: Validação do cálculo dos resíduos ponderados para o exemplo 1.11.1.2.
A seguir apresentamos os resultados obtidos pelo Action Stat.
| N.Obs | Área | Concentração | (weights) | Resíduos Ponderados | Resíduos Studentizados | Resíduos Padronizados |
|---|---|---|---|---|---|---|
| 1 | 0.00154 | 0.020253 | 49.375401 | 0.000203 | 0.509495 | 0.518292 |
| 2 | 0.00152 | 0.020713 | 48.278859 | -0.000099 | -0.246403 | -0.251838 |
| 3 | 0.00152 | 0.020289 | 49.287791 | 0.00005 | 0.123911 | 0.126781 |
| 4 | 0.00617 | 0.11507 | 8.690362 | -0.000333 | -0.725197 | -0.73314 |
| 5 | 0.00608 | 0.11644 | 8.588114 | -0.000797 | -1.846104 | -1.752672 |
| 6 | 0.00608 | 0.1093 | 9.149131 | 0.000264 | 0.572321 | 0.581274 |
| 7 | 0.01234 | 0.23444 | 4.265484 | 0.000102 | 0.217234 | 0.222096 |
| 8 | 0.01215 | 0.22935 | 4.360148 | 0.000241 | 0.517671 | 0.526504 |
| 9 | 0.01215 | 0.22946 | 4.358058 | 0.000229 | 0.492418 | 0.501121 |
| 10 | 0.0185 | 0.35652 | 2.804892 | 0.000109 | 0.234089 | 0.239286 |
Tabela 4.1.60: 10 primeiras observações com resumo da Análise de Resíduos
1.11.2.2. Estimador da variância residual
Assim como os parâmetros $\beta_{w0}$ e $\beta_{w1}$, a variância $\sigma^2_i$ dos termos do erro $\varepsilon_i$ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de Y requerem uma estimativa de $\sigma^2_i$. Consideremos os resíduos $\varepsilon_{i}$. Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),
$$SQE = \sum\limits_{i=1}^n w_i e_i^{2} =\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=\sum\limits_{i=1}^n w_i(Y_i - (\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i))^{2}.$$
Não utilizamos a soma dos resíduos uma vez que em (i),
$$\sum\limits_{i=1}^{n} w_i\widehat{\varepsilon}_{i}=0.$$
Na seção “Propriedades dos Estimadores” demonstramos que SQE é um estimador não viciado de $\sigma^2$, isto é,
$$\mathbb{E}(SQE)= \sigma^2_w(n-2).$$
Desta forma, um estimador não viciado para $\sigma^2_w$ é dado por
$$\widehat{\sigma}^2_w=QME_w=\dfrac{SQE}{n-2},$$
em que QME é o Quadrado Médio dos Erros (Resíduos).
| Área | Concentração | 1/s² | $w_i\times e^2_i$ |
|---|---|---|---|
| 0,078 | 0 | 5,446475 | 0,018072 |
| 1,329 | 0 | 5,446475 | 9,326774 |
| 0,483 | 0 | 5,446475 | 1,165555 |
| 0,698 | 0 | 5,446475 | 2,500728 |
| 0,634 | 0 | 5,446475 | 2,050646 |
| 0,652 | 0 | 5,446475 | 2,172722 |
| 0,071 | 0 | 5,446475 | 0,013947 |
| 20,718 | 25 | 0,266796 | 1,915347 |
| 21,805 | 25 | 0,266796 | 3,784665 |
| 16,554 | 25 | 0,266796 | 0,588048 |
| 19,948 | 25 | 0,266796 | 0,972665 |
| 21,676 | 25 | 0,266796 | 3,529852 |
| 22,207 | 25 | 0,266796 | 4,635684 |
| 19,671 | 25 | 0,266796 | 0,71092 |
| 33,833 | 50 | 2,647451 | 13,093 |
| 34,726 | 50 | 2,647451 | 4,689066 |
| 35,463 | 50 | 2,647451 | 0,933645 |
| 34,04 | 50 | 2,647451 | 10,769 |
| 34,194 | 50 | 2,647451 | 9,187214 |
| 33,664 | 50 | 2,647451 | 15,1586 |
| 34,517 | 50 | 2,647451 | 6,277474 |
| 79,224 | 100 | 0,04014 | 2,041009 |
| 73,292 | 100 | 0,04014 | 0,057677 |
| 85,514 | 100 | 0,04014 | 7,229879 |
| 82,072 | 100 | 0,04014 | 3,996949 |
| 85,044 | 100 | 0,04014 | 6,732358 |
| 73,876 | 100 | 0,04014 | 0,127566 |
| 82,568 | 100 | 0,04014 | 4,404167 |
| 108,065 | 150 | 0,010529 | 4,42E-05 |
| 118,268 | 150 | 0,010529 | 1,082171 |
| 108,89 | 150 | 0,010529 | 0,006085 |
| 127,183 | 150 | 0,010529 | 3,822154 |
| 121,447 | 150 | 0,010529 | 1,867235 |
| 122,414 | 150 | 0,010529 | 2,14825 |
| 135,555 | 150 | 0,010529 | 7,919019 |
| 224,932 | 250 | 0,012536 | 25,08191 |
| 200,113 | 250 | 0,012536 | 4,969731 |
| 200,368 | 250 | 0,012536 | 5,097845 |
| 205,17 | 250 | 0,012536 | 7,81484 |
| 213,059 | 250 | 0,012536 | 13,53362 |
| 207,931 | 250 | 0,012536 | 9,638807 |
| 201,766 | 250 | 0,012536 | 5,829182 |
| 371,534 | 500 | 0,004701 | 0,584311 |
| 408,86 | 500 | 0,004701 | 11,04597 |
| 383,509 | 500 | 0,004701 | 2,513597 |
| 405,143 | 500 | 0,004701 | 9,41694 |
| 404,132 | 500 | 0,004701 | 8,996323 |
| 379,243 | 500 | 0,004701 | 1,671712 |
| 387,419 | 500 | 0,004701 | 3,4355 |
| Soma | 59,0004 | 244,5585 | |
| $\sqrt{\hbox{QME}_w}$ | 2,28109 |
Tabela 4.1.65: Cálculo do $\sqrt{\hbox{QME}_w}$
Assim, $\hbox{QME}_w = (2,28109)^2 = 5,20337159$
A seguir apresentamos os resultados obtidos pelo Action Stat.
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 24393.61704706 | 24393.61704706 | 4688.04043664 | 0 |
| Resíduos | 47 | 244.55847101 | 5.20337172 |
Tabela 4.1.66: Resultado da regressão ponderada $\hbox{Peso} = 1 / s_i^2$
Exemplo 1.11.1.4
Voltando o exemplo 1.11.1.2, aplicamos os mesmos conjunto de dados para calcularmos o desvio-padrão dos resíduos.
Com os resíduos ponderados da tabela 1.11.2.5 calculamos a soma de quadrado dos resíduos.
$$QME = \frac{1}{n-2}\sum\limits_{i=1}^n w_i \varepsilon_i^{2} =\frac{1}{n-2}\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=3,29293\times 10^{-9} $$
O desvio-padrão dos resíduos são calculados da seguinte forma:
$$\widehat{\sigma}=\sqrt{QME} =\sqrt{3,29293\times 10^{-9}}=5,73840\times 10^{-5} $$
| $SQE_w$ | 7,24444E-08 |
|---|---|
| $n-p$ | 22 |
| $QME_w$ | 3,29293E-09 |
| $\widehat{\sigma}=\sqrt{\hbox{QME}_w}$ | 5,7384E-05 |
Tabela 4.1.67: Cálculo do $\sqrt{\hbox{QME}_w}$
A seguir apresentamos os resultados obtidos pelo Action Stat.
(imagem em falta)
Tabela 4.1.68:
1.11.3 - Propriedades dos estimadores
Afim de fazer inferência a respeito dos estimadores de mínimos quadrados ponderados necessitamos saber algumas propriedades dos estimadores. Em maior importância sua esperança (média) e variância, pois assim vamos conhecer suas distribuições amostrais, sejam elas exatas ou assintóticas.
Esperança do coeficiente angular
Agora, vamos agora calcular $\mathbb{E} \left[ \widehat{\beta}_{w1} \right]$ utilizando a expressão do estimador encontrada em (1.11.1.5) da seção estimadores dos parâmetros do modelo. Com isso, obtemos:
$$\mathbb{E} \left[ \widehat{\beta_{w1}} \right] = \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } \right] = \mathbb{E} \left[ \dfrac{ \displaystyle \sum_{i=1}^{n} w_iX_iY_i - \displaystyle \sum_{i=1}^{n} w_i\overline{X}_w Y_i}{\displaystyle \sum w_i (X_i - \overline{X}_w)^2} \right]=$$
$$= \mathbb{E} \left[ \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n}w_iX_i(\beta_{w0} + \beta_{w1}X_i + \varepsilon_i)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{z_1}- \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n} w_i\overline{X}_w (\beta_{w0} + \beta_{w1}X_i + \varepsilon_i) }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{z_2}\right] \tag{1.11.1.6}$$
Aplicamos um pouco de álgebra para $z_1-z_2,$ lembrando que $\mathbb{E}(\varepsilon_i)=0,$ por isso não vamos levar em conta. Assim, temos que
$$z_1-z_2= \dfrac{\displaystyle \sum_{i=1}^{n} w_iX_i ( \beta_{w0} + \beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2} - \dfrac{\displaystyle \sum_{i=1}^{n} w_i \overline{X}_w (\beta_{w0} + \beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2}=$$
$$= \dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i = \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \right)+ \beta_{w1} \left( \displaystyle \sum_{i=1}^{n} w_i x^2_i-\displaystyle \sum_{i=1}^{n} w_i \overline{X}_wX_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}=$$
$$= \dfrac{\beta_{w0} \left(\displaystyle \sum_{i=1}^{n} w_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n}w_i \displaystyle \sum_{i=1}^{n}w_iX_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) + \beta_{w_1} \left( \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)X_i \right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}=$$
$$= \dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2} + \dfrac{\beta_{w1}\left( \displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X}_w )^2\right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i-\overline{X}_w)^2}$$
Voltamos a equação (1.11.1.6) e obtemos
$$= \mathbb{E}\left[\underbrace{\dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{=0}\right] + \mathbb{E}\left[\beta_{w1}\underbrace{\dfrac{\left( \displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X}_w )^2\right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i-\overline{X}_w)^2}}_{=1}\right]=\beta_{w1}$$
Portanto, temos que $\mathbb{E}(\widehat{\beta_{w1}}) = \beta_{w1}$, isto é, estimador não viciado.
Valor esperado do intercepto
Neste tópico, vamos calcular o valor esperado do intercepto $\widehat{\beta}_{w0},$ de fato:
$$\mathbb{E} \left[ \widehat{\beta_{w0}} \right]= \mathbb{E} \left[ \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w \right] = \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n} w_iY_i}{\displaystyle \sum_{i=1}^{n} w_i} \right] - \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)Y_i}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}\right]\overline{X}_w=$$
$$=\mathbb{E} \left[ \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n} w_i (\beta_{w0}+\beta_{w1}+\varepsilon_i)}{\displaystyle \sum_{i=1}^{n}w_i} -\overline{X}_w\displaystyle \sum_{i=1}^{n} \dfrac{w_i(X_i - \overline{X}_w)(\beta_{w0}+\beta_{w1}X_i + \varepsilon_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X})^2}}_{(*)}\right]\quad \tag{1.11.1.7}$$
Aplicamos um pouco de álgebra em (*)
$$(*)=\dfrac{\displaystyle \sum_{i=1}^{n}w_i(\beta_{w0}+\beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n}w_i} - \overline{X}_w \dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)(\beta_{w0}+\beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X})^2}=$$
$$=\dfrac{\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i}{\displaystyle \sum_{i=1}^{n}w_i}+\dfrac{\beta_{w1} \displaystyle \sum_{i=1}^{n}X_iw_i}{\displaystyle \sum_{i=1}^{n} w_i} - \dfrac{\beta_{w0}\overline{X}_w \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2} - \dfrac{\beta_{w1}\overline{X}_w\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)X_i}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}=$$
$$=\beta_{w0} + \beta_{w1}\overline{X}_w - \dfrac{\beta_{w0}\overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \left( \displaystyle \sum_{i=1}^{n}w_iX_i - \dfrac{\displaystyle \sum_{i=1}^{n}w_i\displaystyle \sum_{i=1}^{n}w_iX_i}{\displaystyle \sum_{i=1}^{n}w_i} \right) - \beta_{w1}\overline{X}_w\underbrace{\dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)^2}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}}_{=1}$$
Voltamos a equação (1.11.1.7) e obtemos
$$=\mathbb{E}[\beta_{w0}]+\mathbb{E}\left[\beta_{w1}\overline{X}_w - \dfrac{\beta_{w0}\overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2}\left( \displaystyle \sum_{i=1}^{n}w_iX_i - \displaystyle \sum_{i=1}^{n}w_iX_i\right) - \beta_{w1}\overline{X}_w \right]= \beta_{w0}$$
Portanto, temos que $\mathbb{E}(\widehat{\beta_{w0}}) = \beta_{w0}$, isto é, estimador não viciado.
Variância do coeficiente angular
Para calcularmos a variância de $\widehat{\beta}_{w1},$ temos que:
$$\hbox{Var}(\widehat{\beta_{w1}}) = \hbox{Var} \left(\displaystyle \dfrac{\displaystyle\sum_{i=1}^{n}w_i (x_i-\overline{X}_w) Y_i }{\displaystyle\sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}\right) \overset{Y_i~ \hbox{ind.}}{=}\dfrac{1 }{\displaystyle[\sum^n_{i=1}w_i(x_i-\overline{X}_w)^2]^2}\sum_{i=1}^{n}w_i (x_i-\overline{X}_w)^2\hbox{Var}(w^{1/2}_iY_i) =\dfrac{\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}$$
Variância do intercepto
Do tópico estimação dos parâmetros do modelo, obtemos que
$$\widehat{\beta_{w0}} = \overline{Y}_w - \widehat{\beta_{w1}} \overline{X}_w$$
Com isso, temos que
$$\hbox{Var}(\widehat{\beta_{w0}}) = \hbox{Var}(\overline{Y}_w - \widehat{\beta_{w1}}\overline{X}_w) = \hbox{Var}(\overline{Y}_w) + \hbox{Var}(\widehat{\beta_{w1}}) - 2\hbox{Cov}(\overline{Y}_w,\widehat{\beta_{w1}}\overline{X}_w)$$
Notamos que
$$\hbox{Var}(\overline{Y_w})=\frac{1}{\left(\displaystyle\sum^n_{i=1}w_i\right)^2}\sum^n_{i=1}w_i\hbox{Var}(w^{1/2}_i Y_i)=\frac{\sigma^2}{\displaystyle\sum^n_{i=1}w_i}$$
e
$$\overline{X}^2_w\hbox{Var}(\widehat{\beta_{w1}})=\dfrac{\overline{X}^2_w\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}$$
Ao substituirmos obtemos:
$$\hbox{Var}(\widehat{\beta_{w0}}) = \frac{\sigma^2}{\displaystyle\sum^n_{i=1}w_i}+ \dfrac{\overline{X}^2_w\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}- 2\hbox{Cov}(\overline{Y}_w,\widehat{\beta_{w1}}\overline{X}_w) \tag{1.1.1.8}$$
Agora vamos calcular $\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})$
$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X} _w)= \mathbb{E}\left[ \overline{Y} _w \widehat{\beta} _{w2} \overline{X} _w \right]-\mathbb{E}\left[\overline{Y} _w \right] \mathbb{E}\left[ \widehat{\beta} _{w1} \overline{X} _w \right] = \overline{X} _w \mathbb{E} \left[ \overline{Y} _w \widehat{\beta} _{w1} \right] - \mathbb{E} \left[\overline{Y} _w \right] \widehat{\beta} _{w1} \overline{X} _w =$$
$= \overline{X} _w \mathbb{E} \left[ \dfrac{ \widehat{\beta} _{w1} \displaystyle \sum_{i=1}^{n} \left( \beta_{w0} + \beta_{w1}X_i + \varepsilon_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i} \right] - \mathbb{E} \left[ \dfrac{ \displaystyle \sum_{i=1}^{n} \left( \beta_{w0} + \beta_{w1}X_i + \varepsilon_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i} \right]\beta_{w1} \overline{X} _w =$
$= \dfrac{\overline{X} _w \displaystyle \sum_{i=1}^{n} w_i \left( \mathbb{E}\left[ \widehat{\beta_{w1}}\beta_{w0} \right] + \mathbb{E}\left[ \widehat{\beta_{w1}}\beta_{w1}X_i \right] + \mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right] - \beta_{w1} \mathbb{E}\left[ \beta_{w0} \right] - \beta_{w1}\mathbb{E}\left[ \beta_{w1}X_i \right] - \beta_{w1} \mathbb{E}\left[\varepsilon_i \right]\right)}{\displaystyle \sum_{i=1}^{n} w_i} $
mas $\mathbb{E}\left[\varepsilon_i \right]=0$, logo:
$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X} _w)= \dfrac{\overline{X} _w \displaystyle \sum_{i=1}^{n} w_i \left( \beta_{w1}\mathbb{E}\left[ \beta_{w0} \right] + \beta_{w1}\mathbb{E}\left[ \beta_{w1}X_i \right] + \mathbb{E} \left[ \widehat{\beta} _{x1}\varepsilon_i \right] - \beta_{w1} \mathbb{E}\left[ \beta_{w0} \right] - \beta_{w1}\mathbb{E}\left[ \beta_{w1} X_i \right]\right)}{\displaystyle \sum_{i=1}^{n} w_i}$$
Logo,
$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X}_w)=\dfrac{\overline{X}_w \displaystyle \sum_{i=1}^{n} w_i \mathbb{E}\left[ \widehat{\beta} _{w1} \varepsilon_i \right]}{\displaystyle \sum_{i=1}^{n} w_i} \tag{1.11.1.9}$$
Mas, observamos que
$$\mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right] = \mathbb{E}\left[ \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})Y_j}{\displaystyle \sum_{j=1}^{n}w_j (x_j - \overline{X_w})^2} \varepsilon_i \right] = \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\mathbb{E}\left[ Y_j\varepsilon_i \right]}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}= \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\mathbb{E}\left[ \left( \beta_{w0} + \beta_{w1}x_j + \varepsilon_j \right)\varepsilon_i \right]}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} =$$
$=\dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \beta_{w0}\mathbb{E}\left[\varepsilon_i \right] + \beta_{w1}x_j\mathbb{E}\left[\varepsilon_i \right] + \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}= \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} $
Assim, temos dois casos:
$$\mathbb{E}\left[\varepsilon_j \varepsilon_i \right] = \begin{cases} \dfrac{\sigma^2}{w_i} \hbox{ se $i = j$}; \cr 0 ~\hbox{ se $i \neq j$}.\end{cases}$$
Consideramos $i=j$, então obtemos
$$\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})=\dfrac{\overline{X_w} \displaystyle \sum_{i=1}^{n} w_i \mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right]}{\displaystyle \sum_{i=1}^{n} w_i}=\dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} $$
Como para $i \neq j$ a esperança do produto dos erros é igual a zero, consequentemente $\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})$ também é. Portanto, para $i=j$ a soma cruzada se anula, logo a expressão acima se resume:
$$\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})= \dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w^2_i\left(X_i - \overline{X_w}\right)\mathbb{E}\left[ \varepsilon_i^2\right] }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} =\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w^2_i\left(X_i - \overline{X_w}\right)\dfrac{\sigma^2}{w_i}}{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=$$
$=\sigma^2\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w_i\left(X_i - \overline{X_w}\right) }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=\sigma^2\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w_iX_i -\displaystyle \sum_{i=1}^{n}w_i\overline{X_w} }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=0$
Por fim, voltamos a equação (1.11.1.8) e obtemos que
$$\hbox{Var}(\widehat{\beta_{w0}}) =\sigma^2\left( \frac{1}{\displaystyle\sum^n_{i=1}w_i}+ \dfrac{\overline{X}^2_w }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X_w})^2}\right)$$
De forma matricial temos
$$\hbox{Var}(\widehat{\mathbf{\beta}}_{w}) = (\mathbf{B}^{\top}\mathbf{B})^{-1}\sigma^2 = (\mathbf{X}^{\top} V^{-1}\mathbf{X})^{-1}\sigma^2$$
Valor esperado do QME
Neste tópico, vamos calcular o valor esperado do quadrado médio do erro QME.
$$\hbox{SQE}=(\mathbf{Z}-\widehat{\mathbf{Z}})^{\top}(\mathbf{Z}-\widehat{\mathbf{Z}})= (\mathbf{Z}-\widehat{\mathbf{\mathbf{B}}\beta})^{\top}(\mathbf{Z}-\widehat{\mathbf{\mathbf{\mathbf{B}}\beta}})= \mathbf{Y}^{\top}(V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})\mathbf{Y}$$
$$\mathbb{E}(\hbox{SQE})= (V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})\sigma^2$$
Agora aplicamos o teorema para distribuições de formas quadráticas e obtemos:
$$\hbox{rank}(V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})=n-(p+1)$$
Portanto, um estimador não viciado para $\sigma^2$ é dado por
$$\widehat{\sigma}^2=\hbox{QME}=\frac{\hbox{SQE}}{n-(p+1)}$$
Exemplo 1.11.2.1
Voltamos à Motivação 3, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as variâncias dos parâmetros $\beta_{w0}$ e $\beta_{w1}.$
| Área | Concentração | Peso $(w_i)$ | Valor ajustado $(\widehat{Y}_i)$ | Resíduo $(Y_i-\widehat{Y}_i)$ | $w_i(Y_i-\widehat{Y}_i)^2$ |
|---|---|---|---|---|---|
| 0,078 | 0 | 5,446 | 0,0204 | 0,0576 | 0,018 |
| 1,329 | 0 | 5,446 | 0,0204 | 1,31 | 9,33 |
| 0,483 | 0 | 5,446 | 0,0204 | 0,46 | 1,17 |
| 0,698 | 0 | 5,446 | 0,0204 | 0,68 | 2,50 |
| 0,634 | 0 | 5,446 | 0,0204 | 0,61 | 2,05 |
| 0,652 | 0 | 5,446 | 0,0204 | 0,63 | 2,17 |
| 0,071 | 0 | 5,446 | 0,0204 | 0,05 | 0,01 |
| 20,718 | 25 | 0,267 | 18,039 | 2,68 | 1,92 |
| 21,805 | 25 | 0,267 | 18,039 | 3,77 | 3,78 |
| 16,554 | 25 | 0,267 | 18,039 | -1,48 | 0,59 |
| 19,948 | 25 | 0,267 | 18,039 | 1,91 | 0,97 |
| 21,676 | 25 | 0,267 | 18,039 | 3,64 | 3,53 |
| 22,207 | 25 | 0,267 | 18,039 | 4,17 | 4,64 |
| 19,671 | 25 | 0,267 | 18,039 | 1,63 | 0,71 |
| 33,833 | 50 | 2,647 | 36,057 | -2,22 | 13,09 |
| 34,726 | 50 | 2,647 | 36,057 | -1,33 | 4,69 |
| 35,463 | 50 | 2,647 | 36,057 | -0,59 | 0,93 |
| 34,04 | 50 | 2,647 | 36,057 | -2,02 | 10,77 |
| 34,194 | 50 | 2,647 | 36,057 | -1,86 | 9,19 |
| 33,664 | 50 | 2,647 | 36,057 | -2,39 | 15,16 |
| 34,517 | 50 | 2,647 | 36,057 | -1,54 | 6,28 |
| 79,224 | 100 | 0,04014 | 72,093 | 7,13 | 2,04 |
| 73,292 | 100 | 0,04014 | 72,093 | 1,20 | 0,06 |
| 85,514 | 100 | 0,04014 | 72,093 | 13,42 | 7,23 |
| 82,072 | 100 | 0,04014 | 72,093 | 9,98 | 4,00 |
| 85,044 | 100 | 0,04014 | 72,093 | 12,95 | 6,73 |
| 73,876 | 100 | 0,04014 | 72,093 | 1,78 | 0,13 |
| 82,568 | 100 | 0,04014 | 72,093 | 10,47 | 4,40 |
| 108,065 | 150 | 0,01053 | 108,130 | -0,06 | 0,00 |
| 118,268 | 150 | 0,01053 | 108,130 | 10,14 | 1,08 |
| 108,89 | 150 | 0,01053 | 108,130 | 0,76 | 0,01 |
| 127,183 | 150 | 0,01053 | 108,130 | 19,05 | 3,82 |
| 121,447 | 150 | 0,01053 | 108,130 | 13,32 | 1,87 |
| 122,414 | 150 | 0,01053 | 108,130 | 14,28 | 2,15 |
| 135,555 | 150 | 0,01053 | 108,130 | 27,43 | 7,92 |
| 224,932 | 250 | 0,01254 | 180,203 | 44,73 | 25,08 |
| 200,113 | 250 | 0,01254 | 180,203 | 19,91 | 4,97 |
| 200,368 | 250 | 0,01254 | 180,203 | 20,17 | 5,10 |
| 205,17 | 250 | 0,01254 | 180,203 | 24,97 | 7,81 |
| 213,059 | 250 | 0,01254 | 180,203 | 32,86 | 13,53 |
| 207,931 | 250 | 0,01254 | 180,203 | 27,73 | 9,64 |
| 201,766 | 250 | 0,01254 | 180,203 | 21,56 | 5,83 |
| 371,534 | 500 | 0,00470 | 360,385 | 11,15 | 0,58 |
| 408,86 | 500 | 0,00470 | 360,385 | 48,48 | 11,05 |
| 383,509 | 500 | 0,00470 | 360,385 | 23,12 | 2,51 |
| 405,143 | 500 | 0,00470 | 360,385 | 44,76 | 9,42 |
| 404,132 | 500 | 0,00470 | 360,385 | 43,75 | 9,00 |
| 379,243 | 500 | 0,00470 | 360,385 | 18,86 | 1,67 |
| 387,419 | 500 | 0,00470 | 360,385 | 27,03 | 3,44 |
| 5983,552 | 7525 | 59,00039 | 5424,486 | 244,56 | |
| $QME_w$ | $\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}$ | 5,203371015 | |||
| Desvio padrão dos resíduos $(\sqrt{QME_w})$ | 2,281089874 |
Tabela 4.1.69: Tabela para cálculos do $QME_w$.
Dos resultados obtidos da tabela (4.1.69) calculamos a $QME_w$ da seguinte forma
$$QME_w=\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}=\dfrac{244,56}{49-2}=5,203371015$$
Logo, o desvio padrão dos resíduos é obtido da seguinte forma
$$\widehat{\hbox{DP}}(QME_w)=\sqrt{\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}}=2,281089874$$
Agora, vamos calcular as variâncias de $\widehat{\beta_{w1}}$ e $\widehat{\beta_{w0}},$ para isto observe a seguinte tabela:
| n | Área (Y) | Concentração (X) | Peso $(w_i)$ | $w_i X_i$ | $w_i Y_i$ | $X_i-\overline{X}_w$ | $w_i X^2_i$ | $w_i(X_i-\overline{X}_w)^2$ |
|---|---|---|---|---|---|---|---|---|
| 1 | 0,078 | 0 | 5,45 | 0 | 0,42 | -17,81 | 0,00 | 1727,75 |
| 2 | 1,329 | 0 | 5,45 | 0 | 7,24 | -17,81 | 0,00 | 1727,75 |
| 3 | 0,483 | 0 | 5,45 | 0 | 2,63 | -17,81 | 0,00 | 1727,75 |
| 4 | 0,698 | 0 | 5,45 | 0 | 3,80 | -17,81 | 0,00 | 1727,75 |
| 5 | 0,634 | 0 | 5,45 | 0 | 3,45 | -17,81 | 0,00 | 1727,75 |
| 6 | 0,652 | 0 | 5,45 | 0 | 3,55 | -17,81 | 0,00 | 1727,75 |
| 7 | 0,071 | 0 | 5,45 | 0 | 0,39 | -17,81 | 0,00 | 1727,75 |
| 8 | 20,718 | 25 | 0,27 | 6,67 | 5,53 | 7,19 | 166,75 | 13,79 |
| 9 | 21,805 | 25 | 0,27 | 6,67 | 5,82 | 7,19 | 166,75 | 13,79 |
| 10 | 16,554 | 25 | 0,27 | 6,67 | 4,42 | 7,19 | 166,75 | 13,79 |
| 11 | 19,948 | 25 | 0,27 | 6,67 | 5,32 | 7,19 | 166,75 | 13,79 |
| 12 | 21,676 | 25 | 0,27 | 6,67 | 5,78 | 7,19 | 166,75 | 13,79 |
| 13 | 22,207 | 25 | 0,27 | 6,67 | 5,92 | 7,19 | 166,75 | 13,79 |
| 14 | 19,671 | 25 | 0,27 | 6,67 | 5,25 | 7,19 | 166,75 | 13,79 |
| 15 | 33,833 | 50 | 2,65 | 132,37 | 89,57 | 32,19 | 6618,62 | 2743,15 |
| 16 | 34,726 | 50 | 2,65 | 132,37 | 91,94 | 32,19 | 6618,62 | 2743,15 |
| 17 | 35,463 | 50 | 2,65 | 132,37 | 93,89 | 32,19 | 6618,62 | 2743,15 |
| 18 | 34,04 | 50 | 2,65 | 132,37 | 90,12 | 32,19 | 6618,62 | 2743,15 |
| 19 | 34,194 | 50 | 2,65 | 132,37 | 90,53 | 32,19 | 6618,62 | 2743,15 |
| 20 | 33,664 | 50 | 2,65 | 132,37 | 89,12 | 32,19 | 6618,62 | 2743,15 |
| 21 | 34,517 | 50 | 2,65 | 132,37 | 91,38 | 32,19 | 6618,62 | 2743,15 |
| 22 | 79,224 | 100 | 0,040 | 4,01 | 3,18 | 82,19 | 401,40 | 271,15 |
| 23 | 73,292 | 100 | 0,040 | 4,01 | 2,94 | 82,19 | 401,40 | 271,15 |
| 24 | 85,514 | 100 | 0,040 | 4,01 | 3,43 | 82,19 | 401,40 | 271,15 |
| 25 | 82,072 | 100 | 0,040 | 4,01 | 3,29 | 82,19 | 401,40 | 271,15 |
| 26 | 85,044 | 100 | 0,040 | 4,01 | 3,41 | 82,19 | 401,40 | 271,15 |
| 27 | 73,876 | 100 | 0,040 | 4,01 | 2,97 | 82,19 | 401,40 | 271,15 |
| 28 | 82,568 | 100 | 0,040 | 4,01 | 3,31 | 82,19 | 401,40 | 271,15 |
| 29 | 108,065 | 150 | 0,011 | 1,58 | 1,14 | 132,19 | 236,89 | 183,98 |
| 30 | 118,268 | 150 | 0,011 | 1,58 | 1,25 | 132,19 | 236,89 | 183,98 |
| 31 | 108,89 | 150 | 0,011 | 1,58 | 1,15 | 132,19 | 236,89 | 183,98 |
| 32 | 127,183 | 150 | 0,011 | 1,58 | 1,34 | 132,19 | 236,89 | 183,98 |
| 33 | 121,447 | 150 | 0,011 | 1,58 | 1,28 | 132,19 | 236,89 | 183,98 |
| 34 | 122,414 | 150 | 0,011 | 1,58 | 1,29 | 132,19 | 236,89 | 183,98 |
| 35 | 135,555 | 150 | 0,011 | 1,58 | 1,43 | 132,19 | 236,89 | 183,98 |
| 36 | 224,932 | 250 | 0,013 | 3,13 | 2,82 | 232,19 | 783,53 | 675,86 |
| 37 | 200,113 | 250 | 0,013 | 3,13 | 2,51 | 232,19 | 783,53 | 675,86 |
| 38 | 200,368 | 250 | 0,013 | 3,13 | 2,51 | 232,19 | 783,53 | 675,86 |
| 39 | 205,17 | 250 | 0,013 | 3,13 | 2,57 | 232,19 | 783,53 | 675,86 |
| 40 | 213,059 | 250 | 0,013 | 3,13 | 2,67 | 232,19 | 783,53 | 675,86 |
| 41 | 207,931 | 250 | 0,013 | 3,13 | 2,61 | 232,19 | 783,53 | 675,86 |
| 42 | 201,766 | 250 | 0,013 | 3,13 | 2,53 | 232,19 | 783,53 | 675,86 |
| 43 | 371,534 | 500 | 0,0047 | 2,35 | 1,75 | 482,19 | 1175,19 | 1092,95 |
| 44 | 408,86 | 500 | 0,0047 | 2,35 | 1,92 | 482,19 | 1175,19 | 1092,95 |
| 45 | 383,509 | 500 | 0,0047 | 2,35 | 1,80 | 482,19 | 1175,19 | 1092,95 |
| 46 | 405,143 | 500 | 0,0047 | 2,35 | 1,90 | 482,19 | 1175,19 | 1092,95 |
| 47 | 404,132 | 500 | 0,0047 | 2,35 | 1,90 | 482,19 | 1175,19 | 1092,95 |
| 48 | 379,243 | 500 | 0,0047 | 2,35 | 1,78 | 482,19 | 1175,19 | 1092,95 |
| 49 | 387,419 | 500 | 0,0047 | 2,35 | 1,82 | 482,19 | 1175,19 | 1092,95 |
| Soma | 59,00 | 65676,70 | 46960,42 | |||||
| Média ponderada | 12,86 | 17,81 | $\hbox{Var}(\widehat{\beta}_{w1})$ | 0,000110803 | ||||
| $QME_w$ | 5,203371 | $DP (\widehat{\beta}_{w1})$ | 0,010526316 | |||||
| $\hbox{Var}(\widehat{\beta}_{w0})$ | 0,12334151 | |||||||
| $DP (\widehat{\beta}_{w0})$ | 0,3512001 |
Tabela 4.1.70: Tabela para calcular as variâncias dos coeficientes.
Obtemos os seguintes resultados pelo Action Stat do modelo de regressão ponderada com os dados da Motivação 3 com $\hbox{Peso} = 1 / s_i^2$:
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 24393.61704706 | 24393.61704706 | 4688.04043664 | 0 |
| Resíduos | 47 | 244.55847101 | 5.20337172 |
Tabela 4.1.71: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -3.89340424 | 0.18729587 | 1.46569103 | 1.10882553 | 2.33610531 | 5.00818426 |
Tabela 4.1.72: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor |
|---|---|---|---|
| Intercepto | 0.02039689 | 0.35120008 | 0.05807771 |
| Concentracao | 0.72072907 | 0.01052632 | 68.46926637 |
Tabela 4.1.73: Coeficientes
| Desvio Padrão dos Resíduos | Graus de Liberdade | R^2 | R^2 Ajustado |
|---|---|---|---|
| 2.28109003 | 47 | 0.990074 | 0.98986281 |
Tabela 4.1.74: Medida Descritiva da Qualidade do Ajuste
Dos dados da tabela (4.1.70) obtemos os dados para calcularmos as variâncias dos coeficientes:
$$\hbox{Var}(\widehat{\beta_{w0}})=\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}=\dfrac{5,203371\times 65676,7}{59\times 46960,42}=0,12334151$$
$$\hbox{Var}(\widehat{\beta_{w1}})=\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}=\dfrac{5,203371}{46960,42}=0,000110803$$
Portanto, os desvios padrões dos coeficientes são
$$\widehat{\hbox{DP}}(\widehat{\beta_{w0}})=\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}=0,3512001$$
$$\widehat{\hbox{DP}}(\widehat{\beta_{w1}})=\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}=0,010526316$$
1.11.4 - Testes e intervalos de confiança para os parâmetros
Na regressão linear ponderada é importante avaliarmos se existe uma boa “correlação” entre a resposta e a variável explicativa, assim como dito na seção Regressão Linear Simples. Para respondermos a esta questão, utilizamos testes de hipóteses e intervalos de confiança para os parâmetros.
Distribuição amostral dos estimadores:
Neste tópico, vamos discutir sobre a distribuição amostral dos estimadores, para isto, observamos que $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w1}}$ são combinações lineares de $Y$, que é uma variável aleatória com distribuição normal. Logo as distribuições dos estimadores são normais exatas, com médias e variâncias iguais as esperanças e variâncias dos estimadores, logo temos que:
$$\widehat{\beta_{wo}} \sim N\left(\beta_{w0}, \dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}\right)\quad \hbox{e}\quad \widehat{\beta}_{w1} \sim N \left(\beta_{w1}, \dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \right)$$
Além disso,
$$Z=\dfrac{\widehat{\beta_{w0}} - \beta_{w0}}{\sqrt{\dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}}\sim N(0,1)\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta}_{w1} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}\sim N(0,1)$$
A partir desse resultado podemos construir intervalos de confiança e testar hipóteses a respeito dos estimadores.
Inferência para o intercepto
Não usual fazermos inferências sobre $\beta_{w0},$ isso só ocorre quando a variável x pode assumir o valor x=0. Esta prática não é recomendada, inclusive para o MAPA, que em umas de suas instruções normativas (item 7.1.1.6) diz que “as curvas de calibração não devem ser forçadas a passar pela origem”.
Suponha que desejamos testar a hipótese de que o intercepto é igual a um determinado valor, denotado por $\beta_{w0*}$. Desta forma, sejam as hipóteses
$$\begin{cases} H_{0}:\beta_{w0}=\beta_{w0*} \cr H_{1}:\beta_{w0} \neq \beta_{w0*} \end{cases} $$
Como visto anteriormente,
$$\widehat{\beta_{w0}} \sim N\left(\beta_{w0}, \dfrac{\sigma^2_w \displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}\right)\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta}_{w0} - \beta_{w0}}{\sqrt{\dfrac{\sigma^2_w \displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}}\sim N(0,1)$$
A partir desse resultado podemos construir intervalos de confiança e testar hipóteses a respeito dos estimadores. Vale lembrar que1
$$\chi =\dfrac{(n-2)QME_w}{\sigma^2_w}~~\sim \chi_{(n-2)}^2.$$
Como as variáveis aleatórias $Z$ e $\chi$ são independentes, segue que
$$T= \dfrac{Z}{\sqrt{\dfrac{\chi}{n-2}}} = \dfrac{\dfrac{\widehat{\beta_{w0}} - \beta_{w0*}}{\sqrt{\dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}}}{\sqrt{\dfrac{\dfrac{(n-2)QME_w}{\sigma^2_w}}{(n-2)}}}= \dfrac{\widehat{\beta_{w0}} - \beta_{w0*}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}} \quad \sim t_{(n-2)}$$
ou seja, T tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_{w0}$ podem ser realizados utilizando a distribuição t.
No modelo ponderado, queremos testar as hipóteses
$$\begin{cases} H_{0}:\beta_{w0}=0. \cr H_{1}:\beta_{w0} \neq 0.\end{cases} $$
Assim, a estatística do teste é dada por
$$T_0=\dfrac{\widehat{\beta_{w0}}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}} \quad\sim t_{(n-2)}.$$
Logo, rejeitamos $H_0$ com um nível de confiança de (1-$\alpha$)100% se $\mid T_0\mid> t_{(1-\alpha/2,n-2)}$. O p-valor associado ao teste é dado por
$$\hbox{P-valor}=2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid \right)$$
Rejeitamos $H_0$ se o p-valor for menor do que o nível de significância $\alpha$ considerado. Geralmente adotamos $\alpha=$0,05.
Quando não rejeitamos $H_0$, podemos utilizar o “Modelo de Regressão ponderado sem Intercepto”.
O intervalo de confiança para $\beta_{w0}$ com $(1-\alpha)100\char37$ é dado por
$$\left[\widehat{\beta_{w0}} - t_{\left(1-\alpha/2;n-2\right)} \sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}} ~;~ \widehat{\beta}_{w0} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}\right]$$
Inferência para coeficiente angular
Inferência sobre $\beta_{w1}$ é mais frequente já que por meio deste parâmetro temos um indicativo da existência ou não de associação linear entre as variáveis envolvidas.
Similarmente ao parâmetro $\beta_{w0}$, consideremos as hipóteses
$$\begin{cases} H_{0}:\beta_{w1}=\beta_{w1*} \cr H_{1}:\beta_{w1} \neq \beta_{w1*} \end{cases}$$
Do início desta seção obtemos que
$$\widehat{\beta_{w1}} \sim N \left(\beta_{w1}, \dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \right).\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta_{w1}} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}\sim N(0,1)$$
Novamente, consideramos que
$$\chi =\dfrac{(n-2)QME_w}{\sigma^2_w} ~~\sim \chi_{(n-2)}^2$$
e que $N_1$ e $\chi$ são independentes, obtemos
$$T=\dfrac{Z}{\sqrt{\dfrac{\chi}{n-2}}}= \dfrac{\dfrac{\widehat{\beta_{w1}} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}}{\sqrt{\dfrac{\dfrac{(n-2)QME_w}{\sigma^2_w}}{(n-2)}}}= \dfrac{\widehat{\beta}_{w1} - \beta_{w1}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}\quad \sim t_{(n-2)},$$
ou seja, T tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_{w1}$ podem ser realizados utilizando a distribuição t.
No modelo em questão, queremos testar as seguintes hipóteses
$$\begin{cases} H_{0}:\beta_{w1}=0 \cr H_{1}:\beta_{w1} \neq 0 \end{cases}$$
Neste caso, a estatística do teste é
$$T_0=\dfrac{\widehat{\beta_{w1}}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}\quad\sim t_{(n-2)}.$$
Assim, rejeitamos $H_0$ com um nível de confiança (1-$\alpha$)100% se $\mid T_0\mid> t_{(1-\alpha/2,n-2)}$. O p-valor associado ao teste é dado por
$$\hbox{P-valor}=2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid \right).$$
Rejeitamos $H_0$ se o P-valor for menor do que $\alpha.$
O intervalo de confiança para $\beta_{w1}$ com (1-$\alpha$)100% é dado por
$$IC[\beta_{w1}; 1-\alpha] = \left[\widehat{\beta_{w1}} - t_{\left(1-\alpha/2 ;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}} ~;~\widehat{\beta_{w1}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} \right]$$
Exemplo 1.11.3.1
Neste exemplo. vamos aplicar testes de hipóteses e construir intervalos de confiança para os parâmetros $(\beta_{w0},\beta_{w1}),$ para isto vamos usar os dados do exemplo 1.11.1.1. Como visto no Exemplo 1.11.1.1, as estimativas dos parâmetros são $\widehat{\beta_{w0}}=0,02039$ e $\widehat{\beta_{w1}}=0,720729$
Do exemplo 1.11.2.1 obtemos que
$$QME_w=5,203371\quad\hbox{e} \quad \widehat{\hbox{Var}}(\widehat{\beta}_{w0})=0,1233$$
Agora, vamos testar as hipóteses
$$\begin{cases} H_{0}:\beta_{w0}=0. \cr H_{1}:\beta_{w0} \neq 0. \end{cases}$$
Assim, a estatística do teste é dada por
$$T_0=\dfrac{\widehat{\beta_{w0}}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}}=\dfrac{0,02039}{\sqrt{0,1233}}=0,05807757$$
Para $\alpha =$ 0,05 temos $t_{(1-0,05/2;47)}=2,101$.
Como $T_0=26,46> 2,011741 = t_{(1-0,05/2;18)}$, e
$\hbox{P-valor} =2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid\right)= 0,9539,$ não rejeitamos $H_0.$
O intervalo de confiança, IC(95%), para $\beta_{w0}$ é dado por
$$\left[\widehat{\beta_{w0}} - t_{\left(1-\alpha/2;n-2\right)} \sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}} ~;~ \widehat{\beta_{w0}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}\right]$$
$$\left[0,02039-2,011741\times0,35120010 ~;~ 0,02039+2,011741\times0,35120010\right]$$
$$\left[ -0,6861266 ~;~ 0,7269203\right]$$
Similarmente, vamos testar as hipóteses
$$\begin{cases} H_{0}:\beta_{w1}=0 \cr H_{1}:\beta_{w1} \neq 0 \end{cases}$$
Vale lembrar que do exemplo 1.11.2.1 obtemos que $\widehat{\hbox{Var}}(\widehat{\beta_{w1}})=0,0001108.$ Neste caso, a estatística do teste é
$$T_0=\dfrac{\widehat{\beta_{w1}}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}= \dfrac{0,7207}{0,02117622}= 68,46926310$$
Para $\alpha =$ 0,05 temos $t_{(1-0,05/2;47)}=2,0117$.
Como $T_0=68,47>2,0117=t_{(1-0,05/2;47)}$ e
$2\times \mathbb{P}\left( t_{(n-2)}> \mid T_0\mid \right)=9,3769053\times 10^{-49},$ rejeitamos $H_0.$
O intervalo de confiança, IC(95%), para $\beta_{w1}$ é dado por
$$\left[\widehat{\beta_{w1}} - t_{\left(1-\alpha/2 ;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} ~;~\widehat{\beta_{w1}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} \right]$$
$$\left[ 0,72072908-2,0117\times 0,01052632~;~ 0,72072908+2,0117\times 0,01052632 \right]$$
$$\left[0,6995529~;~ 0,7419053\right]$$
Por fim, observe os resultados obtidos pelo software Action novamente:
| G.L. | Soma de Quadrados | Quadrado Médio | Estat. F | P-valor | |
|---|---|---|---|---|---|
| Concentracao | 1 | 24393.61704706 | 24393.61704706 | 4688.04043664 | 0 |
| Resíduos | 47 | 244.55847101 | 5.20337172 |
Tabela 4.1.75: Tabela da ANOVA
| Mínimo | 1Q | Mediana | Média | 3Q | Máximo |
|---|---|---|---|---|---|
| -3.89340424 | 0.18729587 | 1.46569103 | 1.10882553 | 2.33610531 | 5.00818426 |
Tabela 4.1.76: Análise Exploratória (resíduos)
| Estimativa | Desvio Padrão | Estat.t | P-valor |
|---|---|---|---|
| Intercepto | 0.02039689 | 0.35120008 | 0.05807771 |
| Concentracao | 0.72072907 | 0.01052632 | 68.46926637 |
Tabela 4.1.77: Coeficientes
| Desvio Padrão dos Resíduos | Graus de Liberdade | R^2 | R^2 Ajustado |
|---|---|---|---|
| 2.28109003 | 47 | 0.990074 | 0.98986281 |
Tabela 4.1.78: Medida Descritiva da Qualidade do Ajuste

1.11.5 - Mínimos quadrados ponderados por meio de transformações
O software Action Stat, assim como diversos software estatísticos disponíveis, permitem ao usuário especificar os pesos, não só o usado nas seções anteriores, isto é, o peso $1/s^2_i.$ Quando esta opção não estiver disponível, os estimadores de mínimos quadrados ponderados podem ser obtidos através da aplicação de mínimos quadrados não ponderados em observações transformadas especialmente.
O método dos mínimos quadrados ponderados é equivalente ao dos mínimos quadrados ordinários de dados transformadas especialmente, para ilustrar isto consideramos o caso em que a variância dos erros são proporcionais à variável explicativa ao quadrado, ou seja, $\sigma^2_i=k X^2_i$ em que $w_i=1/X^2_i.$
$$Q_w= \sum^n_{i=1}w_i(Y_i-\beta_0-\beta_1 X_i)^2=\sum^n_{i=1}\dfrac{1}{X^2_i}(Y_i-\beta_0-\beta_1 X_i)^2$$
$$=\sum^n_{i=1}(\dfrac{Y_i}{X^2_i}-\dfrac{\beta_0}{X^2_i}-\beta_1)^2 \tag{1.11.4.1}$$
Denotamos por
$$ Y^{\char42}_i=\dfrac{Y_i}{X_i}; \quad \beta^*_0=\beta_1;\quad X^{\char42}_i= \dfrac{1}{X_i}\quad \hbox{e} \quad \beta^{\char42}_1 = \beta_0$$
E substituímos em (1.11.4.1) e obtemos
$$Q_w= \sum^n_{i=1}w_i(Y^*_i-\beta^*_0-\beta^*_1 X^*_i)^2$$
que é o critério de mínimos quadrados não ponderada para as observações $X^*_i$ e $Y^*_i$ transformadas.
A variância dos resíduos (erro) para o modelo com as variáveis transformadas, agora é constante. Isto pode ser visto através da divisão dos termos no modelo original:
$$Y_i=\beta_0+\beta_i X_i+\varepsilon_i,\quad i=1,\dots,n.$$
por $\sqrt{w_i}=1/X_i.$
$$\dfrac{Y_i}{X_i}=\dfrac{\beta_0}{X_i}+\beta_i +\dfrac{\varepsilon_i}{X_i}$$
Ao usarmos a mesma notação obtemos
$$Y^{\char42}_i = \beta^{\char42}_0 + \beta^{\char42}_i X^{\char42}_i+ \varepsilon^{\char42}_i \tag{1.11.4.2}$$
Com isso, obtemos que $\varepsilon^*_i=\varepsilon_i/X_i$
Portanto, (1.11.4.2) é o modelo de regressão linear simples usando a transformação de variáveis. A variância dos resíduos agora são constantes, pois:
$$\hbox{Var}(\varepsilon^*_i)=\hbox{Var}\left(\dfrac{\varepsilon_i}{X_i}\right)=\dfrac{1}{X^2_i}\hbox{Var}\left(\varepsilon_i\right)= \dfrac{1}{X^2_i}(k X^2_i)=k$$
O softaware Action disponibiliza diveros pesos para regressão linear simples ponderada, os principais pesos são:
$$w_i= \begin{cases}\dfrac{1}{X_i},\quad X_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{X^2_i},\quad X^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{Y_i},\quad Y_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{Y^2_i},\quad Y^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{s^2_i},\quad s^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1/s^2_i}{n\displaystyle\sum^n_{j=1}\frac{1}{s^2_i}}\quad s^2_i\neq 0 ~\hbox{para todo}~i \cr \cr \end{cases} $$
Existem estratégias para escolha destes pesos, por exemplo, no artigo de Almeida et al [15], cita um método para curvas de calibração. Neste artigo, o melhor peso é escolhido segundo o cálculo da porcentagem do erro relativo (%RE), em que compara a concentração encontrada através do ajuste do modelo de regressão ponderado ($C_{adj}$) versus a concentração nominal ($C_{nom}$). A porcentagem do erro relativo é calculado da seguinte forma:
$$\char37RE= \dfrac{C_{adj}-C_{nom}}{C_{nom}}\times 100\char37$$
Vale lembrar que na estatística este é o estudo de viés ou vício da concentração ajustada versus a concentração empírica do modelo.
A avaliação do melhor modelo é feito através do gráfico da porcentagem de erro relativo versus concentração, em que %RE devem estar distribuídos aleatoriamente em torno do zero e por meio do cálculo da soma da porcentagem de erro relativo (%RE). Esta soma é definida como a soma dos valores absolutos da porcentagem de erro relativo e a avaliação desta medida é feita através da menor dentre todos os modelos testados.
A seguir apresentamos um resumo da estratégia adotada para tratarmos a falha da suposição de homocedasticidade do modelo de regressão linear simples.
Figura 4.1.19: Fluxograma para modelo heterocedástico.
Concluímos que existem diversas estratégias para ponderarmos o modelo de regressão linear simples para tratarmos a heterocedasticidade do modelo e o software Action possibilita a escolha destas e inclusive deixa livre a opção do usuário montar o peso que melhor se adeque a aplicação pretendida.