4.1. Regressão Linear Simples

Motivação 1

Em problemas de tratamento térmico deseja-se estabelecer uma relação entre a temperatura da estufa e uma característica da qualidade (dureza, por exemplo) de uma peça. Desta forma, pretende-se determinar os valores de temperatura em °C que “otimizam” a performance do processo de tratamento térmico em relação a estrutura metalográfica do material, avaliada em relação de dureza em HB.

Considere que em um experimento, a dureza de pistões foi medida em diferentes níveis de temperatura escolhidos conforme interesse (T1 = 220ºC, T2 = 225ºC, T3 = 230ºC e T4 = 235ºC ). Para cada ponto de temperatura foram submetidos ao tratamento térmico 5 pistões. Os dados observados são apresentados na Tabela 4.1.1 e o objetivo é estabelecer uma relação entre a variável de entrada (temperatura) e a variável de saída (dureza).

Observação Dureza (HB) Temperatura (ºC) Observação Dureza (HB) Temperatura (ºC)
1 137 220 11 128 230
2 137 220 12 124 230
3 137 220 13 126 230
4 136 220 14 129 230
5 135 220 15 126 230
6 135 225 16 122 235
7 133 225 17 122 235
8 132 225 18 122 235
9 133 225 19 119 235
10 133 225 20 122 235

Tabela 4.1.1: Dados de dureza em um conjunto de pistões à diferentes níveis de temperatura.

Na maioria das vezes não se conhece a princípio a real relação existente entre as variáveis de interesse. Assim, uma análise gráfica preliminar é realizada construindo-se o gráfico de dispersão entre as variáveis em questão. Este gráfico é importante em qualquer análise de regressão já que por meio dele é possível ter uma noção do tipo de relação existente entre as variáveis (relação linear, quadrática). Esta relação na maioria das vezes não é perfeita, ou seja, os pontos não estão dispostos perfeitamente sobre a função que relaciona as duas variáveis mas deseja-se que estes pontos estejam próximos. Além disto, o gráfico de dispersão dá indícios sobre a variabilidade associada as variáveis em questão e sobre pontos atípicos ou discrepantes. Para o conjunto de dados da Tabela 4.1, o gráfico de dispersão é dado por

Figura4.1.1

Figura 4.1.1: Temperatura da Estufa vs Dureza dos pistões.

Pela Figura 4.1.1, observa-se que à medida que o nível da temperatura aumenta, a dureza dos pistões diminui. Desta forma, supor uma relação linear entre as variáveis temperatura e dureza, para valores de temperatura entre 220ºC e 235ºC é razoável.

1.1 Modelo Estatístico

Como visto na Figura 4.1.1 referente à Motivação 1, é razoável supor que a relação existente entre as variáveis dureza de pistões, denotada por Y e níveis de temperatura, denotada por X, é linear. Desta forma, definimos o seguinte modelo de regressão linear simples entre Y (variável resposta) e X (variável regressora).

Definição 1.1.1

Consideremos duas variáveis X e Y. Dados $n$ pares $(X_1,Y_1),(X_2,Y_2),…,(X_n,Y_n)$, se Y é função linear de X, pode-se estabelecer uma regressão linear simples cujo modelo estatístico é:

$$Y_i= \beta_0 + \beta_1 x_i+\varepsilon_i, \quad \hbox{para} \ i=1,\ldots,n, \tag{1.1.1}$$

em que substituímos $X_i$ por $x_i$ uma vez que $X_i$ é uma variável determinística (constante conhecida).

Neste modelo,

  • $Y_i$ é uma variável aleatória e representa o valor da variável resposta (variável dependente) na i-ésima observação;

  • $x_i$ representa o valor da variável explicativa (variável independente, variável regressora) na i-ésima observação;

  • $\epsilon_i$ é uma variável aleatória que representa o erro experimental;

  • $\beta_0$ e $\beta_1$ são os parâmetros do modelo, que serão estimados, e que definem a reta de regressão e $n$ é o tamanho da amostra.

1.1.1 Interpretação dos parâmetros do modelo

O parâmetro $\beta_0$ é chamado intercepto ou coeficiente linear e representa o ponto em que a reta regressora corta o eixo dos $y$’s, quando $x=0$. Já o parâmetro $\beta_1$ representa a inclinação da reta regressora e é dito coeficiente de regressão ou coeficiente angular. Além disso, temos que para um aumento de uma unidade na variável $x$, o valor $E(Y|x)$ aumenta $\beta_1$ unidades. A interpretação geométrica dos parâmetros $\beta_0$ e $\beta_1$ pode ser vista na Figura 4.1.2.

Figura 4.1.2

Figura 4.1.2: Reta Regressora

Um ponto negativo na Definição 1.1.1 é que o modelo de regressão linear simples não acomoda impactos de erros experimentais (variação de matéria prima), de erros de medida, entre outras inúmeras fontes de variabilidade, tornando-se inadequado nestes casos.

1.1.2 Suposições para o modelo

Ao estabelecer o modelo 1.1.1 para os dados, pressupomos que:

i) A relação matemática entre $Y$ e $X$ é linear;

ii) Os valores de $x$ são fixos (ou controlados), isto é, $x$ não é uma variável aleatória;

iii) A média do erro é nula, ou seja, $E(\epsilon_i)=0$. Desta forma, segue que

$$E(Y_{i})=E(\beta_{0}+\beta_{1}x_{i}+\epsilon_{i})=\beta_{0}+\beta_{1}x_{i}+E(\epsilon_{i})=\beta_{0}+\beta_{1}x_i$$

e portanto, a função de regressão para o modelo 1.1.1 é dada por:

$$E[Y\mid x]=\beta_{0}+\beta_{1}x$$

Note que o valor observado de $Y_i$ está em torno do valor da função de regressão com erro experimental $\epsilon_i$.

iv) Para um dado valor de $x$, a variância de $\epsilon_i$ é sempre $\sigma^2$, isto é,

$$Var(\varepsilon_i)= E(\varepsilon_i^2) - [E(\varepsilon_i)]^2 = E(\varepsilon_i^2) = \sigma^2, $$

isto implica em:

$$Var(Y_i)= E[Y_i - E(Y_i|x_i)]^2 = E(\varepsilon_i^2) = \sigma^2.$$

Neste caso, dizemos que o erro é homocedástico (tem variância constante);

v) O erro de uma observação é não correlacionado com o erro de outra observação, isto é,

$$Cov(\varepsilon_i, \varepsilon_j)-E(\varepsilon_i)E(\varepsilon_j)=E(\varepsilon_i, \varepsilon_j)=0, \quad para \quad i\neq0$$

Esta hipótese não implica que os erros sejam independentes. Se a distribuição dos erros for normal, esta hipótese é equivalente a independência dos erros.

vi) Frequentemente, supomos que os erros tem distribuição Normal.

Desta forma, combinando (iii), (iv) e (vi) temos que $\varepsilon_i \sim N(0 \ , \ \sigma^2)$. Como $Y_i$ é a soma de um termo constante, $\beta_{0}+\beta_{1}x_{i}$, com um termo aleatório, $\epsilon_{i}$, segue que $Y_i \sim N(\beta_0 + \beta_1 x_i \ ,\ \sigma^2).$ Além disso, por (v) e (vi) temos que $Y_i$ e $Y_j$ são independentes. A suposição de normalidade é necessária para a elaboração dos testes de hipóteses e obtenção de intervalos de confiança.

1.2 Estimação dos Parâmetros do Modelo

Supondo que a relação linear entre as variáveis $Y$ e $X$ é satisfatória, podemos estimar a linha de regressão e resolver alguns problemas de inferência. O problema de estimar os parâmetros $\beta_{0}$ e $\beta_{1}$ é o mesmo que ajustar a melhor reta em um gráfico de dispersão, como na Figura 4.1.3. O Método dos Mínimos Quadrados é uma eficiente estratégia de estimação dos parâmetros da regressão e sua aplicação não é limitada apenas às relações lineares.

Figura4.1.3

Figura 4.1.3: Representação da Reta de Regressão

1.2.1 Método dos Mínimos Quadrados

O primeiro passo na análise de regressão é obter as estimativas $\widehat{\beta_0}$ e $\widehat{\beta_1}$ dos parâmetros do modelo. Os valores dessas estimativas serão obtidos a partir de uma amostra de $n$ pares de valores $(X_i,Y_i)$, $i=1,…,n$ que correspondem a $n$ pontos em um gráfico, como na Figura 1.2.1. No método de Mínimos Quadrados, não é necessário conhecer a forma da distribuição dos erros.

Suponha que é traçada uma reta arbitrária $\beta_0 + \beta_1 x$ passando por esses pontos. No valor $x_i$ da variável explicativa, o valor predito por esta reta é $\beta_0 + \beta_{1} x_i$, enquanto o valor observado é $Y_i$. Os desvios (erros) entre estes dois valores é $\varepsilon_i=Y_i-[\beta_0+\beta_1 x_i]$, que corresponde a distância vertical do ponto à reta arbitrária.

O objetivo é estimar os parâmetros $\beta_0$ e $\beta_1$ de modo que os desvios ($\varepsilon_i$) entre os valores observados e estimados sejam mínimos. Isso equivale a minimizar o comprimento do vetor de erros, $\varepsilon=(\varepsilon_1,\varepsilon_2,\ldots,\varepsilon_n)^{\prime}$.

Uma forma de obter essas estimativas é o Método de Mínimos Quadrados. Este método consiste em minimizar a soma dos quadrados dos desvios L, como na expressão abaixo

$$L=\displaystyle\sum^n_{i=1}\varepsilon_i^2=\sum^n_{i=1}[Y_i-\beta_0-\beta_1 x_i]^2. \tag{1.2.1.1}$$

Obviamente, que poderíamos calcular a distância entre a reta e os valores observados de diferentes formas. Por exemplo, poderíamos utilizar o módulo ao invés do quadrado, ou qualquer função de distância apropriada. A escolha do quadrado está na simplicidade dos cálculos envolvidos

Para encontrarmos estimativas para os parâmetros, vamos minimizar (1.2.1.1) em relação aos parâmetros $\beta_0$ e $\beta_1$. Para isto, derivamos em relação aos parâmetros $\beta_0$ e $\beta_1$. Assim,

$$\frac{\partial L(\beta_0,\beta_1)}{\partial \beta_0}=-2\sum^n_{i=1}(Y_i-\beta_0-\beta_1 x_i)$$

$$\hbox{e\ }\frac{\partial L(\beta_0,\beta_1)}{\partial\beta_1}=-2\sum^n_{i=1}(Y_i-\beta_0-\beta_1 x_i)x_i.$$

Substituindo $\beta_0$ e $\beta_1$ por $\widehat{\beta_0}$ e $\widehat{\beta_1}$, para indicar valores particulares dos parâmetros que minimizam L, e igualando as derivadas parciais a zero, obtemos

$$-2\sum^n_{i=1}(Y_i-\widehat{\beta_0}-\widehat{\beta_1} x_i)=0$$

$$\hbox{e\ }-2\sum^n_{i=1}(Y_i-\widehat{\beta_0}-\widehat{\beta_1} x_i)x_i=0.$$

Simplificando, obtemos as equações denominadas Equações Normais de Mínimos Quadrados.

$$ \begin{cases} n \widehat{\beta_0}+\widehat{\beta_1}\sum\limits^n_{i=1}x_i=\sum\limits^n_{i=1}Y_i \cr \widehat{\beta_0}\sum\limits^n_{i=1}x_i+\widehat{\beta_1}\sum\limits^n_{i=1} x_i^2 = \sum\limits_{i=1}^n x_i Y_i \quad \tag{1.2.1.2} \end{cases} $$

Para encontrarmos os valores de $\widehat\beta_{0}$ e $\widehat\beta_{1}$ que minimizam L, resolvemos o sistema de equações dado em (1.2.1.2). Considerando a primeira equação de (1.2.1.2) obtemos que,

$$ \widehat{\beta_0}=\frac{\sum\limits_{i=1}^n Y_i}{n}-\frac{\widehat{\beta_1}\sum\limits_{i=1}^n x_i}{n}, $$

ou seja,

$$\widehat{\beta_0}=\bar{Y}-\widehat{\beta_1}\bar{x}, \tag{1.2.1.3}$$

em que $\bar{x}=\dfrac{1}{n}\sum\limits^n_{i=1}x_i\quad\hbox{e}\quad\bar{Y}=\dfrac{1}{n}\sum\limits^n_{i=1} Y_i$ são as médias de x e da variável Y, respectivamente.

Desta forma, substituindo (1.2.1.3) na segunda equação de (1.2.1.2) temos que,

$$\widehat{\beta_1}\displaystyle\sum_{i=1}^n x_i^2=\displaystyle\sum_{i=1}^n x_i Y_i-\widehat{\beta_0}\displaystyle\sum_{i=1}^n x_i$$

$$=\displaystyle\sum_{i=1}^n x_i Y_i-\left(\bar{Y}-\widehat{\beta_1}\bar{x}\right)\displaystyle\sum_{i=1}^n x_i$$

$$=\displaystyle\sum_{i=1}^n x_i Y_i-\bar{Y}\displaystyle\sum_{i=1}^n x_i-\widehat{\beta_1}\bar{x}\displaystyle\sum_{i=1}^n x_i$$

$$=\displaystyle\sum_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}+n\widehat{\beta_1}\bar{x}^2.$$

Então,

$$\widehat{\beta_1}\left(\displaystyle\sum_{i=1}^n x_i^2-n\bar{x}^2 \right)=\sum_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}$$

e portanto, concluímos que

$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}}{\displaystyle\sum\limits_{i=1}^n x_i^2-n\bar{x}^2}.$$

Podemos também escrever

$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})(Y_i - \bar{Y})}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})x_i}=\dfrac{\displaystyle\sum\limits_{i=1}^n x_i Y_i-n\bar{x}\bar{Y}}{\displaystyle\sum\limits_{i=1}^n x_i^2-n\bar{x}^2}.$$

Os valores de $\widehat{\beta_0}$ e $\widehat{\beta_1}$ assim determinados são chamados Estimadores de Mínimos Quadrados (EMQ).

O modelo de regressão linear simples ajustado é então

$$\widehat{Y}=\widehat{\beta_0}+\widehat{\beta_1}x, \tag{1.2.1.4}$$

sendo que $\widehat{Y}$ é um estimador pontual da média da variável Y para um valor de $x$, ou seja,

$$\widehat{E(Y|x_i)}=\widehat{\beta_0}+\widehat{\beta_1} x_{i},\quad i=1,\dots,n.$$

Notação

Considerando n pares de valores observados $(x_1,y_1),…,(x_n,y_n)$,

$$\bar{x}=\frac{1}{n}\sum^n_{i=1}x_i,\quad\bar{y}=\frac{1}{n}\sum^n_{i=1} y_i, \tag{1.2.1.5}$$

$$S _{xx}=\sum^n_{i=1}(x_i-\bar{x})^2=\sum^n_{i=1}(x_i-\bar{x})x_i=\sum^n_{i=1}x_i^2-n\bar{x}^2=\sum^n_{i=1}x_i^2-\frac{\left(\sum\limits_{i=1}^n x_i\right)^2}{n}, \quad \tag{1.2.1.6}$$

$$S_{yy}=\sum^n_{i=1}(y_i-\bar{y})^2=\sum^n_{i=1}(y_i-\bar{y})y_i=\sum^n_{i=1}y_i^2- n \bar{y}^2=\sum^n_{i=1}y_i^2-\frac{\left(\sum\limits_{i=1}^n y_i\right)^2}{n} \quad \tag{1.2.1.7}$$

$$\hbox{e\ }S_{xy}=\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})=\sum^n_{i=1}(x_i-\bar{x})y_i=\sum^n_{i=1}x_i y_i-n\bar{x}\bar{y}. \quad \tag{1.2.1.8}$$

As quantidades $\bar{x}$ e $\bar{y}$ são as médias amostrais de x e y. Já as quantidades $S _{xx}$ e $S_{yy}$ são as somas dos quadrados dos desvios das médias e $S_{xy}$ é a soma dos produtos cruzados dos desvios de x e y.

Desta forma, as estimativas de mínimos quadrados de $\beta_0$ e $\beta_1$, em termos desta notação são:

$$\widehat{\beta_1}=\frac{S_{xy}}{S _{xx}}\quad\hbox{e}\quad\widehat{\beta_0}=\bar {Y}-\widehat{\beta_1}\bar{x}.$$

Exemplo 1.2.1

Voltando à Motivação 1, em que queríamos determinar os valores de temperatura em $^{\circ}\mathrm{C}$ que otimizam a dureza do material, encontramos as estimativas dos parâmetros $\beta_{0}$ e $\beta_{1}$ pelo Método dos Mínimos Quadrados.

Solução:

As médias amostrais das variáveis temperatura $(X)$ e dureza $(Y)$ são, respectivamente,

$$\bar{x}=\dfrac{1}{20}\sum_{i=1}^{20}x_i=(220+220+\ldots+235+235)/20=227,5$$

$$\hbox{e\ }\bar{y}=\dfrac{1}{20}\sum_{i=1}^{20} y_i = 137+137+\ldots+119+122=129,4.$$

Além disso, na Tabela 1.2.1, apresentamos os valores de $x^2, y^2$ e $xy$ para cada observação $i$, $i=1,…,20$.

Observação Temperatura (x) Dureza (y) $x^2$ $y^2$ $x* y$
1 220 137 48.400 18.769 30.140
2 220 137 48.400 18.769 30.140
3 220 137 48.400 18.769 30.140
4 220 136 48.400 18.496 29.920
5 220 135 48.400 18.225 29.700
6 225 135 50.625 18.225 30.375
7 225 133 50.625 17.689 29.925
8 225 132 50.625 17.424 29.700
9 225 133 50.625 17.689 29.925
10 225 133 50.625 17.689 29.925
11 230 128 52.900 16.384 29.440
12 230 124 52.900 15.376 28.520
13 230 126 52.900 15.876 28.980
14 230 129 52.900 16.641 29.670
15 230 126 52.900 15.876 28.980
16 235 122 55.225 14.884 28.670
17 235 122 55.225 14.884 28.670
18 235 122 55.225 14.884 28.670
19 235 119 55.225 14.161 27.965
20 235 122 55.225 14.884 28.670
Soma 4.550 2.588 1.035.750 335.594 588.125
Média 227,5 129,4

Tabela 4.1.2: Dados da Motivação 1

Assim, encontramos as somas de quadrados

$$S _{xx}=\sum^n_{i=1}x_i^2-n\bar{x}^2=1035.750-20\times 227,50^2=625,$$

$$S_{yy}=\sum^n_{i=1}y_i^2-n\bar{y}^2= 335.594 - 20 \times 129,40^2=706,80$$

$$\hbox{e\ }S_{xy}=\sum^n_{i=1}x_i y_i-n\bar{x}\bar{y}=588.125 - 20 \times 227,50 \times 129,40=-645.$$

Logo, as estimativas dos parâmetros $\beta_{1}$ e $\beta_{0}$ são, respectivamente

$$\widehat\beta_1=\dfrac{-645}{625}=-1,032$$

$$\hbox{e\ }\widehat\beta_0=129,4-(-1,032)227,5=364,18.$$

Portanto, o modelo ajustado é dado por

$$\hbox{Dureza} = 364,18-1,032 \ \hbox{Temperatura}.$$

Pelos valores das estimativas, temos que a cada aumento da Temperatura, temos um decréscimo de 1,032 na Dureza.

1.2.2 Resíduos

A diferença entre o valor observado $Y_{i}$ e o correspondente valor ajustado $\widehat{Y}_{i}$, dado pela expressão (1.2.1.4), é chamada de resíduo e é denotado por

$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{0}+\widehat\beta_{1}x_{i}), \tag{1.2.2.1}$$

Essa medida é importante já que por meio dela verificamos o ajuste do modelo.

1.2.2.1 Algumas propriedades do ajuste de mínimos quadrados

(i) A soma dos resíduos é sempre nula.

$$\sum\limits_{i=1}^{n}e_{i}=\sum\limits_{i=1}^{n}(Y_{i}-\widehat{Y}_{i})=0 $$

Na realidade, basta substituirmos os estimadores de mínimos quadrados $$\sum\limits_{i=1}^{n}e_{i}=\sum_{i=1}^nY_i-n\hat{\beta_0}-\hat{\beta_1}\sum_{i=1}^nx_i=\sum_{i=1}^nY_i-n\bar{Y}+n\hat{\beta_1}\bar{x}-\hat{\beta_1}\sum_{i=1}^nx_i=0$$

(ii) A soma dos valores observados $Y_{i}$ é igual a soma dos valores ajustados $\widehat{Y}_{i}$.

$$\sum\limits_{i=1}^{n}Y_{i}=\sum\limits_{i=1}^{n}\widehat{Y}_{i}$$

(iii) A reta de regressão de mínimos quadrados passa pelo ponto $(\bar{x},\bar{Y})$. De fato,

$$Y_i=\beta_0+\beta_1x_1+\varepsilon_i=\beta_0+\beta_1(x_i-\bar{x})+\beta_1\bar{x}+\varepsilon_i=(\beta_0+\beta_1\bar{x})+\beta_1(x_i-\bar{x})+\varepsilon_i=$$ $$=\beta_0^{*}+\beta_1(x_i-\bar{x})+\varepsilon_i$$

com $\beta_0^{*}=\beta_0+\beta_1\bar{x}$. Assim, a reta de regressão ajustada é dada por

$$\widehat{Y}=\widehat{\beta_0}^{*}+\widehat{\beta_1}(x_i-\bar{x})=\widehat{\beta_0}+\widehat{\beta_1}\bar{x}+\widehat{\beta_1}(x_i-\bar{x})=(\bar{Y}-\widehat{\beta_1}\bar{x})+\widehat{\beta_1}\bar{x}+\widehat{\beta_1}(x_i-\bar{x})=$$ $$=\bar{Y}+\widehat{\beta_1}(x_i-\bar{x})$$

Logo, no ponto $x_i=\bar{x}$ temos que $$\widehat{Y}=\bar{Y}+\widehat{\beta}_{1}(\bar{x}-\bar{x})=\bar{Y}.$$ Portanto, temos que a reta ajustada passa por $(\bar{x},\bar{Y})$.

(iv) A soma dos resíduos ponderado pelo correspondente valor da variável regressora é sempre nula.

$$\sum\limits_{i=1}^{n}x_{i}e_{i}=0$$

(v) A soma dos resíduos ponderado pelo correspondente valor ajustado é sempre zero.

$$\sum\limits_{i=1}^{n}\widehat{Y}_{i}e_{i}=0$$

1.2.3 Estimador da variância residual

Assim como os parâmetros $\beta_{0}$ e $\beta_{1}$, a variância $\sigma^2$ dos termos do erro $\epsilon_i$ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de $Y$ requerem uma estimativa de $\sigma^2$. Consideremos os resíduos $e_{i}$ dado em (1.2.2.1). Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),

$$SQE = \sum\limits_{i=1}^n e_i^{2} = \sum\limits_{i=1}^n (Y_i-\widehat{Y}_i)^{2}=\sum\limits_{i=1}^n(Y_i-(\widehat{\beta_0}+\widehat{\beta_1}x_i))^{2}.$$

Será demonstrado a seguir em 1.3 Propriedades dos Estimadores que SQE é um estimador viciado de $\sigma^2$, isto é,

$$E(SQE)= \sigma^2(n-2).$$

Desta forma, um estimador não viciado para $\sigma^2$ é dado por

$$\widehat{\sigma}^2=QME=\dfrac{SQE}{n-2},$$

em que QME é o Quadrado Médio dos Erros (Resíduos).

Considerando $n$ pares de valores observados $(x_1,y_1),…,(x_n,y_n)$, podemos escrever

$$SQE=S_{yy}-\widehat{\beta}_{1}S_{xy},$$

será visto a seguir em 1.3 Propriedades dos Estimadores que $S_{yy}$ e $S_{xy}$ são dados respectivamente pelas expressões (1.2.1.6) e (1.2.1.7). Portanto,

$$QME=\dfrac{SQE}{n-2}=\dfrac{S_{yy}-\widehat{\beta}_{1}S_{xy}}{n-2}.$$

Daremos mais detalhes para a Soma de Quadrados dos Erros (SQE) e para o Quadrado Médio dos Erros (QME) na seção 1.5 Análise de Variância.

Exemplo 1.2.2

Obter um estimador não viesado para a variância residual do exemplo da Motivação 1.

Solução:

Temos que

$$SQE=S_{yy}-\widehat{\beta_1}S_{xy}.$$

Já vimos que $S_{yy}=706,8,$ $\widehat{\beta_1} = -1,032$ e $S_{xy}=-645,$ então

$$SQE=706,8 -(-1,032)(-645) = 706,8 - 665,64 = 41,16$$

$$\widehat{\sigma}^2=QME=\frac{SQE}{n-2} ~ = ~\frac{41,16}{18} ~ = ~2,2866.$$

Usando o Software Action obtemos os seguintes resultados:

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Temperatura 1 665.64 665.64 291.0962 0
Resíduos 18 41.16 2.2867

Tabela 4.1.3: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-2.82 -0.82 0.18 0 1.02 3.02

Tabela 4.1.4: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 364.18 13.7649 26.4571 0
Temperatura -1.032 0.0605 -17.0615

Tabela 4.1.5: Coeficientes

1.3 Propriedades dos Estimadores

Os estimadores de mínimos quadrados $\widehat\beta_{0}$ e $\widehat\beta_{1}$ possuem importantes propriedades: são não viciados e têm variância mínima entre todos os estimadores não viciados que são combinações lineares dos $Y_i$ (Teorema de Gauss-Markov). Desta forma, os estimadores de mínimos quadrados são frequentemente ditos “melhores estimadores lineares não viciados”.

1. Valor esperado (média) de $\widehat{\beta}_{1}$

Definindo

$$C_i=\dfrac{x_i-\bar{x}}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}\ \ i=1,\dots,n,$$

segue que,

$$\widehat{\beta_1}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i - \bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\sum\limits_{i=1}^n C_i Y_i.$$

Assim, $\widehat{\beta_1}$ é uma combinação linear de $Y$. Desta forma,

$$E(\widehat{\beta_1})=E(\sum\limits_{i=1}^n C_i Y_i)=\sum\limits_{i=1}^n C_i E(Y_i)=\sum\limits_{i=1}^n C_i (\beta_0 + \beta_1 x_i)=\beta_0 \sum\limits_{i=1}^n C_i + \beta_1 \sum\limits_{i=1}^n C_i x_i.$$

Como

$$\sum\limits_{i=1}^n C_i = \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i -\bar{x})}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n x_i -n\bar{x}}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n x_i -\sum\limits_{i=1}^n x_i}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}=0$$

$$\hbox{e\ } \sum\limits_{i=1}^n C_i x_i= \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i -\bar{x})x_i}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}= \dfrac{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i -\bar{x})^2} = 1,$$

concluímos que $E(\widehat{\beta_1})=\beta_{1}$ (estimador não viciado).

2. Variância de $\widehat{\beta}_{1}$

De (1) temos que

$$Var(\widehat{\beta_1})=Var \left(\sum\limits_{i=1}^n C_i Y_i \right).$$

Como $Y_i$, $i=1,…,n$ são variáveis independentes, segue que

$$Var(\widehat{\beta_1})=\sum\limits_{i=1}^n C_i^2 Var(Y_i) = \displaystyle\sum\limits_{i=1}^n \left(\dfrac{(x_i - \bar{x})}{ \displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right)^2\sigma^2=\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$

Considerando n pares de valores observados $(x_1,y_1),…,(x_n,y_n)$, podemos escrever

$$Var(\widehat{\beta_1})=\dfrac{\sigma^2}{S _{xx}}.$$

3. Valor esperado (média) de $\widehat{\beta}_{0}$

$$E(\widehat{\beta_0})=E\left[\bar{Y}-\widehat{\beta_1}\bar{x}\right]=E(\bar{Y})-\bar{x}E(\widehat{\beta_1})=E\left(\sum\limits_{i=1}^n\dfrac{Y_i}{n}\right)-\bar{x}\beta_1= \sum\limits_{i=1}^n\dfrac{E(Y_i)}{n}-\bar{x}\beta_1.$$

Como $E(Y_i)=(\beta_0+\beta_1x_i)$, segue que

$$E(\widehat{\beta_0})= \dfrac{1}{n}\sum\limits_{i=1}^n(\beta_0+\beta_1x_i)-\bar{x}\beta_1= \beta_0+\beta_1 \dfrac{\displaystyle\sum\limits_{i=1}^n x_i}{n}-\bar{x}\beta_1= \beta_0.$$

(estimador não viciado).

4. Variância de $\widehat{\beta}_{0}$

$$Var(\widehat{\beta_0})=Var \left(\bar{Y}-\widehat{\beta_1} \bar{x}\right) = Var(\bar{Y}) + Var(\widehat{\beta_1} \bar{x})-2 Cov(\bar{Y},\widehat{\beta_1}\bar{x}).$$

Notemos que

$$Cov(\bar{Y},\widehat{\beta_1}\bar{x})=E(\bar{Y}\widehat{\beta_1}\bar{x})-E(\bar{Y})E(\widehat{\beta_1}\bar{x})=E(\bar{x}\bar{Y}\widehat{\beta_1})-E\left( \sum_{i=1}^n\dfrac{Y_i}{n}\right)\bar{x}\beta_1$$

$$=E\left(\bar{x}\dfrac{\displaystyle\sum\limits_{i=1}^n(\beta_0+\beta_1x_i+\varepsilon_i)}{n}\widehat{\beta_1}\right)-\dfrac{\bar{x}\beta_1}{n}\sum\limits_{i=1}^n(\beta_0+\beta_1x_i)=\dfrac{\bar{x}}{n}\sum\limits_{i=1}^n \left[ \beta_0\beta_1 + x_i\beta_1^2+E(\varepsilon_i \widehat{\beta_1})\right]$$

$$-\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)=\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)+\dfrac{\bar{x}}{n}\sum_{i=1}^nE(\varepsilon_i\widehat{\beta_1})-\dfrac{\bar{x}~\beta_1}{n}\sum_{i=1}^n(\beta_0+\beta_1x_i)=$$ $$=\dfrac{\bar{x}}{n}\sum_{i=1}^nE(\varepsilon_i\widehat{\beta_1}).$$

Como

$$ E(\varepsilon_i\widehat{\beta_1})=E\left[\varepsilon_i\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})Y_j}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right]=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E\left[\varepsilon_iY_j\right]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E\left[\varepsilon_i(\beta_0+\beta_1x_j+\varepsilon_j)\right]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} $$

$$ =\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})[\beta_0 E(\varepsilon_i)+\beta_1x_jE(\varepsilon_i)+E(\varepsilon_j\varepsilon_i)]}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})E(\varepsilon_j\varepsilon_i)}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=0,$$

já que para $i\neq j$,

$$E(\varepsilon_j\varepsilon_i)=0\Rightarrow E(\varepsilon_i\widehat{\beta_1})=0.$$

e para $i=j$,

$$E(\varepsilon_j\varepsilon_i)=\sigma^2\Rightarrow E(\varepsilon_i\widehat{\beta_1})=\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\sigma^2\dfrac{\displaystyle\sum\limits_{j=1}^k(x_j-\bar{x})}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=0;$$

segue que

$$Cov(\bar{Y},\widehat{\beta_1}\bar{x})=0.$$

Desta forma,

$$Var(\widehat{\beta_0})=Var(\bar{Y})+ Var(\widehat{\beta_1} \bar{x})=Var\left(\sum_{i=1}^n \frac{Y_i}{n}\right)+ \bar{x}^2 Var(\widehat{\beta_1}).$$

Como $Y_i$, $i=1,…,n$ são independentes, segue que

$$Var(\widehat{\beta_0})=\dfrac{1}{n^2}\sum\limits_{i=1}^n Var(Y_i)+ \bar{x}^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=\dfrac{n \sigma^2}{n^2}+ \bar{x}^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}=$$ $$=\sigma^2 \left( \dfrac{1}{n} + \dfrac{\bar{x}^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$

Novamente, dados n pares de valores $(x_1,y_1),…,(x_n,y_n)$ escrevemos

$$Var(\widehat{\beta_0})=\sigma^2\left(\dfrac{1}{n}+\dfrac{\bar{x}^2}{S _{xx}}\right).$$

5. Covariância entre $\widehat{\beta_{0}}$ e $\widehat{\beta_{1}}$

$$Cov(\widehat{\beta_0}, \widehat{\beta_1})=E(\widehat{\beta_0}\widehat{\beta_1})-E(\widehat{\beta_0})E(\widehat{\beta_1})=E[(\bar{Y}-\widehat{\beta_1}\bar{x})\widehat{\beta_1}]-\beta_0\beta_1=E[\bar{Y}\widehat{\beta_1}-\bar{x}\widehat{\beta_1}^2]-\beta_0\beta_1=$$ $$ =E(\bar{Y}\widehat{\beta_1})$$

$$-\bar{x}E(\widehat{\beta_1}^2)-\beta_0\beta_1= E\left[\dfrac{1}{n}\sum\limits_{i=1}^n Y_i\widehat{\beta_1}\right]-\bar{x}[Var(\widehat{\beta_1})+ (E(\widehat{\beta_1}))^2]-\beta_0\beta_1=\dfrac{1}{n}\sum\limits_{i=1}^n E[(\beta_0+\beta_1x_i+\varepsilon_i)\widehat{\beta_1}]$$

$$-\bar{x}\left[ \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}+\beta_1^2\right] -\beta_0\beta_1=\dfrac{1}{n}\sum\limits_{i=1}^n E[\beta_0\widehat{\beta_1} + \beta_1\widehat{\beta_1}x_i+\varepsilon_i\widehat{\beta_1}]-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1$$

$$= \dfrac{1}{n} \sum\limits_{i=1}^n \left[\beta_0 \beta_1 + \beta_1^2 x_i + E(\varepsilon_i \widehat{\beta_1}) \right] - \dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1$$

$$= \beta_0 \beta_1 + \beta_1^2 \bar{x} + \dfrac{1}{n} \sum\limits_{i=1}^n E(\varepsilon_i \widehat{\beta_1})-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} - \bar{x} \beta_1^2 - \beta_0 \beta_1=\dfrac{1}{n} \sum\limits_{i=1}^n E(\varepsilon_i \widehat{\beta_1})-\dfrac{\bar{x} , \sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$

De (4) temos que

$$E(\varepsilon_i \widehat{\beta_1})=0$$

e portanto,

$$Cov(\widehat{\beta_0},\widehat{\beta_1})=-\dfrac{\bar{x}\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}.$$

6. Distribuição amostral para $\widehat{\beta}_{1}$

Em (1), definimos

$$\widehat{\beta_1}=\sum\limits_{i=1}^n C_i Y_i.$$

Como $\widehat{\beta_1}$ é combinação linear de normais independentes (combinação linear dos $Y_i$), segue que $\widehat{\beta_1}$ também tem distribuição normal com média e variância dadas respectivamente em (1) e (2) e portanto,

$$\widehat{\beta_1} \sim N \left(\beta_1,\frac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$

7. Distribuição amostral para $\widehat{\beta}_{0}$

Como em (6), $\widehat{\beta_0}$ também é uma combinação linear de normais independentes $Y_i$, e portanto, também tem distribuição normal. A média e a variância de $\widehat{\beta}_{0}$ são apresentadas em (3) (4) respectivamente. Desta forma

$$\widehat{\beta_0} \sim N \left[\beta_0, \sigma^2 \left(\frac{1}{n} \frac{x^{-2}}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right)\right]. $$

8. Valor esperado (média) de QME

$$QME=\dfrac{SQE}{n-2}$$

Assim,

$$E(QME)=E\left(\dfrac{SQE}{n-2}\right)=\dfrac{E(SQE)}{n-2}.$$

Sabemos que

$$SQE = \sum e_i^{2}=\sum_{i=1}^n (Y_i-\widehat{Y}_i)^{2}=\sum_{i=1}^n(Y_i-(\widehat{\beta_0}+\widehat{\beta_1}x_i))^{2}=\sum_{i=1}^n[Y_i^{2}-2 Y_i(\widehat{\beta_0} +\widehat{\beta_1} x_i) + (\widehat{\beta_0} +\widehat{\beta_1} x_i)^{2}]$$

$$=\sum_{i=1}^n[Y_i^{2}-2 Y_i(\bar{Y} - \widehat{\beta_1} \bar{x} + \widehat{\beta_1} x_i) + (\bar{Y} - \widehat{\beta_1} \bar{x} +\widehat{\beta_1} x_i)^{2}]=\sum_{i=1}^n[Y_i^{2}-2 Y_i\bar{Y} +2Y_i\bar{x}\widehat{\beta_1} - 2Y_ix_i \widehat{\beta_1}+ [\bar{Y} - \widehat{\beta_1} (\bar{x} - x_i)^{2}]$$

$$=\sum_{i=1}^n[Y_i^{2}-2 Y_i\bar{Y} +2 Y_i\bar{x}\widehat{\beta_1}- 2Y_ix_i \widehat{\beta_1}+ \bar{Y}^2 - 2 \bar{Y} \widehat{\beta_1} (\bar{x} - x_i) + \widehat{\beta_1}^2 (\bar{x} - x_i)^2$$

$$=\sum_{i=1}^n[(Y_i -\bar{Y})^2 - 2 \widehat{\beta_1} (x_iY_i -\bar{x} Y_i + \bar{Y}\bar{x} - \bar{Y}x_i) + \widehat{\beta_1}^2 (\bar{x} - x_i)^2]$$

$$= \sum_{i=1}^n(Y_{i}-\bar{Y})^2- 2\widehat{\beta_1} \sum_{i=1}^n[(\bar{x}-x_i)(\bar{Y}-Y_i)]+\widehat{\beta_1}^{2} \sum_{i=1}^n(x_i-\bar{x})^2$$

$$=\sum_{i=1}^n(Y_i-\bar{Y})^{2}-2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_{i}+\widehat{\beta_1}^{2}(\sum_{i=1}^n x_i^{2}-n\bar{x}^{2})= \sum_{i=1}^n(Y_i -\bar{Y})^2-2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i+\widehat{\beta_1}^{2} \sum_{i=1}^n(x_i-\bar{x})^2$$

$$=\sum_{i=1}^n(Y_i-\bar{Y})^2 - 2\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i+\widehat{\beta_1}^{2} \dfrac{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\widehat{\beta_1}}=\sum_{i=1}^n(Y_i-\bar{Y})^2 -\widehat{\beta_1}\sum_{i=1}^{n}(x_i-\bar{x})Y_i.=S_{yy}-\widehat{\beta_1}S_{xy}.$$

Desta forma,

$$E(SQE)=E\left(\sum_{i=1}^{n}(Y_{i}-\bar{Y})^2 - \widehat{\beta}_{1}\sum_{i=1}^{n}(x_{i}-\bar{x})Y_{i}\right)$$

$$=E\left(\sum\limits_{i=1}^{n}(Y_{i}-\bar{Y})^2\right)-E\left(\dfrac{\displaystyle\sum\limits_{i=1}^{n}(x_{i}-\bar{x})Y_{i}}{\displaystyle\sum_{i=1}^n(x_{i}-\bar{x})^2}\sum_{i=1}^n(x_i-\bar{x})Y_{i}\right)$$

$$=\sum_{i=1}^nE(Y_{i}^2)-nE(\bar{Y}^2)-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}E\left[\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)^2\right]$$

$$=\sum_{i=1}^n[Var(Y_i)+E^2(Y_i)]-n[Var(\bar{Y})+E^2(\bar{Y})]$$

$$-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[Var\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)+E^2\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)\right].$$

Como

$$E\left(\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)=\sum_{i=1}^n(x_i-\bar{x})E(Y_i)=\sum_{i=1}^n(x_i-\bar{x})(\beta_0+\beta_1x_i)$$

e

$$Var\left(\sum_{i=1}^n(x_i-\bar{x})Y_i\right)=\sum_{i=1}^n(x_i-\bar{x})^2Var(Y_i)=\sum_{i=1}^n(x_i-\bar{x})^2\sigma^2.$$

Segue que

$$E(SQE)=\left(\sum_{i=1}^n\sigma^2+(\beta_0+\beta_1x_i)^2\right)-n\left(\dfrac{\sigma^2}{n}+(\beta_0+\beta_1\bar{x})^2\right)$$

$$-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\sum_{i=1}^n(x_i-\bar{x})^2\sigma^2-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})(\beta_0+\beta_1x_i)\right]^2$$

$$=n\sigma^2+\sum_{i=1}^n(\beta_0+\beta_1x_i)^2-\sigma^2-n(\beta_0+\beta_1\bar{x})^2-\sigma^2-\dfrac{1}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\left[\beta_0\sum_{i=1}^n(x_i-\bar{x})+\beta_1\sum_{i=1}^n(x_i-\bar{x})x_i\right]^2$$

$$=\sigma^2(n-2)+\sum_{i=1}^n(\beta_0+\beta_1x_i)^2-n(\beta_0+\beta_1\bar{x})^2-\beta_1^2\sum_{i=1}^n(x_i-\bar{x})^2=\sigma^2(n-2).$$

Portanto,

$$E(QME)=\dfrac{\sigma^2(n-2)}{n-2}=\sigma^2.$$

(estimador não viciado).

Exemplo 1.3.1

Para os dados do exemplo da Motivação 1, obter estimativas para a variância dos estimadores $\widehat{\beta_0}$ e $\widehat{\beta_0}$. O valor de QME foi calculado no Exemplo 1.2.2. Já os valores de $\bar{x}²$ e $S _{xx}$ foram calculados no Exemplo 1.2.1.

Solução:

$$ \widehat{\hbox{Var}}(\hat{\beta_0}) = \hat{\sigma}^2 \left[ \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} \right] = QME \left[ \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} \right] =$$ $$= 2,2866 \left[ \frac{1}{20} + \frac{51756,25}{625} \right] = 189,4732.$$

$$ \widehat{\hbox{Var}}(\hat{\beta_1}) = \frac{\hat{\sigma}^2}{S _{xx}} = \frac{QME}{S _{xx}} = \frac{2,2866}{625} = 0,003658. $$

Utilizando o Software Action obtemos os seguintes resultados:

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 364.18 13.7649 26.4571 0
Temperatura -1.032 0.0605 -17.0615

Tabela 4.1.6: Estimativas para a variância dos estimadores $\widehat{\beta_0}$ e $\widehat{\beta_0}$ (Tabela dos Coeficientes)

1.4 Testes e Intervalos de Confiança para os Parâmetros

Na regressão linear é importante avaliarmos se existe uma boa “correlação” entre a resposta e a variável explicativa. Por exemplo, se o aumento em cinco graus na temperatura de uma peça na estufa acarretará em uma mudança significativa no valor de dureza da peça. Para respondermos a esta questão, utilizamos testes de hipóteses e intervalos de confiança para os parâmetros. Em todos estes casos, é feita a suposição de que os erros são independentes e identicamente distribuídos $N(0,\sigma^2)$. Dessa forma, as observações $Y_i$ têm distribuição $N(\beta_0+\beta_1x_i,\sigma^2)$.

1.4.1 Inferência para $\bf\beta_0$

Não é com frequência que fazemos inferências sobre $\beta_{0}$. Isso só ocorre quando a variável x pode assumir o valor $x=0$.

Suponha que desejamos testar a hipótese de que o intercepto é igual a um determinado valor, denotado por $\beta_{00}$. Desta forma, sejam as hipóteses

$$ \begin{cases} H_0 : \beta_0 = \beta_{00}, \cr H_1 : \beta_0 \neq \beta_{00}, \end{cases} $$

Como visto em “Propriedades dos Estimadores”,

$$\hat{\beta_0} \sim N \left( \beta_0 , \sigma^2 \left[ \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^{n} (x_i - \bar{x})^2} \right] \right)$$

Assim, sob $H_0$ temos que

$$N_0=\frac{\widehat{\beta_0} - \beta_{00}}{\sqrt{Var(\widehat{\beta_0})}} \sim N(0,1)$$

Além disso, seja

$$\chi =\dfrac{(n-2)QME}{\sigma^2}~~\sim \chi_{(n-2)}^2.$$

Como as variáveis aleatórias $N_0$ e $\chi$ são independentes, segue que

$$ T = \frac{N_0}{\sqrt{\frac{\chi}{n-2}}} = \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{\sigma^2 \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} = \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{\frac{(n-2)QME}{\frac{\sigma^2}{n-2}}}} =$$ $$ \frac{\hat{\beta_0} - \beta_{00}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} \sim t_{(n-2)}. $$

ou seja, $T$ tem distribuição t de Student com n-1 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_0$ podem ser feitos utilizando a distribuição t.

No modelo 1.1, queremos testar as hipóteses

$$ \begin{cases} H_0 : \beta_0 = 0 \cr H_1 : \beta_0 \neq 0, \end{cases} $$

Assim, a estatística do teste é dada por

$$ T_0 = \frac{\hat{\beta_0}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} \sim t_{(n-2)}. $$

no qual rejeitamos $H_0$ com um nível de confiança de $(1-\alpha)100\char37$ se $|T_0| > t_{(1-\alpha/2; n-2)}$. O p-valor associado ao teste é dado por

$$P-valor = 2*P(t_{(n-2)} > |T_0|)$$

Rejeitamos ${H}_0$ se o p-valor for menor do que o nível de significância $\alpha$ considerado. Geralmente adotamos $\alpha=0,05$.

Quando não rejeitamos ${H}_0$, podemos utilizar o Modelo de Regressão sem Intercepto.

O intervalo de confiança para $\beta_0$ com $(1-\alpha)100 \char37$ é dado por

$$ IC [\beta_0, (1-\alpha)] = \left[ \hat{\beta_0} - t_{\left(1 - \frac{\alpha}{2};n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} , \hat{\beta_0} + t_{\left(1 - \frac{\alpha}{2};n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} \right] $$

1.4.2 Inferência para $\bf\beta_1$

Inferência sobre $\beta_1$ é mais frequente já que por meio deste parâmetro temos um indicativo da existência ou não de associação linear entre as variáveis envolvidas.

Similarmente ao parâmetro $\beta_0$, consideremos as hipóteses

$$ \begin{cases} H_0 : \beta_1 = \beta_{10} \cr H_1 : \beta_1 \neq \beta_{10} \end{cases}. $$

no qual $\beta_{10}$ é uma constante. Em geral, consideramos $\beta_{10}=0$.

Pela seção 1.3 Propriedades dos Estimadores.

$$\widehat{\beta_1} \sim N \left(\beta_1,\frac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2}\right).$$

Assim, sob $H_0$ segue que

$$N_1 = \frac{\widehat{\beta_1} - \beta_{10}}{\sqrt{Var(\widehat{\beta_1})}} \sim N(0,1)$$

Novamente, considerando que

$$\chi =\dfrac{(n-2)QME}{\sigma^2} ~~\sim \chi_{(n-2)}^2$$

e que $N_1$ e $\chi$ são independentes, obtemos

$$T = \frac{N_1}{\sqrt{\frac{\chi}{n-2}}} = \frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{\sigma^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} = \frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{(n-2)QME}{\frac{\sigma^2}{n-2}}}} =$$ $$\frac{\hat{\beta_1} - \beta_{10}} {\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} \sim t_{(n-2)}.$$

ou seja, $T$ tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_1$ podem ser realizados utilizando a distribuição t.

No modelo em questão, queremos testar as seguintes hipóteses

$$ \begin{cases} H_0 : \beta_1 = 0 \cr H_1 : \beta_1 \neq 0 \end{cases} $$

Neste caso, a estatística do teste é $$ T_0 = \frac{\hat{\beta_1}} {\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} \sim t_{(n-2)}. $$

Assim, rejeitamos $H_0$ com um nível de confiança $(1 - \alpha)100\char37$ se $|T_0| > t_{(1 - \alpha/2, , n-2)}$.

O p-valor associado ao teste é dado por

$$P-valor=2*P\left( t_{(n-2)}> \mid T_0 \mid \right).$$

Rejeitamos $ {H}_0$ se o P-valor for menor do que $\alpha.$

O intervalo de confiança para $\beta_1$ com $(1-\alpha)100\char37$ é dado por

$$ IC[\beta_1,(1-\alpha)] = \left[ \hat{\beta_1} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}, \hat{\beta_1} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} \right] $$

Exemplo 1.4.1

Aplicar testes de hipóteses e construir intervalos de confiança para os parâmetros ($\beta_0, \ldots ,\beta_1$), usando os dados do exemplo na Motivação 1. Como visto no Exemplo 1.2.1, as estimativas dos parâmetros são $\widehat{\beta_0}=364,18$ e $\widehat{\beta_1}= -1,032$.

Solução:

Para $\beta_0$, queremos testar as hipóteses $$ \begin{cases} H_0 : \beta_0 = 0, \cr H_1 : \beta_0 \neq 0, \end{cases} $$

Dos Exemplos 1.2.2 e 1.3.1, temos que

$$QME = 2,2866~~~{ e }~~~\widehat{Var}(\widehat{\beta_0}) = 189,47.$$

Desta forma, a estatística do teste é dada por

$$ T_0 = \frac{\hat{\beta_0}} {\sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)}} = \frac{364,18}{\sqrt{189,4732}} = 26,46. $$

Para $\alpha = 0,05$ temos $t_{(1-0,05/2;18)}=2,101$.

Como $T_0=26,46> 2,101 = t_{(1-0,05/2;18)}$, e

$P-valor =2*P\left( t_{(n-2)}> \mid T_0 \mid\right)= 0,000,$ rejeitamos $ {H}_0.$

Para $\alpha= 0,05,$ obtemos que $t_{(1-0,05/2;18)}=2,101$.

O intervalo de confiança, IC (95%), para $\beta_1$ é dado por

$$ \left[ \hat{\beta_0} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} ; \hat{\beta_0} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{QME \left( \frac{1}{n} + \frac{\bar{x}^2}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2} \right)} \right] $$

$$ [364,18 - 2,101 \sqrt{189,4732} \ ; 364,18 + 2,101 \sqrt{189,4732}] $$

$$ [364,18 - 2,101 \times 13,7649 \ ; 364,18 + 2,101 \times 13,7649] $$

$$ [364,18 - 28,9190 \ ; 364,18 + 28,9190] $$

$$ [335,2609 \ ; 393,0990] $$

Para $\beta_1$, queremos testar as hipóteses

$$ \begin{cases} H_0 : \beta_1 = 0, \cr H_1 : \beta_1 \neq 0, \end{cases}. $$

Novamente, dos Exemplos 1.2.2 e 1.3.1, temos que

$$ QME = 2,2866 \quad \hbox{e} \quad \widehat{\hbox{Var}}(\hat{\beta_1}) = 0,003658 $$

A estatística do teste, sob (H_0), é dada por

$$ T_0 = \frac{\hat{\beta_1}}{\sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}}} = \frac{-1,032}{\sqrt{0,003658}} = \frac{-1,032}{0,0605} = -17,06. $$

Para $\alpha = 0,05$, obtemos que $t_{(1 - 0,05/2; 18)} = 2,101$.

Como $T_0 = 17,06 > 2,101 = t_{(1 - 0,05/2; 18)}$ e

$$ 2 \times P\left(t_{(n-2)} > |T_0|\right) = 0,000, $$

rejeitamos $H_0$.

O intervalo de confiança, $IC(95\char37)$, para $\beta_1$ é dado por

$$ \left[ \hat{\beta_1} - t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} ; \hat{\beta_1} + t_{\left(1 - \frac{\alpha}{2};, n-2\right)} \sqrt{\frac{QME}{\displaystyle \sum_{i=1}^n (x_i - \bar{x})^2}} \right] $$

$$ [-1,032 - 2,101 \times \sqrt{0,003658} \ ; -1,032 + 2,101 \times \sqrt{0,003658}] $$

$$ [-1,032 - 0,127 \ ; -1,032 + 0,127] $$

$$ [-1,159 \ ; -0,905] $$

Usando o Software Action temos os seguintes resultados:

2.5 % 97.5 %
Intercepto 335.261 393.099
Temperatura -1.1591 -0.9049

Tabela 4.1.7: Intervalo de confiança para os parâmetros

1.5 Análise de Variância

No caso de um modelo linear simples, no qual temos apenas uma variável explicativa, testar a significância do modelo corresponde ao seguinte teste de hipóteses

$$ \begin{cases} H_{0}:\beta_1=0\cr H_{1}:\beta_1 \neq 0. \end{cases}. $$

Na seção sobre os testes dos parâmetros do modelo, utilizamos a estatística t-student realizar este teste de hipóteses. Aqui, vamos introduzir de análise de variância (ANOVA) para testarmos a hipótese ${H}_0$. Além disso, mostraremos que os dois testes são iguais. Assumimos o “Modelo de Regressão Linear Simples” com a suposição de que os erros tem distribuição Normal.

A análise de variância é baseada na decomposição da soma de quadrados. Em outras palavras, o desvio de uma observação em relação à média pode ser decomposto como o desvio da observação em relação ao valor ajustado pela regressão mais o desvio do valor ajustado em relação à média, isto é, podemos escrever $(Y_i-\bar{Y})$ como

$$(Y_i-\bar{Y})=(Y_i-\bar{Y}+\widehat{Y}_i-\widehat{Y}_i)=(\widehat{Y}_i-\bar{Y})+(Y_i-\widehat{Y}_i), \tag{1.3.1}.$$

1.5.1 Soma de Quadrados

Elevando cada componente de (1.3.1) ao quadrado e somando para todo o conjunto de observações, obtemos

$$\sum_{i=1}^n(Y_i-\bar{Y})^{2} = \sum_{i=1}^n(\widehat{Y}_i - \bar{Y})^2 + \sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2},$$

em que

$$\sum_{i=1}^n(Y_i-\bar{Y})^{2}=SQT \qquad \hbox{(é a Soma de Quadrados Total)};$$

$$\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^2=SQR \qquad \hbox{(é a Soma de Quadrados da Regressão) e}$$

$$\sum_{i=1}^n(Y_i-\widehat{Y}_i)^2=SQE \qquad \hbox{(é a Soma de Quadrados dos Erros (dos Resíduos))}.$$

Desta forma, escrevemos

$$SQT=SQR+SQE,$$

em que decompomos a Soma de Quadrados Total em Soma de Quadrados da Regressão e Soma de Quadrados dos Erros.

Prova

$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^{2}=\sum_{i=1}^n(Y_i-\bar{Y}+\widehat{Y}_i-\widehat{Y}_i)^{2}=\sum_{i=1}^n((Y_i-\widehat{Y}_i)+(\widehat{Y}_i-\bar{Y}))^{2}$$

$$=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^{2}+\sum_{i=1}^n2(Y_i-\widehat{Y}_i)(\widehat{Y}_i-\bar{Y})+\sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2}.$$

Notemos que

$$\sum_{i=1}^n2(Y_i-\widehat{Y}_i)(\widehat{Y}_i-\bar{Y})=\sum_{i=1}^n2(Y_i\widehat{Y}_i-Y_i\bar{Y}-\widehat{Y}_i^2+\widehat{Y}_i\bar{Y}).$$

Como visto em 1.1.2 Algumas propriedades do ajuste de mínimos quadrados,

$$\sum_{i=1}^n e_i=\sum_{i=1}^n(Y_i-\widehat{Y}_i)=0\Rightarrow\sum_{i=1}^n Y_i=\sum_{i=1}^n \widehat{Y}_i$$

e

$$\sum_{i=1}^n(\widehat{Y}_ie_i)=\sum_{i=1}^n\widehat{Y}_i(Y_i-\widehat{Y}_i)=0\Rightarrow\sum_{i=1}^n(\widehat{Y}_iY_i)=\sum_{i=1}^n(\widehat{Y}_i^2).$$

Desta forma,

$$\sum_{i=1}^n2(Y_i\widehat{Y}_i-Y_i\bar{Y}-\widehat{Y}_i^2+\widehat{Y}_i\bar{Y})=2(\sum_{i=1}^n\widehat{Y}_i^2-\bar{Y}\sum_{i=1}^nY_i-\sum_{i=1}^n\widehat{Y}_i^2+\bar{Y}\sum_{i=1}^n\widehat{Y}_i)=$$

$$=2(-\bar{Y}\sum_{i=1}^nY_i+\bar{Y}\sum_{i=1}^n\widehat{Y}_i)=2(-\bar{Y}\sum_{i=1}^nY_i+\bar{Y}\sum_{i=1}^nY_i)=0.$$

e portanto,

$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^{2}=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^{2}+\sum_{i=1}^n(Y_i-\widehat{Y}_i)^{2}=SQR+SQE$$

Conforme demonstramos na seção propriedade dos estimadores, ao tomarmos os pares $\lbrace(x_i,y_i):i=1,\cdots ,n\rbrace$, temos que $SQT=S_{yy}$ e $SQE=S_{yy}-\hat{\beta_1}S_{xy}$. Portanto, concluímos que $SQR=\hat{\beta_1}S_{xy}$.

1.5.2 Partição dos Graus de Liberdade

Assim como temos a decomposição da soma de quadrados total, vamos derivar uma decomposição para os graus de liberdade. ë importante ressaltarmos que os graus de liberdade são definidos como a constante que multiplica $\sigma^2$ para definir o valor esperado da soma de quadrados. Conforme demonstrado na seção propriedade dos estimadores, temos que $\mathbb{E} [SQE]=(n-2)\sigma^2$. Assim, os graus de liberdade relacionado com a $SQE$ é dado por $n-2$.

Agora, sob ${H}_0: \beta_1=0$, temos que $Y_1, \cdots , Y_n$ é uma amostra aleatória simples de uma população com média $\beta_0$ e variância $\sigma^2$. Conforme demonstrado no módulo de inferência sobre propriedades gerais dos estimadores, temos que $\mathbb{E} [SQT]=(n-1)\sigma^2$. Então, como a soma de quadrados total foi decomposta na soma de quadrados dos erros mais a soma de quadrados da regressão, concluímos que sob ${H}_0$, $$\mathbb{E}[SQR]=\mathbb{E}[SQT]-\mathbb{E}[SQE]=(n-1)\sigma^2+(n-2)\sigma^2=\sigma^2.$$ Com isso, concluímos que a $SQR$ tem um grau de liberdade. Assim, sob ${H}_0$, obtemos a seguinte decomposição dos graus de liberdade:

(1) $SQT$ tem $n-1$ graus de liberdade;

(2) $SQR$ tem $1$ grau de liberdade;

(3) $SQE$ tem $n-2$ graus de liberdade.

De forma geral, não necessariamente sob ${H}_0$, também podemos calcular facilmente o valor esperado da soma de quadrado total. Para isto, temos que

$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^2=\sum_{i=1}^nY_{i}^2-n(\bar{Y})^2$$

A partir da definição de variância de uma variável aleatória, concluímos que

$$\mathbb{E}(Y_{i}^2) = Var(Y_{i}) + (\mathbb{E}(Y_{i}))^2 = \sigma ^2 + (\beta_0 + \beta_1 x_{i})^2$$

Da mesma forma, temos que $$\mathbb{E}(\bar{Y^2}) = Var(\bar{Y}) + (\mathbb{E}(\bar{Y}))^2 = \frac{\sigma^2}{n} + (\beta_0 + \beta_1\bar{x})^2$$

Portanto, obtemos que $$\mathbb{E}(SQT) = (n-1)\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2$$

Observe que sob ${H}_0$, obtemos que $\mathbb{E}[SQT]=(n-1)\sigma^2$. Por outro lado, o valor esperado do quadrado médio da regressão é dado por

$$\mathbb{E}(SQR) = (n-1)\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2-(n-2)\sigma^2 =$$

$$\sigma^2 + \sum_{i=1}^{n}(\beta_0 + \beta_1 x_{i})^2 - n (\beta_0 + \beta_1 \bar{x})^2 =$$

$$ \sigma^2 + \beta_1^2 S _{xx}$$

1.5.3 Quadrado Médio

A ideia básica do quadrado médio está em tornarmos as somas de quadrados comparáveis. Sabemos que, sob ${H}_0$, os graus de liberdade são constantes que vem muliplicando o $\sigma^2$ no cálculo do valor esperado da soma de quadrados. A partir da partição dos graus de liberdade obtidos na seção anterior, estimadores de momentos para $\sigma^2$ são dados pela divisão da soma de quadrados pelo seu respectivo grau de liberdade. Com isso, chegamos a definição dos quadrados médios:

$$QMR=\dfrac{SQR}{1}=SQR=\sum_{i=1}^n(\widehat{Y}_i-\bar{Y})^2 \qquad \hbox{(é o Quadrado Médio da Regressão) e}$$

$$QME=\dfrac{SQE}{n-2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\widehat{Y}_i)^2}{n-2} \qquad \hbox{(é o Quadrado Médio dos Erros (dos Resíduos))}$$

Sob $H_0$, tanto o quadrado médio dos erros (QME) quanto o quadrado médio da regressão (QMR) são estimadores de momento para $\sigma^2$. Portanto, eles são comparáveis. A seguir, apresentamos algumas formas simplificados para o cálculo das somas de quadrados. Como visto em 1.3 Propriedades dos Estimadores,

$$SQE=\sum_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i=S_{YY}-\widehat{\beta_1}S_{xY}$$

Além disso,

$$SQT=\sum_{i=1}^n(Y_i-\bar{Y})^2=S_{YY}$$

Desta forma,

$$SQR=SQT-SQE=\sum_{i=1}^n(Y_i-\bar{Y})^2-\left(\sum_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta}_ 1\sum_{i=1}^n(x_i-\bar{x})Y_i\right)=\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i=\widehat{\beta_1}S_{xY}$$

e portanto,

$$QMR=\widehat{\beta_1}\sum_{i=1}^n(x_i-\bar{x})Y_i~~{e}$$

$$QME=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2-\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{n-2}$$

1.5.4 Teste F

Considerando o Modelo de Regressão Linear Simples, a siginificância do modelo linear pode ser avaliada através do seguinte teste de hipóteses

$$ \begin{cases} H_{0}:\beta_1=0\cr H_{1}:\beta_1 \neq 0 \end{cases}. $$

Se não rejeitamos $H_0$, concluímos que não existe relação linear significativa entre as variáveis explicativa ($x$) e dependente ($Y$). A estratégia para testarmos a hipótese $H_0$ consiste em compararmos o quadrado médio da regressão com o quadrado médio dos erros, pois sob $H_0$, ambos quadrados médios são estimadores de momentos para o parâmetro $\sigma^2$. Para isto precisamos do teorema de Cochran.

Teorema de Cochran

Sejam $Z_1, Z_2,…,Z_n$ variáveis aleatórias independentes com distribuição $N(0,1)$. Conforme a demonstração na seção sobre a distribuição Qui Quadrado, sabemos que $\sum_{(i=1)}^p Z_{i}^{2}$ e possui distribuição $\chi_{(p)}^{2}$.

Se tivermos

$$\sum_{i=1}^{p}Z_{i}^{2}=Q_1 + Q_2 + … + Q_q$$

em que $Q_i~,~i = 1, 2,…,q~~(q \leq p)$ são somas de quadrados, cada um com $p_i$ graus de liberdade, tal que

$$p=\sum^{q}_{i=1}p_i$$

então obtemos que $Q_i\sim \sigma^2\chi^{2}_{(p_i)}$ e são independentes para qualquer $i=1, 2,…, q$.

Sob ${H}_0,$ temos que $Y_1,\cdots ,Y_n$ é uma amostra aleatória simples da $N(\beta_0,\sigma^2)$. Com isso, obtemos da seção que aborda as propriedades dos estimadores da média e variância de uma população normal, que

$$\chi_T=\dfrac{SQT}{\sigma^2}\sim\chi_{(n-1)}^2$$

Assim, através do teorema de Cochran, concluímos que

$$\chi_E=\dfrac{SQE}{\sigma^2}\sim\chi_{(n-2)}^2, { e}$$

$$\chi_R=\dfrac{SQR}{\sigma^2}\sim\chi_{(1)}^2$$

tem distribuição qui-quadrado com $n-2$ e $1$ graus de liberdade, respectivamente. Além disso, temos que $\chi_E$ e $\chi_R$ são independentes. Desta forma, propomos a estatística do teste

$$F_0=\dfrac{\dfrac{\chi_R}{1}}{\dfrac{\chi_E}{n-2}}=\dfrac{\dfrac{SQR}{\sigma^2}}{\dfrac{SQE}{(n-2)\sigma^2}} = \dfrac{QMR}{QME}$$

Como $F_0$ é a divisão de duas variáveis qui-quadrado, cada uma dividida pelos seus graus de liberdade e são independentes, segue que $F_0$ tem distribuição F com $1$ grau de liberdade no numerador e $n-2$ graus de liberdade no denominador, denotada por $F_{(1,n-2)}$. Através da partição dos graus de liberdade obtido na seçao 1.5.2, obtemos que

$$\mathbb{E}[QME]=\sigma^2 \quad {e} \quad \mathbb{E}[QMR]=\sigma^2+\beta^2_1S _{xx}$$

Estes valores esperados nos sugerem que que valores grandes de $F_0$ nos indiam que $\beta_1$ deve ser diferente de zero, ou seja, devemos rejeitar $H_0$. Logo, rejeitamos $H_0$ com um nível de significância $\alpha$ se $F_0 > F_{(1-\alpha,1,n-2)}$, no qual $F_{(1-\alpha,1,n-2)}$ representa o quantil $(1-\alpha)$ da distribuição $F(1,n-1)$. Outra maneira é analisar o p_valor. Neste caso, rejeitamos $H_0$ se $\hbox{p-valor}=P[F_{(1;n-2)} > F_0]<\alpha$, no qual $\alpha$ é o nível de significância estabelecido para o teste.

Na Tabela 4.1.8 a seguir apresentamos a tabela ANOVA com a Estatística do Teste F.

Fonte GL Soma de Quadrados Quadrado Médio $F_0$
Regressão 1 $SQR=\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i$ $QMR=SQR$ $F_0=\dfrac{QMR}{QME}$
Resíduo $n−2$ $SQE=\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2 - \widehat{\beta_1} \displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i$ $QME=\displaystyle{\dfrac{SQE}{(n-2)}}$
Total $n−1$ $SQT=\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2$

Tabela 4.1.8: Análise de significância usando ANOVA

Exemplo 1.5.1

Construir a tabela da ANOVA para o exemplo dado na Motivação 1.

Solução:

$$SQT=S_{yy}=706,80$$

$$SQE= S_{yy}-\widehat{\beta_1} S_{xy}=41,16 \quad e$$

$$SQR= SQT - SQE = 706,80 - 41,16 = 665,64$$ Assim,

$$F_0=\dfrac{QMR}{QME}=\dfrac{\dfrac{665,64}{1}}{\dfrac{41,16}{18}}=\dfrac{665,64}{2,29}=291,10.$$

A tabela da ANOVA é então, dada por

Fonte GL Soma de Quadrados Quadrado Médio $F_{0}$
Regressão 1 665,64 $\dfrac{665,64}{1}=665,64$ $\dfrac{665,64}{2,29}=291,10$
Resíduo 18 41,16 $\dfrac{41,16}{18}=2,29$
Total 19 706,80

Tabela 4.1.9: Análise de significância usando ANOVA

Para $\alpha=0,05$, obtemos que $F_{(0,95;1;18)}=4,4138.$

Logo,

$$F_0=291,1> 4,4138=F_{(0,95;1;18)}$$

Além disso,

$${P_valor}=P[F_{1;18}> F_0]=0,000< 0,05=\alpha.$$

Portanto, rejeitamos ${H}_0$ com um nível de confiança de 95% e concluímos que a variável explicativa tem correlação com a variável resposta.

Interpretação do P-valor

Quando o p-valor é aproximadamente zero significa que, se a hipótese nula $(\hbox{H}_0)$ for verdadeira, a chance de $F$ exceder o valor observado $(\hbox{F}_0)$ é praticamente nula. Esta é uma evidência muito forte, contra $\hbox{H}_0.$ Um p-valor pequeno fornece evidências contra $\hbox{H}_0.$ Por exemplo, se fixarmos um nível de significância ($\alpha$), então poderemos dizer que uma hipótese nula é rejeitada a este nível, quando o p-valor é menor do que esse $\alpha$.

1.6 Coeficiente de Determinação

Uma das formas de avaliar a qualidade do ajuste do modelo é através do coeficiente de determinação. Basicamente, este coeficiente indica quanto o modelo foi capaz de explicar os dados coletados. O coeficiente de determinação é dado pela expressão

$$R^2=\dfrac{SQR}{SQT}=1-\dfrac{SQE}{SQT}=\dfrac{\widehat\beta_1\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2},$$

ou seja, é a razão entre a soma de quadrados da regressão e a soma de quadrados total. No modelo com intercepto, podemos escrever

$$ R^2=\dfrac{\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}=\dfrac{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}=\dfrac{\left(\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})Y_i\right)^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2\displaystyle\sum\limits_{i=1}^n(Y_i-\bar{Y})^2}. $$

Notemos que

$$0 \leq R^2 \leq 1$$

O $R^2$ é, portanto, uma medida descritiva da qualidade do ajuste obtido. Em geral referimo-nos ao $R^2$ como a quantidade de variabilidade nos dados que é explicada pelo modelo de regressão ajustado. Entretanto, o valor do coeficiente de determinação depende do número de observações $(n)$, tendendo a crescer quando $n$ diminui. Se $n = 2$, tem-se sempre $R^2 = 1.$

O $R^2$ deve ser usado com precaução, pois é sempre possível torná-lo maior pela adição de um número suficiente de termos ao modelo. Assim, se, por exemplo, não há dados repetidos (mais do que um valor $y$ para um mesmo $x$) um polinômio de grau $(n - 1)$ dará um ajuste perfeito $(R^2 = 1)$ para $n$ dados. Quando há valores repetidos, o $R^2$ não será nunca igual a 1, pois o modelo não poderá explicar a variabilidade devido ao erro puro.

Embora $R^2$ aumente com a adição de termos ao modelo, isto não significa necessariamente que o novo modelo é superior ao anterior. A menos que a soma de quadrados residual do novo modelo seja reduzida por uma quantidade igual ao quadrado médio residual original, o novo modelo terá um quadrado médio residual maior do que o original, devido a perda de 1 grau de liberdade. Na realidade esse novo modelo poderá ser pior do que o anterior.

A magnitude de $R^2$, também, depende da amplitude de variação da variável regressora ($x$). Geralmente, $R^2$ aumentará com maior amplitude de variação dos $x$’s e diminuirá em caso contrário. Pode-se mostrar que

$$E[R^2]\cong \dfrac{\widehat{\beta}^2_1 \displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}{\widehat{\beta_1}^2\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2+\sigma^2}.$$

Assim, um valor grande de $R^2$ poderá ser grande simplesmente porque $x$ variou em uma amplitude muito grande. Por outro lado $R^2$ poderá ser pequeno porque a amplitude dos $x$’s foi muito pequena para permitir que uma relação com $y$ fosse detectada. Em geral, também, $R^2$ não mede a magnitude da inclinação da reta. Um valor grande de $R^2$ não significa uma reta mais inclinada. Além do mais, ele não leva em consideração a falta de ajuste do modelo; ele poderá ser grande, mesmo que $y$ e $x$ estejam não linearmente relacionados. Dessa forma, vê-se que $R^2$ não deve ser considerado sozinho, mas sempre aliado a outros diagnósticos do modelo.

Exemplo 1.6.1

Vamos calcular o coeficiente de determinação $R^2$ com os dados do exemplo na Motivação 1.

Solução:

$$R^2=\dfrac{(S_{xy})^2}{S _{xx}S_{yy}}=\dfrac{(-645)^2}{625*706,8}=\dfrac{416025}{441750}=0,9417.$$

1.6.1 Coeficiente de Determinação Ajustado

Para evitar dificuldades na interpretação de $R^2$, alguns estatísticos preferem usar o $R_a^2$ ($R^2$ ajustado), definido para uma equação com 2 coeficientes como

$$R^2_a=1-\left(\frac{n-1}{n-2}\right)(1-R^2).$$

Assim como o Coeficiente de Determinação $R^2$, quanto maior $R_a^2$, mais a variável resposta é explicada pela regressora $X$.

Exemplo 1.6.1.1

Vamos calcular agora o coeficiente de determinação $R^2_a$ com os dados do exemplo na Motivação 1.

Solução:

$$R_a^2=1-\left(\dfrac{19}{18}\right)(1-0,9417)=0,93846.$$

Usando o software Action temos os seguintes resultados:

Desvio Padrão dos Resíduos Graus de Liberdade $R^2$ $R^2$ Ajustado
1.5122 18 0.9418 0.9385

Tabela 4.1.10: Medida Descritiva da Qualidade do Ajuste

1.7 Intervalo de Confiança para Resposta Média e Predição

1.7.1 Intervalo de confiança para a resposta média

A estimativa de um intervalo de confiança para $E\left(Y \mid X=x_0 \right)=\mu _{Y \mid x_0}= \beta_0+\beta_1 x_0$ é de grande interesse.

Um estimador pontual de $\mu _{Y \mid x_0}$ pode ser obtido a partir do modelo ajustado, isto é,

$$\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0=\widehat{Y}(x_0).$$

Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuída já que é uma combinação linear das observações $Y_i$. Além disso, temos que

$$ E(\widehat{\mu} _{Y \mid x_0}) = \beta_0+\beta_1 x_0 = \mu _{Y \mid x_0} \ \hbox{ , e}$$

$$ \hbox{Var}(\widehat{\mu} _{Y\mid x_0}) = \hbox{Var}[\bar{Y}+\widehat{\beta_1}(x_0-\bar{x})]= \hbox{Var}[\bar{Y}] + \hbox{Var}[\widehat{\beta} _1 (x_0-\bar{x})]=\dfrac{\sigma^2}{n}+(x_0-\bar{x})^2 \dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n (x_i-\bar{x})^2}$$

$$=\sigma^2\left[\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right]$$

ou seja, $\widehat{\mu} _{Y \mid x_0}$ é um estimador não viciado para $E\left( Y \mid X=x_0 \right).$

Assim, temos que

$$\dfrac{\widehat{Y}(x_0)-\mu _{Y \mid x_0}}{\sqrt{\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}\sim N(0,1)$$

Temos também que

$$\dfrac{(n-2)QME}{\sigma^2}\sim \chi_{(n-2)}^2$$

Logo,

$$t=\dfrac{N(0,1)}{\sqrt{\dfrac{\chi_{(n-2)}^2}{(n-2)}}}=\dfrac{\dfrac{\widehat{Y}(x_0)-\mu _{Y \mid x_0}}{\sqrt{\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}}{\sqrt{\dfrac{\dfrac{(n-2)QME}{\sigma^2}}{(n-2)}}}=\dfrac{\left[\widehat{Y}(x_0)-\mu _{Y \mid x_0}\right]}{{\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}}}~~\sim t_{(n-2)}$$

Portanto, o intervalo de confiança para $\mu _{Y \mid x_0}=E[Y \mid X=x_0]$ é dado por

$$IC [\mu _{Y \mid x_0} , 1 - \alpha] = \left[\widehat{Y}(x_0)-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right.~;$$

$$\left.\widehat{Y}(x_0)+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$

em que $\widehat{Y}(x_0)$ é a resposta média estimada para o nível $x=x_0.$

Considerando vários valores para $x_0$ dentro do intervalo de realização dos dados, encontraremos vários valores para $\widehat{Y}(x_0).$ Com isso, ao calcularmos o intervalo de confiança para cada um dos $\widehat{Y}(x_0)$, temos um conjunto de intervalos de confiança que representam as bandas de confiança para a reta de regressão.

Exemplo 1.7.1

Calcular o intervalo de confiança para a reta de regressão usando, novamente, os dados do exemplo na Motivação 1.

Solução:

Adotemos $x_0=220,$ ou seja, um valor pertencente à amostra. Neste caso,

$$ \hbox{Limite Inferior:}\left[ \widehat{\beta_0}+\widehat{\beta_1} x_0 - t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$

$$\left[364,18(-1,032*220)-t_{\left(0,975;18\right)}*\sqrt{2,29\left(\dfrac{1}{20}+\dfrac{(220-227,5)^2}{625}\right)}\right]$$

$$\left[364,18 (-227,04)-2,101*\sqrt{2,29(0,14)}\right]$$

$$\left[137,14-2,101*0,5658 \right]$$

$$\left[137,14-1,1887\right]$$

$$\left[135,9513\right]$$

$$\hbox{Limite Superior:}\left[\widehat{\beta_0}+\widehat{\beta_1} x_0+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$

$$\left[364,18(-1,032*220)+t_{(0,975;18)}*\sqrt{2,29\left(\dfrac{1}{20}+\dfrac{(220-227,5)^2}{625}\right)}\right]$$

$$\left[364,18(-227,04)+2,101*\sqrt{2,29(0,14)}\right]$$

$$\left[137,14+2,101*0,5658\right]$$

$$\left[137,14+1,1887\right]$$

$$\left[138,3287\right]$$

Portanto o intervalo de confiança para a resposta média é

$$IC [\mu _{Y \mid x_0} , 95\char37] = [135,9513; 138,3287]$$

1.7.2 Intervalo de predição

Um modelo de regressão pode ser usado para prever a variável resposta, correspondente a valores da variável explicativa não considerada no experimento. Chamamos de predição a obtenção de um valor de $Y$ para um $x$ que não pertence aos dados, porém pertence ao intervalo de variação estudado. Em situações em que o valor de $x$ não pertence ao intervalo estudado, denominamos de extrapolação.

Seja $x_h$ um dado valor da variável explicativa $x$ que não pertence a amostra. Então,

$$\widehat{Y_h} = \widehat{\beta_0} + \widehat{\beta_1} x_h,$$

é um estimador não viciado para $Y_h = E [Y \mid x_h]=\beta_0+\beta_1 x_h,$ pois $E(Y_h-\widehat{Y_h})=0$.

Chamamos de erro na previsão a diferença $(Y_h-\widehat{Y_h}),$ cuja variância é dada por

$$ Var (Y_h - \widehat{Y_h}) = Var(Y_h) + Var( \widehat{Y_h} ) - 2 Cov (Y_h , \widehat{Y_h}) = $$

$$ \sigma^2 + \sigma^2\left(\dfrac{1}{n} + \dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2} \right) = \sigma^2\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)$$

De maneira semelhante à realizada em Intervalo de confiança para a resposta média, podemos demonstrar que

$$T = \dfrac{Y_h - \widehat{Y_h}}{\sqrt{QME \left( 1 + \dfrac{1}{n} + \dfrac{(x_h - \overline{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i-\bar{x})^2} \right)}} \sim t_{(n-2)}.$$

Assim, o intervalo de predição para $Y_h$ é,

$$ IP[Y_h, 1-\alpha] = \left[\widehat{Y_h}-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \right.~;$$ $$\left. \widehat{Y_h}+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \right].$$

Exemplo 1.7.2

Calcular o intervalo de confiança para uma nova observação aplicando o mesmo exemplo da Motivação 1.

Solução:

Utilizemos $x_h=217,5,$ isto é, um valor que não pertence à amostra mas que pertence ao intervalo de variação estudado.

Temos do Exemplo 1.2.1 que $\widehat{\beta_0}=364,18$ e $\widehat{\beta_1}=-1,032.$ Assim,

$$\widehat{Y}(x_h) = 364,18-1,032*217,5 = 139,72.$$

Logo, o intervalo de predição é

$$\left[\widehat{Y_h}-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)} \ ; \ \widehat{Y_h}+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(1+\dfrac{1}{n}+\dfrac{(x_h-\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\bar{x})^2}\right)}\right]$$

$$\left[139,72-t_{(0,975;18)}\sqrt{2,29*\left(1+\dfrac{1}{20}+\dfrac{(217,5-227,5)^2}{625}\right)} \ ; \ 139,72 + t_{(0,975;18)}\sqrt{2,29*\left(1+\dfrac{1}{20}+\dfrac{(217,5-227,5)^2}{625}\right)}\right]$$

$$\left[139,72-2,101*\sqrt{2,29*(1+0,05+0,16)} \ ; \ 139,72+2,101*\sqrt{2,29*(1+0,05+0,16)}\right]$$

$$ [139,72-2,101*\sqrt{2,7668} \ ; \ 139,72+2,101*\sqrt{2,7668}] $$

$$\left[139,72-3,4946 \ ; \ 139,72+3,4946\right]$$

Assim,

$$IP[Y_h, 95\char37] = \left[136,2253 \ ; \ 143,2147\right]$$

Usando o software Action temos os seguintes resultados:

  • Intervalo de 95% de confiança de Predição:
Dureza Temperatura Valor Ajustado Limite Inferior Limite Superior Desvio Padrão
1 137 220 137.14 135.9513 138.3287 0.5658
2 137 220 137.14 135.9513 138.3287 0.5658
3 137 220 137.14 135.9513 138.3287 0.5658
4 136 220 137.14 135.9513 138.3287 0.5658
5 135 220 137.14 135.9513 138.3287 0.5658
6 135 225 131.98 131.2018 132.7582 0.3704
7 133 225 131.98 131.2018 132.7582 0.3704
8 132 225 131.98 131.2018 132.7582 0.3704
9 133 225 131.98 131.2018 132.7582 0.3704
10 133 225 131.98 131.2018 132.7582 0.3704
11 128 230 126.82 126.0418 127.5982 0.3704
12 124 230 126.82 126.0418 127.5982 0.3704
13 126 230 126.82 126.0418 127.5982 0.3704
14 129 230 126.82 126.0418 127.5982 0.3704
15 126 230 126.82 126.0418 127.5982 0.3704
16 122 235 121.66 120.4713 122.8487 0.5658
17 122 235 121.66 120.4713 122.8487 0.5658
18 122 235 121.66 120.4713 122.8487 0.5658
19 119 235 121.66 120.4713 122.8487 0.5658
20 122 235 121.66 120.4713 122.8487 0.5658

Tabela 4.1.11: Resultado de Intervalo de Predição

1.8 Modelo de Regressão sem Intercepto

Suponha que dispomos de $n$ pares de observações $(x_i, y_i),$ $i=1,\ldots,n.$ O modelo de regressão linear simples, sem intercepto, é definido por

$$Y_i =\beta_1 x_i + \varepsilon_i, \quad i=1,\ldots, n.$$

Neste caso, a função de mínimos quadrados é

$$L=\sum_{i=1}^n\varepsilon^2_i=\sum_{i=1}^n(Y_i-\beta_1x_i)^2$$

que derivando em relação a $\beta_1$ resulta em

$$\dfrac{\partial L(\beta_1)}{\partial \beta_1}=2\sum_{i=1}^n(Y_i-\beta_1 x_i)(-x_i)$$

Substituindo $\beta_1$ por $\widehat\beta_1$ e igualando a zero, obtemos

$$\sum_{i=1}^n(Y_i -\widehat{\beta_1}x_i)(x_i)=\sum_{i=1}^n x_iY_i -\widehat{\beta_1}\sum_{i=1}^n x_i^2=0$$

que resolvendo em relação a $\widehat{\beta_1}$ resulta em

$$\widehat{\beta_1} = \dfrac{\sum\limits_{i=1}^n x_i Y_i}{\sum\limits_{i=1}^n x_i^2}$$

Podemos mostrar que

$$E(\widehat{\beta_1})=\beta_1 $$ e que $$ Var(\widehat{\beta_1})=\dfrac{\sigma^2}{\sum\limits_{i=1}^n x_i^2} $$

Sendo $\varepsilon_i \sim N(0, \sigma^2),$ temos que

i) $\dfrac{\widehat{\beta_1} - \beta_1}{\sqrt{\dfrac{\sigma^2}{\sum\limits_{i=1}^n x_i^2}}} \sim N(0, 1);$

ii) Um estimador não viciado para $\sigma^2$ é dado por

$$\widehat{\sigma}^2 = \frac{SQE}{n - 1};$$

iii) $\dfrac{(n-1)\widehat{\sigma}^2}{\sigma^2} \sim \chi_{(n-1)}^2;$

iv) $T = \dfrac{\widehat{\beta_1} - \beta_1}{\sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}} \sim t_{(n-1)}.$

Um intervalo de $100(1-\alpha)\char37$ de confiança para $\beta_1$ é dado por

$$IC[\beta_1, 1-\alpha] = \left[\widehat{\beta}_1 - t_{\left(\frac{\alpha}{2}, n - 1\right)} \sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}~~;~~\widehat{\beta}_1 + t_{\left(\frac{\alpha}{2}, n - 1\right)}\sqrt{\dfrac{\widehat{\sigma}^2}{\sum\limits_{i=1}^n x_i^2}}\right]$$

Um intervalo de $100(1-\alpha)\char37$ de confiança para a resposta média em $X=x_0$ é dado por

$$IC[\mu _{Y\mid x_0}, 1-\alpha] = \left[ \widehat{\mu} _{Y\mid x_0} - t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\dfrac{\widehat{\sigma}^2 x_0^2}{\sum\limits_{i=1}^n x_i^2}} \ ; \ \widehat{\mu} _{Y\mid x_0} + t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\dfrac{\widehat{\sigma}^2 x_0^2}{\sum\limits_{i=1}^n x_i^2}} \right] ,$$

em que $\widehat{\mu}_{Y\mid x_0} = \widehat{\beta_1}x_0.$

Um intervalo de $100(1-\alpha)\char37$ de confiança para a predição de $Y_h$ dado $X=x_h$ é

$$IC[Y_h, 1-\alpha] = \left[\widehat{Y} _{h}-t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\widehat{\sigma}^2+\dfrac{\widehat{\sigma}^2 x_0}{\sum\limits_{i=1}^n x_i^2}} \ ; \ \widehat{Y} _{h}+t_{\left(\frac{\alpha}{2},n-1\right)}\sqrt{\widehat{\sigma}^2+\dfrac{\widehat{\sigma}^2 x_0}{\sum\limits_{i=1}^n x_i^2}}\right],$$

em que $\widehat{Y}_{h} = \widehat{\beta_1} x_h.$

Exemplo 1.8.1

Voltando à Motivação 1, em que queríamos determinar os valores de temperatura em $^{\circ}\mathrm{C}$ que otimizam a dureza do material, calculemos a estimativa de $\beta_1$ considerando o modelo sem intercepto.

Temos que a estimativa de $\beta_1$ do modelo sem intercepto é

$$\widehat{\beta_1} = \dfrac{\sum\limits_{i=1}^n x_i Y_i}{\sum\limits_{i=1}^n x_i^2}=\dfrac{588125}{1035750}=0,567$$

Usando o Software Action temos os seguintes resultados:

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Temperatura 1 333952.2236 333952.2236 3864.7726 0
Resíduos 19 1641.7764 86.4093

Tabela 4.1.12: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-14.4389 -10.2292 1.3198 0.2198 9.3687 12.0784

Tabela 4.1.13: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Temperatura 0.5678 0.0091 62.1673

Tabela 4.1.14: Coeficientes

Desvio Padrão dos Resíduos Graus de Liberdade $R^2$ $R^2$ Ajustado
9.2957 19 0.9961 0.9949

Tabela 4.1.15: Medida Descritiva da Qualidade do Ajuste

1.9 Análise de Resíduos na Regressão Linear Simples

A Análise de Resíduos consiste em um conjunto de técnicas para investigar a adequabilidade do modelo com base nos resíduos

$$e_i=\widehat{\epsilon_i}=Y_i-\widehat{Y}_i.$$

A ideia básica é que se o modelo linear simples é apropriado, os resíduos devem refletir as suposições descritas na Seção 1.1, tais como independência, variância constante para diferentes níveis de X e distribuição Normal.

Na Seção 3 estão as principais técnicas utilizadas na verificação das suposições dos resíduos, que devem ser analisadas para que o modelo ajustado realmente faça sentido.

1.10 - Curva de Calibração

A calibração é um processo de comparação, por exemplo na metrologia, a comparação de um equipamento que desejamos calibrar com um padrão, que pode ser um outro equipamento (padrão) ou algum material padrão. Na área química a comparação pode ser feita usando medições obtidas de um material chamado de Material de Referência Certificado (MRC), como exemplo podemos citar os materiais certificados internacionais (ISO GUIDE). Consideramos que cada quantidade do material de referência utilizado é a mesma, pelo menos no que diz respeito às propriedades do analito.

A curva de calibração é uma relação funcional do sinal observado (y) dada uma certa quantidade de analito. Em geral, utilizamos a regressão linear simples (para mais detalhes consulte o conteúdo regressão linear simples) para estimarmos a incerteza devido a curva de calibração (para mais detalhes sobre o que é incerteza consulte o conteúdo 18. Incerteza de medição).

Segundo o documento orientativo do INMETRO de validação de métodos (DOQ-CGCRE-008), o método é mais sensível quando pequenas variações de concentração resultam em maior variação na resposta (coeficiente angular $\beta_1$). Em geral, são necessários vários níveis de concentração (no mínimo cinco) para construir a curva de calibração e o número de replicatas em cada nível de concentração deve ser o mais próximo possível daquele empregado na rotina do laboratório. Todo experimento de determinação da faixa de trabalho é iniciado pela escolha de uma faixa preliminar, no qual a faixa de trabalho deve cobrir a faixa de aplicação para o qual o ensaio vai ser usado. A orientação segundo DOQ-CGCRE-008 é que a concentração mais esperada da amostra deve, sempre que possível, se situar no centro da faixa de trabalho. No limite inferior da faixa de concentração, o fator limitante é o valor do limite de quantificação, já no limite superior, os fatores limitantes dependem do sistema de resposta do equipamento de medição.

A maioria das aplicações da curva de calibração é que na prática, temos interesse em predizer o valor de (X) dado uma observação(Y), para ilustrarmos o problema observe a seguinte aplicação.

Motivação 2

Considere a curva de calibração de um composto químico realizado por um equipamento chamado Espectrômetro de emissão ótica (ICP). A seguir apresentamos o conjunto de dados:

Concentração Área
0,05 0,00000405
0,05 0,00000312
0,05 0,00000211
0,1 0,0000286
0,1 0,0000238
0,1 0,0000308
0,5 0,0001913
0,5 0,0001936
0,5 0,0002006
1 0,0004883
1 0,0004761
1 0,0004851
2 0,0009072
2 0,0009246
2 0,0009008

Tabela 4.1.16: Conjunto de dados da Motivação 2

Notamos através desta aplicação, que na prática temos interesse em predizer o valor de concentração (X) dado uma observação em área (Y). Neste caso, estamos tratando um problema de regressão inversa, em que predizemos de forma inversa. A principal diferença do modelo de regressão linear clássico é na predição da concentração $x_0$ e no cálculo da variância $(Var[x_0])$. Além disto, temos normas específicas para tratarmos as curvas de calibração.

O Ministério da Agricultura, Pecuária e Abastecimento (MAPA) publicou no Diário Oficial da União em 22/07/2009 a instrução normativa para tratarmos as curvas de calibração. No anexo II seção 7.1 apresenta os procedimentos mínimos requeridos como evidência objetiva da validação do método analítico, são elas:

7.1.1.1. A curva de calibração/resposta deve ser obtida a partir de 5 níveis de concentração, equidistante distribuídos (0,0 - 0,5 - 1,0 - 1,5 - 2,0 vezes o limite máximo de resíduo [LMR] / limite mínimo de desempenho requerido [LMDR]).

7.1.1.2. Cada ponto da curva deve ser ensaiado em pelo menos seis réplicas.

7.1.1.3. Três tipos de curvas de calibração/resposta devem ser elaborados:

i. Padrões de calibração em solução.

ii. Matriz branca fortificada com os padrões de calibração.

iii. Extrato da matriz branca fortificado com os padrões de calibração.

7.1.1.4. As replicatas de cada nível de concentração devem ser independentes ou repetições genuínas, e não somente repetições de leitura.

7.1.1.5. As medidas devem ser feitas em ordem aleatória, adotando-se os devidos cuidados para evitar contaminação cruzada.

7.1.1.6. As curvas de calibração não devem ser forçadas a passar pela origem.

7.1.1.7. Perfil sugerindo heteroscedasticidade significa que os dados da calibração são melhores se tratados por regressão ponderada.

7.1.1.8. Os intervalos de aceitação dos parâmetros da curva, faixa linear de trabalho, devem compreender os valores de LMR ou LMDR.

7.1.1.9. Na determinação dos demais parâmetros de validação (repetitividade, reprodutibilidade), assim como nas rotinas analíticas, os 5 pontos da curva resposta devem ser ensaiados em pelo menos três réplicas cada.

O item 7.1.1.10 trata da avaliação da linearidade e esta avaliação está descrita no conteúdo regressão linear simples. À partir do subitem ii, o conteúdo está descrito na seção análise resíduos. Nas demais seções deste conteúdo vamos aplicar os conceitos da regressão linear simples e fazer uma análise de diagnósticos através da análise dos resíduos.

1.10.1 - Modelo Estatístico para Curva de Calibração

Nesta seção vamos descrever o modelo estatístico para a motivação, para isto é razoável supor que a relação existente entre a variável Área (Y) e níveis de Concentração (X) é linear. Desta forma, definimos o seguinte modelo de regressão linear simples entre Y (variável resposta) e X (variável regressora).

Consideramos duas variáveis Concentração e Área, neste caso, podemos estabelecer uma regressão linear simples cujo modelo estatístico é

$$Y_{ij}=\beta_0+\beta_1~x_{i}+\varepsilon_{ij}\quad i=1,\cdots, n;$$

em que,

  • $Y_{ij}$: representa a j-ésima medição de área referente a i-ésima concentração;

  • $X_{i}$: representa a i-ésima concentração;

  • $\beta_0$: representa o coeficiente linear ou intercepto;

  • $\beta_1$: representa o coeficiente angular;

  • $\varepsilon_{ij}$: representa o j-ésimo erro cometido na medição da i-ésima área. Consideramos que os $\varepsilon_{ij}$ são independentes e identicamente distribuídos com distribuição $N(0,\sigma^2)$ .

Pelo método dos mínimos quadrados, obtemos

$$\hat{\beta_1}=\frac{S_{xy}}{S _{xx}}\quad e\quad\hat{\beta_0}=\overline{y}-\hat{\beta_1}\overline{x}$$

em que,

  • $S _{xx}=\displaystyle\sum^n_{i=1}(x_i-\overline{x})^2=\sum^n_{i=1}x_i^2-2\overline{x}\sum^n_{i=1}x_i+n\overline{x}^2 = \sum^n_{i=1} x_i^2-n\overline{x}^2;$

  • $S_{xy}=\displaystyle\sum^n_{i=1}(x_i-\overline{x})(y_i-\overline{y})=\sum^n_{i=1}(x_i-\overline{x})y_i;$

  • $\overline{y}=\frac{1}{n}\displaystyle\sum^n_{i=1}(y_i)$ representa a média das leituras de área;

  • $\overline{x}=\frac{1}{n}\displaystyle\sum^n_{i=1}(x_i)$ representa a média das leituras de concentração.

para mais detalhes consulte estimação dos parâmetros do modelo.

Exemplo 1.10.1.1

Voltando à Motivação 2, vamos calcular as estimativas dos parâmetros $\beta_{0}$ e $\beta_{1}$ pelo Método dos Mínimos Quadrados.

n Concentração Área Conc² Área² Conc x Área
1 0,05 0,00000405 0,0025 1,64E-11 2,02E-07
2 0,05 0,00000312 0,0025 9,74E-12 1,56E-07
3 0,05 0,00000211 0,0025 4,43E-12 1,05E-07
4 0,1 0,0000286 0,01 8,21E-10 2,86E-06
5 0,1 0,0000238 0,01 5,67E-10 2,38E-06
6 0,1 0,0000308 0,01 9,48E-10 3,08E-06
7 0,5 0,0001913 0,25 3,66E-08 9,56E-05
8 0,5 0,0001936 0,25 3,75E-08 9,68E-05
9 0,5 0,0002006 0,25 4,03E-08 1,00E-04
10 1 0,0004883 1 2,38E-07 4,88E-04
11 1 0,0004761 1 2,27E-07 4,76E-04
12 1 0,0004851 1 2,35E-07 4,85E-04
13 2 0,0009072 4 8,23E-07 1,81E-03
14 2 0,0009246 4 8,55E-07 1,85E-03
15 2 0,0009008 4 8,12E-07 1,80E-03
Soma 10,95 0,005 15,788 0,00000331 0,007
Média 0,73 0,0003

Tabela 4.1.17: Estatísticas calculadas da amostra

Solução:

As médias amostrais das variáveis Concentração (X) e Área (Y) são, respectivamente,

$$\overline{x}=\dfrac{1}{15}\sum_{i=1}^{15}x_i=0,73\quad\hbox{e}\quad\overline{y}=\dfrac{1}{15}\sum_{i=1}^{15} y_i=0,039.$$

Além disso, na Tabela, apresentamos os valores de $x^2$, $y^2$ e $xy$ para cada observação $i=1,\ldots,15$.

Da tabela calculamos as somas de quadrados da seguinte forma:

$$S _{xx}=\sum^n_{i=1}x_i^2-n\overline{x}^2=15,788-15\times 0,73^2=7,794$$

$$S_{yy}=\sum^n_{i=1}y_i^2-n\overline{y}^2= 0,00000331 - 15 \times 0,73^2=1,73\times 10^{-6}$$

$$S_{xy}=\sum^n_{i=1}x_i y_i-n\overline{x}\overline{y}=0,007 - 15 \times 0,73 \times 0,0003=0,0036.$$

Logo, as estimativas dos parâmetros $\beta_{1}$ e $\beta_{0}$ são, respectivamente

$$\widehat\beta_1=\dfrac{0,0036}{7,794}=0,00047\quad\hbox{e }\quad\widehat\beta_0=0,0003-(0,00047)\times 0,73=-1,95\times 10^{-5}.$$

Portanto, o modelo ajustado é dado por

$$\hbox{Área}=-1,95 \times 10^{-5} + 0,00047 \times \hbox{Concentração}$$

Veja a seguir os resultados obtidos pelo software Action.

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Temperatura 1 0.00000173 0.00000173 4337.62484141 0
Resíduos 13 1e-18 0

Tabela 4.1.18: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-0.00002445 -0.00001515 -8.3e-7 0 0.00000331 0.00003721

Tabela 4.1.19: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto -0.00001958 0.00000733 -2.67080989 0.01923463
Concentração 0.00047067 0.00000715 65.86064714

Tabela 4.1.20: Coeficientes

Desvio Padrão dos Resíduos Graus de Liberdade $R^2$ $R^2$ Ajustado
0.00001995 13 0.99701192 0.99678207

Tabela 4.1.21: Medida Descritiva da Qualidade do Ajuste

Figura4.1.4

Figura 4.1.4: Diagrama de dispersão dos dados da Motivação 2

Da seção análise de variância obtemos que

$$QME=\dfrac{\displaystyle\sum\limits_{i=1}^n(Y_i-\overline{Y})^2-\widehat{\beta_1}\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})Y_i}{n-2}.$$

Substituindo os valores obtemos que

$$QME=3,98\times 10^{-10}$$

Com isso, podemos calcular as variâncias dos parâmetros

$$\widehat{\hbox{Var}}(\hat{\beta_0})=QME\left(\frac{1}{n}+\frac{\overline{x}^2}{S _{xx}}\right)=5,38\times 10^{-11}$$

$$\widehat{\hbox{Var}}(\hat{\beta_1})=\frac{QME}{S _{xx}}=5,11\times 10^{-11}$$

O $R^2$ é uma medida descritiva da qualidade do ajuste obtido. Como obtemos um $R^2$ de 0,99, logo a quantidade de variabilidade dos dados bem é explicada pelo modelo de regressão ajustado. Como dito anteriormente, na prática temos interesse em predizer o valor de concentração (X) dado uma observação em área (Y). Então, dado $y_0$ observado, tomamos como estimativa (invertendo a função linear)

$$\hat{x_0} = \frac{y_0 -\hat{\beta_0} }{\hat{\beta_1}}\quad \hbox{que é equivalente a}\quad \widehat{\hbox{Concentração}}_0=\dfrac{\hbox{Área}_0-\hat{\beta_0}}{\hat{\beta_1}}$$

Logo, a variância da estimativa $\hat{x_0}$ é dada por (Veja Brown [13], 1993, pg. 26)

$$\widehat{Var(\hat{x_0})}=\frac{QME}{\hat{\beta}^2 _1}=\frac{3,98\times 10^{-10}}{0,00047^2}=0,00179$$

1.10.2 - Análise de Diagnóstico

Após estimarmos os parâmetros da curva de calibração, as suposições do modelo ajustado precisam ser validadas para que os resultados sejam confiáveis. Chamamos de Análise dos Resíduos um conjunto de técnicas utilizadas para investigar a adequabilidade de um modelo de regressão com base nos resíduos. Os resíduos $\varepsilon_i$ é dado pela diferença entre a variável resposta observada (Área $Y_i$) e a variável resposta estimada $\hat{Y}_i.$

Ao estabelecer o modelo para curva de calibração, supomos que:

i) A relação matemática entre Y e X é linear (seção modelo estatístico para curva de calibração);

ii) Os valores de x são fixos (ou controlados), isto é, x não é uma variável aleatória;

iii) A média do erro é nula, ou seja, E(εi)=0. Desta forma, segue que

$$\mathbb{E}(Y_i|x_i)=\mathbb{E}(\beta_0+\beta_1 x_i+\varepsilon_i)=\beta_0+\beta_1 x_i+\mathbb{E}(\varepsilon_i)=\beta_0+\beta_1 x_i$$

iv) Para um dado valor de x, a variância de $\epsilon_i$ é sempre $\sigma^2$, isto é,

$$\hbox{Var}(\varepsilon_i)=\mathbb{E}(\varepsilon^2_i)+[\mathbb{E}(\varepsilon_i)]^2=\sigma^2$$

isto implica em:

$$\hbox{Var}(Y_i)=\mathbb{E}[(Y_i - \mathbb{E} (Y_i~|~x_i) )^2]=\mathbb{E}(\varepsilon^2_i)=\sigma^2$$

Então, podemos dizer que o erro é homocedástico (tem variância constante);

v) O erro de uma observação é independente do erro de outra observação (erros não correlacionados), isto é,

$$\hbox{Cov}(\varepsilon_i,\varepsilon_j)=0,\quad\hbox{para}~i\neq j$$

vi) Frequentemente, supomos que os erros tem distribuição Normal.

A suposição de normalidade é necessária para a elaboração dos testes de hipóteses e obtenção de intervalos de confiança.

Visando atender os requisitos do MAPA item 7.1.1.10 subitem ii e as disposições do modelo lde regressão linear, vamos realizar a análise de diagnósticos. Com isso, a primeira análise de diagnósticos é o teste de normalidade (para mais detalhes consulte o conteúdo teste de normalidade).

A partir do software Action, obtemos os seguintes resultados com os dados do Exemplo 1.10.1.1:

Estatística P-valor
Anderson-Darling 0.628952889 0.0817437178
Shapiro-Wilk 0.8967896632 0.0850237715
Kolmogorov-Smirnov 0.2315579312 0.0296353187
Ryan-Joiner 0.952119712 0.1165

Tabela 4.1.23: Teste de normalidade do Exemplo 1.10.1.1

Figura 4.1.5

Figura 4.1.5: Gráfico da análise de resíduos.

Figura 4.1.6

Figura 4.1.6: Gráfico QQ-plot

Dos resultados obtidos pela Tabela 4.1.23, temos que para qualquer estatística escolhida temos que os resíduos são normais. Assim, atendemos a suposição de normalidade dos resíduos.

Dos gráficos, notamos que o nível de concentração de 1, pode afetar a normalidade dos resíduos, porém dos testes (Tabela 4.1.23), notamos que os resíduos são normais. Do gráfico resíduos versus ordem de coleta não temos uma tendência, com isso temos indícios dos resíduos serem independentes. Por fim, analisando o gráfico de resíduos versus valores ajustados observamos uma variação pequena dos resíduos, com isso temos indícios de homoscedasticidade dos resíduos.

A seguir, vamos testar a independência dos resíduos.

Estatística P-valor
1.373621368 0.110129994

Tabela 4.1.24: Teste de independência dos resíduos (Durbin-Watson).

Para testarmos a independência dos resíduos vamos utilizar a estatística de Durbin-Watson (para mais detalhes consulte diagnóstico de independência). Logo, para nível de significância $\alpha=0,05$ não rejeitamos $H_0$ (p-valor$=$0,0547). Portanto, podemos afirmar que com um nível de confiança de 95%, os resíduos são independentes.

Agora, vamos testar a suposição (iv), isto é, o teste de homoscedasticidade. Primeiramente, vamos apresentar a estatística de teste recomendada pelo MAPA.

Teste de Brown-Forsythe

O teste de Brown-Forsythe é utilizado para o teste de igualdade de variâncias, porém em certos casos utilizamos para testar a homoscedasticidade dos resíduos no caso de uma variável explicativa.

O teste $F$ e o teste de Bartlett são muito sensíveis à suposição de que as populações subjacentes têm distribuição normal. Quando as distribuições subjacentes são não têm distribuição normal, tais testes podem extrapolar seu nível de significância nominal.

Levene propôs uma estatística para dados balanceados, que foi generalizada posteriormente para dados desbalanceados. A estatística é obtida à partir de uma ANOVA (1 fator) entre os grupos, em que cada observação foi substituída pelo seu desvio absoluto da sua média do grupo. Segundo Brown e Forsythe esta estatística foi descrita para amostras muito pequenas, em que as correlações altas entre desvios no mesmo grupo fragilizam a validade do teste. Com isso, Brown e Forsythe consideraram a mediana ou 10 % da tri-média (mais robustas), como alternativas para a média no cálculo dos desvios absolutos.

Agora, vamos definir a estatística do teste, para isto seja $x_{ij}=\mu_i+\varepsilon_{ij}$ para j-ésima observação ($j=1,\dots,n_i$) no i-ésimo grupo ($i=1,\dots,g$), em que a média $\mu_i$ são desconhecidas e desiguais. Assumimos que $\varepsilon_{ij}$ são independentes e identicamente distribuídos com média zero variância possivelmente desiguais. Para cada grupo, tomamos a mediana ($\widetilde{x}_i$) e a variância amostral ($s^2_i$). Seja os desvios absolutos

$$z_{ij}=|x_{ij}-\widetilde{x}_i|$$

Portanto, temos a seguinte estatística:

$$F_{BF}=\dfrac{\displaystyle\sum^g_{i=1}\frac{n_{i}(\overline{z}_{i.}-\overline{z}_{..})^2}{(g-1)}}{\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1}(z_{ij}-\overline{z}_{i.})^2}{\displaystyle\sum^g_{i=1}(n_i-1)}}$$

em que, $\overline{z} _{i.} = \displaystyle\sum^g_{i=1}\frac{z _{ij}}{n_i}$ e $\overline{z} _{..}=\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1} z _{ij}}{\displaystyle\sum^g_{i=1}n_i}$

Agora vamos calcular a estatística de Brown-Forsythe, para isto vamos fazer um sumário dos dados necessários. Com isso, calculamos $\widetilde{x}_i$ e o tamanho da amostra $n_i$ para cada nível de concentração. Agora, vamos calcular os desvios absolutos.

Concentração Área $\widetilde{x}_i$ $z_{ij}$ $\overline{z}_i$ $(z_{ij}-\overline{z}_i)^2$
0,05 4,05E-06 3,00E-06 1,04829E-06 1,00E-06 2,33154E-15
0,05 3,12E-06 3,00E-06 1,20893E-07 1,00E-06 7,7283E-13
0,05 2,11E-06 3,00E-06 8,94803E-07 1,00E-06 1,10664E-14
0,1 2,86E-05 0,000029 3,52781E-07 2,00E-06 2,71333E-12
0,1 2,38E-05 0,000029 5,19687E-06 2,00E-06 1,022E-11
0,1 3,08E-05 0,000029 1,78221E-06 2,00E-06 4,74331E-14
0,5 0,000191 0,000194 2,72662E-06 3,00E-06 7,47356E-14
0,5 0,000194 0,000194 4,31653E-07 3,00E-06 6,59641E-12
0,5 0,000201 0,000194 6,62629E-06 3,00E-06 1,315E-11
1 0,000488 0,000485 3,27345E-06 0,000004 5,27876E-13
1 0,000476 0,000485 8,86904E-06 0,000004 2,37075E-11
1 0,000485 0,000485 1,05052E-07 0,000004 1,51706E-11
2 0,000907 0,000907 1,72542E-07 0,000008 6,12691E-11
2 0,000925 0,000907 1,75731E-05 0,000008 9,16435E-11
2 0,000901 0,000907 6,16094E-06 0,000008 3,38215E-12
Média 3,68897E-06 soma 2,29289E-10

Tabela 4.1.25: Tabela auxiliar para calcularmos a estatística de Brown-Forsythe.

Logo, da tabela obtemos os resultados de

$$z_{ij}=|x_{ij}-\widetilde{x}_i|$$

Por fim, calculamos a estatística de Brown-Forsythe, para isto observe a seguinte tabela:

Concentração $\overline{Z}_i$ $n_i$ $n_i-1$ $Z..$ $g-1$ Numerador $\displaystyle\sum^g_{i=1}(z_{ij}-\overline{z}_i)^2$ Denominador Estatística F
0,05 1,00E-06 3 2 3,68897E-06 4 5,42291E-12
0,1 2,00E-06 3 2 3,68897E-06 4 2,13946E-12
0,5 3,00E-06 3 2 3,68897E-06 4 3,56006E-13
1 0,000004 3 2 3,68897E-06 4 7,25564E-14
2 0,000008 3 2 3,68897E-06 4 1,39388E-11
Soma 10 2,19297E-11 2,29289E-10 2,29289E-11 0,937442

Tabela 4.1.26: Teste de Brown-Forsythe.

Logo, temos que

$$F_{BF}=\dfrac{\displaystyle\sum^g_{i=1}\frac{n_{i}(\overline{z}_{i.}-\overline{z}_{..})^2}{(g-1)}}{\frac{\displaystyle\sum^g_{i=1}\sum^{n_i}_{j=1}(z_{ij}-\overline{z}_{i.})^2}{\displaystyle\sum^g_{i=1}(n_i-1)}}=\dfrac{\hbox{numerador}}{\hbox{denominador}}=0,937442$$

O p-valor é dado por:

$$\hbox{p-valor}=P[F_{4,10}> F_0]=0,480942$$

Para nível de significância $\alpha=0,05$, obtemos que $F_{0,05;4;10}=3,47.$ Portanto, com 95% de confiança, não rejeitamos $H_0$, ou seja, os resíduos são homocedásticos.

A seguir, através do software Action, testamos a homoscedasticidade através das estatísticas de Breusch-Pagan e Goldfeld-Quandt (para mais detalhes consulte diagnóstico de homoscedasticidade).

Estatística Número de Réplicas P-valor
0.662633998 3 0.064770204

Tabela 4.1.27: Teste de Homocedasticidade - Cochran

Variável Estatística G.L.Num. G.L.Den. P-valor
Grupo 0.947095236 4 10 0.476288565

Tabela 4.1.28: Teste de Homocedasticidade (Brown-Forsythe)

Estatística GL P-valor
1.312140041 1 0.252007555

Tabela 4.1.29: Teste de Homocedasticidade - Breusch Pagan

Variável Estatística GL1 GL2 P-valor
Concentracao 13.9374713735602 4 4 0.0256902573810213

Tabela 4.1.30: Teste de Homocedasticidade - Goldfeld Quandt

Estatística P-valor
1.373621368 0.110129994

Tabela 4.1.31: Teste de Homocedasticidade - Durbin-Watson

Através das tabelas notamos que para nível de significância $\alpha=0,05$, obtemos que com 95% de confiança, não rejeitamos $H_0$, ou seja, os resíduos são homoscedásticos para os testes de Breusch-Pagan e Brown-Forsythe (Teste de Levene modificado). Uma observação importante é que para o teste de Goldfeld-Quandt rejeitamos $H_0,$ porém dentre as limitações deste teste é que necessitamos de uma amostra relativamente grande, o que não acontece com este exemplo. Portanto, podemos concluir que a homoscedasticidade dos resíduos (variância constante).

Diagnóstico de outliers e pontos influentes

A seguir, vamos analisar os outliers, que é uma observação extrema, ou seja, é um ponto com comportamento diferente dos demais. Se um outlier for influente, ele interfere sobre a função de regressão ajustada (a inclusão ou não do ponto modifica substancialmente os valores ajustados).

Mas uma observação ser considerada um outlier não quer dizer que consequentemente é um ponto influente. Por isso, um ponto pode ser um outlier em relação a Y ou a X, e pode ou não ser um ponto influente. A detecção de pontos atípicos tem por finalidade identificar outliers com relação a X, outliers com relação a Y e observações influentes.

Primeiramente, vamos analisar os outliers em X, para isto observe os resultados obtidos pelo software Action:

Figura 4.1.7

Figura 4.1.7: Boxplot dos pontos de alavanca (Leverage).

Figura 4.1.8

Figura 4.1.8: Gráfico dos pontos de alavanca (leverage hii) versus nº da observação.

Da Figura 4.1.7 notamos alguns indícios de que observações podem alavancar o ajuste do modelo. Da Figura 4.1.8 observamos que os pontos são o de concentração igual a 2. Notamos que ele está muito distante em relação a concentração de 1. Pelo critério $2(p+1)/n=0,27$ temos que os pontos 13,14 e 15 são um outlier em X (Concentração).

Agora, vamos analisar os outliers em Y, para isto observe os resultados obtidos pelo software Action:

Figura 4.1.9

Figura 4.1.9: Gráfico dos resíduos padronizados versus valores ajustados.

Figura 4.1.10

Figura 4.1.10: Gráfico dos resíduos studentizados versus valores ajustados.

Das Figuras 4.1.9 e 4.1.10 não observamos nenhum outlier em Y (Área), pois nenhum ponto está fora da zona (-3,3).

A seguir, vamos analisar os pontos influentes, para isto observe os resultados obtidos pelo software Action:

Diagnóstico Fórmula Valor
hii (Leverage) (2*(p+1))/n 0.27
DFFITS 2* raíz ((p+1)/n) 0.73
DCOOK 4/n 0.2667
DFBETA 2/raíz(n) 0.52
Resíduos Padronizados (-3,3) 3
Resíduos Studentizados (-3,3) 3

Tabela 4.1.32: Critérios para cada diagnóstico de outliers e pontos influentes

Figura4.1.11

Figura 4.1.11: Gráfico dos pontos DFFITS

Figura4.1.12

Figura 4.1.12: Gráfico dos pontos D-COOK

Vale lembrar que um ponto é influente, se sua exclusão do ajuste da regressão causa uma mudança substancial nos valores ajustados. DFFITS medem a influência que a observação i tem sobre seu próprio valor ajustado. Pelo critério DFFITS, não detectamos pontos influentes, porém pelo critério da distância de Cook, obtemos que a observação 15 é um ponto influente.

Figura4.1.13

Figura 4.1.13: Gráfico dos pontos DBETAS

O DFBETA mede a influência da observação i sobre o coeficiente de X (Concentração). Pelo critério observamos que o ponto 15 é um ponto influente para o coeficiente de Concentração.

Figura4.1.14

Figura 4.1.14: Análise de Diagnóstico de outliers e pontos influentes

Um resumo geral da análise de diagnóstico é que os pontos 13, 14 e 15 podem influenciar na normalidade dos resíduos. Já para análise de outliers em Y, temos nenhum ponto é um outlier em Y (Concentração). Já o ponto 15 é um ponto influente que pode causar uma mudança substancial no ajuste do modelo.

1.10.3 - Incerteza devido à Curva de Calibração

Após as validações das suposições do modelo ajustado, o próximo passo é calcular a incerteza devido à curva de calibração. Para isto propomos calcular a incerteza (para mais detalhes consulte o conteúdo 18. Incerteza de medição) por quatro métodos:

  1. Método MGQ (Manual da Garantia da Qualidade);

  2. Método da projeção do intervalo de predição;

  3. Método Delta;

  4. Método Fieller.

A seguir vamos descrever o primeiro método, que é o método do manual da garantia da qualidade (MGQ).

1.10.3.1 - Incerteza devido a curva de calibração: Método MGQ

Ao relatarmos o resultado da medição de uma grandeza física é obrigatório que seja dado alguma indicação quantitativa da qualidade do resultado, de tal forma que aqueles que utilizam o resultado da medição possam avaliar sua confiabilidade. O conceito de incerteza de medição será utilizado como um atributo quantificável para determinar a qualidade de um sistema de medição. Afim de atender este conceito referente a incerteza devido à curva de calibração para métodos analíticos e controle de resíduos contaminantes em alimentos, o Ministério da Agricultura, Pecuária e Abastecimento (MAPA), por intermédio da Secretaria de Defesa Agropecuária e da Coordenação-Geral de Apoio Laboratorial (CGAL), resolveu redigir e publicar o Manual de Garantia da Qualidade Analítica.

No anexo IV do MGQ é descrito de como é calculado da incerteza de previsão da concentração do analito da Curva de Calibração (Cálculo de Incerteza de Calibração). A incerteza padrão da concentração de analito não é a incerteza da concentração de analito na amostra de ensaio, pois nela não consideramos outras fontes de incerteza como a incerteza da preparação das soluções e os níveis de concentração da curva de calibração, tampouco a repetibilidade do ensaio. Esta incerteza é uma das fontes de incerteza do ensaio analítico.

Inicialmente, notamos que na prática o maior interesse é predizer o valor da concentração (X) dado uma observação em área (Y), por exemplo, em análises cromatográficas ou por espectrometria (ICP). Então, dado $y_0$ observado, tomamos como estimativa (invertendo a função linear)

$$\hat{x_0} = \frac{y_0 -\hat{\beta_0} }{\hat{\beta_1}}\quad \tag{1.10.3.1.1}$$

Chamamos de erro na previsão a diferença $(y_0-\widehat{y}_0),$ cuja variância é dada por

$$Var(y_0-\widehat{y_0})=Var(y_0)+Var(\widehat{y_0})-2\hbox{Cov}(y_0,\widehat{y_0})$$

Um estimador pontual pode ser obtido à partir do modelo ajustado

$$\widehat{y}(x_0)=\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0.$$

Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuída já que é uma combinação linear das observações $Y_i$. Além disso, temos que

$$\mathbb{E}(\widehat{y}_0)=\mathbb{E}(\widehat{\mu} \ _{Y \mid x_0})=\beta_0+\beta_1 x_0 =\mu _{Y\mid x_0} \ ,\quad \hbox{e}$$

$$\hbox{Var}(\widehat{y} _0)=\hbox{Var}(\widehat{\mu} _{Y\mid x_0})=\hbox{Var}[\overline{Y}+\widehat{\beta_1}(x_0-\overline{x})]=\hbox{Var}[\overline{Y}]+\hbox{Var}[\widehat{\beta_1}(x_0-\overline{x})]=\hbox{Var}[\overline{Y}]+(x_0-\overline{x})^2\hbox{Var}[\widehat{\beta_1}]=$$

$$=\dfrac{\sigma^2}{n}+(x_0-\overline{x})^2\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}=\sigma^2\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right) = \sigma^2\left(\dfrac{1}{n} + \dfrac{(x_0-\overline{x})^2}{S _{xx}}\right),$$

Com isso temos que $\widehat{\mu} _{Y \mid x_0}$ é um estimador não viciado para $E\left( Y \mid X=x_0 \right).$ Outra observação importante, é que $\hbox{Var}(\widehat{\beta_1})$ é obtida na seção testes e intervalo de confiança dos parâmetros. Logo, temos que

$$\hbox{Var}(y_0-\widehat{y_0})=\hbox{Var}(y_0)+\hbox{Var}(\widehat{y_0})-2\hbox{Cov}(y_0,\widehat{y_0})=$$

$$=\hat{\sigma}^2+\hat{\sigma}^2\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right)=\hat{\sigma}^2\left(1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right).$$

Logo, voltando em (1.10.3.1.1) obtemos

$$\hbox{Var}(\widehat{x}_0)=\dfrac{\hbox{Var}(y_0-\widehat{y_0})}{\widehat{\beta}^2_1}=$$

$$\dfrac{\widehat{\sigma}^2}{\widehat{\beta}^2_1}\left(1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}\right)$$

Portanto a incerteza devido à curva de calibração pelo método MGQ é dada por:

$$ u(\widehat{x}_0) = \frac{\sqrt{\hbox{QME}}}{\beta_1} \sqrt{1+\frac{1}{n}+\frac{(x_0-\bar{x})^2}{S _{xx}}} = \dfrac{s _{\hbox{res}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}}$$

ou equivalentemente

$$u(\widehat{x}_0)=\dfrac{\sqrt{\hbox{QME}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(y_0-\overline{y})^2}{\beta^2_1 S _{xx}}} =\dfrac{s _{\hbox{res}}}{\beta_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(y_0-\overline{y})^2}{\beta^2_1 S _{xx}}}$$

Vale lembrar que:

$x_{0}$: é a concentração de analito da solução injetada no instrumento de medição analítica obtida por interpolação ou extrapolação da curva de calibração.

$y_{0}$: é a resposta instrumental média das injeções no instrumento de medição analítica das soluções obtidas.

$s_{res}$: é o desvio-padrão da resposta instrumental para solução da amstra injetada no instrumento de medição analítica. Mais especificamente é o desvio-padrão dos resíduos do modelo de regressão linear simples.

Exemplo 1.10.3.1.1:

Voltando ao exemplo de Motivação 2 da seção 1.10.1 - Modelo Estatístico para Curva de Calibração. Já temos calculado:

  • $\overline{x} = 0,73 $

  • $S _{xx} = 7,794$

  • $S_{yy} = 1,73 \times 10^{-6}$

  • $S_{xy} = 0,0036$

  • $\widehat{\beta_1} = 0,00047$

  • $\widehat{\beta_0} = -1,95 \times 10^{-5}$

  • $QME = 3,98 \times 10^{-10}$

Tomamos o ponto $\widehat{x}_0=1.$ Logo, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por

$$u(\widehat{x_0})=\dfrac{\sqrt{\hbox{QME}}}{\widehat{\beta}_1}\sqrt{1+\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{S _{xx}}}= \dfrac{\sqrt{3,98\times 10^{-10}}}{0,00047}\sqrt{1+\dfrac{1}{15}+\dfrac{(1-0,73)^2}{7,794}}=0,042389$$

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 0.0000017266 0.0000017266 4337.6248414089 0
Resíduos 13 5.2e-9 4e-10

Tabela 4.1.33: Tabela da ANOVA

Estimativa Desvio Padrão Estat.t P-valor
Intercepto -0.0000195813 0.0000073316 -2.6708098938 0.0192346319
Concentracao 0.0004706666 0.0000071464 65.8606471378 0

Tabela 4.1.34: Coeficientes

Na próxima seção, vamos descrever o método da projeção do intervalo de confiança da resposta média.

1.10.3.2 - Incerteza devido a curva de calibração: Método da Projeção

Nesta seção vamos deduzir outra metodologia para calcularmos a incerteza devido à curva de calibração, que denominamos método da projeção do intervalo de confiança da resposta média. Para ilustrarmos esta denominação, observe o exemplo da motivação.

Figura4.1.15

Figura 4.1.15: Representação do método da projeção do intervalo de confiança da resposta média com os dados da Motivação 2.

A estimativa de um intervalo de confiança para $\mathbb{E}\left(Y \mid X=x_0 \right)=\mu _{Y \mid x_0}= \beta_0+\beta_1 x_0$ é de grande interesse.

Um estimador pontual de $μ_{Y∣x0}$ pode ser obtido a partir do modelo ajustado, isto é,

$$\widehat{\mu} _{Y \mid x_0}=\widehat{\beta_0}+\widehat{\beta_1} x_0=\widehat{Y}(x_0)\quad \tag{1.10.3.2.1}$$

Notemos que $\widehat{\mu} _{Y \mid x_0}$ é uma variável aleatória normalmente distribuida já que é uma combinação linear das observações $Y_i$. Além disso, vimos na seção anterior (1.10.3.1) que

$$\mathbb{E}(\hat{\mu} \ _{Y \mid x_0}) = \beta_0 + \beta_1 x_0 = \mu \ _{Y \mid x_0} \qquad \hbox{e} $$

$$\hbox{Var}(\widehat{\mu} _{Y\mid x_0})=\hbox{Var}[\overline{Y}+\widehat{\beta_1}(x_0-\overline{x})]= \dfrac{\sigma^2}{n}+(x_0-\overline{x})^2\dfrac{\sigma^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2} = \sigma^2\left[\dfrac{1}{n} + \dfrac{(x_0-\overline{x})^2}{S _{xx}}\right],$$

Portanto, o intervalo de confiança para $\mu _{Y \mid x_0}=E[Y \mid X=x_0]$ é dado por

$$IC[\mu _{Y \mid x_0}, 1-\alpha] = \left[\widehat{Y}(x_0)-t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right)}\right.~;$$

$$\left.\widehat{Y}(x_0)+t_{\left(1-\frac{\alpha}{2};n-2\right)}\sqrt{QME\left(\dfrac{1}{n}+\dfrac{(x_0-\overline{x})^2}{\displaystyle\sum\limits_{i=1}^n(x_i-\overline{x})^2}\right)}\right],$$

em que $\widehat{Y}(x_0)$ é a resposta média estimada para o nível $x=x_0$. Observe a Figura (4.1.16) que ilustra o intervalo de predição

Figura 4.1.16

Figura 4.1.16: Banda de confiança do intervalo de predição.

$$\mathbb{E}[ Y | X=x_{LI} ] = \widehat{y}_{0} - t_{(1-\alpha/2;n-2)} \sqrt{ QME\left( \dfrac{1}{n} + \dfrac{ ( x_{LI} - \overline{x} )^2 }{ S _{xx} } \right) } \tag{1.10.3.2.2}$$

$$\mathbb{E}[ Y | X=x_{LS} ] = \widehat{y}_{0} + t_{(1-\alpha/2;n-2)} \sqrt{ QME\left( \dfrac{1}{n} + \dfrac{ ( x_{LS} - \overline{x} )^2 }{ S _{xx} } \right) } \tag{1.10.3.2.3}$$

Primeiramente, traçamos uma linha paralela ao eixo $X$ na altura de $Y$ estimado em $\widehat{x_0}$, que denominaremos por $Y_0$. Projetamos linhas à partir das bandas de confiança, em seguida, traçamos uma reta perpendicular ao eixo $Y$ para obtermos os os valores de $x_{LI}$ e $x_{LS}$.

Igualando as equações (1.10.3.2.1) e (1.10.3.2.2), temos:

$$= \hat{\beta} _0 + \hat{\beta} _1 \bar{x} _0 = \hat{y} _0 - t_1 \sqrt{QME \left( \frac{1}{n} + \frac{(x _{LI} - \bar{x})^2}{S _{xx}} \right)}$$ $$\hat{\beta} _0 + \hat{\beta} _1 \bar{x} _0 = \hat{\beta} _0 + \hat{\beta} _1 x_{LI} - t_1 \sqrt{QME \left( \frac{1}{n} + \frac{(x _{LI} - \bar{x})^2}{S _{xx}} \right)}, \quad \hbox{elevando ambos os lados ao quadrado,} $$ $$(\hat{\beta} _1 \bar{x} _0 - \hat{\beta} _1 x_{LI})^2 = t^2 QME \left( \frac{1}{n} + \frac{(x_{LI} - \bar{x})^2}{S _{xx}} \right)$$ $$\hat{\beta}^2 _1 \bar{x} _0^2 - 2 \hat{\beta} _1^2 \bar{x} _0 x _{LI} + \hat{\beta} _1^2 x_{LI}^2 = \frac{t^2 QME}{n} + \frac{t^2 QME (x^2 _{LI} - 2 x_{LI} \bar{x} + \bar{x}^2)}{S _{xx}}$$ $$\hat{\beta}^2 _1 \bar{x} _0^2 - 2 \hat{\beta}^2 _1 \bar{x} _0 x _{LI} + \hat{\beta}^2 _1 x_{LI}^2 = \frac{t^2 QME}{n} + \frac{x _{LI}^2 t^2 QME}{S _{xx}} - \frac{\bar{x}^2 t^2 QME}{S _{xx}} $$

Colocando em evidência $x^2_{LI}$ e $x_{LI}$, temos,

$$ x_{LI}^2 \underbrace{\left(\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right)}_{a} + x_{LI} \underbrace{\left(\frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right)}_{b} + $$ $$ + \underbrace{\hat{\beta}^2 _1 \bar{x}^2 _0 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}}}_{c} = 0 \tag{1.10.3.2.4} $$

Vale lembrar que (1.10.3.2.4) é uma equação do segundo grau do tipo $a x^2 + b x + c = 0$ (Bhaskara) com:

$$\begin{align*} a &= \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \cr b &= 2 \left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \cr c &= \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}} \end{align*} $$

Assim, resolvendo a equação (1.10.3.2.4) em x encontramos xLS e xLI. Com isso, temos que

$$x = \dfrac{-b \pm \sqrt{\Delta}}{2a}$$

Resolvendo $δ$, temos

$$ \begin{align*} \Delta &= b^2 - 4ac \cr \Delta &= \left[ 2 \left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \right]^2 - 4 \left( \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right) \left( \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{t^2 QME}{n} - \frac{\bar{x}^2 - t^2 QME}{S _{xx}} \right) \cr \end{align*} $$

$$\begin{align*} \ \ \Delta &= 4 \left[ \left( \dfrac{\bar{x} t^2 QME}{S _{xx}} \right)^2 - \dfrac{2 \bar{x} t^2 QME \hat{\beta}^2 _1 \bar{x} _0}{S _{xx}} + \hat{\beta}^4 _1 \bar{x} _0^2 \right] \cr &\quad - 4 \left[ \hat{\beta}^2 _1 \bar{x} _0^2 - \frac{\hat{\beta}^2 _1 t^2 QME}{n} - \frac{\hat{\beta}^2 _1 \bar{x}^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 x_0^2 t^2 QME}{S _{xx}} + \left( \frac{t^2 QME}{n S _{xx}} \right)^2 + \left( \frac{\bar{x} t^2 QME}{S _{xx}} \right)^2 \right] \cr \Delta &= 4 \left[ \frac{2 \bar{x} t^2 QME \hat{\beta}^2 _1 \bar{x} _0}{S _{xx}} + \frac{\hat{\beta}^2 _1 t^2 QME}{n} + \frac{\hat{\beta}^2 _1 \bar{x}^2 t^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 \bar{x} _0^2 t^2 QME}{S _{xx}} - \left( \frac{t^2 QME}{n S _{xx}} \right)^2 \right] \cr \Delta &= 4 \hat{\beta}^2 _1 t^2 QME \left( - \frac{2 \bar{x} \bar{x} _0}{S _{xx}} + \frac{1}{n} + \frac{\bar{x}^2}{S _{xx}} + \frac{\bar{x} _0^2}{S _{xx}} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right) \cr \Delta &= 4 \hat{\beta}^2 _1 t^2 QME \left( \frac{(\bar{x} - \bar{x} _0)^2}{S _{xx}} + \frac{1}{n} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right) \end{align*} $$

Dessa maneira, temos

$$ \begin{align*} x &= \frac{-b \pm \sqrt{\Delta}}{2a} \cr &= \frac{-2\left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \pm \sqrt{4 \hat{\beta}^2 _1 t^2 QME \underbrace{\left( \frac{(\bar{x} - \bar{x} _0)^2}{S _{xx}} + \frac{1}{n} - \frac{t^2 QME}{\hat{\beta}^2 _1 n S _{xx}} \right)}_{\delta_*}}} {2\left( \hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}} \right)} \cr x &= \frac{-\left( \frac{\bar{x} t^2 QME}{S _{xx}} - \hat{\beta}^2 _1 \bar{x} _0 \right) \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \end{align*} $$

Somamos e subtraímos $\widehat{x}_0$, e obtemos

$$ \begin{align*} x &= \bar{x} _0 - \frac{\bar{x} t^2 QME}{S _{xx}} + \frac{\hat{\beta}^2 _1 \bar{x} _0 \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \cr x &= \bar{x} _0 + \frac{-\bar{x} _0 \hat{\beta}^2 _1 + \frac{t^2 QME \bar{x} _0}{S _{xx}} - \frac{\bar{x} t^2 QME}{S _{xx}} + \hat{\beta}^2 _1 \bar{x} _0 \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \cr x &= \bar{x} _0 + \frac{\frac{t^2 QME (\bar{x} _0 - \bar{x})}{S _{xx}} \pm \hat{\beta_1} t \sqrt{\delta_*}} {\hat{\beta}^2 _1 - \frac{t^2 QME}{S _{xx}}} \end{align*} $$

Multiplicamos e dividimos o segundo termo do lado direito da igualdade por $1 / \widehat{\beta_1}^2$

$$ x = \hat{x}_0 + \frac{ \left( \dfrac{t^2 QME (\hat{x}_0 - \bar{x})}{S _{xx}} \pm \hat{\beta_1} t \sqrt{\delta^*} \right) / \hat{\beta}^2 _1 }{ \left( \dfrac{\hat{\beta}^2 _1 - t^2 QME / S _{xx}}{\hat{\beta}^2 _1} \right) } $$

$$ x = \hat{x}_0 + \frac{ \dfrac{t^2 QME (\hat{x}_0 - \bar{x})}{\hat{\beta}^2 _1 S _{xx}} \pm \dfrac{t}{\hat{\beta_1}}\sqrt{\delta^*} }{ 1 - \dfrac{t^2 QME}{\hat{\beta}^2 _1 S _{xx}} } $$

Substituímos g por $\dfrac{t^2 QME}{\widehat{\beta_1}^2 S _{xx}}$

$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1} (1-g)} \sqrt{\delta^*}, $$

$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1}} \sqrt{\frac{\delta^*}{(1-g)^2}}, $$

$$ x = \hat{x}_0 + \frac{(\hat{x}_0 - \bar{x})g}{1 - g} \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}(1-g)^2} + \frac{1}{n(1-g)} \right)}. $$

Vamos escrever $h=\dfrac{(\widehat{x}_0 - \overline{x} )}{1-g}$. Com isso temos

$$x = \hat{x}_0 + gh \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{h^2}{S _{xx}} + \frac{1}{n(1-g)} \right)} \quad \hbox{para } g \neq 1$$

em que $g = \dfrac{t^2 QME}{\widehat{\beta_1}^2 S _{xx} }$. Quando g é zero para x , temos os limites para $\widehat{x}_0$. Com isso temos que

$$x=\widehat{x}_0 \pm \dfrac{t}{ \widehat{\beta_1} }\sqrt{QME \left( \dfrac{ (x_0-\overline{x})^2 }{ S _{xx} } + \dfrac{1}{n} \right) }$$

$x = \hat{x}_0 \pm \frac{t}{\hat{\beta_1}} \sqrt{QME \left( \frac{(x_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)}$, que são os limites do intervalo de confiança da resposta média dividido pelo parâmetro $\widehat{\beta_1}$.

Podemos encontrar dois tipos de problemas quando calculamos o intervalo de confiança por este método.

  • $QME \left( \dfrac{ h^2 }{ S _{xx} } + \dfrac{1}{n(1-g)} \right)$ pode ser negativo. Quando isso acontece, não existe um intervalo de confiança real para $\widehat{x} _0$, pois as soluções das equações não são números reais e sim números complexos. No caso em que as soluções de $x_{LI}$ e $x_{LS}$ são complexas, não existe um intervalo de confiança para $\widehat{x} _0$.

  • É possível encontrar $x_{LI}$ e $x_{LS}$ ambas menores ou ambas maiores que $\widehat{x}_0$. Quando isso acontece, a incerteza calculada por este método não é válido.

Portanto, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por

$$u(\hat{x}_0) = \frac{1}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)} = \frac{1}{\hat{\beta_1}} \sqrt{\operatorname{Var}(\hat{y}_0)}$$

Exemplo 1.10.3.2.1

Voltando ao exemplo de Motivação 2 da seção 1.10.1 - Modelo Estatístico para Curva de Calibração. Já temos calculado:

  • $\bar{x} = 0,73$
  • $S _{xx} = 7,794$
  • $S_{yy} = 1,73 \times 10^{-6}$
  • $S_{xy} = 0,0036$
  • $\hat{\beta_1} = 0,00047$
  • $\hat{\beta_0} = -1,95 \times 10^{-5}$
  • $QME = 3,98 \times 10^{-10}$

Tomamos o ponto $\widehat{x}_0$ = 1. Logo, a incerteza devido à curva de calibração devido ao método da projeção do intervalo de confiança da resposta média é dada por

$$u(\hat{x}_0) = \frac{1}{\hat{\beta_1}} \sqrt{QME \left( \frac{(\hat{x}_0 - \bar{x})^2}{S _{xx}} + \frac{1}{n} \right)} = $$ $$=\frac{1}{0,00047} \sqrt{3,98 \times 10^{-10} \left( \frac{(1 - 0,73)^2}{7,794} + \frac{1}{15} \right)} = 0,01168$$

A seguir apresentamos os resultados obtidos pelo software Action:

Tabela da ANOVA

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 0.0000017266 0.0000017266 4337.6248414089 0
Resíduos 13 5.2e-9 3.98e-10

Tabela 4.1.35: Tabela da ANOVA

Coeficientes

Estimativa Desvio Padrão Estat.t P-valor
Intercepto -0.0000195813 0.0000073316 -2.6708098938 0.0192346319
Concentracao 0.0004706666 0.0000071464 65.8606471378 0

Tabela 4.1.36: Coeficientes

Na próxima seção, vamos descrever o método delta.

1.10.3.3 - Incerteza devido a curva de calibração: Método Delta

Nesta seção, vamos utilizar o método delta para calcularmos a incerteza devido a curva de calibração. O método delta é uma técnica para aproximar um vetor aleatório, através da expansão pela séria de Taylor. Ela proporciona transformações que levam a uma variância assintótica que é independente do parâmetro. Se usarmos a aproximação de 1a ordem para $g(\widehat{x}_0)$ obtemos

$$g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} ) = \widehat{x_0} = \dfrac{\widehat{y_0} - \widehat{\beta_0} }{ \widehat{\beta_1} }$$

Expandimos em série de Taylor até primeira ordem, com isso obtemos,

$\mathbb{E}(g(\widehat{x}_0))=g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} ) \approx g( y_0, \beta_0, \beta_1 ) + ( \hat{y_0} - y_0 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial y_0 } +$

$+( \hat{\beta_0} - \beta_0 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial \beta_0 }+ ( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial g( y_0, \beta_0, \beta_1 ) }{ \partial \beta_1 } + 2 (\hat{y_0} - y_0)( \hat{\beta_0} - \beta_0 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial y_0 \partial \beta_0}+$

$+ 2 (\hat{y_0} - y_0)( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial y_0 \partial \beta_1} + 2 (\hat{\beta_0} - \beta_0)( \hat{\beta_1} - \beta_1 ) \dfrac{ \partial^2 g( y_0, \beta_0, \beta_1 ) }{\partial \beta_0 \partial \beta_1}$

Então $\hat{\phi} = g( \widehat{y_0}, \widehat{\beta_0}, \widehat{\beta_1} )$ é o estimador de $g( y_0, \beta_0, \beta_1 )$ e temos aproximadamente,

$\hbox{Var}( \hat{\phi} ) = \hbox{Var} ( \widehat{x_0} ) \approx \hbox{Var}( \widehat{y_0} ) \left( \dfrac{\partial \hat{\phi} }{ \partial y_0 } \right)^2 + \hbox{Var}( \widehat{\beta_0} ) \left( \dfrac{\partial \hat{\phi} }{ \partial \beta_0 } \right)^2 + \hbox{Var}( \widehat{\beta_1} ) \left( \dfrac{\partial \hat{\phi} }{ \partial \beta_1 } \right)^2$

$+ 2 \hbox{Cov}( \hat{y_0}, \hat{\beta_0} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } \right) + 2 \hbox{Cov}( \widehat{y_0}, \widehat{\beta_1} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } \right) + 2 \hbox{Cov}( \widehat{\beta_0}, \widehat{\beta_1} ) \left( \dfrac{ \partial \hat{\phi} }{ \partial \beta_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } \right)$ (1.10.3.3.1)

Da seção 1.3 Propriedades dos Estimadores, temos que

  • $\hbox{Var}( y_0 ) = \sigma^2 $

  • $\hbox{Var} ( \widehat{\beta_0} ) = \sigma^2 \left( \dfrac{1}{n} + \dfrac{ \overline{x}^2 }{ S _{xx} } \right)$

  • $\hbox{Var} ( \widehat{\beta_1} ) = \dfrac{ \sigma^2 }{ S _{xx} }$

  • $\hbox{Cov} ( \widehat{\beta_0}, \widehat{\beta_1} ) = - \dfrac{ \overline{x}\sigma^2 }{ S _{xx} }$

Agora, é necessário calcularmos as derivadas. Assim,

$\dfrac{ \partial \hat{\phi} }{ \partial y_0 } = \dfrac{1}{ \beta_1 }$

$\dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } = -\dfrac{1}{ \beta_1 }$

$\dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = - \dfrac{(y_0 - \beta_0) }{ \beta_1^2 } = - \dfrac{\phi}{\beta_1}$

$\dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_0 } = \dfrac{1}{\beta_1} \left( -\dfrac{1}{\beta_1} \right) = - \dfrac{1}{\beta_1^2}$

$\dfrac{ \partial \hat{\phi} }{ \partial y_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = \dfrac{1}{\beta_1} \left( - \dfrac{(y_0 - \beta_0) }{ \beta_1^2 } \right) = \left( - \dfrac{ y_0 - \beta_0 }{ \beta_1^3 } \right) = - \dfrac{\phi}{\beta_1^2} $

$\dfrac{ \partial \hat{\phi} }{ \partial \beta_0} \dfrac{ \partial \hat{\phi} }{ \partial \beta_1 } = \left( -\dfrac{1}{\beta_1} \right) \left( -\dfrac{y_0 - \beta_0}{ \beta_1^2 } \right) = \dfrac{y_0 - \beta_0}{ \beta_1^3 } = \dfrac{\phi}{\beta_1^2}$

em que $\phi = \dfrac{y_0 - \beta_0}{\beta_1}$

Substituímos as derivadas e os dados obtidos nas seções anteriores em (1.10.3.3.1).

$$ \hbox{Var}(\widehat{x_0}) \approx \dfrac{2 \hbox{QME}}{n\widehat{\beta}^2_1}+\dfrac{\widehat{x}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +\dfrac{2\overline{x}^2 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}- 2\dfrac{\widehat{x}_0\overline{x} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +$$

$+\dfrac{\widehat{y}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+\dfrac{\widehat{\beta}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} - 2\dfrac{\widehat{y}_0\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+2\dfrac{\hbox{QME}}{2\widehat{\beta}^2_1}+ 2\dfrac{\overline{x}^2 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}-$

$-2\dfrac{\widehat{x}_0\overline{x}\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} -4\dfrac{\widehat{y}^2_0\overline{x}\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} - 4\dfrac{\widehat{\beta}^2_0\overline{x}\hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} +8\dfrac{\widehat{y}_0\widehat{\beta_0} \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+ $

$+ 2\dfrac{\widehat{x}^2_0\widehat{y}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}+2\dfrac{\widehat{x}^2_0\widehat{\beta}^2_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}} -4\dfrac{\widehat{x}^2_0\widehat{y}_0\widehat{y}_0 \hbox{QME}}{\widehat{\beta}^2_1 S _{xx}}$

Com algumas manipulações algébricas obtemos

$ \hbox{Var}(\widehat{x_0}) \approx \dfrac{ \hbox{QME}}{\widehat{\beta}^2_1}\left[\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + +\dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)\right]$

Portanto, a incerteza devido à curva de calibração pelo método delta é dada por

$$u(\widehat{x_0}) \approx \dfrac{ \sqrt{\hbox{QME}}}{\widehat{\beta_1}}\sqrt{\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + \dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)}$$

Exemplo 1.10.3.3.1:

Voltamos ao exemplo da Motivação 2. Já temos calculado:

  • $\overline{x} = 0,73 $

  • $S _{xx} = 7,794$

  • $\widehat{\beta_1} = 0,00047$

  • $\widehat{\beta_0}=-1,958\times 10^{-5}$

  • $QME = 3,98 \times 10^{-10}$

  • $\widehat{y}_0=0,000451085$

Suponhamos, $\hat{x}_0 = 1,$ logo a incerteza devido à curva de calibração pelo método Delta é dada por

$$u(\widehat{x_0}) = \dfrac{ \sqrt{\hbox{QME}}}{\widehat{\beta_1}}\sqrt{\dfrac{4}{n}+\dfrac{(\widehat{x}_0-2\overline{x})^2}{S _{xx}} + \dfrac{(\widehat{y}_0-\widehat{\beta_0})^2}{S _{xx}}(1-4\overline{x}+2\widehat{x}^2_0)}$$

$$=\dfrac{ \sqrt{3,98\times 10^{-10}}}{0,00047}\sqrt{\dfrac{4}{15}+\dfrac{(1-2\times 0,73)^2}{7,794} + \dfrac{(0,000451+1,958\times 10^{-5})^2}{7,794}(1-4\times 0,73+2 \times 1^2)}=$$

$$=0,022977$$

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 0.0000017266 0.0000017266 4337.6248414089 0
Resíduos 13 5.2e-9 3.98e-10

Tabela 4.1.37: Tabela da ANOVA

Estimativa Desvio Padrão Estat.t P-valor
Intercepto -0.0000195813 0.0000073316 -2.6708098938 0.0192346319
Concentracao 0.0004706666 0.0000071464 65.8606471378 0

Tabela 4.1.38: Coeficientes

Na próxima seção, vamos descrever o método de Fieller.

1.10.3.4 - Incerteza devido a curva de calibração: Método Fieller

A incerteza devido à curva de calibração como dito na seção modelo estatístico para curva de calibração, na prática temos interesse em predizer o valor da concentração X, dado uma observação em Área (Y). Com isso obtemos:

$$\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}$$

que é uma razão de duas variáveis aleatórias com distribuição normal (para mais detalhes consulte a distribuição Normal), ou seja, $\widehat{y_0}-\widehat{\beta_0}$ tem distribuição normal com média $\beta_1 x_0$ e variância $\dfrac{\sigma^2~x^2_0}{S _{xx}}$ e $\widehat{\beta_1}$ tem distribuição normal com média $\beta_1$ e variância $\dfrac{\sigma^2}{S _{xx}}.$ Ao padronizarmos estas duas variáveis aleatórias, obtemos duas variáveis aleatórias normais padrão, isto é, $W,V\sim N(0,1).$ Logo a razão destas duas variáveis aleatórias terá uma distribuição de Cauchy (para mais detalhes consulte o conteúdo da distribuição de Cauchy), que não possui média e variância, o que impossibilitaria calcularmos a incerteza devido à curva de calibração. Porém, vamos utilizar um resultado que possibilitará calcularmos a incerteza devido à curva de calibração, que é o teorema de Fieller.

O teorema de Fieller é um resultado geral para intervalos de confiança da razão de duas variáveis aleatórias normalmente distribuídas.

Seja a variável aleatória $\rho=\dfrac{\beta_0}{\beta_1},$ em que $\beta_0$ e $\beta_1$ são estimados por $\widehat{\beta_0}$ e $\widehat{\beta_1}$ e estes estimadores são normalmente distribuídos com médias $\beta_0,~\beta_1$ e variâncias $\hbox{Var}(\beta_0)$ e $\hbox{Var}(\beta_1)$ respectivamente.Consideramos $\psi=\widehat{\beta_0}-\rho \widehat{\beta_1}.$

Com isso, como $\widehat{\beta_0},$ e $~\widehat{\beta_1}$ são estimadores não viciados de $\beta_0$ e $\beta_1,$ temos que

$$\mathbb{E}(\psi)=\beta_0-\rho\beta_1\quad \hbox{e}$$

$$\hbox{Var}(\psi)=\hbox{Var}(\widehat{\beta_0})+\hbox{Var}(\rho\widehat{\beta_1})-2\hbox{Cov}(\widehat{\beta_0},\rho\widehat{\beta_1}) \tag{1.10.3.4.1}$$

Suponhamos que $\psi$ seja normalmente distribuído e

$$\dfrac{\widehat{\beta_0}-\rho\widehat{\beta_1}}{\hbox{Var}(\psi)}$$

tem distribuição normal padrão. Agora, observemos a seguinte desigualdade,

$$|\widehat{\beta_0}-\rho \widehat{\beta_1}|\leq z_{\alpha/2}\sqrt{\hbox{Var}(\psi)}$$

Elevamos ao quadrado em ambos os lados e igualamos a zero.

$$\widehat{\beta_0}^2+\rho^2\widehat{\beta_1}^2-2\rho\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2}\hbox{Var}(\psi)=0$$

Substituimos $\hbox{Var}(\psi)$ por (1.10.3.4.1), com isso obtemos

$$\widehat{\beta_0}^2+\rho^2\widehat{\beta_1}^2-2\rho\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2}(\hbox{Var}(\widehat{\beta_0})+\hbox{Var}(\widehat{\beta_1})-2\rho\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1}))=0$$

Para facilitar a notação, substituímos $\hbox{Var}(\widehat{\beta_0})=v_1,$ $\hbox{Var}(\widehat{\beta_1})=v_2,$ $\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=v_{12}$ e $z_{\alpha/2}=w.$ Com isso, temos que

$$\widehat{\beta_0}^2+(\widehat{\rho}\widehat{\beta_1})^2-2\widehat{\rho}\widehat{\beta_0}\widehat{\beta_1}-w^2 v_1-\widehat{\rho}^2 w^2 v_2+2\widehat{\rho} w^2 v_{12}=0$$

$$(\widehat{\beta_1}^2-w^2 v_2)\widehat{\rho}^2-(2\widehat{\beta_0}\widehat{\beta_1}-2w^2 v_{12})\widehat{\rho}+(\widehat{\beta_0}^2-w^2 v_1)=0$$

Assim esta expressão é uma equação do segundo grau do tipo $ a \rho^2 + b \rho + c = 0 $ (Bhaskara). Logo resolvemos esta equação da seguinte forma:

$$\Delta=4(2\widehat{\beta_0}\widehat{\beta_1}-2w^2 v_{12})^2-4(\widehat{\beta_1}^2-w^2 v_2)(\widehat{\beta_0}^2-w^2 v_1)$$

$$=4 w^2(w^2 v^2_{12}-w^2v_1 v_2+\beta_0^2 v_2+\beta_0^2 v_1-2\beta_0\beta_1v_{12})$$

Logo, a solução para $\widehat{\rho}$ é dada por

$$\widehat{\rho}=\dfrac{\widehat{\beta_0}\widehat{\beta_1}-w^2 v_{12}}{\widehat{\beta_1}^2-w^2 v_2}\pm\dfrac{w}{\widehat{\beta_1}^2-w^2 v_2}\sqrt{w^2 v^2_{12}-w^2v_1 v_2+\beta_0^2 v_2+\beta_1^2 v_1-2\beta_0\beta_1v_{12}}$$

Voltamos as notações originais e chegamos a seguinte expressão:

$\widehat{\rho}=\gamma_1\pm\gamma_2\sqrt{\left(z_{\alpha/2}\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})\right)^2 -z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_0}) \hbox{Var}(\widehat{\beta_1})+\beta^2_0 \hbox{Var}(\widehat{\beta_1})+\beta^2_1 \hbox{Var}(\widehat{\beta_0})-2\beta_0\beta_1\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})}$

em que

$$\gamma_1=\dfrac{\widehat{\beta_0}\widehat{\beta_1}-z^2_{\alpha/2} \hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})}{\widehat{\beta_1}^2-z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_1})}\quad\hbox{e}\quad \gamma_2=\dfrac{z_{\alpha/2}}{\widehat{\beta_1}^2-z^2_{\alpha/2} \hbox{Var}(\widehat{\beta_1})}$$

As duas raízes da equação do segundo grau, são os limites de confiança 100(1-$\alpha$)% para $\rho,$ que é o método de Fieller. Agora vamos calcular a variância para $\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}.$ Para isto, vamos adaptar o resultado obtido para $\widehat{\rho}.$ Então basta trocarmos $\widehat{\beta_0}$ por $\widehat{y}_0-\widehat{\beta_0}.$ Mas para isto vamos fazer alguns cálculos:

$$\hbox{Var} (\widehat{y} _0 - \widehat{\beta} _0) = \hbox{Var} (\widehat{y} _0) + \hbox{Var} (\widehat{\beta} _0) - 2 \hbox{Cov} (\widehat{y} _0 , \widehat{\beta} _0) \tag{1.10.3.4.2} $$

Porém, temos

$$\hbox{Cov}(\widehat{y}_0,\widehat{\beta_0})=\mathbb{E}(\widehat{y}_0\widehat{\beta_0})-\mathbb{E}(\widehat{y}_0)\mathbb{E}(\widehat{\beta_0})\quad \tag{1.10.3.4.3}$$

Calculamos agora

$$\mathbb{E}(\widehat{y}_0\widehat{\beta_0})=\mathbb{E}(\widehat{\beta}^2_0+\widehat{\beta_0}\widehat{\beta_1} x_0)=\mathbb{E}(\widehat{\beta}^2_0)+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0=\hbox{Var}(\widehat{\beta_0})+\mathbb{E}^2(\widehat{\beta_0})+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0$$

Voltamos em (1.10.3.4.3) e obtemos

$$\hbox{Cov}(\widehat{y}_0,\widehat{\beta_0})=\hbox{Var}(\widehat{\beta_0})+\mathbb{E}^2(\widehat{\beta_0})+\mathbb{E}(\widehat{\beta_0}\widehat{\beta_1})x_0-\mathbb{E}^2(\widehat{\beta_0})-\mathbb{E}(\widehat{\beta_0})\mathbb{E}(\widehat{\beta_1}) x_0=$$

$$=\hbox{Var}(\widehat{\beta_0})+\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0$$

Agora, voltamos em (1.10.3.4.2) e obtemos

$$\hbox{Var}(\widehat{y}_0-\widehat{\beta_0})=\hbox{Var}(\widehat{y}_0)+\hbox{Var}(\widehat{\beta_0})-2\hbox{Var}(\widehat{\beta_0})-2\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0=$$

$$=\hbox{Var}(\widehat{y}_0)-\hbox{Var}(\widehat{\beta_0})-2\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0$$

Vale lembrar que

$$\hbox{Cov}(\widehat{y}_0-\widehat{\beta_0},\widehat{\beta_1})=\hbox{Cov}(\widehat{y}_0,\widehat{\beta_1})-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=\hbox{Cov}(\widehat{\beta_0}+\widehat{\beta_1} x_0,\widehat{\beta_1})-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=$$

$$=\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})+\hbox{Cov}(\widehat{\beta_1},\widehat{\beta_1}) x_0-\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=\hbox{Var}(\widehat{\beta_1}) x_0$$

Logo, temos que

$$u(\widehat{x} _0)=\gamma_1\pm\gamma_2\left(\left(z_{\alpha/2}\hbox{Var}(\widehat{\beta} _1) x_0\right)^2 -z^2_{\alpha/2}\hbox{Var}(\widehat{y}_0)\hbox{Var}(\widehat{\beta}_1)+z^2_{\alpha/2}\hbox{Var}(\widehat{\beta}_0)\hbox{Var}(\widehat{\beta}_1)+\right.$$

$$+2z^2_{\alpha/2}\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})\hbox{Var}(\widehat{\beta_1})x_0+\widehat{\beta}^2_0\hbox{Var}(\widehat{\beta_1})+\widehat{\beta}^2_1\hbox{Var}(\widehat{y}_0)-\widehat{\beta}^2_1\hbox{Var}(\widehat{\beta_0})$$

$$\left.-2\widehat{\beta}^2_1\hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})x_0-2\widehat{\beta_0}\widehat{\beta_1}\hbox{Var}(\widehat{\beta_1}) x_0\right)^{1/2}$$

Substituímos a equação anterior pelos valores:

$$\hbox{Var}(\widehat{\beta_1})=\dfrac{\hbox{QME}}{S _{xx}}, \quad\hbox{Var}(\widehat{\beta_0})=\hbox{QME}\left(\dfrac{1}{n}+\dfrac{\overline{x}^2}{S _{xx}}\right)\quad \hbox{e}\quad \hbox{Cov}(\widehat{\beta_0},\widehat{\beta_1})=-\dfrac{\overline{x}\hbox{QME}}{S _{xx}}$$

e com algumas manipulações algébricas obtemos que

$$V(\widehat{x}_0)=\dfrac{\widehat{\beta}_0 \widehat{\beta}_1+ \overline{x}g}{(\widehat{\beta}^2_1-g)}\pm\dfrac{z_{\alpha/2}}{(\widehat{\beta}^2_1-g)}\sqrt{2g \dfrac{\hbox{QME}}{S _{xx}}\overline{x}\widehat{x}_0+\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$

em que $g=\dfrac{z^2_{\alpha/2}~\hbox{QME}}{S _{xx}}.$ Quando g é zero para $V(\widehat{x}_0)$ , temos os limites para $\widehat{\rho}(\widehat{x}_0).$ Com isso temos que

$$V(\widehat{x} _0)=\widehat{\rho}\pm\dfrac{z_{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2 _0}{S _{xx}}}$$

Agora, observe que

$$-\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}\leq \dfrac{\widehat{\beta_0}}{\widehat{\beta_1}}\leq\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$

Multiplicamos por -1 a inequação e somamos $\dfrac{\widehat{y}_0}{\widehat{\beta_1}},$ obtemos que

$$\dfrac{\widehat{y} _0}{\widehat{\beta} _1}- \dfrac{z _{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME} \dfrac{\widehat{y}^2 _0}{S _{xx}}}\leq \dfrac{\widehat{y} _0}{\widehat{\beta} _1}- \dfrac{\widehat{\beta} _0}{\widehat{\beta} _1}\leq \dfrac{\widehat{y} _0}{\widehat{\beta} _1}+\dfrac{z _{\alpha/2}}{\widehat{\beta}^2 _1}\sqrt{\hbox{QME} \dfrac{\widehat{y}^2 _0}{S _{xx}}}$$

Logo, temos que

$$\dfrac{\widehat{y} _0}{\widehat{\beta}_1}-\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}\leq\widehat{x}_0 \leq\dfrac{\widehat{y}_0}{\widehat{\beta}_1}+\dfrac{z_{\alpha/2}}{\widehat{\beta}^2_1}\sqrt{\hbox{QME}\dfrac{\widehat{y}^2_0}{S _{xx}}}$$

Portanto, a incerteza padronizada devido a curva de calibração é dada por:

$$u(\widehat{x}_0)=\dfrac{\widehat{y}_0+\widehat{\beta_1}}{\widehat{\beta_1}}\sqrt{\dfrac{\hbox{QME}}{\widehat{\beta}^2_1} \dfrac{\widehat{y}^2_0}{S _{xx}\widehat{\beta}^2_1}}$$

Exemplo 1.10.3.4.1:

Voltamos ao exemplo da Motivação 2. Já temos calculado:

  • $\overline{x} = 0,73 $
  • $S _{xx} = 7,794$
  • $\widehat{\beta_1} = 0,00047$
  • $\widehat{\beta_0}=-1,958\times 10^{-5}$
  • $QME = 3,98 \times 10^{-10}$
  • $\widehat{y}_0=0,000451085$

Suponhamos, $\hat{x}_0 = 1,$ logo a incerteza devido à curva de calibração pelo método Fieller é dada por

$$u(\widehat{x}_0)=\dfrac{\widehat{y}_0+\widehat{\beta_1}}{\widehat{\beta_1}}\sqrt{\dfrac{\hbox{QME}}{\widehat{\beta}^2_1} \dfrac{\widehat{y}^2_0}{S _{xx}\widehat{\beta}^2_1}} = \dfrac{0,000451085 + 0,00047}{0,00047} \sqrt{\dfrac{3,98\times10^{-5}}{0,00047^2} \dfrac{0,000451085^2}{7,794 \times 0,00047^2}}$$ $$= 9,04328$$

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 0.0000017266 0.0000017266 4337.6248414089 0
Resíduos 13 5.2e-9 3.98e-10

Tabela 4.1.39: Tabela da ANOVA

Estimativa Desvio Padrão Estat.t P-valor
Intercepto -0.0000195813 0.0000073316 -2.6708098938 0.0192346319
Concentracao 0.0004706666 0.0000071464 65.8606471378 0

Tabela 4.1.40: Coeficientes

1.10.3.5 - Comparação entre os métodos para incerteza devido à curva de calibração

O modelo de regressão linear inversa foi aplicado à avaliação da incerteza na determinação de compostos químicos à partir da construção de curva de calibração para diferentes níveis de concentrações. Nas seções anteriores utilizamos cinco métodos para determinar a incerteza devido à curva de calibração $u(\widehat{x}_0)$ e são elas:

  1. Método Ingênuo;

  2. Método MGQ (Manual da Garantia da Qualidade);

  3. Método da projeção do intervalo de confiança da resposta média;

  4. Método Delta;

  5. Método Fieller.

Na presente seção vamos fazer uma comparação entre os quatro métodos para aplicação obtida na seção 1.10 (ICP - Espectrômetro de emissão ótica).

Concentração Área Ajustada u (Ing) u (MGQ) u (Proj) u (delta) u (Fieller)
0,05 0,000004 0,04239 0,04521 0,0157 0,0318 0,00011
0,1 0,000027 0,04239 0,04508 0,0153 0,0314 0,00083
0,25 0,000098 0,04239 0,04474 0,0143 0,0303 0,00339
0,5 0,000216 0,04239 0,04438 0,0132 0,0286 0,00899
1 0,000451 0,04239 0,04442 0,0133 0,0263 0,0253
2 0,000922 0,04239 0,04746 0,0213 0,0266 0,078
3 0,001392 0,04239 0,05379 0,0331 0,0329 0,16
5 0,002334 0,04239 0,07253 0,0589 0,0541 0,40

Tabela 4.1.41: Resumo das incertezas devido à curva de calibração para todos os métodos.

Comparamos as incertezas obtidas na Tabela 4.1.41, e notamos que os métodos ingênuo (Ing) e do manual da garantia da qualidade (MGQ) estão bem próximos em concentrações até 1 μg/mL, comparando com os demais métodos. Vale lembrar que o método ingênuo (para mais detalhes consulte modelo estatístico para curva de calibração) é dado pela fórmula:

$$u(\widehat{x}_0)=\dfrac{\sqrt{\hbox{QME}}}{\widehat{\beta_1}}$$

e este método mantêm constante a incerteza para qualquer nível de concentração.

Em concentrações até 0,5 μg/mL, temos que o método de Fieller é tem menor incerteza e cresce linearmente, à medida que aumentamos os níveis de concentração. Os métodos delta e MGQ tem variação pequena ao longo dos níveis de concentração adotados, enquanto o método da projeção (Proj) cresce linearmente à medida que aumentamos os níveis de concentração, porém com menos intensidade comparado com o método de Fieller.

Resumindo, notamos que o método de Fieller, para níveis de concentração baixo têm incerteza baixa, enquanto que para níveis de concentração altos a incerteza é muito maior comparado com os demais métodos.

Incerteza relativa aos níveis de concentração (%)

Concentração u (Ing) u (MGQ) u (Proj) u (delta) u (Fieller)
0,05 84,78 90,42 31,44 63,66 0,23
0,1 42,39 45,08 15,34 31,44 0,83
0,25 16,96 17,90 5,73 12,12 1,36
0,5 8,48 8,88 2,63 5,73 1,80
1 4,24 4,44 1,33 2,63 2,53
2 2,12 2,37 1,07 1,33 3,90
3 1,41 1,79 1,10 1,10 5,25
5 0,85 1,45 1,18 1,08 7,95

Tabela 4.1.42: Incertezas em porcentagem em relação aos níveis de concentração.

A Tabela 4.1.42 nos mostra a porcentagem da incerteza devido a curva de calibração em relação aos níveis de concentração. Desta tabela, obtemos que a incerteza para os baixos níveis de concentração é bem alto. Por exemplo, vamos observar o nível de concentração de 0,05 μg/mL. A incerteza que mais alta é o obtido pelo método do manual da garantia da qualidade (MGQ). O método da projeção do intervalo de confiança da resposta média (Proj), embora com incerteza menor que os métodos MGQ, delta e ingênuo, ainda assim tem cerca de 32% em relação a concentração de 0,05 μg/mL. Ao compararmos a incerteza obtida pelo método Fieller com os demais, observamos que ela é a mais adequada para incertezas com níveis de concentração baixos. Os demais métodos decrescem à medida que aumentamos os níveis de concentração (Tabela 4.1.42), enquanto que o método de Fieller cresce. Outro argumento de favorece o método de Fieller é que $\widehat{x}_0=\dfrac{\widehat{y}_0-\widehat{\beta_0}}{\widehat{\beta_1}}$ é a razão de duas variáveis aleatórias com distribuição normal e este método leva em conta esta suposição. Ao contrário dos demais métodos que não usam esta suposição. Portanto, o método de Fieller é o método mais plausível para calcularmos a incerteza devido à curva de calibração.

1.11 - Regressão Linear Ponderada

Em muitos casos, ao analisarmos os resíduos do modelo de regressão linear podemos concluir que a variância dos erros experimentais não é constante ao longo do valor ajustado pelo modelo. Neste caso, temos que uma das suposições do modelo de regressão não é atendida. Quando isso acontece, dizemos que o modelo apresenta heterocedasticidade nos erros, ou ainda que o modelo é heterocedástico. Alguns efeitos causados por essa falha na suposição do modelo são:

  • Os erros padrões dos estimadores, obtidos pelo Método dos Mínimos Quadrados Ordinários, são incorretos e portanto a inferência estatística não é valida.

  • Não podemos mais dizer que os Estimadores de Mínimos Quadrados Ordinários são os melhores estimadores de variância mínima para $\beta$, embora ainda possam ser não viciados.

O fato curioso da heterocedasticidade é que os estimadores mínimos quadrados ordinários são não viciados. Porém, a variância destes estimadores é incorreta. Para provarmos que a variância está incorreta, tomamos o modelo de regressão linear simples

$$Y_i = \beta_0 + \beta_1 x_i + \varepsilon_i$$

no qual $\varepsilon_i$ são variáveis aleatórias não correlacionadas com média zero e variância $\sigma^2_i$ para todo $i=1, \cdots , n$. Sabemos que os estimadores de mínimos quadrados são dados por

$$\hat{\beta_1} = \frac{Sxy}{Sxx} = \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2}$$

Desta forma, obtemos que

$$\mathbb{E} [\hat{\beta_1}] = \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) Y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] =\beta_0 \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] + \beta_1 \mathbb{E} \left[\frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) x_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2 } \right] + \mathbb{E} \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) \varepsilon_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2 } \right]=\beta_1$$

Com isso, concluímos que as estimativas de mínimos quadrados são não viciadas. Por outro lado, temos que

$$Var [\hat{\beta_1}] = Var \left[ \frac{\displaystyle\sum_{i=1}^n (x_i - \bar{x}) y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} Y_i\right] = \sum_{i=1}^n Var \left[ \frac{ (x_i - \bar{x}) Y_i}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right] = \sum_{i=1}^n \left[ \frac{ (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right]^2 Var[Y_i]=\sum_{i=1}^n \left[ \frac{ (x_i - \bar{x})}{\displaystyle\sum_{i=1}^n (x_i - \bar{x})^2} \right]^2 \sigma^2_i$$

Assim, a variância da estimativa de mínimos quadrados depende da variância dos erros experimentais, o que torna inviável obtermos estimativas para tal variância sem alguma hipótese adicional.

Suponha que a variância do erro experimental não seja constante, mas pode ser respresentada na forma $Var (\varepsilon ) = \sigma^2 V$ no qual $V$ é uma matriz diagonal conhecida e $\varepsilon=(\varepsilon_1, \cdots , \varepsilon_n)^\top$ o vetor de erros experimentais. Neste caso, temos que as observações são não correlacionadas mas tem variâncias distintas. Como apresentamos acima, os estimadores de mínimos quadrados não são apropriados, pois não temos como garantir que eles são de variância mínima entre todos os não viciados. A ideia é transformar as observações para que possamos aplicar o método dos mínimos quadrados ordinários. Considere o modelo linear

$$Y=X\beta + \varepsilon$$

no qual $Y$ é o vetor de observações, $X$ a matriz de variáveis independentes, $\beta = (\beta_0 , \beta_1)^\top$ o vetor de parâmetros e $\varepsilon$ o vetor de erros experimentais. Desde que $\sigma^2 V$ é a matriz de covariâncias do vetor de erros experimentais , sabemos que $V$ é uma matriz não singular e positiva definida. Então existe uma matriz não singular e simétrica $K_{(n \times n)}$ tal que $K^\top K =V$. A matrix $K$ é denominada raiz quadrada de $V$. Definimos as novas variáveis

$$Z=K^{-1} Y, \quad B=K^{-1} X, \quad \eta = K^{-1} \varepsilon$$

Desta forma, obtemos que

$$Z=K^{-1} Y = B \beta + \eta $$

O erro experimental $\eta$ no modelo transformado satisfazem

$$Var(\eta) = \mathbb{E} \left[ \left( \eta - \mathbb{E}(\eta) \right) \left( \eta - \mathbb{E}(\eta) \right)^\top\right] = \mathbb{E} \left( \eta ~ \eta^\top\right)$$

$$ = \mathbb{E} \left( K^{-1} \varepsilon ~ \varepsilon^\top \left(K^{-1})^\top\right)=K^{-1} \mathbb{E} \left( \varepsilon ~ \varepsilon^\top \right) (K^\top) \right)^{-1}$$

$$=\sigma^2 K^{-1} V \left(K^\top\right)^{-1} = \sigma^2 K^{-1} KK^\top (\left(K^\top\right))^{-1} = \sigma^2 I.$$

e

$$\mathbb{E}(\eta)=\mathbb{E}(K^{-1}\varepsilon)= K^{-1}\left\lbrace\mathbb{E}(Z)-B\mathbb{E}(\widehat{\beta})\right\rbrace= K\left\lbrace\mathbb{E}(Y)-X\mathbb{E}(\widehat{\beta})\right\rbrace=0$$

Portanto, os elementos de $\eta$ tem média zero, são não correlacionados e tem variância constante. Assim, o erro experimental $\eta$ satisfaz as hipóteses usuais para aplicarmos o método do mínimos quadrados ordinários. Este argumento nos garante que se conhecemos a forma da heterocedasticidade da matriz de convariâncias do vetor de erro experimentias $V$, podemos transformar o modelo linear de forma que este atenda às hipóteses usuais para aplicarmos o método dos mínimos quadrados ordinários.

Motivação 3

Considere o experimento para determinar a curva de calibração para um determinado ativo. A seguir apresentamos os dados:

Área Concentração
0,078 0
1,329 0
0,483 0
0,698 0
0,634 0
0,652 0
0,071 0
20,718 25
21,805 25
16,554 25
19,948 25
21,676 25
22,207 25
19,671 25
33,833 50
34,726 50
35,463 50
34,04 50
34,194 50
33,664 50
34,517 50
79,224 100
73,292 100
85,514 100
82,072 100
85,044 100
73,876 100
82,568 100
108,065 150
118,268 150
108,89 150
127,183 150
121,447 150
122,414 150
135,555 150
224,932 250
200,113 250
200,368 250
205,17 250
213,059 250
207,931 250
201,766 250
371,534 500
408,86 500
383,509 500
405,143 500
404,132 500
379,243 500
387,419 500

Tabela 4.1.43: Dados da amostra da Motivação 3

Considere o modelo de calibração dado por

$$Y_{ij} = \beta_0 + \beta_1 x_{ij} + \varepsilon_{ij}$$

nos quais $j=1, \cdots , n_i$ e $i=1, \cdots , k$. Como hipótese usual de modelos lineares, admitimos que $\varepsilon_{ij}$ são variável aleatórias iid com variância constante $\sigma^2$. Ajustamos o modelo de regressão linear, com o apoio computacional do softwarze Action, para o qual obtemos o seguinte gráfico da análise de resíduos:

Figura4.1.17

Figura 4.1.17: Análise da homocedasticidade modelo.

Vale lembrar que as suposições para aplicarmos o método dos mínimos quadrados é que os erros são não correlacionados e com variâncias constantes, isto é, o modelo é homocedástico. Ao avaliarmos o gráfico de resíduos versus valores ajustados, podemos verificar indícios de heterocedasticidade. Note que gráfico do resíduo pelo valor ajustado tem a forma de funil.

Na avaliação da homocedasticidade, esperamos que esse gráfico apresente seus pontos dispostos aleatoriamente em torno da linha traçada em 0. Como o gráfico apresenta a forma de funil, temos indícios de que os erros não possuem variâncias contantes, neste caso dizemos que o modelo apresenta heterocedasticidade nos erros. A avaliação da hipótese de homoscedasticidade da variância dos erros experimentais pode ser realizada através de testes de hipóteses apropriados como Cochran, Brown-Forsyte (Levene), Breusch-Pagan e Goldfeld-Quandt. Para isto, testamos as seguintes hipóteses:

$$\begin{cases} H_0:\sigma^2_1=\sigma^2_2 = … =\sigma^2_k \cr H_1:~\hbox{pelo menos um dos} \ \sigma_i^2 \ \hbox{diferente,} \quad i=1,\ldots,k. \end{cases}$$

A seguir, com auxílio do software Action, vamos avaliar a homocedasticidade através dos testes de hipóteses:

Estatística Número de Réplicas P-valor
0.51051508 7 0.00099733

Tabela 4.1.44: Teste de Homocedasticidade - Cochran

Variável Estatística G.L.Num. G.L.Den. P-valor
grupo 5.76046332 6 42 0.00019229

Tabela 4.1.45: Teste de Homocedasticidade (Brown-Forsythe)

Estatística GL P-valor
12.81922038 1 0.00034308

Tabela 4.1.46: Teste de Homocedasticidade - Breusch Pagan

Variável Estatística GL1 GL2 P-valor
Concentracao 37.8362623 18 17 5.765522e-10

Tabela 4.1.47: Teste de Homocedasticidade - Goldfeld Quandt

A partir dos resultados, notamos que para todas as estatísticas utilizadas rejeitamos a hipótese nula $H_0$, isto é, o modelo é heterocedástico ao nível de significância de 5% ($\alpha=0,05$). Ao testarmos a hipótese de homocedasticidade e este for rejeitado, então temos um modelo heterocedástico. Para contornar a falha na suposição do modelo de regressão linear, descrevemos a estimativa por Mínimos Quadrados Ponderados.

Modelo Estatístico

Neste momento, consideramos o modelo de regressão linear simples e vamos denotar por $\sigma_i^2$ a variância relacionada ao i-ésimo erro $\varepsilon_i,$, A suposição do modelo é que $\varepsilon_i \sim N(0,\sigma_i)$ e são independentes. Observe que estamos considerando que a variância $\sigma_i^2$ depende da i-ésima observação, podendo ser não constante ao longo das observações. O modelo descrito é da forma:

$$Y_i=\beta_{w0} + \beta_{w1}X_i + \varepsilon_i \tag{1.11.1}$$

em que,

  • $Y_i$ é a i-ésima observação da variável resposta;

  • $X_i$ é a i-ésima observação da covariável constante e conhecida;

  • $\beta_{w0}$ e $\beta_{w1}$ são os parâmetros desconhecidos da regressão;

  • $\varepsilon_i$ é o i-ésimo erro, consideramos $\varepsilon_i \sim N(0,\sigma_i^2)$ para $i=1,2,\dots,n$ e $n$ é o número de observações.

Com estas hipóteses, a matriz de covariância é definida na forma $\sigma^2 V$, no qual os elementos da diagonal de $V$ são dados por $\sigma^2_i / \sigma^2$. A ideia principal é obtermos estimadores para os parâmetros de regressão de forma que estes sejam consistentes e de variância mínima. Desta forma, a inferência sobre o modelo se torna válida. Para tratar este caso, admitimos que a matriz $V$ é “conhecida” e assim, sabemos que o modelo transformado $Z = B \beta + \eta$ satisfazem as hipóteses do modelo de regressão linear simples. Com isso, sabemos que os estimadores de mínimos quadrados ordinários são consistentes e de variância mínima.

Como dito, vamos introduzir os princípios dos estimadores de mínimos quadrados ponderados, no qual devemos considerar que cada uma das $n$ observações podem não gerar a mesma variabilidade nos resíduos. Para determinarmos o peso que cada observação terá sobre os estimadores, utilizamos a ideia de que o peso atribuído a uma observação é inversamente proporcional a variância do resíduo relacionado a ela, em outras palavras, consideramos que as observações que causam maior variabilidade nos resíduos têm menor confiabilidade em termos de inferência para os parâmetros da função de regressão. De maneira análoga, as observações com menor variância são mais confiáveis. Na prática, temos diversas fomas de considerarmos os pesos, caso tenhamos informação de que a variância é diretamente proporcional à variável independente ($X$), podemos tomar como peso $1/x$.

No exemplo acima, temos $7$ réplicas de cada ponto de concentração. No caso de réplicas ou “quase réplicas” utilizamos o inverso da variância de cada ponto como peso. Ao denotarmos por $s_i^2$ a variância do ponto, defimos o peso por

$$w_i = \frac{1}{s^2_i} \quad \hbox{e} \quad w_i = k \frac{1/s^2_i}{\sum_{i=1}^k 1 / s^2_i}$$

no qual $i=1, \cdots ,k$ e $k$ é o número de pontos.

1.11.1 - Modelo de regressão linear ponderada

Vamos considerar um modelo de regressão linear no qual a variância dos erros não é constante, mas os erros são não correlacionados. A matriz de convariância dos erros é dada por $\sigma^2 V$ no qual $V$ é uma matriz diagonal e positiva definida.

Na seção anterior, fizemos uma boa discussão sobre a necessidade da ponderação, aplicada aos casos nos quais detectamos heterocedasticidade. O modelo é descrito na forma:

$$K^{-1}Y_i=K^{-1}\beta_{0} + K^{-1}\beta_{1}X_i + K^{-1}\varepsilon_{i}$$

$$Z_{i}=\beta_{0w} + \beta_{1w}B_{i} + \eta_{i}\tag{1.11.1}$$

em que,

  • $Y_i$ é a i-ésima observação da variável resposta;
  • $X_i$ é a i-ésima observação da covariável constante e conhecida;
  • $\beta_{w0}$ e $\beta_{w1}$ são os parâmetros desconhecidos da regressão;
  • $\eta_{i}$ é o i-ésimo erro, consideramos $\eta_{i} \sim N(0,\sigma^2 V)$ para $i=1,2,\dots,n$ e $n$ é o número de observações.

Como apresentado na seção “Regressão Linear Ponderada”, ao denotarmos por $K$ a raiz quadrada de $V$ $(K^\top K =V)$, sabemos que o modelo $Z = B \beta + \eta$, nos quais $Z=K^{-1} Y$, $B = K^{-1} X$ e $\eta = K^{-1} \varepsilon$, satisfazem as hipóteses usuais do modelo de regressão linear. Assim, as estimativas de mínimos quadrados são consistentes e de variância mínima.

1.11.2 - Estimação dos parâmetros do modelo

Para estimarmos os parâmetros do modelo de regressão linear heterocedástico tomamos a função de mínimos quadrados por

$$Q_w=\displaystyle\sum^n_{i=1}\eta^2_{i}= \sum_{i=1}^{n} w_i\left( Y_i-\left(\beta_{w0}+\beta_{w1}X_i\right) \right)^2$$

que é soma dos desvios ponderados por $w_i$. No modelo de regressão admitimos que o vetor de erros experimentais tem matriz de covariância dada por $\sigma^2 V$. Assim, temos que $V$ é uma matriz diagonal com elementos da diagonal dados por $1/w_i$.

Os estimadores $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w1}}$ que minimizam a função de mínimos quadrados são conhecidos como estimadores de mínimos quadrados ponderados. Notamos que esses estimadores, coincidem com os estimadores de mínimos quadrados ordinários apresentados nas seções anteriores (para mais detalhes consulte Estimação dos Parâmetros do Modelo) quando consideramos a suposição de homocedasticidade, que implica em pesos $(w_{i})$ iguais.

As observações de maior variância têm menos influência sobre os estimadores de $\beta_{w0}$ e $\beta_{w1}$, e as de menor variância têm mais influência. Isso é devido ao fato de que as observações de menor variância apresentam informações mais pertinentes a respeito da $\mathbb{E}[Y|X_i],~~i=1,\dots,n.$

Calculamos os estimadores de mínimos quadrados ponderados derivando $Q_w$ em relação aos parâmetros e igualando a zero para obter o ponto de mínimo, ou seja:

$$ \dfrac{\partial Q_w}{\partial \beta_{w0}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)=2\displaystyle \sum_{i=1}^{n} w_i Y_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_iX_i=0$$

$$ \dfrac{\partial Q_w}{\partial \beta_{w1}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)X_i=2\displaystyle \sum_{i=1}^{n} w_i Y_i X_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_iX_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_i{X_i}^2=0$$

Desta forma, obtemos o sistema:

$$\begin{cases}\displaystyle \sum_{i=1}^{n} w_iY_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_i + \beta_{w_{w1}} \displaystyle \sum_{i=1}^{n} w_iX_i \cr \displaystyle \sum_{i=1}^{n} w_iY_iX_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_iX_i + \beta_{w1} \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 \end{cases}$$

Com isso, a solução das equações são dadas por:

$$\beta_{w0}= \dfrac { \displaystyle\displaystyle \sum_{i=1}^{n} w_i Y_i - \beta_{w1} \displaystyle\displaystyle \sum_{i=1}^{n} w_i X_i }{ \displaystyle\displaystyle \sum_{i=1}^{n} w_i}\quad \hbox{e}\quad\beta_{w1} = \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n} w_iY_iX_i - \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n}w_iY_i \displaystyle \displaystyle \sum_{i=1}^{n}w_iX_i }{ \displaystyle \displaystyle \sum_{i=1}^{n} {w_i}}}{ \displaystyle \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 - \dfrac{\left(\displaystyle \displaystyle \sum_{i=1}^{n} w_i X_i \right)^2}{\displaystyle \displaystyle \sum_{i=1}^{n} w_i}}$$

Para facilitar a notação, denotamos $\overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n} w_i}$ e $\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n} wi}$ as médias ponderadas de $Y$ e $X$, respectivamente. Afim de facilitar os cálculos, vamos reescrever o estimador de mínimos quadrados ponderados de $\beta_{w1}$ da seguinte maneira:

$\widehat{\beta} _{w1}=\dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X} _w)(Y_i - \overline{Y} _w) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X} _w)^2} =$

$$=\dfrac{\displaystyle \sum_{i=1}^n w_i X_i Y_i -\displaystyle \sum_{i=1}^{n} w_i X_i \overline{Y}_w -\displaystyle \sum_{i=1}^n w_i \overline{X}_w Y_i +\displaystyle \sum_{i=1}^n w_i\overline{X}_w \overline{Y}_w}{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$

$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{ \displaystyle \sum_{i=1}^{n} w_i } \right) - \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$

$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i\displaystyle \sum_{i=1}^{n} w_i X_i}{ \displaystyle \sum_{i=1}^{n} w_i }- \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \dfrac{\displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{i=1}^{n}\overline{X}_w w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i} }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$

$$= \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_iY_i \overline{X}_w - \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w + \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}$$

$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_iY_iX_i -\displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2 } = \dfrac{ \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)Y_i }{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \tag{1.11.1.5}$$

Logo, os estimadores de mínimos quadrados ponderados são dadas por:

$$\widehat{\beta_{w0}} = \overline{Y}_w - \widehat{\beta_{w1}}\overline{X}_w\quad \hbox{e}\quad \widehat{\beta_{w1}} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } $$

Os valores de $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w0}}$ obtidos são denominados Estimadores de Mínimos Quadrados Ponderados (EMQP).

O modelo de regressão linear simples ponderado ajustado é dado por

$$\widehat{Y_i}=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i\quad i=1,\dots,n$$

em que $\widehat{Y}$ é um estimador pontual da média da variável Y para um valor de $x$, ou seja,

$$\widehat{\mathbb{E}(Y|X_i)}=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i,\quad i=1,\dots,n$$

Exemplo 1.11.1.1

Voltamos à motivação, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as estimativas dos parâmetros $\beta_{w0}$ e $\beta_{w1}$ pelo método dos mínimos quadrados ponderados. Vale lembrar que estamos desenvolvendo a teoria, como se as variâncias fossem conhecidas, porém para resolvermos este exemplo vamos admitir que as variâncias sejam desconhecidas. Com isso, vamos utilizar a variância amostral $s^2_i$ no lugar de $\sigma^2_i.$ Através do software Action obtemos os valores dos pesos $1/s^2_i:$

Dos resultados obtidos do Action, calculamos $w_i=1/s^2_i=$ 1/Variância. Com isso, obtemos a Tabela 4.1.48:

n Área $(Y_i)$ Concentração $(X_i)$ $w_i$ $w_i X_i$ $w_i Y_i$ $V=(X_i-\overline{X}_w)$ $w_i * V * Y_i$ $w_i*V^2$
1 0.08 0 5.446476181 0.000 0.425 -17.811 -7.566 1727.748
2 1.33 0 5.446476181 0.000 7.238 -17.811 -128.921 1727.748
3 0.48 0 5.446476181 0.000 2.631 -17.811 -46.854 1727.748
4 0.70 0 5.446476181 0.000 3.802 -17.811 -67.710 1727.748
5 0.63 0 5.446476181 0.000 3.453 -17.811 -61.502 1727.748
6 0.65 0 5.446476181 0.000 3.551 -17.811 -63.248 1727.748
7 0.07 0 5.446476181 0.000 0.387 -17.811 -6.887 1727.748
8 20.72 25 0.266796416 6.670 5.527 7.189 39.738 13.789
9 21.81 25 0.266796416 6.670 5.817 7.189 41.823 13.789
10 16.55 25 0.266796416 6.670 4.417 7.189 31.752 13.789
11 19.95 25 0.266796416 6.670 5.322 7.189 38.262 13.789
12 21.68 25 0.266796416 6.670 5.783 7.189 41.576 13.789
13 22.21 25 0.266796416 6.670 5.925 7.189 42.594 13.789
14 19.67 25 0.266796416 6.670 5.248 7.189 37.730 13.789
15 33.83 50 2.647451047 132.373 89.571 32.189 2883.229 2743.149
16 34.73 50 2.647451047 132.373 91.935 32.189 2959.330 2743.149
17 35.46 50 2.647451047 132.373 93.887 32.189 3022.137 2743.149
18 34.04 50 2.647451047 132.373 90.119 32.189 2900.870 2743.149
19 34.19 50 2.647451047 132.373 90.527 32.189 2913.994 2743.149
20 33.66 50 2.647451047 132.373 89.124 32.189 2868.827 2743.149
21 34.52 50 2.647451047 132.373 91.382 32.189 2941.520 2743.149
22 79.22 100 0.040140331 4.014 3.180 82.189 261.368 271.151
23 73.29 100 0.040140331 4.014 2.942 82.189 241.798 271.151
24 85.51 100 0.040140331 4.014 3.433 82.189 282.120 271.151
25 82.07 100 0.040140331 4.014 3.294 82.189 270.764 271.151
26 85.04 100 0.040140331 4.014 3.414 82.189 280.569 271.151
27 73.88 100 0.040140331 4.014 2.965 82.189 243.725 271.151
28 82.57 100 0.040140331 4.014 3.314 82.189 272.400 271.151
29 108.07 150 0.010528595 1.579 1.138 132.189 150.401 183.977
30 118.27 150 0.010528595 1.579 1.245 132.189 164.601 183.977
31 108.89 150 0.010528595 1.579 1.146 132.189 151.550 183.977
32 127.18 150 0.010528595 1.579 1.339 132.189 177.009 183.977
33 121.45 150 0.010528595 1.579 1.279 132.189 169.026 183.977
34 122.41 150 0.010528595 1.579 1.289 132.189 170.372 183.977
35 135.56 150 0.010528595 1.579 1.427 132.189 188.661 183.977
36 224.93 250 0.012536482 3.134 2.820 232.189 654.740 675.865
37 200.11 250 0.012536482 3.134 2.509 232.189 582.496 675.865
38 200.37 250 0.012536482 3.134 2.512 232.189 583.238 675.865
39 205.17 250 0.012536482 3.134 2.572 232.189 597.216 675.865
40 213.06 250 0.012536482 3.134 2.671 232.189 620.180 675.865
41 207.93 250 0.012536482 3.134 2.607 232.189 605.253 675.865
42 201.77 250 0.012536482 3.134 2.529 232.189 587.308 675.865
43 371.53 500 0.00470075 2.350 1.746 482.189 842.138 1092.955
44 408.86 500 0.00470075 2.350 1.922 482.189 926.743 1092.955
45 383.51 500 0.00470075 2.350 1.803 482.189 869.281 1092.955
46 405.14 500 0.00470075 2.350 1.904 482.189 918.318 1092.955
47 404.13 500 0.00470075 2.350 1.900 482.189 916.026 1092.955
48 379.24 500 0.00470075 2.350 1.783 482.189 859.612 1092.955
49 387.42 500 0.00470075 2.350 1.821 482.189 878.144 1092.955
Soma 33845,74 46960,42
Média ponderada 12,86 17,81 $\widehat{\beta}_{w1}$ 0,720729081
$\widehat{\beta}_{w0}$ 0,020396847

Tabela 4.1.48: Cálculo dos coeficientes de regressão.

Agora, vamos calcular as médias ponderadas.

$\overline{Y} _w =\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i}=\dfrac{758,58}{59}=12,86~~$ e $~\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi}=\dfrac{1050,84}{59}=17,81$

Para ilustrar as contas, vamos tomar a observação 8, com isso obtemos:

$$w_8(X_8-\overline{X}_w)Y_8=0,27(25\sqrt{0,27}-17,81)20,718=39,74$$

e

$$w_8(X_8-\overline{X}_w)^2=0,27~(25\sqrt{27}-17,81)^2=13,79 $$

Repetimos as contas para todas as observações e obtemos:

$$\widehat{\beta_{w1}} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{33845,74}{46960,42}=0,7207 $$

$$\widehat{\beta_{w0}} = \overline{Y_w} - \widehat{\beta_{w1}}\overline{X_w}=12,86-0,7207\times 17,81=0,02039.$$

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentração 1 24393.617047064 24393.617047064 4688.040436639 0
Resíduos 47 244.558471009 5.203371724

Tabela 4.1.49: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-3.893404242 0.187295875 1.465691028 1.108825534 2.336105311 5.008184259

Tabela 4.1.50: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 0.020396895 0.351200081 0.058077706 0.953932958
Concentração 0.720729068 0.010526315 68.469266366 0

Tabela 4.1.51: Coeficientes

Figura4.1.18.svg

Figura 4.1.18: Gráfico de dispersão

Notamos que as faixas de maior concentração apresentam maior variabilidade que as faixas iniciais de concentração.

Exemplo 1.11.1.2

Neste exemplo aplicamos o modelo de regressão ponderada para peso $w_i = k\times \frac{1/s_i^2}{\displaystyle\sum_{i=1}^k 1/s_i^2}$ em que $s_i$ é a estimativa do desvio padrão no nível $i$, $i=1,…,k$ e $k=8.$ Aqui utilizamos a coluna ponto, pois foi utilizado concentrações reais, o que são muito utilizados na prática. Na tabela a seguir, temos os valores da Concentração e da Absorbância do analito e alguns cálculos que serão utilizados para a estimativa dos parâmetros.

Ponto Concentração Área
A 0,020253 0,00154
A 0,020713 0,00152
A 0,020289 0,00152
B 0,11507 0,00617
B 0,11644 0,00608
B 0,1093 0,00608
C 0,23444 0,01234
C 0,22935 0,01215
C 0,22946 0,01215
D 0,35652 0,0185
D 0,35304 0,01823
D 0,34955 0,01823
E 0,47907 0,02467
E 0,48037 0,02431
E 0,47239 0,02431
F 0,60912 0,03084
F 0,59584 0,03038
F 0,58696 0,03038
G 0,73821 0,03701
G 0,69549 0,03646
G 0,71271 0,03646
H 0,80135 0,04009
H 0,76376 0,0395
H 0,77783 0,0395

Tabela 4.1.52: Validação de regressão ponderada.

A seguir descrevemos os passos da validação

  • Estimativas dos Parâmetros

Para calcularmos as estimativas dos parâmetros do modelo de regressão ponderada, consideramos os cálculos:

$\overline{Y_w}=\dfrac{\displaystyle\sum_{i=1}^{n}w_i Y_i }{\displaystyle\sum_{i=1}^{n}w_i}=\dfrac{0,051262319}{24,018679112}= 0,002134269$

$\overline{X_w} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i X_i}{\displaystyle\sum_{i=1}^{n}wi}=\dfrac{0,782306555}{24,018679112}=0,032570757$

$\widehat{\beta_{w1}} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X_w}) Y_i }{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2 }=\dfrac{0,005730354}{0,111810742}=0,051250474 $

$\widehat{\beta_{w0}} = \overline{Y_w} - \widehat{\beta_{w1}}\overline{X_w}=0,002134269-0,051250474\times 0,032570757 =0,000465002.$

Portanto, o modelo ponderado ajustado é

$$\hbox{Absorbância} = 0,000465002 + 0,051250474*\hbox{Concentração}$$

Comprovamos estes cálculos através da tabela a seguir:

Ponto Concentração Área $\frac{k\frac{1}{s^2_i}}{\displaystyle\sum^k_{i=1}\frac{1}{s^2_i}}$ $w_i X_i$ $w_i Y_i$ $w^{1/2}_i X_i$ $w^{1/2}_i Y_i$ $X_i-\overline{X}_w$ $w^{1/2}_i(X_i-\overline{X}_w)$ $w_i(X_i-\overline{X}_w)Y_i$ $w_i(X_i-\overline{X}_w)^2$
A 0.02025 0.00154 7.452965696 0.150944914 0.011477567 0.055290934 0.004204219 -0.012317757 -0.033627624 -0.000141378 0.001130817
A 0.02071 0.00152 7.452965696 0.154373278 0.011328508 0.056546739 0.004149618 0.020713000 0.056546739 0.000234647 0.003197534
A 0.02029 0.00152 7.471644808 0.151592202 0.011356900 0.055458581 0.004154815 0.020289000 0.055458581 0.000230420 0.003075654
B 0.11507 0.00617 0.368047689 0.042351248 0.002270854 0.069809441 0.003743150 0.115070000 0.069809441 0.000261307 0.004873358
B 0.11644 0.00608 0.368047689 0.042855473 0.002237730 0.070640578 0.003688550 0.116440000 0.070640578 0.000260561 0.004990091
B 0.10930 0.00608 0.368047689 0.040227612 0.002237730 0.066308959 0.003688550 0.109300000 0.066308959 0.000244584 0.004396878
C 0.23444 0.01234 0.082581337 0.019360369 0.001019054 0.067370950 0.003546142 0.234440000 0.067370950 0.000238907 0.004538845
C 0.22935 0.01215 0.082581337 0.018940030 0.001003363 0.065908238 0.003491542 0.229350000 0.065908238 0.000230121 0.004343896
C 0.22946 0.01215 0.082581337 0.018949114 0.001003363 0.065939849 0.003491542 0.229460000 0.065939849 0.000230232 0.004348064
D 0.35652 0.01850 0.040894188 0.014579596 0.000756542 0.072096584 0.003741128 0.356520000 0.072096584 0.000269723 0.005197917
D 0.35304 0.01823 0.040894188 0.014437284 0.000745501 0.071392848 0.003686527 0.353040000 0.071392848 0.000263192 0.005096939
D 0.34955 0.01823 0.040894188 0.014294563 0.000745501 0.070687089 0.003686527 0.349550000 0.070687089 0.000260590 0.004996665
E 0.47907 0.02467 0.023002981 0.011020038 0.000567484 0.072659270 0.003741633 0.479070000 0.072659270 0.000271864 0.005279370
E 0.48037 0.02431 0.023002981 0.011049942 0.000559202 0.072856438 0.003687033 0.480370000 0.072856438 0.000268624 0.005308061
E 0.47239 0.02431 0.023002981 0.010866378 0.000559202 0.071646132 0.003687033 0.472390000 0.071646132 0.000264162 0.005133168
F 0.60912 0.03084 0.014088782 0.008581759 0.000434498 0.072300214 0.003660590 0.609120000 0.072300214 0.000264661 0.005227321
F 0.59584 0.03038 0.014088782 0.008394660 0.000428017 0.070723929 0.003605990 0.595840000 0.070723929 0.000255030 0.005001874
F 0.58696 0.03038 0.014088782 0.008269552 0.000428017 0.069669907 0.003605990 0.586960000 0.069669907 0.000251229 0.004853896
G 0.73821 0.03701 0.009855161 0.007275179 0.000364740 0.073284443 0.003674100 0.738210000 0.073284443 0.000269254 0.005370610
G 0.69549 0.03646 0.009855161 0.006854166 0.000359319 0.069043493 0.003619500 0.695490000 0.069043493 0.000249903 0.004767004
G 0.71271 0.03646 0.009855161 0.007023872 0.000359319 0.070752977 0.003619500 0.712710000 0.070752977 0.000256090 0.005005984
H 0.80135 0.04009 0.008564166 0.006862895 0.000343337 0.074159157 0.003710040 0.801350000 0.074159157 0.000275133 0.005499581
H 0.76376 0.03950 0.008564166 0.006540968 0.000338285 0.070680474 0.003655440 0.763760000 0.070680474 0.000258368 0.004995729
H 0.77783 0.03950 0.008564166 0.006661465 0.000338285 0.071982551 0.003655440 0.777830000 0.071982551 0.000263128 0.005181488
Soma 24.018679112 0.782306555 0.051262319 1.647209777 0.089194596 0.005730354 0.111810742
Média 0.411146875 0.021184167 0.032570757 0.002134269
$\widehat{\beta}_{1w}$ 0.051250474
$\widehat{\beta}_{0w}$ 0.000465002

Tabela 4.1.53: Validação dos cálculos dos coeficientes de regressão para o exemplo 1.11.1.2.

A seguir apresentamos os resultados obtidos pelo Action Stat.

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentração 1 0.018183 0.018183 84350,03285 0
Resíduos 22 0.000005 0

Tabela 4.1.54: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-0.000818 -0.000289 0.00008 -0.000002 0.000238 0.001157

Tabela 4.1.55: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 0.000492 0.000037 13.223138 0
Temperatura 0.050328 0.000173 290.430771 0

Tabela 4.1.56: Coeficientes

Desvio Padrão dos Resíduos Graus de Liberdade $R^2$ $R^2$ Ajustado
0.000464 22 0.999739 0.999727

Tabela 4.1.57: Medida Descritiva da Qualidade do Ajuste

1.11.2.1 Resíduos

A diferença entre o valor observado $Y_{i}$ e o correspondente valor ajustado $\widehat{Y}_{i}$, é chamada de resíduo e é denotada por

$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{w0}+\widehat\beta_{w1}x_{i})$$

Essa medida é importante já que por meio dela verificamos o ajuste do modelo.

Algumas propriedades do ajuste de mínimos quadrados

  • A soma dos resíduos ponderados é sempre nula.

$$\sum^n_{i=1}\eta_i=\sum\limits_{i=1}^{n}(w_i)^{1/2}e_{i}=\sum\limits_{i=1}^{n}(w_i)(Y_{i}-\widehat{Y}_{i})=0;$$

De fato,

$$\sum^n_{i=1}\eta_i=\sum^n_{i=1}w_i(Y_i-\widehat{Y}_i)=\sum^n_{i=1}w_i \left\lbrace Y_i-\widehat{\beta_{w0}}-\widehat{\beta_{w1}}x_i \right\rbrace=$$

$$=\sum^n_{i=1}w_i \left \lbrace Y_i-\overline{Y}_{w}+\widehat{\beta_{w1}}\overline{X}_{w}-\widehat{\beta_{w1}}x_i \right \rbrace=$$

$$=\sum^n_{i=1}w_i \left \lbrace Y_i-\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta_{w1}}\left(x_i-\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right) \right \rbrace=$$

$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta_{w1}}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)=$$

$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_iY_i-\widehat{\beta_{w1}}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_ix_i\right)=0$$

  • A reta de regressão de mínimos quadrados passa pelo ponto $(\overline{X},\overline{Y})$. De fato,

$$Y_i=\beta_{w0}+\beta_{w1}X_i+\varepsilon_i=\beta_{w0}+\beta_{w1}(X_i-\overline{X})+\beta_{w1}\overline{X}+\varepsilon_i=$$

$$=(\beta_{w0}+\beta_{w1}\overline{X})+\beta_{w1}(X_i-\overline{X})+\varepsilon_i=\beta_{w0}^{*}+\beta_{w1}(X_i-\overline{X})+\varepsilon_i,$$

com $\beta_{w0}^{*}=\beta_{w0}+\beta_{w1}\overline{X}$. Assim, a reta de regressão ajustada é dada por

$$\widehat{Y}=\widehat{\beta_{w0}}^{*}+\widehat{\beta_{w1}}(X_i-\overline{X})=\widehat{\beta_{w0}}+\widehat{\beta_{w1}}\overline{X}+\widehat{\beta_{w1}}(X_i-\overline{X})=$$

$$=(\overline{Y}-\widehat{\beta_{w1}}\overline{X})+\widehat{\beta_{w1}}\overline{X}+\widehat{\beta_{w1}}(X_i-\overline{X})=\overline{Y}+\widehat{\beta_{w1}}(X_i-\overline{X}).$$

Logo, $$\widehat{Y}=\overline{Y}+\widehat{\beta_{w1}}(\overline{X}-\overline{X})=\overline{Y}$$

e portanto, temos que a reta ajustada passa por $(\overline{X},\overline{Y})$.

  • A soma dos resíduos ponderados pelo correspondente valor da variável regressora é sempre nula.

$$\sum\limits_{i=1}^{n}(w_i)^{1/2} x_{i}e_{i}=0;$$

  • A soma dos resíduos ponderados pelo correspondente valor ajustado é sempre zero.

$$\sum\limits_{i=1}^{n}(w_i) \widehat{Y}_{i}e_{i}=0.$$

Área Concentração $w_i$ $w_i\times X_i$ $w_i\times Y_i$ $\widehat{Y}_i$ $e_i$ $w_i\times e_i$ $w_i\times \widehat{Y}_i\times e_i$
0,078 0 5,446474769 0 0,424825 0,020397 0,057603 0,313734574 0,00639917
1,329 0 5,446474769 0 7,238365 0,020397 1,308603 7,12727451 0,145373333
0,483 0 5,446474769 0 2,630647 0,020397 0,462603 2,519556855 0,051390806
0,698 0 5,446474769 0 3,801639 0,020397 0,677603 3,690548931 0,075275254
0,634 0 5,446474769 0 3,453065 0,020397 0,613603 3,341974545 0,068165465
0,652 0 5,446474769 0 3,551102 0,020397 0,631603 3,440011091 0,070165093
0,071 0 5,446474769 0 0,3867 0,020397 0,050603 0,27560925 0,005621537
20,718 25 0,266796415 6,66991 5,527488 18,03862 2,679376 0,714848045 12,89487474
21,805 25 0,266796415 6,66991 5,817496 18,03862 3,766376 1,004855748 18,12621451
16,554 25 0,266796415 6,66991 4,416548 18,03862 -1,48462 -0,39609223 -7,14495857
19,948 25 0,266796415 6,66991 5,322055 18,03862 1,909376 0,509414805 9,189141874
21,676 25 0,266796415 6,66991 5,783079 18,03862 3,637376 0,97043901 17,50538394
22,207 25 0,266796415 6,66991 5,924748 18,03862 4,168376 1,112107907 20,06089582
19,671 25 0,266796415 6,66991 5,248152 18,03862 1,632376 0,435512198 7,856040571
33,833 50 2,647451113 132,3726 89,57121 36,05685 -2,22385 -5,88753479 -212,28596
34,726 50 2,647451113 132,3726 91,93539 36,05685 -1,33085 -3,52336095 -127,041298
35,463 50 2,647451113 132,3726 93,88656 36,05685 -0,59385 -1,57218947 -56,6882004
34,04 50 2,647451113 132,3726 90,11924 36,05685 -2,01685 -5,33951241 -192,525999
34,194 50 2,647451113 132,3726 90,52694 36,05685 -1,86285 -4,93180494 -177,825352
33,664 50 2,647451113 132,3726 89,12379 36,05685 -2,39285 -6,33495403 -228,418489
34,517 50 2,647451113 132,3726 91,38207 36,05685 -1,53985 -4,07667823 -146,992176
79,224 100 0,040140331 4,014033 3,180078 72,0933 7,130696 0,286228509 20,6351588
73,292 100 0,040140331 4,014033 2,941965 72,0933 1,198696 0,048116066 3,468846133
85,514 100 0,040140331 4,014033 3,43256 72,0933 13,4207 0,53871119 38,83746944
82,072 100 0,040140331 4,014033 3,294397 72,0933 9,978696 0,400548171 28,87684095
85,044 100 0,040140331 4,014033 3,413694 72,0933 12,9507 0,519845235 37,47736038
73,876 100 0,040140331 4,014033 2,965407 72,0933 1,782696 0,071558019 5,158853989
82,568 100 0,040140331 4,014033 3,314307 72,0933 10,4747 0,420457775 30,31219009
108,065 150 0,010528595 1,579289 1,137773 108,1298 -0,06476 -0,0006818 -0,0737231
118,268 150 0,010528595 1,579289 1,245196 108,1298 10,13824 0,106741449 11,54192695
108,89 150 0,010528595 1,579289 1,146459 108,1298 0,760243 0,008004288 0,865501761
127,183 150 0,010528595 1,579289 1,339058 108,1298 19,05324 0,20060387 21,69124775
121,447 150 0,010528595 1,579289 1,278666 108,1298 13,31724 0,140211851 15,16107342
122,414 150 0,010528595 1,579289 1,288847 108,1298 14,28424 0,150393002 16,26195881
135,555 150 0,010528595 1,579289 1,427204 108,1298 27,42524 0,288749264 31,22238783
224,932 250 0,012536482 3,134121 2,819856 180,2027 44,72934 0,560748529 101,0483789
200,113 250 0,012536482 3,134121 2,508713 180,2027 19,91034 0,249605574 44,9795894
200,368 250 0,012536482 3,134121 2,51191 180,2027 20,16534 0,252802377 45,55566182
205,17 250 0,012536482 3,134121 2,57211 180,2027 24,96734 0,313002565 56,40389611
213,059 250 0,012536482 3,134121 2,67101 180,2027 32,85634 0,411902874 74,22599531
207,931 250 0,012536482 3,134121 2,606723 180,2027 27,72834 0,347615793 62,64129197
201,766 250 0,012536482 3,134121 2,529436 180,2027 21,56334 0,270328379 48,71389413
371,534 500 0,00470075 2,350375 1,746488 360,3849 11,14907 0,052408983 18,88740762
408,86 500 0,00470075 2,350375 1,921949 360,3849 48,47507 0,227869174 82,1206165
383,509 500 0,00470075 2,350375 1,80278 360,3849 23,12407 0,108700463 39,17400882
405,143 500 0,00470075 2,350375 1,904476 360,3849 44,75807 0,210396486 75,82372325
404,132 500 0,00470075 2,350375 1,899723 360,3849 43,74707 0,205644028 74,11100895
379,243 500 0,00470075 2,350375 1,782726 360,3849 18,85807 0,088647064 31,94706596
387,419 500 0,00470075 2,350375 1,82116 360,3849 27,03407 0,127080395 45,7978594
Soma 59,00039919 1050,842 758,5758 5,84061E-13 2,90896E-11
Média 17,81076 12,85713 1,19196E-14

Tabela 4.1.58: Exemplo de cálculo dos resíduos ponderados.

Exemplo 1.11.1.3

Voltando o exemplo 1.11.2, aplicamos os mesmos conjunto de dados para calcularmos os resíduos ponderados. Desta forma, calculamos os resíduos ponderados para primeira observação obtidas da Tabela 4.1.1, os demais são calculados de forma análoga.

$$e_{1}=Y_1-\widehat{Y_1}= Y_1-\widehat{\beta_{0w}}-\widehat{\beta_{1w}}x_1=0,00154-0,000497721-0,050245873\times 0,020253=2,46498\times 10^{-5}$$

$$e_{1w}=w^{1/2}_1\times e_1= \sqrt{7,453}\times 2,46498\times 10^{-5}=6,72942\times 10^{-5}$$

Ponto Concentração Área $\widehat{Y}_i$ $e_i$ $w_i^{1/2}e_i$
A 0,020253 0,00154 0,001515 2,46E-05 6,72942E-05
A 0,020713 0,00152 0,001538 -1,8E-05 -5,04051E-05
A 0,020289 0,00152 0,001517 2,84E-06 7,75575E-06
B 0,11507 0,00617 0,00628 -0,00011 -6,64383E-05
B 0,11644 0,00608 0,006348 -0,00027 -0,0001628
B 0,1093 0,00608 0,00599 9,04E-05 5,48462E-05
C 0,23444 0,01234 0,012277 6,26E-05 1,8E-05
C 0,22935 0,01215 0,012022 0,000128 3,68949E-05
C 0,22946 0,01215 0,012027 0,000123 3,53066E-05
D 0,35652 0,0185 0,018411 8,86E-05 1,79212E-05
D 0,35304 0,01823 0,018237 -6,5E-06 -1,31923E-06
D 0,34955 0,01823 0,018061 0,000169 3,41422E-05
E 0,47907 0,02467 0,024569 0,000101 1,53167E-05
E 0,48037 0,02431 0,024634 -0,00032 -4,91904E-05
E 0,47239 0,02431 0,024233 7,66E-05 1,16225E-05
F 0,60912 0,03084 0,031103 -0,00026 -3,12749E-05
F 0,59584 0,03038 0,030436 -5,6E-05 -6,6733E-06
F 0,58696 0,03038 0,02999 0,00039 4,6287E-05
G 0,73821 0,03701 0,03759 -0,00058 -5,75513E-05
G 0,69549 0,03646 0,035443 0,001017 0,000100939
G 0,71271 0,03646 0,036308 0,000152 1,50442E-05
H 0,80135 0,04009 0,040762 -0,00067 -6,2212E-05
H 0,76376 0,0395 0,038874 0,000626 5,79772E-05
H 0,77783 0,0395 0,03958 -8E-05 -7,44675E-06
$\widehat{\beta}_{1w}$ 0,050246
$\widehat{\beta}_{0w}$ 0,000498

Tabela 4.1.59: Validação do cálculo dos resíduos ponderados para o exemplo 1.11.1.2.

A seguir apresentamos os resultados obtidos pelo Action Stat.

N.Obs Área Concentração (weights) Resíduos Ponderados Resíduos Studentizados Resíduos Padronizados
1 0.00154 0.020253 49.375401 0.000203 0.509495 0.518292
2 0.00152 0.020713 48.278859 -0.000099 -0.246403 -0.251838
3 0.00152 0.020289 49.287791 0.00005 0.123911 0.126781
4 0.00617 0.11507 8.690362 -0.000333 -0.725197 -0.73314
5 0.00608 0.11644 8.588114 -0.000797 -1.846104 -1.752672
6 0.00608 0.1093 9.149131 0.000264 0.572321 0.581274
7 0.01234 0.23444 4.265484 0.000102 0.217234 0.222096
8 0.01215 0.22935 4.360148 0.000241 0.517671 0.526504
9 0.01215 0.22946 4.358058 0.000229 0.492418 0.501121
10 0.0185 0.35652 2.804892 0.000109 0.234089 0.239286

Tabela 4.1.60: 10 primeiras observações com resumo da Análise de Resíduos

1.11.2.2. Estimador da variância residual

Assim como os parâmetros $\beta_{w0}$ e $\beta_{w1}$, a variância $\sigma^2_i$ dos termos do erro $\varepsilon_i$ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de Y requerem uma estimativa de $\sigma^2_i$. Consideremos os resíduos $\varepsilon_{i}$. Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),

$$SQE = \sum\limits_{i=1}^n w_i e_i^{2} =\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=\sum\limits_{i=1}^n w_i(Y_i - (\widehat{\beta_{w0}}+\widehat{\beta_{w1}}X_i))^{2}.$$

Não utilizamos a soma dos resíduos uma vez que em (i),

$$\sum\limits_{i=1}^{n} w_i\widehat{\varepsilon}_{i}=0.$$

Na seção “Propriedades dos Estimadores” demonstramos que SQE é um estimador não viciado de $\sigma^2$, isto é,

$$\mathbb{E}(SQE)= \sigma^2_w(n-2).$$

Desta forma, um estimador não viciado para $\sigma^2_w$ é dado por

$$\widehat{\sigma}^2_w=QME_w=\dfrac{SQE}{n-2},$$

em que QME é o Quadrado Médio dos Erros (Resíduos).

Área Concentração 1/s² $w_i\times e^2_i$
0,078 0 5,446475 0,018072
1,329 0 5,446475 9,326774
0,483 0 5,446475 1,165555
0,698 0 5,446475 2,500728
0,634 0 5,446475 2,050646
0,652 0 5,446475 2,172722
0,071 0 5,446475 0,013947
20,718 25 0,266796 1,915347
21,805 25 0,266796 3,784665
16,554 25 0,266796 0,588048
19,948 25 0,266796 0,972665
21,676 25 0,266796 3,529852
22,207 25 0,266796 4,635684
19,671 25 0,266796 0,71092
33,833 50 2,647451 13,093
34,726 50 2,647451 4,689066
35,463 50 2,647451 0,933645
34,04 50 2,647451 10,769
34,194 50 2,647451 9,187214
33,664 50 2,647451 15,1586
34,517 50 2,647451 6,277474
79,224 100 0,04014 2,041009
73,292 100 0,04014 0,057677
85,514 100 0,04014 7,229879
82,072 100 0,04014 3,996949
85,044 100 0,04014 6,732358
73,876 100 0,04014 0,127566
82,568 100 0,04014 4,404167
108,065 150 0,010529 4,42E-05
118,268 150 0,010529 1,082171
108,89 150 0,010529 0,006085
127,183 150 0,010529 3,822154
121,447 150 0,010529 1,867235
122,414 150 0,010529 2,14825
135,555 150 0,010529 7,919019
224,932 250 0,012536 25,08191
200,113 250 0,012536 4,969731
200,368 250 0,012536 5,097845
205,17 250 0,012536 7,81484
213,059 250 0,012536 13,53362
207,931 250 0,012536 9,638807
201,766 250 0,012536 5,829182
371,534 500 0,004701 0,584311
408,86 500 0,004701 11,04597
383,509 500 0,004701 2,513597
405,143 500 0,004701 9,41694
404,132 500 0,004701 8,996323
379,243 500 0,004701 1,671712
387,419 500 0,004701 3,4355
Soma 59,0004 244,5585
$\sqrt{\hbox{QME}_w}$ 2,28109

Tabela 4.1.65: Cálculo do $\sqrt{\hbox{QME}_w}$

Assim, $\hbox{QME}_w = (2,28109)^2 = 5,20337159$

A seguir apresentamos os resultados obtidos pelo Action Stat.

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 24393.61704706 24393.61704706 4688.04043664 0
Resíduos 47 244.55847101 5.20337172

Tabela 4.1.66: Resultado da regressão ponderada $\hbox{Peso} = 1 / s_i^2$

Exemplo 1.11.1.4

Voltando o exemplo 1.11.1.2, aplicamos os mesmos conjunto de dados para calcularmos o desvio-padrão dos resíduos.

Com os resíduos ponderados da tabela 1.11.2.5 calculamos a soma de quadrado dos resíduos.

$$QME = \frac{1}{n-2}\sum\limits_{i=1}^n w_i \varepsilon_i^{2} =\frac{1}{n-2}\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=3,29293\times 10^{-9} $$

O desvio-padrão dos resíduos são calculados da seguinte forma:

$$\widehat{\sigma}=\sqrt{QME} =\sqrt{3,29293\times 10^{-9}}=5,73840\times 10^{-5} $$

$SQE_w$ 7,24444E-08
$n-p$ 22
$QME_w$ 3,29293E-09
$\widehat{\sigma}=\sqrt{\hbox{QME}_w}$ 5,7384E-05

Tabela 4.1.67: Cálculo do $\sqrt{\hbox{QME}_w}$

A seguir apresentamos os resultados obtidos pelo Action Stat.

(imagem em falta)

Tabela 4.1.68:

1.11.3 - Propriedades dos estimadores

Afim de fazer inferência a respeito dos estimadores de mínimos quadrados ponderados necessitamos saber algumas propriedades dos estimadores. Em maior importância sua esperança (média) e variância, pois assim vamos conhecer suas distribuições amostrais, sejam elas exatas ou assintóticas.

Esperança do coeficiente angular

Agora, vamos agora calcular $\mathbb{E} \left[ \widehat{\beta}_{w1} \right]$ utilizando a expressão do estimador encontrada em (1.11.1.5) da seção estimadores dos parâmetros do modelo. Com isso, obtemos:

$$\mathbb{E} \left[ \widehat{\beta_{w1}} \right] = \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } \right] = \mathbb{E} \left[ \dfrac{ \displaystyle \sum_{i=1}^{n} w_iX_iY_i - \displaystyle \sum_{i=1}^{n} w_i\overline{X}_w Y_i}{\displaystyle \sum w_i (X_i - \overline{X}_w)^2} \right]=$$

$$= \mathbb{E} \left[ \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n}w_iX_i(\beta_{w0} + \beta_{w1}X_i + \varepsilon_i)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{z_1}- \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n} w_i\overline{X}_w (\beta_{w0} + \beta_{w1}X_i + \varepsilon_i) }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{z_2}\right] \tag{1.11.1.6}$$

Aplicamos um pouco de álgebra para $z_1-z_2,$ lembrando que $\mathbb{E}(\varepsilon_i)=0,$ por isso não vamos levar em conta. Assim, temos que

$$z_1-z_2= \dfrac{\displaystyle \sum_{i=1}^{n} w_iX_i ( \beta_{w0} + \beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2} - \dfrac{\displaystyle \sum_{i=1}^{n} w_i \overline{X}_w (\beta_{w0} + \beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2}=$$

$$= \dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i = \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \right)+ \beta_{w1} \left( \displaystyle \sum_{i=1}^{n} w_i x^2_i-\displaystyle \sum_{i=1}^{n} w_i \overline{X}_wX_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}=$$

$$= \dfrac{\beta_{w0} \left(\displaystyle \sum_{i=1}^{n} w_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n}w_i \displaystyle \sum_{i=1}^{n}w_iX_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) + \beta_{w_1} \left( \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)X_i \right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}=$$

$$= \dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2} + \dfrac{\beta_{w1}\left( \displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X}_w )^2\right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i-\overline{X}_w)^2}$$

Voltamos a equação (1.11.1.6) e obtemos

$$= \mathbb{E}\left[\underbrace{\dfrac{\beta_{w0} \left( \displaystyle \sum_{i=1}^{n} w_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}_{=0}\right] + \mathbb{E}\left[\beta_{w1}\underbrace{\dfrac{\left( \displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X}_w )^2\right)}{\displaystyle \sum_{i=1}^{n} w_i (X_i-\overline{X}_w)^2}}_{=1}\right]=\beta_{w1}$$

Portanto, temos que $\mathbb{E}(\widehat{\beta_{w1}}) = \beta_{w1}$, isto é, estimador não viciado.

Valor esperado do intercepto

Neste tópico, vamos calcular o valor esperado do intercepto $\widehat{\beta}_{w0},$ de fato:

$$\mathbb{E} \left[ \widehat{\beta_{w0}} \right]= \mathbb{E} \left[ \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w \right] = \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n} w_iY_i}{\displaystyle \sum_{i=1}^{n} w_i} \right] - \mathbb{E} \left[ \dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)Y_i}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}\right]\overline{X}_w=$$

$$=\mathbb{E} \left[ \underbrace{\dfrac{\displaystyle \sum_{i=1}^{n} w_i (\beta_{w0}+\beta_{w1}+\varepsilon_i)}{\displaystyle \sum_{i=1}^{n}w_i} -\overline{X}_w\displaystyle \sum_{i=1}^{n} \dfrac{w_i(X_i - \overline{X}_w)(\beta_{w0}+\beta_{w1}X_i + \varepsilon_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i-\overline{X})^2}}_{(*)}\right]\quad \tag{1.11.1.7}$$

Aplicamos um pouco de álgebra em (*)

$$(*)=\dfrac{\displaystyle \sum_{i=1}^{n}w_i(\beta_{w0}+\beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n}w_i} - \overline{X}_w \dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)(\beta_{w0}+\beta_{w1}X_i)}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X})^2}=$$

$$=\dfrac{\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i}{\displaystyle \sum_{i=1}^{n}w_i}+\dfrac{\beta_{w1} \displaystyle \sum_{i=1}^{n}X_iw_i}{\displaystyle \sum_{i=1}^{n} w_i} - \dfrac{\beta_{w0}\overline{X}_w \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2} - \dfrac{\beta_{w1}\overline{X}_w\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)X_i}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}=$$

$$=\beta_{w0} + \beta_{w1}\overline{X}_w - \dfrac{\beta_{w0}\overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \left( \displaystyle \sum_{i=1}^{n}w_iX_i - \dfrac{\displaystyle \sum_{i=1}^{n}w_i\displaystyle \sum_{i=1}^{n}w_iX_i}{\displaystyle \sum_{i=1}^{n}w_i} \right) - \beta_{w1}\overline{X}_w\underbrace{\dfrac{\displaystyle \sum_{i=1}^{n}w_i(X_i-\overline{X}_w)^2}{\displaystyle \sum_{i=1}^{n}w_i(X_i - \overline{X}_w)^2}}_{=1}$$

Voltamos a equação (1.11.1.7) e obtemos

$$=\mathbb{E}[\beta_{w0}]+\mathbb{E}\left[\beta_{w1}\overline{X}_w - \dfrac{\beta_{w0}\overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2}\left( \displaystyle \sum_{i=1}^{n}w_iX_i - \displaystyle \sum_{i=1}^{n}w_iX_i\right) - \beta_{w1}\overline{X}_w \right]= \beta_{w0}$$

Portanto, temos que $\mathbb{E}(\widehat{\beta_{w0}}) = \beta_{w0}$, isto é, estimador não viciado.

Variância do coeficiente angular

Para calcularmos a variância de $\widehat{\beta}_{w1},$ temos que:

$$\hbox{Var}(\widehat{\beta_{w1}}) = \hbox{Var} \left(\displaystyle \dfrac{\displaystyle\sum_{i=1}^{n}w_i (x_i-\overline{X}_w) Y_i }{\displaystyle\sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}\right) \overset{Y_i~ \hbox{ind.}}{=}\dfrac{1 }{\displaystyle[\sum^n_{i=1}w_i(x_i-\overline{X}_w)^2]^2}\sum_{i=1}^{n}w_i (x_i-\overline{X}_w)^2\hbox{Var}(w^{1/2}_iY_i) =\dfrac{\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}$$

Variância do intercepto

Do tópico estimação dos parâmetros do modelo, obtemos que

$$\widehat{\beta_{w0}} = \overline{Y}_w - \widehat{\beta_{w1}} \overline{X}_w$$

Com isso, temos que

$$\hbox{Var}(\widehat{\beta_{w0}}) = \hbox{Var}(\overline{Y}_w - \widehat{\beta_{w1}}\overline{X}_w) = \hbox{Var}(\overline{Y}_w) + \hbox{Var}(\widehat{\beta_{w1}}) - 2\hbox{Cov}(\overline{Y}_w,\widehat{\beta_{w1}}\overline{X}_w)$$

Notamos que

$$\hbox{Var}(\overline{Y_w})=\frac{1}{\left(\displaystyle\sum^n_{i=1}w_i\right)^2}\sum^n_{i=1}w_i\hbox{Var}(w^{1/2}_i Y_i)=\frac{\sigma^2}{\displaystyle\sum^n_{i=1}w_i}$$

e

$$\overline{X}^2_w\hbox{Var}(\widehat{\beta_{w1}})=\dfrac{\overline{X}^2_w\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}$$

Ao substituirmos obtemos:

$$\hbox{Var}(\widehat{\beta_{w0}}) = \frac{\sigma^2}{\displaystyle\sum^n_{i=1}w_i}+ \dfrac{\overline{X}^2_w\sigma^2 }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X}_w)^2}- 2\hbox{Cov}(\overline{Y}_w,\widehat{\beta_{w1}}\overline{X}_w) \tag{1.1.1.8}$$

Agora vamos calcular $\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})$

$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X} _w)= \mathbb{E}\left[ \overline{Y} _w \widehat{\beta} _{w2} \overline{X} _w \right]-\mathbb{E}\left[\overline{Y} _w \right] \mathbb{E}\left[ \widehat{\beta} _{w1} \overline{X} _w \right] = \overline{X} _w \mathbb{E} \left[ \overline{Y} _w \widehat{\beta} _{w1} \right] - \mathbb{E} \left[\overline{Y} _w \right] \widehat{\beta} _{w1} \overline{X} _w =$$

$= \overline{X} _w \mathbb{E} \left[ \dfrac{ \widehat{\beta} _{w1} \displaystyle \sum_{i=1}^{n} \left( \beta_{w0} + \beta_{w1}X_i + \varepsilon_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i} \right] - \mathbb{E} \left[ \dfrac{ \displaystyle \sum_{i=1}^{n} \left( \beta_{w0} + \beta_{w1}X_i + \varepsilon_i \right)}{ \displaystyle \sum_{i=1}^{n} w_i} \right]\beta_{w1} \overline{X} _w =$

$= \dfrac{\overline{X} _w \displaystyle \sum_{i=1}^{n} w_i \left( \mathbb{E}\left[ \widehat{\beta_{w1}}\beta_{w0} \right] + \mathbb{E}\left[ \widehat{\beta_{w1}}\beta_{w1}X_i \right] + \mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right] - \beta_{w1} \mathbb{E}\left[ \beta_{w0} \right] - \beta_{w1}\mathbb{E}\left[ \beta_{w1}X_i \right] - \beta_{w1} \mathbb{E}\left[\varepsilon_i \right]\right)}{\displaystyle \sum_{i=1}^{n} w_i} $

mas $\mathbb{E}\left[\varepsilon_i \right]=0$, logo:

$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X} _w)= \dfrac{\overline{X} _w \displaystyle \sum_{i=1}^{n} w_i \left( \beta_{w1}\mathbb{E}\left[ \beta_{w0} \right] + \beta_{w1}\mathbb{E}\left[ \beta_{w1}X_i \right] + \mathbb{E} \left[ \widehat{\beta} _{x1}\varepsilon_i \right] - \beta_{w1} \mathbb{E}\left[ \beta_{w0} \right] - \beta_{w1}\mathbb{E}\left[ \beta_{w1} X_i \right]\right)}{\displaystyle \sum_{i=1}^{n} w_i}$$

Logo,

$$\hbox{Cov}(\overline{Y} _w , \widehat{\beta} _{w1} \overline{X}_w)=\dfrac{\overline{X}_w \displaystyle \sum_{i=1}^{n} w_i \mathbb{E}\left[ \widehat{\beta} _{w1} \varepsilon_i \right]}{\displaystyle \sum_{i=1}^{n} w_i} \tag{1.11.1.9}$$

Mas, observamos que

$$\mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right] = \mathbb{E}\left[ \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})Y_j}{\displaystyle \sum_{j=1}^{n}w_j (x_j - \overline{X_w})^2} \varepsilon_i \right] = \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\mathbb{E}\left[ Y_j\varepsilon_i \right]}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}= \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\mathbb{E}\left[ \left( \beta_{w0} + \beta_{w1}x_j + \varepsilon_j \right)\varepsilon_i \right]}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} =$$

$=\dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \beta_{w0}\mathbb{E}\left[\varepsilon_i \right] + \beta_{w1}x_j\mathbb{E}\left[\varepsilon_i \right] + \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}= \dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} $

Assim, temos dois casos:

$$\mathbb{E}\left[\varepsilon_j \varepsilon_i \right] = \begin{cases} \dfrac{\sigma^2}{w_i} \hbox{ se $i = j$}; \cr 0 ~\hbox{ se $i \neq j$}.\end{cases}$$

Consideramos $i=j$, então obtemos

$$\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})=\dfrac{\overline{X_w} \displaystyle \sum_{i=1}^{n} w_i \mathbb{E}\left[ \widehat{\beta_{w1}}\varepsilon_i \right]}{\displaystyle \sum_{i=1}^{n} w_i}=\dfrac{\displaystyle \sum_{j=1}^{n} w_j (x_j - \overline{X_w})\left( \mathbb{E}\left[\varepsilon_j \varepsilon_i \right] \right)}{\displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} $$

Como para $i \neq j$ a esperança do produto dos erros é igual a zero, consequentemente $\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})$ também é. Portanto, para $i=j$ a soma cruzada se anula, logo a expressão acima se resume:

$$\hbox{Cov}(\overline{Y_w} , \widehat{\beta_{w1}} \overline{X_w})= \dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w^2_i\left(X_i - \overline{X_w}\right)\mathbb{E}\left[ \varepsilon_i^2\right] }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2} =\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w^2_i\left(X_i - \overline{X_w}\right)\dfrac{\sigma^2}{w_i}}{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=$$

$=\sigma^2\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w_i\left(X_i - \overline{X_w}\right) }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=\sigma^2\dfrac{ \overline{X_w} \displaystyle \sum_{i=1}^{n}w_iX_i -\displaystyle \sum_{i=1}^{n}w_i\overline{X_w} }{ \displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{j=1}^{n} w_j(x_j - \overline{X_w})^2}=0$

Por fim, voltamos a equação (1.11.1.8) e obtemos que

$$\hbox{Var}(\widehat{\beta_{w0}}) =\sigma^2\left( \frac{1}{\displaystyle\sum^n_{i=1}w_i}+ \dfrac{\overline{X}^2_w }{\displaystyle \sum^n_{i=1}w_i(x_i-\overline{X_w})^2}\right)$$

De forma matricial temos

$$\hbox{Var}(\widehat{\mathbf{\beta}}_{w}) = (\mathbf{B}^{\top}\mathbf{B})^{-1}\sigma^2 = (\mathbf{X}^{\top} V^{-1}\mathbf{X})^{-1}\sigma^2$$

Valor esperado do QME

Neste tópico, vamos calcular o valor esperado do quadrado médio do erro QME.

$$\hbox{SQE}=(\mathbf{Z}-\widehat{\mathbf{Z}})^{\top}(\mathbf{Z}-\widehat{\mathbf{Z}})= (\mathbf{Z}-\widehat{\mathbf{\mathbf{B}}\beta})^{\top}(\mathbf{Z}-\widehat{\mathbf{\mathbf{\mathbf{B}}\beta}})= \mathbf{Y}^{\top}(V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})\mathbf{Y}$$

$$\mathbb{E}(\hbox{SQE})= (V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})\sigma^2$$

Agora aplicamos o teorema para distribuições de formas quadráticas e obtemos:

$$\hbox{rank}(V-\mathbf{X}(\mathbf{X}^{\top}V^{-1}\mathbf{X})^{-1}\mathbf{X}^{\top})=n-(p+1)$$

Portanto, um estimador não viciado para $\sigma^2$ é dado por

$$\widehat{\sigma}^2=\hbox{QME}=\frac{\hbox{SQE}}{n-(p+1)}$$

Exemplo 1.11.2.1

Voltamos à Motivação 3, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as variâncias dos parâmetros $\beta_{w0}$ e $\beta_{w1}.$

Área Concentração Peso $(w_i)$ Valor ajustado $(\widehat{Y}_i)$ Resíduo $(Y_i-\widehat{Y}_i)$ $w_i(Y_i-\widehat{Y}_i)^2$
0,078 0 5,446 0,0204 0,0576 0,018
1,329 0 5,446 0,0204 1,31 9,33
0,483 0 5,446 0,0204 0,46 1,17
0,698 0 5,446 0,0204 0,68 2,50
0,634 0 5,446 0,0204 0,61 2,05
0,652 0 5,446 0,0204 0,63 2,17
0,071 0 5,446 0,0204 0,05 0,01
20,718 25 0,267 18,039 2,68 1,92
21,805 25 0,267 18,039 3,77 3,78
16,554 25 0,267 18,039 -1,48 0,59
19,948 25 0,267 18,039 1,91 0,97
21,676 25 0,267 18,039 3,64 3,53
22,207 25 0,267 18,039 4,17 4,64
19,671 25 0,267 18,039 1,63 0,71
33,833 50 2,647 36,057 -2,22 13,09
34,726 50 2,647 36,057 -1,33 4,69
35,463 50 2,647 36,057 -0,59 0,93
34,04 50 2,647 36,057 -2,02 10,77
34,194 50 2,647 36,057 -1,86 9,19
33,664 50 2,647 36,057 -2,39 15,16
34,517 50 2,647 36,057 -1,54 6,28
79,224 100 0,04014 72,093 7,13 2,04
73,292 100 0,04014 72,093 1,20 0,06
85,514 100 0,04014 72,093 13,42 7,23
82,072 100 0,04014 72,093 9,98 4,00
85,044 100 0,04014 72,093 12,95 6,73
73,876 100 0,04014 72,093 1,78 0,13
82,568 100 0,04014 72,093 10,47 4,40
108,065 150 0,01053 108,130 -0,06 0,00
118,268 150 0,01053 108,130 10,14 1,08
108,89 150 0,01053 108,130 0,76 0,01
127,183 150 0,01053 108,130 19,05 3,82
121,447 150 0,01053 108,130 13,32 1,87
122,414 150 0,01053 108,130 14,28 2,15
135,555 150 0,01053 108,130 27,43 7,92
224,932 250 0,01254 180,203 44,73 25,08
200,113 250 0,01254 180,203 19,91 4,97
200,368 250 0,01254 180,203 20,17 5,10
205,17 250 0,01254 180,203 24,97 7,81
213,059 250 0,01254 180,203 32,86 13,53
207,931 250 0,01254 180,203 27,73 9,64
201,766 250 0,01254 180,203 21,56 5,83
371,534 500 0,00470 360,385 11,15 0,58
408,86 500 0,00470 360,385 48,48 11,05
383,509 500 0,00470 360,385 23,12 2,51
405,143 500 0,00470 360,385 44,76 9,42
404,132 500 0,00470 360,385 43,75 9,00
379,243 500 0,00470 360,385 18,86 1,67
387,419 500 0,00470 360,385 27,03 3,44
5983,552 7525 59,00039 5424,486 244,56
$QME_w$ $\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}$ 5,203371015
Desvio padrão dos resíduos $(\sqrt{QME_w})$ 2,281089874

Tabela 4.1.69: Tabela para cálculos do $QME_w$.

Dos resultados obtidos da tabela (4.1.69) calculamos a $QME_w$ da seguinte forma

$$QME_w=\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}=\dfrac{244,56}{49-2}=5,203371015$$

Logo, o desvio padrão dos resíduos é obtido da seguinte forma

$$\widehat{\hbox{DP}}(QME_w)=\sqrt{\displaystyle\sum^n_{i=1}\dfrac{w_i(Y_i-\widehat{Y}_i)}{n-2}}=2,281089874$$

Agora, vamos calcular as variâncias de $\widehat{\beta_{w1}}$ e $\widehat{\beta_{w0}},$ para isto observe a seguinte tabela:

n Área (Y) Concentração (X) Peso $(w_i)$ $w_i X_i$ $w_i Y_i$ $X_i-\overline{X}_w$ $w_i X^2_i$ $w_i(X_i-\overline{X}_w)^2$
1 0,078 0 5,45 0 0,42 -17,81 0,00 1727,75
2 1,329 0 5,45 0 7,24 -17,81 0,00 1727,75
3 0,483 0 5,45 0 2,63 -17,81 0,00 1727,75
4 0,698 0 5,45 0 3,80 -17,81 0,00 1727,75
5 0,634 0 5,45 0 3,45 -17,81 0,00 1727,75
6 0,652 0 5,45 0 3,55 -17,81 0,00 1727,75
7 0,071 0 5,45 0 0,39 -17,81 0,00 1727,75
8 20,718 25 0,27 6,67 5,53 7,19 166,75 13,79
9 21,805 25 0,27 6,67 5,82 7,19 166,75 13,79
10 16,554 25 0,27 6,67 4,42 7,19 166,75 13,79
11 19,948 25 0,27 6,67 5,32 7,19 166,75 13,79
12 21,676 25 0,27 6,67 5,78 7,19 166,75 13,79
13 22,207 25 0,27 6,67 5,92 7,19 166,75 13,79
14 19,671 25 0,27 6,67 5,25 7,19 166,75 13,79
15 33,833 50 2,65 132,37 89,57 32,19 6618,62 2743,15
16 34,726 50 2,65 132,37 91,94 32,19 6618,62 2743,15
17 35,463 50 2,65 132,37 93,89 32,19 6618,62 2743,15
18 34,04 50 2,65 132,37 90,12 32,19 6618,62 2743,15
19 34,194 50 2,65 132,37 90,53 32,19 6618,62 2743,15
20 33,664 50 2,65 132,37 89,12 32,19 6618,62 2743,15
21 34,517 50 2,65 132,37 91,38 32,19 6618,62 2743,15
22 79,224 100 0,040 4,01 3,18 82,19 401,40 271,15
23 73,292 100 0,040 4,01 2,94 82,19 401,40 271,15
24 85,514 100 0,040 4,01 3,43 82,19 401,40 271,15
25 82,072 100 0,040 4,01 3,29 82,19 401,40 271,15
26 85,044 100 0,040 4,01 3,41 82,19 401,40 271,15
27 73,876 100 0,040 4,01 2,97 82,19 401,40 271,15
28 82,568 100 0,040 4,01 3,31 82,19 401,40 271,15
29 108,065 150 0,011 1,58 1,14 132,19 236,89 183,98
30 118,268 150 0,011 1,58 1,25 132,19 236,89 183,98
31 108,89 150 0,011 1,58 1,15 132,19 236,89 183,98
32 127,183 150 0,011 1,58 1,34 132,19 236,89 183,98
33 121,447 150 0,011 1,58 1,28 132,19 236,89 183,98
34 122,414 150 0,011 1,58 1,29 132,19 236,89 183,98
35 135,555 150 0,011 1,58 1,43 132,19 236,89 183,98
36 224,932 250 0,013 3,13 2,82 232,19 783,53 675,86
37 200,113 250 0,013 3,13 2,51 232,19 783,53 675,86
38 200,368 250 0,013 3,13 2,51 232,19 783,53 675,86
39 205,17 250 0,013 3,13 2,57 232,19 783,53 675,86
40 213,059 250 0,013 3,13 2,67 232,19 783,53 675,86
41 207,931 250 0,013 3,13 2,61 232,19 783,53 675,86
42 201,766 250 0,013 3,13 2,53 232,19 783,53 675,86
43 371,534 500 0,0047 2,35 1,75 482,19 1175,19 1092,95
44 408,86 500 0,0047 2,35 1,92 482,19 1175,19 1092,95
45 383,509 500 0,0047 2,35 1,80 482,19 1175,19 1092,95
46 405,143 500 0,0047 2,35 1,90 482,19 1175,19 1092,95
47 404,132 500 0,0047 2,35 1,90 482,19 1175,19 1092,95
48 379,243 500 0,0047 2,35 1,78 482,19 1175,19 1092,95
49 387,419 500 0,0047 2,35 1,82 482,19 1175,19 1092,95
Soma 59,00 65676,70 46960,42
Média ponderada 12,86 17,81 $\hbox{Var}(\widehat{\beta}_{w1})$ 0,000110803
$QME_w$ 5,203371 $DP (\widehat{\beta}_{w1})$ 0,010526316
$\hbox{Var}(\widehat{\beta}_{w0})$ 0,12334151
$DP (\widehat{\beta}_{w0})$ 0,3512001

Tabela 4.1.70: Tabela para calcular as variâncias dos coeficientes.

Obtemos os seguintes resultados pelo Action Stat do modelo de regressão ponderada com os dados da Motivação 3 com $\hbox{Peso} = 1 / s_i^2$:

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 24393.61704706 24393.61704706 4688.04043664 0
Resíduos 47 244.55847101 5.20337172

Tabela 4.1.71: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-3.89340424 0.18729587 1.46569103 1.10882553 2.33610531 5.00818426

Tabela 4.1.72: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 0.02039689 0.35120008 0.05807771
Concentracao 0.72072907 0.01052632 68.46926637

Tabela 4.1.73: Coeficientes

Desvio Padrão dos Resíduos Graus de Liberdade R^2 R^2 Ajustado
2.28109003 47 0.990074 0.98986281

Tabela 4.1.74: Medida Descritiva da Qualidade do Ajuste

Dos dados da tabela (4.1.70) obtemos os dados para calcularmos as variâncias dos coeficientes:

$$\hbox{Var}(\widehat{\beta_{w0}})=\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}=\dfrac{5,203371\times 65676,7}{59\times 46960,42}=0,12334151$$

$$\hbox{Var}(\widehat{\beta_{w1}})=\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}=\dfrac{5,203371}{46960,42}=0,000110803$$

Portanto, os desvios padrões dos coeficientes são

$$\widehat{\hbox{DP}}(\widehat{\beta_{w0}})=\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}=0,3512001$$

$$\widehat{\hbox{DP}}(\widehat{\beta_{w1}})=\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}=0,010526316$$

1.11.4 - Testes e intervalos de confiança para os parâmetros

Na regressão linear ponderada é importante avaliarmos se existe uma boa “correlação” entre a resposta e a variável explicativa, assim como dito na seção Regressão Linear Simples. Para respondermos a esta questão, utilizamos testes de hipóteses e intervalos de confiança para os parâmetros.

Distribuição amostral dos estimadores:

Neste tópico, vamos discutir sobre a distribuição amostral dos estimadores, para isto, observamos que $\widehat{\beta_{w0}}$ e $\widehat{\beta_{w1}}$ são combinações lineares de $Y$, que é uma variável aleatória com distribuição normal. Logo as distribuições dos estimadores são normais exatas, com médias e variâncias iguais as esperanças e variâncias dos estimadores, logo temos que:

$$\widehat{\beta_{wo}} \sim N\left(\beta_{w0}, \dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}\right)\quad \hbox{e}\quad \widehat{\beta}_{w1} \sim N \left(\beta_{w1}, \dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \right)$$

Além disso,

$$Z=\dfrac{\widehat{\beta_{w0}} - \beta_{w0}}{\sqrt{\dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}}\sim N(0,1)\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta}_{w1} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}\sim N(0,1)$$

A partir desse resultado podemos construir intervalos de confiança e testar hipóteses a respeito dos estimadores.

Inferência para o intercepto

Não usual fazermos inferências sobre $\beta_{w0},$ isso só ocorre quando a variável x pode assumir o valor x=0. Esta prática não é recomendada, inclusive para o MAPA, que em umas de suas instruções normativas (item 7.1.1.6) diz que “as curvas de calibração não devem ser forçadas a passar pela origem”.

Suponha que desejamos testar a hipótese de que o intercepto é igual a um determinado valor, denotado por $\beta_{w0*}$. Desta forma, sejam as hipóteses

$$\begin{cases} H_{0}:\beta_{w0}=\beta_{w0*} \cr H_{1}:\beta_{w0} \neq \beta_{w0*} \end{cases} $$

Como visto anteriormente,

$$\widehat{\beta_{w0}} \sim N\left(\beta_{w0}, \dfrac{\sigma^2_w \displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}\right)\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta}_{w0} - \beta_{w0}}{\sqrt{\dfrac{\sigma^2_w \displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}}\sim N(0,1)$$

A partir desse resultado podemos construir intervalos de confiança e testar hipóteses a respeito dos estimadores. Vale lembrar que1

$$\chi =\dfrac{(n-2)QME_w}{\sigma^2_w}~~\sim \chi_{(n-2)}^2.$$

Como as variáveis aleatórias $Z$ e $\chi$ são independentes, segue que

$$T= \dfrac{Z}{\sqrt{\dfrac{\chi}{n-2}}} = \dfrac{\dfrac{\widehat{\beta_{w0}} - \beta_{w0*}}{\sqrt{\dfrac{\sigma^2_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}}}{\sqrt{\dfrac{\dfrac{(n-2)QME_w}{\sigma^2_w}}{(n-2)}}}= \dfrac{\widehat{\beta_{w0}} - \beta_{w0*}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}}} \quad \sim t_{(n-2)}$$

ou seja, T tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_{w0}$ podem ser realizados utilizando a distribuição t.

No modelo ponderado, queremos testar as hipóteses

$$\begin{cases} H_{0}:\beta_{w0}=0. \cr H_{1}:\beta_{w0} \neq 0.\end{cases} $$

Assim, a estatística do teste é dada por

$$T_0=\dfrac{\widehat{\beta_{w0}}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}} \quad\sim t_{(n-2)}.$$

Logo, rejeitamos $H_0$ com um nível de confiança de (1-$\alpha$)100% se $\mid T_0\mid> t_{(1-\alpha/2,n-2)}$. O p-valor associado ao teste é dado por

$$\hbox{P-valor}=2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid \right)$$

Rejeitamos $H_0$ se o p-valor for menor do que o nível de significância $\alpha$ considerado. Geralmente adotamos $\alpha=$0,05.

Quando não rejeitamos $H_0$, podemos utilizar o “Modelo de Regressão ponderado sem Intercepto”.

O intervalo de confiança para $\beta_{w0}$ com $(1-\alpha)100\char37$ é dado por

$$\left[\widehat{\beta_{w0}} - t_{\left(1-\alpha/2;n-2\right)} \sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}} ~;~ \widehat{\beta}_{w0} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}\right]$$

Inferência para coeficiente angular

Inferência sobre $\beta_{w1}$ é mais frequente já que por meio deste parâmetro temos um indicativo da existência ou não de associação linear entre as variáveis envolvidas.

Similarmente ao parâmetro $\beta_{w0}$, consideremos as hipóteses

$$\begin{cases} H_{0}:\beta_{w1}=\beta_{w1*} \cr H_{1}:\beta_{w1} \neq \beta_{w1*} \end{cases}$$

Do início desta seção obtemos que

$$\widehat{\beta_{w1}} \sim N \left(\beta_{w1}, \dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \right).\quad \hbox{e}\quad Z=\dfrac{\widehat{\beta_{w1}} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}\sim N(0,1)$$

Novamente, consideramos que

$$\chi =\dfrac{(n-2)QME_w}{\sigma^2_w} ~~\sim \chi_{(n-2)}^2$$

e que $N_1$ e $\chi$ são independentes, obtemos

$$T=\dfrac{Z}{\sqrt{\dfrac{\chi}{n-2}}}= \dfrac{\dfrac{\widehat{\beta_{w1}} - \beta_{w1}}{\sqrt{\dfrac{\sigma^2_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}}}}{\sqrt{\dfrac{\dfrac{(n-2)QME_w}{\sigma^2_w}}{(n-2)}}}= \dfrac{\widehat{\beta}_{w1} - \beta_{w1}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}\quad \sim t_{(n-2)},$$

ou seja, T tem distribuição t de Student com n-2 graus de liberdade. Logo, intervalos de confiança e testes a respeito de $\beta_{w1}$ podem ser realizados utilizando a distribuição t.

No modelo em questão, queremos testar as seguintes hipóteses

$$\begin{cases} H_{0}:\beta_{w1}=0 \cr H_{1}:\beta_{w1} \neq 0 \end{cases}$$

Neste caso, a estatística do teste é

$$T_0=\dfrac{\widehat{\beta_{w1}}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}\quad\sim t_{(n-2)}.$$

Assim, rejeitamos $H_0$ com um nível de confiança (1-$\alpha$)100% se $\mid T_0\mid> t_{(1-\alpha/2,n-2)}$. O p-valor associado ao teste é dado por

$$\hbox{P-valor}=2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid \right).$$

Rejeitamos $H_0$ se o P-valor for menor do que $\alpha.$

O intervalo de confiança para $\beta_{w1}$ com (1-$\alpha$)100% é dado por

$$IC[\beta_{w1}; 1-\alpha] = \left[\widehat{\beta_{w1}} - t_{\left(1-\alpha/2 ;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2}} ~;~\widehat{\beta_{w1}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} \right]$$

Exemplo 1.11.3.1

Neste exemplo. vamos aplicar testes de hipóteses e construir intervalos de confiança para os parâmetros $(\beta_{w0},\beta_{w1}),$ para isto vamos usar os dados do exemplo 1.11.1.1. Como visto no Exemplo 1.11.1.1, as estimativas dos parâmetros são $\widehat{\beta_{w0}}=0,02039$ e $\widehat{\beta_{w1}}=0,720729$

Do exemplo 1.11.2.1 obtemos que

$$QME_w=5,203371\quad\hbox{e} \quad \widehat{\hbox{Var}}(\widehat{\beta}_{w0})=0,1233$$

Agora, vamos testar as hipóteses

$$\begin{cases} H_{0}:\beta_{w0}=0. \cr H_{1}:\beta_{w0} \neq 0. \end{cases}$$

Assim, a estatística do teste é dada por

$$T_0=\dfrac{\widehat{\beta_{w0}}}{\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}}=\dfrac{0,02039}{\sqrt{0,1233}}=0,05807757$$

Para $\alpha =$ 0,05 temos $t_{(1-0,05/2;47)}=2,101$.

Como $T_0=26,46> 2,011741 = t_{(1-0,05/2;18)}$, e

$\hbox{P-valor} =2\times\mathbb{P}\left( t_{(n-2)}> \mid T_0 \mid\right)= 0,9539,$ não rejeitamos $H_0.$

O intervalo de confiança, IC(95%), para $\beta_{w0}$ é dado por

$$\left[\widehat{\beta_{w0}} - t_{\left(1-\alpha/2;n-2\right)} \sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}} ~;~ \widehat{\beta_{w0}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w\displaystyle\sum_{i=1}^{n} w_i x^2_i }{\displaystyle \sum_{i=1}^{n} w_i\sum_{i=1}^{n} w_i (X_i - \overline{X_w} )^2}}\right]$$

$$\left[0,02039-2,011741\times0,35120010 ~;~ 0,02039+2,011741\times0,35120010\right]$$

$$\left[ -0,6861266 ~;~ 0,7269203\right]$$

Similarmente, vamos testar as hipóteses

$$\begin{cases} H_{0}:\beta_{w1}=0 \cr H_{1}:\beta_{w1} \neq 0 \end{cases}$$

Vale lembrar que do exemplo 1.11.2.1 obtemos que $\widehat{\hbox{Var}}(\widehat{\beta_{w1}})=0,0001108.$ Neste caso, a estatística do teste é

$$T_0=\dfrac{\widehat{\beta_{w1}}}{\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}}}= \dfrac{0,7207}{0,02117622}= 68,46926310$$

Para $\alpha =$ 0,05 temos $t_{(1-0,05/2;47)}=2,0117$.

Como $T_0=68,47>2,0117=t_{(1-0,05/2;47)}$ e

$2\times \mathbb{P}\left( t_{(n-2)}> \mid T_0\mid \right)=9,3769053\times 10^{-49},$ rejeitamos $H_0.$

O intervalo de confiança, IC(95%), para $\beta_{w1}$ é dado por

$$\left[\widehat{\beta_{w1}} - t_{\left(1-\alpha/2 ;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} ~;~\widehat{\beta_{w1}} +t_{\left(1-\alpha/2;n-2\right)}\sqrt{\dfrac{QME_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X_w})^2}} \right]$$

$$\left[ 0,72072908-2,0117\times 0,01052632~;~ 0,72072908+2,0117\times 0,01052632 \right]$$

$$\left[0,6995529~;~ 0,7419053\right]$$

Por fim, observe os resultados obtidos pelo software Action novamente:

G.L. Soma de Quadrados Quadrado Médio Estat. F P-valor
Concentracao 1 24393.61704706 24393.61704706 4688.04043664 0
Resíduos 47 244.55847101 5.20337172

Tabela 4.1.75: Tabela da ANOVA

Mínimo 1Q Mediana Média 3Q Máximo
-3.89340424 0.18729587 1.46569103 1.10882553 2.33610531 5.00818426

Tabela 4.1.76: Análise Exploratória (resíduos)

Estimativa Desvio Padrão Estat.t P-valor
Intercepto 0.02039689 0.35120008 0.05807771
Concentracao 0.72072907 0.01052632 68.46926637

Tabela 4.1.77: Coeficientes

Desvio Padrão dos Resíduos Graus de Liberdade R^2 R^2 Ajustado
2.28109003 47 0.990074 0.98986281

Tabela 4.1.78: Medida Descritiva da Qualidade do Ajuste

ICpar

1.11.5 - Mínimos quadrados ponderados por meio de transformações

O software Action Stat, assim como diversos software estatísticos disponíveis, permitem ao usuário especificar os pesos, não só o usado nas seções anteriores, isto é, o peso $1/s^2_i.$ Quando esta opção não estiver disponível, os estimadores de mínimos quadrados ponderados podem ser obtidos através da aplicação de mínimos quadrados não ponderados em observações transformadas especialmente.

O método dos mínimos quadrados ponderados é equivalente ao dos mínimos quadrados ordinários de dados transformadas especialmente, para ilustrar isto consideramos o caso em que a variância dos erros são proporcionais à variável explicativa ao quadrado, ou seja, $\sigma^2_i=k X^2_i$ em que $w_i=1/X^2_i.$

$$Q_w= \sum^n_{i=1}w_i(Y_i-\beta_0-\beta_1 X_i)^2=\sum^n_{i=1}\dfrac{1}{X^2_i}(Y_i-\beta_0-\beta_1 X_i)^2$$

$$=\sum^n_{i=1}(\dfrac{Y_i}{X^2_i}-\dfrac{\beta_0}{X^2_i}-\beta_1)^2 \tag{1.11.4.1}$$

Denotamos por

$$ Y^{\char42}_i=\dfrac{Y_i}{X_i}; \quad \beta^*_0=\beta_1;\quad X^{\char42}_i= \dfrac{1}{X_i}\quad \hbox{e} \quad \beta^{\char42}_1 = \beta_0$$

E substituímos em (1.11.4.1) e obtemos

$$Q_w= \sum^n_{i=1}w_i(Y^*_i-\beta^*_0-\beta^*_1 X^*_i)^2$$

que é o critério de mínimos quadrados não ponderada para as observações $X^*_i$ e $Y^*_i$ transformadas.

A variância dos resíduos (erro) para o modelo com as variáveis transformadas, agora é constante. Isto pode ser visto através da divisão dos termos no modelo original:

$$Y_i=\beta_0+\beta_i X_i+\varepsilon_i,\quad i=1,\dots,n.$$

por $\sqrt{w_i}=1/X_i.$

$$\dfrac{Y_i}{X_i}=\dfrac{\beta_0}{X_i}+\beta_i +\dfrac{\varepsilon_i}{X_i}$$

Ao usarmos a mesma notação obtemos

$$Y^{\char42}_i = \beta^{\char42}_0 + \beta^{\char42}_i X^{\char42}_i+ \varepsilon^{\char42}_i \tag{1.11.4.2}$$

Com isso, obtemos que $\varepsilon^*_i=\varepsilon_i/X_i$

Portanto, (1.11.4.2) é o modelo de regressão linear simples usando a transformação de variáveis. A variância dos resíduos agora são constantes, pois:

$$\hbox{Var}(\varepsilon^*_i)=\hbox{Var}\left(\dfrac{\varepsilon_i}{X_i}\right)=\dfrac{1}{X^2_i}\hbox{Var}\left(\varepsilon_i\right)= \dfrac{1}{X^2_i}(k X^2_i)=k$$

O softaware Action disponibiliza diveros pesos para regressão linear simples ponderada, os principais pesos são:

$$w_i= \begin{cases}\dfrac{1}{X_i},\quad X_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{X^2_i},\quad X^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{Y_i},\quad Y_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{Y^2_i},\quad Y^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1}{s^2_i},\quad s^2_i\neq 0~\hbox{para todo}~ i \cr \cr \dfrac{1/s^2_i}{n\displaystyle\sum^n_{j=1}\frac{1}{s^2_i}}\quad s^2_i\neq 0 ~\hbox{para todo}~i \cr \cr \end{cases} $$

Existem estratégias para escolha destes pesos, por exemplo, no artigo de Almeida et al [15], cita um método para curvas de calibração. Neste artigo, o melhor peso é escolhido segundo o cálculo da porcentagem do erro relativo (%RE), em que compara a concentração encontrada através do ajuste do modelo de regressão ponderado ($C_{adj}$) versus a concentração nominal ($C_{nom}$). A porcentagem do erro relativo é calculado da seguinte forma:

$$\char37RE= \dfrac{C_{adj}-C_{nom}}{C_{nom}}\times 100\char37$$

Vale lembrar que na estatística este é o estudo de viés ou vício da concentração ajustada versus a concentração empírica do modelo.

A avaliação do melhor modelo é feito através do gráfico da porcentagem de erro relativo versus concentração, em que %RE devem estar distribuídos aleatoriamente em torno do zero e por meio do cálculo da soma da porcentagem de erro relativo (%RE). Esta soma é definida como a soma dos valores absolutos da porcentagem de erro relativo e a avaliação desta medida é feita através da menor dentre todos os modelos testados.

A seguir apresentamos um resumo da estratégia adotada para tratarmos a falha da suposição de homocedasticidade do modelo de regressão linear simples.

Figura 4.1.19

Figura 4.1.19: Fluxograma para modelo heterocedástico.

Concluímos que existem diversas estratégias para ponderarmos o modelo de regressão linear simples para tratarmos a heterocedasticidade do modelo e o software Action possibilita a escolha destas e inclusive deixa livre a opção do usuário montar o peso que melhor se adeque a aplicação pretendida.