3.4 Análise de Performance do Processo para Dados Não Normais

Quando os dados não seguem distribuição normal temos diversas alternativas para calcular os índices de capacidade/performance do processo. A seguir, apresentamos as alternativas:

  • Aplicar uma transformação nos dados, para que estes tenham distribuição normal;

  • Calcular os índices através de outra distribuição de probabilidade que se ajuste aos dados, por exemplo através da distribuição de Weibull, exponencial e lognormal;

  • Utilizar um índice não paramétrico.

A seguir vamos discutir as alternativas mencionadas acima.

4.1 - Transformação de dados para análise de capacidade

Quando a distribuição normal não se ajusta aos dados, muitas vezes é útil utilizarmos métodos de transformações para os dados tal que esses dados transformados sejam provenientes da distribuição normal. Veremos nesta seção duas metodologias para transformação dos dados: transformação de Box-Cox e Curvas de Johnson. A utilização de dados transformados é preferível em muitas situações devido à facilidade de interpretação dos resultados. No caso dos índices de capacidade do processo, a normalidade dos dados transformados facilita os cálculos dos índeces de capacidade e performance bem como sua interpretação.

4.1.1 - Transformação de Box-Cox

Quando a distribuição normal não se adéqua aos dados, muitas vezes é útil aplicar a transformação de Box-Cox para obtermos a normalidade. Considerando $X_{1}$, …, $X_{n}$ os dados originais, a transformação de Box-Cox consiste em encontrar um λ tal que os dados transformados $Y_{1}$, …, $Y_{n}$ se aproximem de uma distribuição normal. Esta transformação é dada por

$$Y_i(\lambda) = \begin{cases} \ln(X_i), \hbox{se $\lambda = 0$,} \cr \cr \dfrac{X_i^{\lambda} - 1}{\lambda}, \hbox{se $\lambda \neq 0$,}\end{cases} $$

Método de Estimação

Precisamos então, encontrar uma estimativa para o parâmetro de transformação $\lambda$. Uma das formas de estimar $\lambda$ é utilizando o método de máxima verossimelhança.

Assumimos que $Y_i(\lambda), i=1,…,n$ é uma função monotona tal que $Y_i(\lambda) \sim N(\mu,\sigma^2)$ para algum $\lambda$ fixo. Portanto, a função de máxima verissimilhança de $Y_i(\lambda)$ em relação às observações originais $Y_i$ é obtida multiplicando a função de máxima verossimilhança pelo Jacobiano da transformação, temos então:

$$L \left(Y_i(\lambda), \mu, \sigma^2 \right) = \dfrac{1}{(2\pi)^{n/2}\sigma^n} \exp \left \lbrace \dfrac{-\sum^{n}_{i=1}\left(Y_i(\lambda) - \mu \right)^2}{2\sigma^2} \right \rbrace J(\lambda, Y)$$

em que

$$J(\lambda, Y) = \prod_{i=1}^n \left|\dfrac{\partial Y_i(\lambda)}{\partial Y_i} \right| = \prod_{i=1}^n Y_i^{\lambda-1}$$

Desta forma, temos que para um $\lambda$ fixo, os estimadores $\hat{\sigma}^2(\lambda)$ e $\hat{\mu}(\lambda)$ são dados por:

$$\hat{\mu}(\lambda) = \overline{Y}(\lambda)=\dfrac{\sum_{i=1}^n Y_i(\lambda)}{n}$$

$$\hat{\sigma}^2(\lambda) = \dfrac{\sum_{i=1}^n(Y_i(\lambda) - \overline{Y}(\lambda))^2}{n}$$

Em seguida, substituímos os valores de $\mu$ e $\sigma^2$ pelos estimadores de máxima verossimelhança encontrados acima, $\hat{\mu}(\lambda)$ e $\hat{\sigma}^2(\lambda)$, respectivamente, na função de máxima verossimilhança. Desta forma, obtemos o logaritimo da função de máxima verossimilhança dependendo somente de $\lambda$

$$\ell(\lambda) =\log\left[L(\lambda| Y_i, \hat{\mu}, \hat{\sigma^2}) \right]=-\dfrac{n\pi}{2}- \dfrac{1}{2}\log\hat{\sigma}^2(\lambda) + (1-\lambda)\log (Y_i)$$

Precisamos então, enncontrar $\lambda$ que maximiza $\ell(\lambda)$. Uma forma que encontramos na literatura para facilitar a estimativa de $\lambda$ utilizar a forma normalizada da transformação, $Z_i(\lambda)$, para que desta forma termos $J(\lambda,Z) = 1$. Considere a seguinte função:

$$Z_i(\lambda) = \dfrac{Y_i(\lambda)}{\left[J(\lambda,Y) \right]^{1/n}}$$

Desta forma, o logaritmo da função de máxima verossimilhança fica

$$\ell(\lambda) =\log\left[L(\lambda| Z_i, \hat{\mu}, \hat{\sigma^2}) \right]=-\dfrac{n\pi}{2}- \dfrac{1}{2}\log\hat{\sigma}^2(Z,\lambda)$$

onde

$$\hat{\sigma}^2(Z,\lambda) =\dfrac{\sum_{i=1}^n(Z_i(\lambda) - \bar{Z}(\lambda))^2}{n}$$

Portanto, maximizar $\ell(\lambda)$ é equivalente a encontrar o mínimo de $\hat{\sigma}^2(Z,\lambda)$ em relação a $\lambda$.

Box e Cox (1964) afirmam que após a transformação adequada das observações $Y$ para $Y(\lambda)$ os valores esperados das observações transformadas estarão normalmente distribuidos com variância constante.

O Action Stat estima o valor de lambda através de simulações. Geramos 500 valores para $\lambda$, de -2,5 a 2,5 aumentando em 0,01. Em seguida, para cada valor de $\lambda$ calculamos o valor do logaritimo da função de máxima verossimilhança. Assim basta tomarmos o valor de $l(\lambda)$ que corresponde ao máximo do logaritimo da função de máxima verossimilhança.

Aplicação da Transformação

Após aplicarmos essa transformação aos dados, as especificações e os parâmetros do processo (média, variabilidade inerente e total) são obtidos para os dados transformados, aplicando a análise via dados normais. Da mesma forma, os índices são calculados para os dados transformados com a distribuição normal.

Para verificarmos se a transformação foi eficiente basta analisarmos a normalidade dos dados transformados via histograma, papel de probabilidade normal ou teste de normalidade de Kolmogorov-Smirnov ou Anderson-Darling.

Aplicação da Transformação

Após aplicarmos essa transformação aos dados, as especificações e os parâmetros do processo (média, variabilidade inerente e total) são obtidos para os dados transformados, aplicando a análise via dados normais. Da mesma forma, os índices são calculados para os dados transformados com a distribuição normal.

Para verificarmos se a transformação foi eficiente basta analisarmos a normalidade dos dados transformados via histograma, papel de probabilidade normal ou teste de normalidade de Kolmogorov-Smirnov ou Anderson-Darling.

Exemplo 4.1.1.1

Considere um processo em início de desenvolvimento. Deste processo coletamos uma amostra com 30 unidades, organizados na Tabela 3.4.1. Considerando o Limite Superior de Especificação LSE = 4, vamos calcular o índice de performance para o processo.

1,278258 4,47932 2,035204 3,757334 1,985193
0,017442 0,096113 0,992143 5,958947 3,193834
1,763441 1,503284 0,714152 1,973829 4,359103
0,350306 3,618302 1,084793 0,680619 0,645437
0,499543 0,19454 1,195303 0,088677 1,003296
0,009417 1,845016 1,707286 0,360242 0,309148

Tabela 3.4.1: Dados referentes a um processo em desenvolvimento.

Utilizando o Software Action vamos fazer um teste de normalidade e verificar através da estatística de Anderson-Darling se os dados acima seguem uma distribuição normal.

Estatísticas P-valores
Anderson - Darling 1.4064367739 0.001

Tabela 3.4.2: Teste de normalidade Anderson-Darling

Figura 3.4.1

Figura 3.4.1: Papel de probabilidade

Como o p-valor associado ao teste de Anderson-Darling é menor que 0,05 rejeitamos a hipótese de que a distribuição dos dados é aproximadamente normal.

Dessa maneira, como os dados da Tabela 3.4.1 não podem ser modelados por uma distribuição normal, vamos fazer uma transformação nesses dados com o objetivo de encontrar normalidade.

Aplicando a Transformação de Box-Cox obtemos um valor de $λ = 0,3283$, que maximiza a log-verossimilhança para a transformação realizada (ver Figura 3.4.2).

Valores
Lambda 0.3282828283
P-Valor (Anderson-Darling) 0.9219

Tabela 3.4.3: Teste de normalidade Anderson-Darling dos dados transformados

Figura 3.4.2

Figura 3.4.2: Logaritmo da função de verossimilhança para λ.

Com isso, podemos verificar através do p-valor associado ao teste de Anderson-Darling que após a transformação os dados têm distribuição aproximadamente normal.

Na Tabela 3.4.4 estão dispostos os dados obtidos pela transformação. O valor da média amostral para os dados transformados é $\overline{x}$ = 0,08211.

0,255662 1,937336 0,800318 1,657929 0,769029
-2,23985 -1,63421 -0,00788 2,426862 1,41358
0,623524 0,436188 -0,31872 0,761846 1,893027
-0,88741 1,600062 0,082486 -0,36145 -0,40782
-0,62067 -1,26646 0,183727 -1,67105 0,003292
-2,38755 0,678407 0,584744 -0,86749 -0,97419

Tabela 3.4.4: Dados transformados.

Da mesma forma, a transformação aplicada aos dados deve ser aplicada aos limites de especificação. Assim, o limite superior de especificação transformado é dado por

$$LSE = \dfrac{4^{(0,3283)}-1}{0,3283} = 1,75558$$

Feito isso, podemos fazer uma análise da capacidade e performance do processo para dados normais, como discutido na seção 3.

Então, antes dos cálculos, vamos fazer uma análise da estabilidade do processo através de um gráfico de controle.

Figura 3.4.3

Figura 3.4.3: Gráficos I-MR.

Podemos observar que não existem pontos fora dos limites de controle, indicando que o processo não está fora de controle no período considerado.

Assim, para o método de variabilidade a longo prazo temos

$$\widehat{\sigma} = s = \sqrt{\dfrac{\sum_{i=1}^{n}(x_i - \overline{x})^2}{n - 1}} = \sqrt{\dfrac{44,68805}{29}} = 1,241357$$

e com isso,

$$PPS = \dfrac{LSE - \widehat{\mu}}{3\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{3 \ast 1,241357} = 0,44937$$

$$P_{pk} = PPS = 0,44937$$

Calculando o valor de Z, obtemos

$$Z_{LSE} = \dfrac{LSE - \widehat{\mu}}{\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{1,241357} = 1,3481$$

Calculando o $PPM_{Total}$

$$PPM_{Total} = PPM_{LSE} = [1 - \Phi(Z_{LSE})] 1.000.000 = [1 - \Phi(1,3481)] 1.000.000 = 88813,11$$

Para o método de variabilidade a curto prazo, temos

$$\widehat{\sigma} = \dfrac{\overline{R}}{d_2} = \dfrac{1,385638}{1,128} = 1,228402$$

sendo $d_{2}$ = 1,128 (para n = 2) tabelado no Apêndice.

$$C_{pk} = CPS = \dfrac{LSE - \widehat{\mu}}{3\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{3 \ast 1,228402} = 0,4541049$$

Calculando o valor de Z, obtemos

$$Z_{LSE} = \dfrac{LSE - \widehat{\mu}}{\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{1,228402} = 1,362315$$

Calculando o $PPM_{Total}$

$$PPM_{Total} = PPM_{LSE} = [1 - \Phi(Z_{LSE})] 1.000.000 = [1 - \Phi(1,362315)] 1.000.000 = 86549,25$$

A seguir temos os resultados obtidos pelo Software Action para esse exemplo.

Valor
Amostra: 30
Limite Superior 1.75557675336065

Tabela 3.4.5: Especificações

Estimativa
Média 0.08211
Desvio Padrão (Curto prazo) 1.22799
Desvio Padrão (Longo prazo) 1.24136

Tabela 3.4.6: Estimativas

Índices de Performance (Variabilidade Total)
PPS 0.44937
PPK 0.44937

Tabela 3.4.7: Índices de Performance (Longo prazo)

Índices de Capacidade (Variabilidade Inerente)
CPS 0.45426
CPK 0.45426

Tabela 3.4.8: Índices de Capacidade(Curto prazo)

Índices Observados
PPM > LSE 100000
PPM Total 100000

Tabela 3.4.9: Índices Observados

Índices Esperados (Variabilidade Total)
PPM > LSE 88813.84111
PPM Total 88813.84111

Tabela 3.4.10: Índices Esperados (Longo prazo)

Índices Esperados (Variabilidade Inerente)
PPM > LSE 86477.27837
PPM Total 86477.27837

Tabela 3.4.11: Índices Esperados (Curto prazo)

Figura 3.4.4

Figura 3.4.4: Análise de Performance do Processo com a transformação de Box-Cox.

4.1.2 - Transformação de Johnson

O sistema de curvas de Johnson é constituído por três famílias de distribuições, geradas a partir da seguinte função:

$$Y = \gamma + \eta k_i(X, \lambda, \varepsilon)$$

em que $Y$ representa a variável normal padronizada, $X$ é a observação a ser transformada, $\eta, \gamma, \lambda$ e $\varepsilon$ são os parâmetros específicos da transformação de Johnson que precisam ser estimados. A função $k_i(X,\lambda,\varepsilon)$ é a função que caracteriza cada família do sistema de curvas.

As três famílias características do sistema de curvas de Johnson são:

$$S_U: k_1(X,\lambda, \varepsilon) = senh^{-1}\left(\dfrac{X-\varepsilon}{\lambda}\right), \quad \text{em que} \quad -\infty < X <\infty$$ $$S_B: k_2(X,\lambda, \varepsilon) = ln\left(\dfrac{X-\varepsilon}{\lambda+ \varepsilon -X}\right), \quad \text{em que} \quad \varepsilon < X < \varepsilon + \lambda$$ $$S_L: k_3(X,\lambda, \varepsilon) = ln\left(\dfrac{X-\varepsilon}{\lambda}\right), \quad \text{em que} \quad \varepsilon < X < \infty$$

Escolha da Família

Para a escolha da família, precisamos inicialmente escolher um valor de $Z$ tal que $Z > 0$. O valor de $Z$ é relacionado ao tamanho da amostra a ser transformada e dificilmente será um valor maior do que 1, devido à dificuldade na estimação do percentil correspondente a $\pm 3Z$. Na literatura, é recomendado utilizar um valor de $Z$ próximo a $0,5$.

Após escolhido o valor de $Z$ calculamos as probabilidades acumuladas $\Phi(-3Z), \Phi(-Z), \Phi(Z)$ e $\Phi(3Z)$, em que $\Phi$ representa função da distribuição acumulada da normal padrão. Em seguida, precisamos encontrar os respectivos percentis $X_{-3Z}, X_{-Z}, X_{Z}$ e $X_{3Z}$ da amostra. Para isso, ordenamos as observações da amostra $X_{(1)} \leq X_{(2)} \leq\cdots\leq X_{(n)}$ e para cada valor de $\xi=-3Z,-Z,Z$ e $3Z$ encontramos os percentil $X_{(i)}$ correspondente a $\Phi(\xi)$ respeitando a seguinte relação: $(i-1/2)/n = \Phi(\xi)$, assim $X_{\xi} = X_{(i)}$, para cada valor de $\xi$.

Desta forma, podemos calcular a função discriminadora:

$$F_D = \dfrac{mn}{p^2}$$

em que:

$$m = X_{3Z} - X_{Z};$$ $$n = X_{-Z} - X_{-3Z};$$ $$p=X_{Z} - X_{-Z}.$$

Slifker e Shapiro (1980) provaram que se $F_D > 1$, a família $S_U$ será utilizada, se $F_D < 1$, utilizaremos a família $S_B$ e se $F_D = 1$ a família $S_L$ será utilizada. No caso da família $S_L$ precisamos considerar uma tolerância para valores próximos a 1 pois sempre estaremos lidando com estimativas de valores e obter resultado exatamente igual a 1 não será possível do ponto de vista numérico.

Os softwares estatísticos encontram o melhor valor de $Z$ através de uma simulação de 100 valores para $Z$, de $0,25$ a $1,25$. Nessa simulação, efetuamos as estimativas dos parâmetros para cada valor de $Z$ em cada família e assim, escolhemos o valor de $Z$ e a família de distribuição em que os dados transformados apresentam o melhor resultado no teste de normalidade de Anderson-Darling.

No Action Stat seguimos o seguinte algoritmo para a escolha do valor de $Z$ e para determinar a melhor família para a transformação das observações:

  1. Encontramos as estimativas dos parâmetros para as três famílias segundo o método de comparação de quantil (descrito abaixo) para todos os 100 valores de $Z$;
  2. Verificamos para cada valor de $Z$ se utilizando as estimativas encontrada, o domínio da função característica é respeitado em cada família, caso contrário esse valor de $Z$ é desconsiderado para a família em que o domínio da função característica não é respeitado;
  3. Calculamos a transformação para as 3 famílias em todos os valores de $Z$ considerados;
  4. Escolhemos o valor de $Z$ e a família utilizada para a transformação considerando o maior P-Valor do teste de normalidade de Anderson-Darling aplicado nos dados transformados.

Estimação dos Parâmetros

Para cada família, precisamos estimar os parâmetros: $\gamma, \eta, \lambda$ e $\varepsilon$. Para isso, utilizamos o método de comparação de quantil (ver, Slifker e Shapiro (1980)). Consideramos os valores dos quantis $\alpha_j, j = 1,…,4$ tal que:

$$Z_{\alpha_1} = -3Z = \Phi^{-1}(\alpha_1)$$ $$Z_{\alpha_2} = -Z = \Phi^{-1}(\alpha_2)$$ $$Z_{\alpha_3} = Z = \Phi^{-1}(\alpha_3)$$ $$Z_{\alpha_4} = 3Z = \Phi^{-1}(\alpha_4)$$

em que $\Phi$ é a função de distribuição acumulada da normal padrão. Calculamos então $X_{\alpha_j} = F^{-1}(\alpha_j), j=1,…,4$. Tal que $F$ representa a função de distribuição acumulada empírica das observações $X$. Desta forma, teremos quatro equações no seguinte formato:

$$Z_{\alpha_j} = \gamma + \eta k_i(X_{\alpha_j}, \omega, \varepsilon), \quad j=1,…,4.$$

onde $k_i(X_{\alpha_j}, \lambda, \varepsilon)$ é a função característica da família escolhida. Resolvendo o sistema com 4 equações e 4 incógnitas obtemos as estimativas para $\eta, \gamma, \omega$ e $\varepsilon$.

É possível mostrar que, para a família $S_U$, a estimativa dos parâmetros são dadas por:

$$\eta = 2Z\left \lbrace cosh^{-1}\left[\dfrac{1}{2}\left(\dfrac{m+n}{p}\right)\right]\right\rbrace^{-1}$$

$$\gamma = \eta senh^{-1} \left \lbrace \left(\dfrac{n-m}{p}\right) \left[2\left(\dfrac{mn}{p^2}-1\right)^{1/2}\right]^{-1}\right\rbrace$$

$$\lambda = 2p\left(\dfrac{mn}{p^2}-1\right)^{1/2}\left[\left(\dfrac{m+n}{p}-2\right)\left(\dfrac{m+n}{p}+2\right)^{1/2}\right]^{-1}$$

$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2} + p \left(\dfrac{n-m}{p}\right) \left[ 2\left(\dfrac{m+n}{p}-2\right)\right]^{-1}$$

Na família $S_B$ as estimativas são:

$$\eta = Z \left \lbrace cosh^{-1}\left(\dfrac{1}{2}\left[\left(1 + \dfrac{p}{m}\right)\left(1 + \dfrac{p}{n}\right)\right]^{1/2}\right)\right\rbrace^{-1}$$

$$\gamma = \eta sinh^{-1}\left \lbrace \left(\dfrac{p}{n} - \dfrac{p}{m}\right)\left[\left(1+\dfrac{p}{m}\right)\left(1+\dfrac{p}{n}\right)-4\right]^{1/2}\left[2\left(\dfrac{p^2}{mn}-1\right)\right]^{-1}\right\rbrace$$

$$\lambda= p\left \lbrace \left[\left(1+\dfrac{p}{m}\right)\left(1+\dfrac{p}{n}\right)-2\right]^2-4\right\rbrace\left(\dfrac{p^2}{mn}-1\right)^{-1}$$

$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2}-\dfrac{\lambda}{2} + p\left(\dfrac{p}{m} - \dfrac{p}{n}\right)\left[2\left(\dfrac{p^2}{mn} - 1\right)\right]^{-1}$$

A família $S_L$ é essencialmente a família lognormal com três parâmetros, uma vez que podemos eliminar o parâmetros $\lambda$ fazendo a seguinte reparametrização: $\gamma^{*} = \gamma - \eta ln(\lambda)$. Desta forma, os parâmetros são estimados por:

$$\eta = 2Z\left[ln\left(\dfrac{m}{p}\right)\right]^{-1}$$

$$\gamma^{*} = \eta ln\left[\dfrac{\dfrac{m}{p}-1}{p\left(\dfrac{m}{p}\right)^{1/2}}\right]$$

$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2} - \dfrac{p}{2}\dfrac{\left(\dfrac{m}{p}+1\right)}{\left(\dfrac{m}{p}-1\right)}$$

Transformação das Observações

Agora que já definimos a família a ser utilizada e estimamos os parâmetros, precisamos apenas calcular a transformação de Johnson:

Família Transformação
$S_U$ $Y = \gamma + \eta senh^{-1}\left(\dfrac{X - \varepsilon}{\lambda}\right)$
$S_B$ $Y = \gamma + \eta ln\left(\dfrac{X - \varepsilon}{\lambda + \varepsilon - X}\right)$
$S_L$ $Y = \gamma^{*} + \eta ln(X - \varepsilon)$

Tabela 3.4.12: três famílias de curvas de Johnson transformadas

em que $Y$ corresponde aos dados transformados.

Exemplo 4.1.2.1

Considere uma amostra com 32 observações do volume do frasco de um medicamento. Neste caso o limite Inferior de Especificação é dado por LIE = 30.

30,39 31,16 31,01 32,92 30,31 31,99 32,31
31,33 31,17 30,84 32,78 30,96 31,20 30,55
31,06 30,82 31,23 32,92 30,98 31,21 31,41
31,19 31,30 31,55 32,01 31,44 31,10 32,50
31,09 30,84 31,69 31,06

Primeiramente, vamos verificar a normalidade dos dados:

Estatísticas P-valores
Anderson - Darling 1.40761 0.001

Tabela 3.4.13: Teste de normalidade Anderson-Darling dos dados

Figura 3.4.5

Figura 3.4.5: Papel de probabilidade

Ao nível de significância de 0,05 rejeitamos a hipótese de que os dados possuem distribuição aproximadamente normal. Portanto, não podemos modelar os dados por uma distribuição normal. Neste caso, aplicamos transformação aos dados com o objetivo de encontrar a normalidade para os dados trnansformados. Primeiramente, vamos aplicar a transformação de Box-Cox:

Transformação Box-Cox
Lambda -2.5
P-Valor (Anderson-Darling) 0.0037

Tabela 3.4.15: Transformação Box-cox e teste de normalidade Anderson Darling

Figura 3.4.6

Figura 3.4.6: Logaritmo da função de verossimilhança para λ.

Mais uma vez, ao nível de significância de 0,05 rejeitamos a hipótese de normalidade dos dados transformados. Portanto, a transformação de Box e Cox não foi efetiva na tentativa de normalizar os dados. Na sequência, partimos para a transformação de Johnson. Através do Action Stat, obtemos:

Teste
Gamma -0.393796636954005
Lambda 0.169134478200149
Epsilon 31.0751111105789
Eta 0.586350038222739
Família SU
P-Valor (Anderson-Darling) 0.7411

Tabela 3.4.16: Estimativas da transofrmação Johnson e teste de normalidade Anderson Darling

Figura 3.4.7

Figura 3.4.7: QQ-plot dos dados transformados por Johnson

Com um P-valor de $0,74$ no teste de Anderson e Darling, concluímos que a transformação de Johnson foi eficaz para normalizar os dados. Assim, vamos realizar a análise de capacidade do processo com os dados transformados. Para isto, a transformação aplicada aos dados também precisa ser aplicada aos limites de especificação. Neste caso, o limite inferior de especificação transformado é dado por:

$$LIE^{*} =\gamma+\eta \ast senh^{-1}\left(\dfrac{LIE - \varepsilon}{\lambda}\right) = -0,394 + 0,586\ast senh^{-1}\left(\dfrac{30 - 31,075}{0,169}\right) = -1,888$$

Portanto, podemos fazer uma análise da capacidade e performance do processo para dados normais, como discutido na seção 3. Inicialmente, vamos fazer uma análise da estabilidade do processo, para os dados transformados, através de um gráfico de controle.

Figura 3.4.8

Figura 3.4.8: Gráficos de controle

Observamos que existe um ponto fora dos limites de controle no gráfico de amplitude móvel, o que indica que o processo esta fora de controle. Efetuando os calculos para o método a longo prazo temos:

$$\hat{\sigma} = s = \sqrt{\dfrac{\sum_{i=1}^{n}(x_i - \bar{x})^2}{n-1} }= \sqrt{\dfrac{25,791}{31}} = 0,9121$$

Assim, podemos calcular:

$$PPI = \dfrac{LIE^{*} - \hat{\mu}}{3\hat{\sigma}} = \dfrac{-1,888 + 0,0044}{3 \ast 0,9121} = - 0,68837$$

$$P_{PK} = PPI = - 0,68837$$

Calculando $PPM_{Total}$

$$PPM_{Total} = PPM_{LIE} = \Phi\left( \dfrac{LIE^{*} - \hat{\mu}}{\hat{\sigma}}\right) \times 1.000.000 = \Phi(−2,065)\times 1.000.000 = 19461,5001$$

em que $\Phi$ representa a função de distribuição acumulada da normal padrão.

Utilizando o Action Stat obtemos os seguintes resultados:

Valor
Amostra: 32
Limite Inferior -1.88826389

Tabela 3.4.17: Especificações

Estimativa
Média -0.0044
Desvio Padrão (Curto prazo) 0.7116
Desvio Padrão (Longo prazo) 0.9121

Tabela 3.4.18: Estimativas

Índices de Performance (Longo prazo)
Índices de Performance (Variabilidade Total)
PPI 0.6884
PPK 0.6884

Tabela 3.4.19: Índices de Performance (Longo prazo)

Índices Esperados (Longo prazo)
Índices Esperados (Variabilidade Total)
PPM < LIE 19446.2704
PPM Total 19446.2704

Tabela 3.4.20: Índices Esperados (Longo prazo)

Figura 3.4.9

Figura 3.4.9: Análise de Performance do Processo com a transformação de Johnson

4.2 - Análise de performance para dados com distribuição não normal

Além da possibilidade de transformar os dados na tentativa de modelá-los por uma distribuição normal é possível ainda selecionar, por meio do uso do gráfico do papel de probabilidade, uma distribuição que melhor descreva a aleatoriedade desses dados. Esta metodologia é também aplicada para determinar a performance do processo, ou seja, a variabilidade a longo prazo e será discutida nas seções seguintes.

4.2.1 - Índices de performance do processo: Pp e Ppk

Quando não é possível normalizar os dados através de transformações, como visto anteriormente, é necessário buscar outra forma de calcular os índices de performance do processo, por exemplo utilizando outra distribuição de probabilidade que se ajuste aos dados. A seguir vamos discutir com maiores detalhes os cálculos desses índices quando os dados não seguem distribuição normal.

A equação para calcular os índices $P_{p}$ e $P_{pk}$ são similares aos índices $C_{p}$ e $C_{pk}$. Desta forma, temos

  • Cálculo do $P_{p}$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$

  • Cálculo do $PPS$ e $PPI$

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2} ~~~~~ {e}~~~~~ PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$

em que

$LSE$ = Limite Superior de Especificação

$LIE$ = Limite Inferior de Especificação

$q_{1}$ = Quantil da distribuição específica com 0,135%

$q_{2}$ = Quantil da distribuição específica com 50% (equivalente ao valor correspondente à mediana dos dados)

$q_{3}$ = Quantil da distribuição específica com 99,865%.

Figura 3.4.10

Figura 3.4.10: Quantis de probabilidade da distribuição dos dados

Desta forma garantimos o nível de confiança desejado (99,73% = 6σ) entre os quantis $q_{1}$ e $q_{3}$ da distribuição desejada.

  • Cálculo do $P_{pk}$

$$P_{pk} = \min \lbrace PPS, PPI \rbrace$$

Índices de performance esperados a longo prazo

  • Cálculo do $PPM_{Esp} < LIE$

O número esperado de partes por milhão que tem observações menores que o limite inferior de especificação é dado por

$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}$$

em que $q_{LIE}$ = Percentil da distribuição específica relativo ao limite inferior de especificação (LIE).

  • Cálculo do $PPM_{Esp} > LIE$

O número esperado de partes por milhão que tem observações maiores que o limite superior de especificação é dado por

$$PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$

em que $q_{LSE}$ = Quantil da distribuição específica relativo ao limite superior de especificação (LSE).

  • Cálculo do $PPM_{EspTotal}$

$$PPM_{EspTotal} = [PPM_{Esp}~<~LIE] + [PPM_{Esp}~>~LSE].$$

Índices de performance observados

  • Cálculo do $PPM_{Obs}$ < LIE

A proporção do total de observações menores que o limite inferior de especificação, multiplicada por 1.000.000, é dada por

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde. de Obs.} < LIE}{n}\right) \ast 1.000.000$$

  • Cálculo do $PPM_{Obs} > LSE$

A proporção do total de observações maiores que o limite superior de especificação, multiplicada por 1.000.000, é dada por

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde. de Obs.} > LSE}{n}\right) \ast 1.000.000$$

  • Cálculo do $PPM_{ObsTotal}$

$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE].$$

A seguir vamos discutir a análise de performance do processo considerando as distribuições Weibull, exponencial e log-normal.

4.2.2 - Análise de performance do processo com a distribuição de Weibull

Temos que a função densidade de probabilidade da distribuição Weibull é dada por

$$f(t) = \dfrac{\delta}{\alpha^\delta}t^{\delta-1}\exp[-(t/\alpha)^\delta],~~~~t \geq 0$$

em que

$\alpha$: parâmetro de escala

$\delta$: parâmetro de forma.

A função densidade de probabilidade pode ser observada na figura a seguir

Figura 3.4.11

Figura 3.4.11: Gráfico das funções densidades da distribuição Weibull com $\alpha = 1$ e diferentes valores de $\delta.$

Sabemos também que

$$\hbox{Média} =~MTTF~(\hbox{ou }MTBF)~= E[T] = \alpha \ast \Gamma\left[1 + \left(\dfrac{1}{\delta}\right)\right]$$

$$Var[T] = \alpha^{2}\left \lbrace \Gamma\left[1 + \left(\dfrac{2}{\delta}\right)\right] - \left(\Gamma\left[1 + \left(\dfrac{1}{\delta}\right)\right]\right)^{2}\right\rbrace$$

em que $\Gamma(z) = \mathop{\int}^{\infty}_{0}r^{z-1}e^{-r}dr$

E então, o desvio padrão (s) é dado por

$$s = \sqrt{Var[T]}.$$

Exemplo 4.2.2.1

A utilização da distribuição Weibull permite calcular apenas a variabilidade a longo prazo e, consequentemente os índices $P_{p}$, $P_{pk}$, $PPS$ e $PPI$. O cálculo destes índices de performance, diferentemente da distribuição normal que depende da média e desvio padrão, para a Weibull é preciso conhecer as estimativas de máxima verossimilhança dos parâmetros de forma ($\delta$) e locação ($\alpha$) da distribuição Weibull. Os dados da Tabela 3.4.21 são usados para exemplificar esta situação.

Medições
0,086726 0,261364 0,234034 0,351005 0,387835
0,010857 0,615852 0,433043 0,37279 0,306073
0,368851 0,183577 0,788636 0,331414 0,303861
0,28748 0,071625 0,84719 0,357962 0,174402
0,909071 0,318152 0,459984 0,358099 0,338571
0,150298 0,103415 0,293006 0,560374 0,226616
0,608511 0,478834 0,648248 0,828459 0,371329
0,490219 0,41213 0,154507 0,565067 0,551373
0,151538 0,192791 0,320434 0,626277 0,187531
0,156621 0,208925 0,340069 0,054402 0,782792

Tabela 3.4.21: Dados.

Análise gráfica do ajuste de distribuição da Figura 3.4.12 indica que os dados podem ser melhor ajustados pela distribuição de Weibull, o que pode ser confirmado pelo p-valor associado ao teste de Anderson-Darling.

Distribuições Estatística P-Valor
Weibull(Forma = 1.73186, Escala = 0.416818) 0.2578 0.25

Tabela 3.4.22: Teste de Anderson-Darling

Figura 3.4.12

Figura 3.4.12: Análise gráfica do ajuste da distribuição de Weibull

As estimativas dos parâmetros de escala e de forma da distribuição Weibull são dadas, respectivamente, por

$$\widehat{\alpha} = 0,4168 ~~~~~ {e} ~~~~~ \widehat{\delta} = 1,7318$$

Desta forma,

$$E[T] = 0,4168 \ast \Gamma\left[1 + \left(\dfrac{1}{1,7318}\right)\right] = 0,4168 \ast 0,8912 = 0,3714$$

A variabilidade a longo prazo é dada por

$$Var[T] = (0,4168)^2\left \lbrace \Gamma\left[1 + \left(\dfrac{2}{1,7318}\right)\right] - \left(\Gamma\left[1 + \left(\dfrac{1}{1,7318}\right)\right]\right)^2\right\rbrace = 0,4890$$

O desvio padrão (s) é dado por

$$s = \sqrt{0,4890} = 0.2211433$$

Em seguida, vamos encontrar os índices de performance do processo considerando os seguintes limites de especificação: $LSE = 1,5$ e $LIE = 0,45$.

  • Cálculo do $P_{p}$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$

sendo $q_{1}$ = quantil da distribuição Weibull com 0,135% e $q_{3}$ = quantil da distribuição Weibull com 99,865%.

Dessa forma,

$$P_p = \dfrac{1,5 - 0,45}{1,2401 - 0,0092} = 0,8530$$

  • Cálculo do $PPS$ e $PPI$

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$

sendo $q_{1}$ = quantil da distribuição Weibull com 0,135%, $q_{2}$ = quantil da distribuição Weibull com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição Weibull com 99,865%.

Assim,

$$PPS = \dfrac{1,5 - 0,3373}{1,2401 - 0,3373} = 1,2879~~~~~~~~~~PPI = \dfrac{0,3373 - 0,45}{0,3373 - 0,0092} = 0,3434$$

em que os valores $q_{1}$ = 0,0092 , $q_{2}$ = 0,3373 e $q_{3}$ = 1,2401 podem ser calculados através do Software Action.

  • Cálculo do $P_{pk}$

$$P_{pk}=\min \lbrace PPI,PPS\rbrace=\min \lbrace -0,3434;1,2879\rbrace=-0,3434$$

  • Cálculo do (PPM < LIE) e (PPM > LSE) esperados

$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$

sendo $q_{LIE}$ = quantil da distribuição Weibull relativo ao LIE e $q_{LSE}$ = quantil da distribuição Weibull relativo ao LSE.

Assim,

$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,680775693 = 680775,693$$

$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,000102369147= 102,369147$$

$$PPM_{EspTotal} = 680775,6935+ 102,369147 = 6870878,063$$

  • Cálculo do (PPM < LIE) e (PPM > LSE) observados

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde. de Obs.} < LIE}{n}\right) \ast 1.000.000 = \left(\dfrac{0}{50}\right) \ast 1.000.000 = 0$$

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde. de Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \left(\dfrac{35}{50}\right) \ast 1.000.000 = 700.000$$

$$PPM_{ObsTotal} = [PPM_{Obs} < LIE] + [PPM_{Obs} >LSE] = 700.000$$

A seguir temos os resultados obtidos pelo Software Action para esse exemplo.

Valor
Amostra: 50
Limite Inferior 0.45
Limite Superior 1.5

Tabela 3.4.23: Especificações

Parâmetros Valor
Média: 0.371455959977383
Desvio Padrão: 0.221144739331759
Forma: 1.73186438703745
Escala: 0.416817649465247

Tabela 3.4.24: Estimativas

Índices de Performance
PP 0.853
PPI -0.3434
PPS 1.2879
PPk -0.3434

Tabela 3.4.25: Índices de Performance

Índices Observados
PPM > LSE 0
PPM < LIE 7e+05
PPM Total 7e+05

Tabela 3.4.26: Índices Observados

Índices Esperados
PPM > LSE 102.373879066864
PPM < LIE 680775.33682656
PPM Total 680877.710705627

Tabela 3.4.27: Índices Esperados

Figura 3.4.13

Figura 3.4.13: Gráfico da análise de performance do processo.

Exemplo 4.2.2.2

Na tabela a seguir são apresentados dados de gramatura em $g/m^2$ de uma folha de papel. As especificações para estes dados são $LSE = 92,88$ , Alvo $= 90,21$ e $LIE = 87,54$.

Gramatura(g/m2)
88,20
88,90
90,50
90,30
90,00
90,20
91,20
91,00
91,50
91,40
91,30
90,20
91,40
89,90
90,20
90,10
90,80
91,40
91,30
89,00
90,70
89,50
91,20
90,50
90,60

Tabela 3.4.29: Dados de gramatura em $g/m^2$ de uma folha de papel.

A análise gráfica de ajuste de distribuições podem ser analisadas em diversos gráficos como QQ-plot, Papel de Probabilidade, Histograma e Função de distribuição acumulada. A Figura 3.4.30 mostra o Gráfico QQ-plot e a Função de distribuição acumulada dos dados de gramatura de papel, indicando que a distribuição Weibull é a que melhor se ajusta a esses dados. Esse resultado pode ser confirmado observando os valores numéricos do teste de Anderson-Darling.

Distribuições Estatística P-Valor
Normal(mu = 90.45, sigma = 0.87) 0.6406 0.0839
Exponencial(Taxa = 0.0110556) 11.2633 0
Weibull(Forma = 140.336, Escala = 90.8381) 0.472 0.2345
Log-Normal(log(mu) = 4.50477, log(sigma) = 0.00947316) 0.6548 0.0772

Tabela 3.4.30: Teste de Anderson-Darling

Figura 3.4.14

Figura 3.4.14: Análise gráfica de ajuste de distribuições

As estimativas dos parâmetros de escala e de forma da distribuição Weibull são, respectivamente

$$\widehat{\alpha} = 90,838~~~~~~{e}~~~~~~\widehat{\delta} = 140,329$$

Desta forma,

$$E[T] = 90,838 \ast \Gamma\left[1+\left(\dfrac{1}{140,329}\right)\right] = 90,468$$

A variabilidade a longo prazo é dada por

$$Var[T] = (90,838)^{2}\left \lbrace \Gamma\left[1+\left(\dfrac{2}{140,329}\right)\right] - \left(\Gamma\left[1+\left(\dfrac{1}{140,329}\right)\right]\right)^{2}\right\rbrace = 0,6766628$$

O desvio padrão (s) é dado por

$$s = \sqrt{0,6766628} = 0,8225951$$

A seguir vamos calcular os índices de performance do processo.

  • Cálculo do $P_{p}$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1} = \dfrac{92,88 - 87,54}{92,069 - 86,66029} = 0,9873786$$

  • Cálculo do PPS e PPI

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2} = \dfrac{92,88 - 90,60106}{92,06855 - 90,60106} = 1,552$$

$$PPI = \dfrac{q_2 - LIE}{q_2 - q_1} = \dfrac{90,60106 - 87,54}{90,60106 - 86,66029} = 0,7768$$

em que $q_{1} = 86,66029$ , $q_{2} = 90,60106$ e $q_{3} = 92,06855$ são quantis da distribuição Weibull e podem ser calculados através do Software Action.

  • Cálculo do $P_{pk}$

$$P_{pk} = \min \lbrace PPS, PPI\rbrace = \min \lbrace 1,552;~0,7768\rbrace = 0,7768$$

  • Cálculo do (PPM < LIE) e (PPM > LSE) esperados

$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,005558515 = 5556,67$$

$$PPM_{Esp}>~LSE = 1.000.000 \ast 0,000000000147211 = 0,000147211$$

em que $q_{LIE} = 0,00555667$ e $q_{LSE} = 0,999999999852789$.

$$PPM_{EspTotal} = 5556,67 + 0,000147211 = 5556,67$$

  • Cálculo do ($PPM < LIE$) e ($PPM > LSE$) observados

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde. de Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \dfrac{0}{25} \ast 1.000.000 = 0$$

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde. de Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \dfrac{0}{25} \ast 1.000.000 = 0$$

$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 0$$

A seguir temos os resultados obtidos pelo Software Action para esse exemplo.

Valor
Amostra: 25
Limite Inferior 87.54
Alvo (Opcional) 90.21
Limite Superior 92.88

Tabela 2.4.31: Especificações

Parâmetros Valor
Média: 90.4689587801872
Desvio Padrão: 0.822555917720036
Forma: 140.336103078599
Escala: 90.8380519338829

Tabela 3.4.32: Estimativas

Índices de Performance
PP 0.9874
PPI 0.7768
PPS 1.553
PPk 0.7768

Tabela 3.4.33: Índices de Performance

Índices Observados
PPM > LSE 0
PPM < LIE 0
PPM Total 0

Tabela 3.4.34: Índices Observados

Índices Esperados
PPM > LSE 0.000147211465240105
PPM < LIE 5556.66966289269
PPM Total 5556.66981010415

Tabela 3.4.35: Índices Esperados

Figura 3.4.15

Figura 3.4.15: Gráfico da análise de performance do processo.

Exemplo 4.2.2.3

A utilização da distribuição Weibull permite calcular apenas a Variabilidade a longo prazo e, consequentemente os índices $P_p$, $P_{pk}$, $PPS$ e $PPI$. Os dados da Tabela são usados para exemplificar esta situação.

Medições
0.2 0.3 0.57 0.56 0.2
0.16 1.19 0.42 0.96 0.05
0.24 0.46 0.91 0.11 0.63
0.56 0.12 0.79 0.85 0.53
0.34 0.5 0.51 0.37 0.6
0.33 0.46 0.67 0.8 0.21
0.35 0.69 0.7 0.52 0.29
0.2 0.11 0.19 0.17 0.41
0.28 0.32 0.22 0.58 0.43
0.81 0.28 0.62 0.15 0.75

Tabela 3.4.35: Dados de medições de uma peça

A Figura 3.4.16 mostra o Gráfico QQ-plot dos dados, indicando que a distribuição Weibull é a que melhor se ajusta a esses dados. Esse resultado pode ser confirmado observando os valores numéricos do teste de Anderson-Darling.

Distribuições Estatística P-Valor
Normal(mu = 0.45, sigma = 0.26) 0.5657 0.1357
Exponencial(Taxa = 2.20556) 3.8445 0.0002
Weibull(Forma = 1.84755, Escala = 0.511436) 0.2169 0.25
Log-Normal(log(mu) = -0.982398, log(sigma) = 0.667801) 0.589 0.118

Tabela 3.4.36: Teste de Anderson-Darling

Figura 3.4.16

Figura 3.4.16: Gráfico QQ-plot

As estimativas dos parâmetros de escala e de forma da distribuição Weibull são dadas, respectivamente, por

$$\widehat{\alpha} = 0,511436 ~~~~~ {e} ~~~~~ \widehat{\delta} = 1,84755$$

Desta forma,

$$E[T] = 0,511436 \ast \Gamma\left[1 + \left(\dfrac{1}{1,84755}\right)\right] = 0,4542882$$

A variabilidade a longo prazo é dada por

$$Var[T] = (0,511436)^2\left \lbrace \Gamma\left[1 + \left(\dfrac{2}{1,84755}\right)\right] - \left(\Gamma\left[1 + \left(\dfrac{1}{1,84755}\right)\right]\right)^2\right\rbrace = 0,06506037$$

O desvio padrão (s) é dado por

$$s = \sqrt{0,06506037} = 0,2550693$$

Em seguida, vamos encontrar os índices de performance do processo considerando os seguintes limites de especificação: $LSE = 1,1$ e $LIE = 0,045$.

Cálculo do $P_p$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$

sendo q1 = quantil da distribuição Weibull com 0,135% e q3 = quantil da distribuição Weibull com 99,865%.

Dessa forma,

$$P_p = \dfrac{1,1 - 0,045}{1,421176 - 0,01431272} = 0,7498952$$

Cálculo do $PPS$ e $PPI$

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$

sendo q1 = quantil da distribuição Weibull com 0,135%, q2 = quantil da distribuição Weibull com 50% (equivalente ao valor correspondente à mediana dos dados) e q3 = quantil da distribuição Weibull com 99,865%.

Assim,

$$PPS = \dfrac{1,1 - 0,4194082}{1,421176 - 0,4194082} = 0,6793908~~~~~~~~~~PPI = \dfrac{0,4194082 - 0,045}{0,4194082 - 0.01431272} = 0,9242468$$

em que os valores $q_1 = 0.01431272$ , $q_2 = 0.4194082$ e $q_3 = 1,421176$ podem ser calculados através do Software Action.

Cálculo do $P_{pk}$

$$P_{pk}=\min \lbrace PPI,PPS\rbrace=\min \lbrace 0,9242468;0,6793908\rbrace=0,9242468$$

Cálculo do (PPM < LIE) e (PPM > LSE) esperados

$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$

sendo $q_{LIE}$ = quantil da distribuição Weibull relativo ao $LIE$ e $q_{LSE}$ = quantil da distribuição Weibull relativo ao LSE.

Assim,

$$PPM_{Esp}~<~LIE = 11151,41$$

$$PPM_{Esp}~>~LSE= 16305,89$$

$$PPM_{EspTotal} = 27457,3$$

Cálculo do ($PPM < LIE$) e ($PPM > LSE$) observados

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde. de Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \dfrac{0}{50} \ast 1.000.000 = 0$$

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde. de Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \dfrac{1}{50} \ast 1.000.000 = 20.000$$

$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 20.000$$

Valor
Amostra: 50
Limite Inferior 0.045
Limite Superior 1.1

Tabela 3.4.37: Especificações

Parâmetros Valor
Média: 0.454287763702087
Desvio Padrão: 0.255068688644678
Forma: 1.84755338279648
Escala: 0.511435566973771

Tabela 3.4.38: Estimativas

Índices de Performance
PP 0.7499
PPI 0.9242
PPS 0.6794
PPk 0.6794

Tabela 3.4.39: Índices de Performance

Índices Observados
PPM > LSE 20000
PPM < LIE 0
PPM Total 20000

Tabela 3.4.40: Índices Observados

Índices Esperados
PPM > LSE 16305.891980284
PPM < LIE 11151.4080334852
PPM Total 27457.3000137692

Tabela 3.4.41: Índices Esperados

Figura 3.4.17

Figura 3.4.17: Gráfico da análise de performance do processo.

4.2.3 - Análise de performance do processo com a distribuição exponencial

Temos que a função densidade de probabilidade da distribuição exponencial é dada por

$$f(t) = \dfrac{1}{\alpha} e^{-t/ \alpha} ~ \hbox{para todo}~t~> 0 \tag{4.2.3.1}$$

sendo $\alpha~>~0$ denominado o parâmetro da distribuição. Assim, temos que a função de distribuição acumulada é dada por

$$F(t) = P[T \leq t] = \int_{0}^{t}\dfrac{1}{\alpha} e^{-x/ \alpha}dx = 1 - e^{-t/ \alpha} ~~~~\hbox{para todo}~t~>~0$$

tal que

$$E[T] = \alpha~~~~~~~~~Var[T] = \alpha^2$$

A função densidade de probabilidade da distribuição exponencial pode ser observada na Figura 3.4.18.

Figura 3.4.18

Figura 3.4.18: Gráfico das funções densidades da distribuição exponencial para diferentes valores de $\alpha.$

Exemplo 4.2.3.1

Vamos considerar os dados da Tabela 3.4.42 referentes à medições. Para este exemplo considere as seguintes especificações: $LSE = 0,3$ e $LIE = 0,0015$. Temos também que a média dos dados é dada por $\overline{x} = 0,04876$.

Dados Medidos
0.065 0.039 0.029 0.023 0.069
0.135 0.005 0.009 0.01 0.104
0.024 0.064 0.052 0.051 0.005
0.017 0.008 0.178 0.069 0.052
0.079 0.004 0.025 0.132 0.049
0.002 0.008 0.061 0.04 0.057
0.023 0.066 0.011 0.023 0.018
0.006 0.139 0.002 0.015 0.093
0.053 0.053 0.041 0.022 0.007
0.004 0.009 0.035 0.008 0.066

Tabela 3.4.42: Dados referentes à medições.

Os resultados do teste de Anderson-Darling verificados na Figura 3.4.19 indicam que os dados acima podem ser modelados pela distribuição exponencial, Weibull ou log-normal. Porém, para ilustrar o cálculo dos índices de performance para esse exemplo vamos considerar a distribuição exponencial para modelar esses dados.

Distribuições Estatística P-Valor
Normal(mu = 0.04, sigma = 0.041) 2.1075 0
Exponencial(Taxa = 23.1589) 0.4237 0.5913
Weibull(Forma = 1.05523, Escala = 0.0441109) 0.4721 0.2394
Log-Normal(log(mu) = -3.66344, log(sigma) = 1.1402) 0.8319 0.0297

Tabela 3.4.43: Teste de Anderson-Darling

Figura 3.4.19

Figura 3.4.19: Análise gráfica de ajuste de distribuições

A estimativa de máxima verossimilhança do parâmetro da distribuição exponencial expressa na forma (4.2.3.1) é dada por

$$\widehat{\alpha} = \overline{x} = 0,04876$$

Desta forma,

$$E[T] = \widehat{\alpha} = 0,04876$$

A variabilidade a longo prazo é dada por

$$Var[T] = \widehat{\alpha}^2 = 0,002378$$

Com isso, obtemos o desvio padrão (s) dado por

$$s = \sqrt{0,002378} = 0,04876$$

A seguir vamos calcular os índices de performance do processo para os dados com distribuição exponencial.

  • Cálculo de $P_{p}$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$

em que LIE e LSE são os limites de especificação, $q_{1}$ = quantil da distribuição exponencial com 0,135% e $q_{3}$ = quantil da distribuição exponencial com 99,865%.

$$P_p = \dfrac{0,3 - 0,0015}{0,2853184 - 5,5833238e^{-05}} = 1,046414$$

  • Cálculo de $PPS$ e $PPI$

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~{e}~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$

sendo $q_{1}$ = quantil da distribuição exponencial com 0,135%, $q_{2}$ = quantil da distribuição exponencial com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição exponencial com 99,865%.

Dessa forma,

$$PPS = \dfrac{0,3 - 0,0299301}{0,2853184 - 0,0299301} = 1,057488~~~~~~\hbox{e}~~~~~~PPI = \dfrac{0,0299301 - 0,0015}{0,0299301 - 0,0000658} = 0,9517381$$

sendo $q_{1} = 5,5833238e^{-05}$, $q_{2} = 0,0299301$ e $q_{3} = 0,2853184$ quantis da distribuição exponencial que podem ser calculados através do Software Action.

  • Cálculo de $P_{pk}$

$$P_{pk} = \min \lbrace PPI, PPS\rbrace = \min \lbrace 0,9517381;~1,057488\rbrace = 0,9517381$$

  • Cálculo de (PPM < LIE) e (PPM > LSE) esperados

$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~ \hbox{e} ~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$

em que $q_{LIE}$ = quantil da distribuição exponencial relativo ao LIE e $q_{LSE}$ = quantil da distribuição exponencial relativo ao LSE.

Assim,

$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,0341418563 = 34141,8563$$

$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,0009608801 = 960,8801$$

E portanto,

$$PPM_{EspTotal} = 34141,8563 + 960,8801 = 35102.7364$$

  • Cálculo de (PPM < LIE) e (PPM > LSE) observados

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \dfrac{0}{50} \ast 1.000.000 = 0$$

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \dfrac{0}{50} \ast 1.000.000 = 0$$

Portanto,

$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 0$$

A seguir temos os resultados obtidos pelo Software Action Stat para esse exemplo.

Valor
Amostra: 50
Limite Inferior 0.0015
Limite Superior 0.3

Tabela 3.4.44: Especificações

Parâmetros Valor
Média: 23.1588698471515
Desvio Padrão: 23.1588698471515

Tabela 3.4.45: Estimativas

Índices de Performance
PP 1.0464
PPI 0.9517
PPS 1.0575
PPk 0.9517

Tabela 3.4.46: Índices de Performance

Índices Observados
PPM > LSE 0
PPM < LIE 0
PPM Total 0

Tabela 3.4.47: Índices Observados

Índices Esperados
PPM > LSE 960.880069733605
PPM < LIE 34141.8563443041
PPM Total 35102.7364140377

Tabela 3.4.48: Índices Esperados

Figura 3.4.20

Figura 3.4.20: Gráfico da análise de performance do processo.

4.2.4 - Análise de performance do processo com a distribuição log-normal

Assim como a distribuição de Weibull, a distribuição log-normal é muito usada para caracterizar o tempo de vida de produtos e materiais. Isto inclui por exemplo, fadiga de metal, semicondutores, diodos e isolação elétrica. A função densidade de probabilidade para uma distribuição log-normal é dada por

$$f(t) = \dfrac{1}{t\sigma\sqrt{2\pi}}~\exp\left[\dfrac{-\left(\log(t)-\mu\right)^2}{2\sigma^2}\right],~~~t \geq 0$$

em que μ é a média do logaritmo e σ é o desvio-padrão do logaritmo.

Figura 3.4.21

Figura 3.4.21: Gráfico das funções densidades da distribuição log-normal com $\mu = 0$ e diferentes valores de $\sigma$

O valor esperado e a variância são dados, respectivamente, por

$$E[T] = \exp\left \lbrace \mu + \left(\dfrac{\sigma^2}{2}\right)\right\rbrace$$

$$Var[T] = (\exp \lbrace \sigma^2\rbrace - 1)\exp \lbrace 2\mu + \sigma^2\rbrace$$

Existe uma relação entre a distribuição log-normal e normal. Como o nome sugere, o logaritmo de uma variável com distribuição log-normal com parâmetros μ e σ tem distribuição normal com média μ e desvio padrão σ. Esta relação significa que dados provenientes de uma distribuição log-normal podem ser analisados segundo uma distribuição normal, caso sejam usados o logaritmo dos dados ao invés dos valores originais.

Exemplo 4.2.4.1

Vamos considerar os dados referentes à medições dispostos na Tabela 3.4.49. As especificações para esse exemplo são: $LSE = 3000$ e $LIE = 30$.

Medições
24,23 323,44 61,65 8,61 3556,16
62,55 115,35 1865 127,5 59,75
193,35 91,44 199,21 309,33 10,53
79,59 31,2 79,02 17,11 92,9
149,88 272,17 58,15 2300,26 217,09
733,15 59,6 691,09 244,52 115,66
514,14 9,98 42,43 7,68 425,71
238,75 85,78 51,42 83,97 296,95
222,57 29,01 342,19 45,33 867,67
363,23 593,02 138,81 520,4 161,08

Tabela 3.4.49: Medições.

A seguir temos o papel de probabilidade para os dados. Podemos ver que o p-valor para o teste de Anderson-Darling referente à distribuição log-normal (0,924) é maior do que 0,05 então, podemos dizer que esta distribuição descreve bem os dados.

Distribuições Estatística P-Valor
Normal(mu = 343.79, sigma = 630) 8.123835 0
Exponencial(Taxa = 0.00290873) 3.86736 0.00016
Weibull(Forma = 0.728334, Escala = 268.798) 0.748347 0.04739
Log-Normal(log(mu) = 4.89756, log(sigma) = 1.38918) 0.17246 0.9245

Tabela 3.4.50: Medições.

Figura 3.4.22

Figura 3.4.22: Gráfico QQ-plot

As estimativas dos parâmetros da distribuição log-normal são dadas por

$$\widehat{\mu} = {\hbox{Média}[\log(\hbox{dados})]} = 4,8975$$

$$\widehat{\sigma} = \sqrt{\hbox{Var}[\log(\hbox{dados})]} = 1,4032$$

Com isso, temos

$$E[T] = \exp\left \lbrace 4,8975 + \left(\dfrac{1,969}{2}\right)\right\rbrace = 358,5256$$

A variabilidade a longo prazo é dada por

$$Var[T] = (\exp \lbrace 1,969\rbrace - 1)\exp \lbrace 2 \ast (4,8975) + 1,969\rbrace = 792261,1$$

Logo, o desvio padrão é dado por

$$s = \sqrt{792261,1} = 890,09$$

Com isso, os valores dos índices de performance para os dados do noso exemplo são obtidos da seguinte forma

  • Cálculo de $P_{p}$

$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$

sendo $q_{1}$ = quantil da distribuição log-normal com 0,135% e $q_{3}$ = quantil da distribuição log-normal com 99,865%.

Assim,

$$P_p = \dfrac{3000 - 30}{9021,697 - 1,9892} = 0,3292$$

  • Cálculo de PPS e PPI

$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~{e}~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$

em que $q_{1}$ = quantil da distribuição log-normal com 0,135%, $q_{2}$ = quantil da distribuição log-normal com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição log-normal com 99,865%.

Assim,

$$PPS = \dfrac{3000 - 133,955}{9018,81 - 133,955} = 0,3225~~~~~~~{e}~~~~~~~PPI = \dfrac{133,955 - 30}{133,955 -1,9896} = 0,7877$$

sendo $q_{1}$ = 1,9896 , $q_{2}$ = 133,955 e $q_{3}$ = 9018,81 quantis da distribuição log-normal e que podem ser calculados através do Software Action.

  • Cálculo de $P_{pk}$

$$P_{pk} = \min \lbrace PPI, PPS\rbrace = \min \lbrace 0,7877;~0,3225\rbrace = 0,3225$$

  • Cálculo de (PPM < LIE) e (PPM > LSE) esperados

$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~{e}~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$

em que $q_{LIE}$ = quantil da distribuição log-normal relativo ao LIE e $q_{LSE}$ = quantil da distribuição log-normal relativo ao LSE.

Com isso,

$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,1431370 = 143137$$

$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,01336716 = 13367,16$$

E, portanto

$$PPM_{EspTotal} = 143137 + 13367,16 = 156504,16$$

  • Cálculo de (PPM < LIE) e (PPM > LSE) observados

$$PPM_{Obs}~<~LIE = \left(\dfrac{\hbox{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \left(\dfrac{7}{50}\right) \ast 1.000.000 = 140000$$

$$PPM_{Obs}~>~LSE = \left(\dfrac{\hbox{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \left(\dfrac{1}{50}\right) \ast 1.000.000 = 20000$$

$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 140000 + 20000 = 160000$$

A seguir temos os resultados obtidos pelo Software Action Stat para esse exemplo.

Valor
Amostra: 50
Limite Inferior 30
Limite Superior 3000

Tabela 3.4.51: Especificações

Parâmetros Valor
Média: 358.584811836873
Desvio Padrão: 890.343884308414

Tabela 3.4.52: Estimativas

Índices de Performance
PP 0.3293
PPI 0.7878
PPS 0.3225
PPk 0.3225

Tabela 3.4.53: Índices de Performance

Índices Observados
PPM > LSE 20000
PPM < LIE 140000
PPM Total 160000

Tabela 3.4.54: Índices Observados

Índices Esperados
PPM > LSE 13367.0406498871
PPM < LIE 143137.013200317
PPM Total 156504.053850204

Tabela 3.4.55: Índices Esperados

Figura 3.4.23

Figura 3.4.23: Gráfico da análise de performance do processo.

4.3 - Análise de performance não paramétrica

Algumas vezes nos deparamos com dados que não se encaixam em nenhuma distribuição conhecida (por exemplo a distribuição normal, Weibull, exponencial) e, quando isso acontece dizemos que esses dados são não paramétricos.

Portanto, quando estamos trabalhando com dados não paramétricos não é possível calcular os índices de performance usando uma distribuição conhecida. No entanto, podemos utilizar métodos não paramétricos no cálculo desses índices, como o método do núcleo (Kernel). A seguir vamos discutir como fazer uma análise de performance do processo nessas condições.

4.3.1 - Estimação não paramétrica de densidades: método do núcleo

Em situações que os dados não se ajustam em alguma distribuição conhecida (por exemplo a distribuição normal, Weibull, exponencial, log-normal), utilizam-se técnicas não paramétricas para ajustar uma densidade aos dados. O método de estimação de densidades através de um núcleo (Kernel) é uma técnica não paramétrica para estimação de curvas de densidades no qual cada observação é ponderada pela distância em relação a um valor central, o núcleo. A ideia é centrar cada observação x onde se queira estimar a densidade, uma janela b que define a vizinhança de x e os pontos que pertencem à estimação.

Estimação não paramétrica de Densidade por núcleo (kernel)

O Histograma é a forma mais antiga e utilizada para estimar a função densidade de probabilidade. Dado uma origem $x_0$ e um tamanho de janela $h$ define-se as janelas do histograma pelos intervalos $[x_0 + mh, x_0 + (m+1)h)$ para inteiros positivos e negativos $m$.

$$\widehat{f}(x)=\dfrac{1}{nh}$$

Dada uma função núcleo $K$ não negativa tal que:

$$\int_{-\infty}^{\infty} K(x)dy = 1$$

O estimador do núcleo para função densidade de probabilidade é dado:

$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x-x_i}{h}\right)$$

A função núcleo mais utilizada é denominada núcleo gaussiano e sua função é dada pela distribuição normal padrão:

$$K(x)=\dfrac{1}{\sqrt{2\pi}}e^{-\dfrac{x^2}{2}}$$

Exemplo 4.3.1.1

Dada uma amostra aleatória $X_1,X_2,…,X_{10}$ deseja-se estimar a função densidade não paramétrica utilizando o método de Kernel Gaussiano no intervalo de $[-4;4,05]$ com uma janela de $h=0,35$, ou seja observam-se 24 valores $x$.

$X$
$X_1$ -0,05
$X_2$ 0,47
$X_3$ -3,02
$X_4$ 0,1
$X_5$ 0,91
$X_6$ -0,6
$X_7$ 0,21
$X_8$ 0,77
$X_9$ -0,15
$X_{10}$ 2,05

Tabela 3.4.56: 24 valores de $x$

Observação Dados

-4
-3,65
-3,30
-2,95
-2,6
-2,25
-1,9
-1,55
-1,2
-0,85
-0,5
-0,15
0,2
0,55
0,9
1,25
1,6
1,95
2,3
2,65
3
3,35
3,7
4,05

Tabela 3.4.57: Observações Dados

$X : [−4,00; 4,05]$

Portanto incialmente podemos calcular $\sum_{i=1}^{n}K\left(\dfrac{x-X_i}{h}\right)$

$$\sum_{i=1}^{10}K\left(\dfrac{x_1-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{-4-X_i}{0,35} \right) = 0,008038$$

$$\sum_{i=1}^{10}K\left(\dfrac{x_2-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{-3,65-X_i}{0,35} \right) = 0,079734$$

$$\vdots$$

$$\sum_{i=1}^{10}K\left(\dfrac{x_{24}-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{4,05-X_i}{0,35} \right) = 0,00000003$$

Assim, pode-se calcular a densidade estimada:

$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_1-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{-4-x_i}{0,35}\right)= 0,0022997$$

$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_2-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{-3,65-x_i}{0,35}\right) =0,022781 $$

$$\vdots$$

$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_{24}-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{4,05-x_i}{0,35}\right) =0,00000001$$

Depois de estimada a densidade, segue-se com a análise de porformance de forma usual.

Exemplo 4.3.1.2

Acompanhamos a medição de torque do parafuso de fixação das rodas do terceiro eixo do lado direito do ônibus . A cada duas horas, um especialista da qualidade realiza a medição do torque do parafuso em cinco eixos. Os limites de especificação para essa peça são: LSE = 720 e LIE = 480. Avaliar a capacidade e performance do processo.

Coleta de dados
Subgrupo X1 X2 X3 X4 X5
1 623,00 589,00 618,00 620,00 613,00
2 618,00 604,00 594,00 618,00 606,00
3 637,00 584,00 608,00 608,00 608,00
4 618,00 635,00 618,00 630,00 608,00
5 587,00 606,00 604,00 616,00 608,00
6 608,00 601,00 601,00 606,00 580,00
7 599,00 589,00 664,00 618,00 728,00
8 584,00 637,00 599,00 628,00 606,00
9 584,00 606,00 587,00 584,00 620,00
10 623,00 632,00 604,00 580,00 601,00
11 589,00 611,00 599,00 592,00 589,00
12 592,00 726,00 580,00 589,00 618,00
13 604,00 613,00 599,00 611,00 599,00
14 611,00 596,00 611,00 580,00 613,00
15 589,00 709,00 592,00 625,00 687,00
16 628,00 592,00 608,00 637,00 656,00
17 606,00 584,00 604,00 592,00 620,00
18 613,00 604,00 618,00 592,00 584,00
19 596,00 587,00 613,00 618,00 592,00
20 581,00 604,00 580,00 611,00 613,00
21 608,00 623,00 604,00 584,00 606,00
22 616,00 599,00 616,00 714,00 611,00
23 632,00 618,00 611,00 584,00 592,00
24 620,00 587,00 580,00 613,00 608,00
25 608,00 582,00 599,00 604,00 604,00

Tabela 3.4.58: Fixação das rodas do terceiro eixo lado direito - Mercedes-Benz.

Observando o papel de probabilidade a seguir vemos que os dados não seguem nenhuma distribuição conhecida testada.

Distribuições Estatística P-Valor
Normal(mu = 609.82, sigma = 27) 6.7047 0
Weibull(Forma = 16.1302, Escala = 624.299) 15.2221 0.01
Log-Normal(log(mu) = 6.41227, log(sigma) = 0.0414417) 5.6595 0

Tabela 3.4.59: Teste de Anderson-Darling

Figura 3.4.25

Figura 3.4.25: QQplot.

Portanto, vamos utilizar o método do núcleo (Kernel) para fazer uma análise de performance do processo.

A seguir temos os resultados obtidos pelo Software Action para esse exemplo.

Valor
Amostra: 125
Limite Inferior 480
Limite Superior 720

Tabela 3.4.60: Especificações

Parâmetros Valor
Média: 609.816
Desvio Padrão: 26.6047485453498

Tabela 3.4.61: Estimativas

Índices de Performance
PP 1.4125
PPI 3.1595
PPS 0.8751
PPk 0.8751

Tabela 3.4.62: Índices de Performance

Índices Observados
PPM > LSE 16000
PPM < LIE 0
PPM Total 16000

Tabela 3.4.63: Índices Observados

Índices Esperados
PPM > LSE 15462.9333940826
PPM < LIE 0
PPM Total 15462.9333940826

Tabela 3.4.64: Índices Esperados

Figura 3.4.26

Figura 3.4.26: Gráfico da análise de performance do processo - Método do núcleo.