3.4 Análise de Performance do Processo para Dados Não Normais
Quando os dados não seguem distribuição normal temos diversas alternativas para calcular os índices de capacidade/performance do processo. A seguir, apresentamos as alternativas:
-
Aplicar uma transformação nos dados, para que estes tenham distribuição normal;
-
Calcular os índices através de outra distribuição de probabilidade que se ajuste aos dados, por exemplo através da distribuição de Weibull, exponencial e lognormal;
-
Utilizar um índice não paramétrico.
A seguir vamos discutir as alternativas mencionadas acima.
4.1 - Transformação de dados para análise de capacidade
Quando a distribuição normal não se ajusta aos dados, muitas vezes é útil utilizarmos métodos de transformações para os dados tal que esses dados transformados sejam provenientes da distribuição normal. Veremos nesta seção duas metodologias para transformação dos dados: transformação de Box-Cox e Curvas de Johnson. A utilização de dados transformados é preferível em muitas situações devido à facilidade de interpretação dos resultados. No caso dos índices de capacidade do processo, a normalidade dos dados transformados facilita os cálculos dos índeces de capacidade e performance bem como sua interpretação.
4.1.1 - Transformação de Box-Cox
Quando a distribuição normal não se adéqua aos dados, muitas vezes é útil aplicar a transformação de Box-Cox para obtermos a normalidade. Considerando $X_{1}$, …, $X_{n}$ os dados originais, a transformação de Box-Cox consiste em encontrar um λ tal que os dados transformados $Y_{1}$, …, $Y_{n}$ se aproximem de uma distribuição normal. Esta transformação é dada por

Método de Estimação
Precisamos então, encontrar uma estimativa para o parâmetro de transformação $\lambda$. Uma das formas de estimar $\lambda$ é utilizando o método de máxima verossimelhança.
Assumimos que $Y_i(\lambda), i=1,…,n$ é uma função monotona tal que $Y_i(\lambda) \sim N(\mu,\sigma^2)$ para algum $\lambda$ fixo. Portanto, a função de máxima verissimilhança de $Y_i(\lambda)$ em relação às observações originais $Y_i$ é obtida multiplicando a função de máxima verossimilhança pelo Jacobiano da transformação, temos então:

em que

Desta forma, temos que para um $\lambda$ fixo, os estimadores $\hat{\sigma}^2(\lambda)$ e $\hat{\mu}(\lambda)$ são dados por:

Em seguida, substituímos os valores de $\mu$ e $\sigma^2$ pelos estimadores de máxima verossimelhança encontrados acima, $\hat{\mu}(\lambda)$ e $\hat{\sigma}^2(\lambda)$, respectivamente, na função de máxima verossimilhança. Desta forma, obtemos o logaritimo da função de máxima verossimilhança dependendo somente de $\lambda$

Precisamos então, enncontrar $\lambda$ que maximiza $\ell(\lambda)$. Uma forma que encontramos na literatura para facilitar a estimativa de $\lambda$ utilizar a forma normalizada da transformação, $Z_i(\lambda)$, para que desta forma termos $J(\lambda,Z) = 1$. Considere a seguinte função:

Desta forma, o logaritmo da função de máxima verossimilhança fica

onde

Portanto, maximizar $\ell(\lambda)$ é equivalente a encontrar o mínimo de $\hat{\sigma}^2(Z,\lambda)$ em relação a $\lambda$.
Box e Cox (1964) afirmam que após a transformação adequada das observações $Y$ para $Y(\lambda)$ os valores esperados das observações transformadas estarão normalmente distribuidos com variância constante.
O Action Stat estima o valor de lambda através de simulações. Geramos 500 valores para $\lambda$, de -2,5 a 2,5 aumentando em 0,01. Em seguida, para cada valor de $\lambda$ calculamos o valor do logaritimo da função de máxima verossimilhança. Assim basta tomarmos o valor de $l\lambda$ que corresponde ao máximo do logaritimo da função de máxima verossimilhança.
Aplicação da Transformação
Após aplicarmos essa transformação aos dados, as especificações e os parâmetros do processo (média, variabilidade inerente e total) são obtidos para os dados transformados, aplicando a análise via dados normais. Da mesma forma, os índices são calculados para os dados transformados com a distribuição normal.
Para verificarmos se a transformação foi eficiente basta analisarmos a normalidade dos dados transformados via histograma, papel de probabilidade normal ou teste de normalidade de Kolmogorov-Smirnov ou Anderson-Darling.
Aplicação da Transformação
Após aplicarmos essa transformação aos dados, as especificações e os parâmetros do processo (média, variabilidade inerente e total) são obtidos para os dados transformados, aplicando a análise via dados normais. Da mesma forma, os índices são calculados para os dados transformados com a distribuição normal.
Para verificarmos se a transformação foi eficiente basta analisarmos a normalidade dos dados transformados via histograma, papel de probabilidade normal ou teste de normalidade de Kolmogorov-Smirnov ou Anderson-Darling.
Exemplo 4.1.1.1
Considere um processo em início de desenvolvimento. Deste processo coletamos uma amostra com 30 unidades, organizados na Tabela 4.1. Considerando o Limite Superior de Especificação LSE = 4, vamos calcular o índice de performance para o processo.
| 1,278258 | 4,47932 | 2,035204 | 3,757334 | 1,985193 |
|---|---|---|---|---|
| 0,017442 | 0,096113 | 0,992143 | 5,958947 | 3,193834 |
| 1,763441 | 1,503284 | 0,714152 | 1,973829 | 4,359103 |
| 0,350306 | 3,618302 | 1,084793 | 0,680619 | 0,645437 |
| 0,499543 | 0,19454 | 1,195303 | 0,088677 | 1,003296 |
| 0,009417 | 1,845016 | 1,707286 | 0,360242 | 0,309148 |
Tabela 4.1.1: Dados referentes a um processo em desenvolvimento.
Utilizando o Software Action vamos fazer um teste de normalidade e verificar através da estatística de Anderson-Darling se os dados acima seguem uma distribuição normal.

Figura 4.1.1: Teste de normalidade.
Como o p-valor associado ao teste de Anderson-Darling é menor que 0,05 rejeitamos a hipótese de que a distribuição dos dados é aproximadamente normal.
Dessa maneira, como os dados da Tabela 4.1.1 não podem ser modelados por uma distribuição normal, vamos fazer uma transformação nesses dados com o objetivo de encontrar normalidade.
Aplicando a Transformação de Box-Cox obtemos um valor de λ = 0,3283, que maximiza a log-verossimilhança para a transformação realizada (ver Figura 4.1.2).

Figura 4.1.2: Logaritmo da função de verossimilhança para λ.
Com isso, podemos verificar através do p-valor associado ao teste de Anderson-Darling que após a transformação os dados têm distribuição aproximadamente normal.
Na Tabela 4.1.2 estão dispostos os dados obtidos pela transformação. O valor da média amostral para os dados transformados é $\overline{x}$ = 0,08211.
| 0,255662 | 1,937336 | 0,800318 | 1,657929 | 0,769029 |
|---|---|---|---|---|
| -2,23985 | -1,63421 | -0,00788 | 2,426862 | 1,41358 |
| 0,623524 | 0,436188 | -0,31872 | 0,761846 | 1,893027 |
| -0,88741 | 1,600062 | 0,082486 | -0,36145 | -0,40782 |
| -0,62067 | -1,26646 | 0,183727 | -1,67105 | 0,003292 |
| -2,38755 | 0,678407 | 0,584744 | -0,86749 | -0,97419 |
Tabela 4.1.2: Dados transformados.
Da mesma forma, a transformação aplicada aos dados deve ser aplicada aos limites de especificação. Assim, o limite superior de especificação transformado é dado por
$$LSE = \dfrac{4^{(0,3283)}-1}{0,3283} = 1,75558$$
Feito isso, podemos fazer uma análise da capacidade e performance do processo para dados normais, como discutido na seção 3.
Então, antes dos cálculos, vamos fazer uma análise da estabilidade do processo através de um gráfico de controle.

Figura 4.1.3: Gráficos I-MR.
Podemos observar que não existem pontos fora dos limites de controle, indicando que o processo não está fora de controle no período considerado.
Assim, para o método de variabilidade a longo prazo temos
$$\widehat{\sigma} = s = \sqrt{\dfrac{\sum_{i=1}^{n}(x_i - \overline{x})^2}{n - 1}} = \sqrt{\dfrac{44,68805}{29}} = 1,241357$$
e com isso,
$$PPS = \dfrac{LSE - \widehat{\mu}}{3\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{3 \ast 1,241357} = 0,44937$$
$$P_{pk} = PPS = 0,44937$$
Calculando o valor de Z, obtemos
$$Z_{LSE} = \dfrac{LSE - \widehat{\mu}}{\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{1,241357} = 1,3481$$
Calculando o $PPM_{Total}$
$$PPM_{Total} = PPM_{LSE} = [1 - \Phi(Z_{LSE})] 1.000.000 = [1 - \Phi(1,3481)] 1.000.000 = 88813,11$$
Para o método de variabilidade a curto prazo, temos
$$\widehat{\sigma} = \dfrac{\overline{R}}{d_2} = \dfrac{1,385638}{1,128} = 1,228402$$
sendo $d_{2}$ = 1,128 (para n = 2) tabelado no Apêndice.
$$C_{pk} = CPS = \dfrac{LSE - \widehat{\mu}}{3\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{3 \ast 1,228402} = 0,4541049$$
Calculando o valor de Z, obtemos
$$Z_{LSE} = \dfrac{LSE - \widehat{\mu}}{\widehat{\sigma}} = \dfrac{1,75558 - 0,08211}{1,228402} = 1,362315$$
Calculando o $PPM_{Total}$
$$PPM_{Total} = PPM_{LSE} = [1 - \Phi(Z_{LSE})] 1.000.000 = [1 - \Phi(1,362315)] 1.000.000 = 86549,25$$
A seguir temos os resultados obtidos pelo Software Action para esse exemplo.


Figura 4.1.4: Análise de Performance do Processo com a transformação de Box-Cox.
4.1.2 - Transformação de Johnson
O sistema de curvas de Johnson é constituído por três famílias de distribuições, geradas a partir da seguinte função:
$$Y = \gamma + \eta k_i(X, \lambda, \varepsilon)$$
em que $Y$ representa a variável normal padronizada, $X$ é a observação a ser transformada, $\eta, \gamma, \lambda$ e $\varepsilon$ são os parâmetros específicos da transformação de Johnson que precisam ser estimados. A função $k_i(X,\lambda,\varepsilon)$ é a função que caracteriza cada família do sistema de curvas.
As três famílias características do sistema de curvas de Johnson são:
$$S_U: k_1(X,\lambda, \varepsilon) = senh^{-1}\left(\dfrac{X-\varepsilon}{\lambda}\right), \quad \text{em que} \quad -\infty < X <\infty$$ $$S_B: k_2(X,\lambda, \varepsilon) = ln\left(\dfrac{X-\varepsilon}{\lambda+ \varepsilon -X}\right), \quad \text{em que} \quad \varepsilon < X < \varepsilon + \lambda$$ $$S_L: k_3(X,\lambda, \varepsilon) = ln\left(\dfrac{X-\varepsilon}{\lambda}\right), \quad \text{em que} \quad \varepsilon < X < \infty$$
Escolha da Família
Para a escolha da família, precisamos inicialmente escolher um valor de $Z$ tal que $Z > 0$. O valor de $Z$ é relacionado ao tamanho da amostra a ser transformada e dificilmente será um valor maior do que 1, devido à dificuldade na estimação do percentil correspondente a $\pm 3Z$. Na literatura, é recomendado utilizar um valor de $Z$ próximo a $0,5$.
Após escolhido o valor de $Z$ calculamos as probabilidades acumuladas $\Phi(-3Z), \Phi(-Z), \Phi(Z)$ e $\Phi(3Z)$, em que $\Phi$ representa função da distribuição acumulada da normal padrão. Em seguida, precisamos encontrar os respectivos percentis $X_{-3Z}, X_{-Z}, X_{Z}$ e $X_{3Z}$ da amostra. Para isso, ordenamos as observações da amostra $X_{(1)} \leq X_{(2)} \leq\cdots\leq X_{(n)}$ e para cada valor de $\xi=-3Z,-Z,Z$ e $3Z$ encontramos os percentil $X_{(i)}$ correspondente a $\Phi(\xi)$ respeitando a seguinte relação: $(i-1/2)/n = \Phi(\xi)$, assim $X_{\xi} = X_{(i)}$, para cada valor de $\xi$.
Desta forma, podemos calcular a função discriminadora:
$$F_D = \dfrac{mn}{p^2}$$
em que:
$$m = X_{3Z} - X_{Z};$$ $$n = X_{-Z} - X_{-3Z};$$ $$p=X_{Z} - X_{-Z}.$$
Slifker e Shapiro (1980) provaram que se $F_D > 1$, a família $S_U$ será utilizada, se $F_D < 1$, utilizaremos a família $S_B$ e se $F_D = 1$ a família $S_L$ será utilizada. No caso da família $S_L$ precisamos considerar uma tolerância para valores próximos a 1 pois sempre estaremos lidando com estimativas de valores e obter resultado exatamente igual a 1 não será possível do ponto de vista numérico.
Os softwares estatísticos encontram o melhor valor de $Z$ através de uma simulação de 100 valores para $Z$, de $0,25$ a $1,25$. Nessa simulação, efetuamos as estimativas dos parâmetros para cada valor de $Z$ em cada família e assim, escolhemos o valor de $Z$ e a família de distribuição em que os dados transformados apresentam o melhor resultado no teste de normalidade de Anderson-Darling.
No Action Stat seguimos o seguinte algoritmo para a escolha do valor de $Z$ e para determinar a melhor família para a transformação das observações:
- Encontramos as estimativas dos parâmetros para as três famílias segundo o método de comparação de quantil (descrito abaixo) para todos os 100 valores de $Z$;
- Verificamos para cada valor de $Z$ se utilizando as estimativas encontrada, o domínio da função característica é respeitado em cada família, caso contrário esse valor de $Z$ é desconsiderado para a família em que o domínio da função característica não é respeitado;
- Calculamos a transformação para as 3 famílias em todos os valores de $Z$ considerados;
- Escolhemos o valor de $Z$ e a família utilizada para a transformação considerando o maior P-Valor do teste de normalidade de Anderson-Darling aplicado nos dados transformados.
Estimação dos Parâmetros
Para cada família, precisamos estimar os parâmetros: $\gamma, \eta, \lambda$ e $\varepsilon$. Para isso, utilizamos o método de comparação de quantil (ver, Slifker e Shapiro (1980)). Consideramos os valores dos quantis $\alpha_j, j = 1,…,4$ tal que:
$$Z_{\alpha_1} = -3Z = \Phi^{-1}(\alpha_1)$$ $$Z_{\alpha_2} = -Z = \Phi^{-1}(\alpha_2)$$ $$Z_{\alpha_3} = Z = \Phi^{-1}(\alpha_3)$$ $$Z_{\alpha_4} = 3Z = \Phi^{-1}(\alpha_4)$$
em que $\Phi$ é a função de distribuição acumulada da normal padrão. Calculamos então $X_{\alpha_j} = F^{-1}(\alpha_j), j=1,…,4$. Tal que $F$ representa a função de distribuição acumulada empírica das observações $X$. Desta forma, teremos quatro equações no seguinte formato:
$$Z_{\alpha_j} = \gamma + \eta k_i(X_{\alpha_j}, \omega, \varepsilon), \quad j=1,…,4.$$
onde $k_i(X_{\alpha_j}, \lambda, \varepsilon)$ é a função característica da família escolhida. Resolvendo o sistema com 4 equações e 4 incógnitas obtemos as estimativas para $\eta, \gamma, \omega$ e $\varepsilon$.
É possível mostrar que, para a família $S_U$, a estimativa dos parâmetros são dadas por:

$$\lambda = 2p\left(\dfrac{mn}{p^2}-1\right)^{1/2}\left[\left(\dfrac{m+n}{p}-2\right)\left(\dfrac{m+n}{p}+2\right)^{1/2}\right]^{-1}$$
$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2} + p \left(\dfrac{n-m}{p}\right) \left[ 2\left(\dfrac{m+n}{p}-2\right)\right]^{-1}$$
Na família $S_B$ as estimativas são:

$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2}-\dfrac{\lambda}{2} + p\left(\dfrac{p}{m} - \dfrac{p}{n}\right)\left[2\left(\dfrac{p^2}{mn} - 1\right)\right]^{-1}$$
A família $S_L$ é essencialmente a família lognormal com três parâmetros, uma vez que podemos eliminar o parâmetros $\lambda$ fazendo a seguinte reparametrização: $\gamma^{*} = \gamma - \eta ln(\lambda)$. Desta forma, os parâmetros são estimados por:
$$\eta = 2Z\left[ln\left(\dfrac{m}{p}\right)\right]^{-1}$$
$$\gamma^{*} = \eta ln\left[\dfrac{\dfrac{m}{p}-1}{p\left(\dfrac{m}{p}\right)^{1/2}}\right]$$
$$\varepsilon = \dfrac{X_{Z} + X_{-Z}}{2} - \dfrac{p}{2}\dfrac{\left(\dfrac{m}{p}+1\right)}{\left(\dfrac{m}{p}-1\right)}$$
Transformação das Observações
Agora que já definimos a família a ser utilizada e estimamos os parâmetros, precisamos apenas calcular a transformação de Johnson:
| Família | Transformação |
|---|---|
| $S_U$ | $Y = \gamma + \eta senh^{-1}\left(\dfrac{X - \varepsilon}{\lambda}\right)$ |
| $S_B$ | $Y = \gamma + \eta ln\left(\dfrac{X - \varepsilon}{\lambda + \varepsilon - X}\right)$ |
| $S_L$ | $Y = \gamma^{*} + \eta ln(X - \varepsilon)$ |
em que $Y$ corresponde aos dados transformados.
Exemplo 4.1.2.1
Considere uma amostra com 32 observações do volume do frasco de um medicamento. Neste caso o limite Inferior de Especificação é dado por LIE = 30.
| 30,39 | 31,16 | 31,01 | 32,92 | 30,31 | 31,99 | 32,31 |
|---|---|---|---|---|---|---|
| 31,33 | 31,17 | 30,84 | 32,78 | 30,96 | 31,20 | 30,55 |
| 31,06 | 30,82 | 31,23 | 32,92 | 30,98 | 31,21 | 31,41 |
| 31,19 | 31,30 | 31,55 | 32,01 | 31,44 | 31,10 | 32,50 |
| 31,09 | 30,84 | 31,69 | 31,06 |
Primeiramente, vamos verificar a normalidade dos dados:
(imagem em falta)
(imagem em falta)
Ao nível de significância de 0,05 rejeitamos a hipótese de que os dados possuem distribuição aproximadamente normal. Portanto, não podemos modelar os dados por uma distribuição normal. Neste caso, aplicamos transformação aos dados com o objetivo de encontrar a normalidade para os dados trnansformados. Primeiramente, vamos aplicar a transformação de Box-Cox:
(imagem em falta)
Mais uma vez, ao nível de significância de 0,05 rejeitamos a hipótese de normalidade dos dados transformados. Portanto, a transformação de Box e Cox não foi efetiva na tentativa de normalizar os dados. Na sequência, partimos para a transformação de Johnson. Através do Action Stat, obtemos:
(imagem em falta)
(imagem em falta)
Com um P-valor de $0,73$ no teste de Anderson e Darling, concluímos que a transformação de Johnson foi eficaz para normalizar os dados. Assim, vamos realizar a análise de capacidade do processo com os dados transformados. Para isto, a transformação aplicada aos dados também precisa ser aplicada aos limites de especificação. Neste caso, o limite inferior de especificação transformado é dado por:
$$LIE^{*} =\gamma+\eta \ast senh^{-1}\left(\dfrac{LIE - \varepsilon}{\lambda}\right) = -0,389 + 0,586\ast senh^{-1}\left(\dfrac{30 - 31,077}{0,170}\right) = -1,881$$
Portanto, podemos fazer uma análise da capacidade e performance do processo para dados normais, como discutido na seção 3. Inicialmente, vamos fazer uma análise da estabilidade do processo, para os dados transformados, através de um gráfico de controle.
(imagem em falta)
Observamos que existe um ponto fora dos limites de controle no gráfico de amplitude móvel, o que indica que o processo esta fora de controle. Efetuando os calculos para o método a longo prazo temos:
$$\hat{\sigma} = s = \sqrt{\dfrac{\sum_{i=1}^{n}(x_i - \bar{x})^2}{n-1} }= \sqrt{\dfrac{24,828}{31}} = 0,9128$$
Assim, podemos calcular:
$$PPI = \dfrac{LIE^{*} - \hat{\mu}}{3\hat{\sigma}} = \dfrac{-1,881 -0,008}{3 \ast 0,9128} = 0,6841$$
$$P_{PK} = PPI = 0,6841$$
Calculando $PPM_{Total}$
$$PPM_{Total} = PPM_{LIE} = \Phi\left( \dfrac{LIE^{*} - \hat{\mu}}{\hat{\sigma}}\right) \times 1.000.000 = \Phi(-2,052381)\times 1.000.000 = 20066,31$$
em que $\Phi$ representa a função de distribuição acumulada da normal padrão.
(imagem em falta)
Utilizando o Action Stat obtemos os seguintes resultados:
(imagem em falta)
Figura 4.1.2.1: Análise de Performance do Processo com a transformação de Johnson
4.2 - Análise de performance para dados com distribuição não normal
Além da possibilidade de transformar os dados na tentativa de modelá-los por uma distribuição normal é possível ainda selecionar, por meio do uso do gráfico do papel de probabilidade, uma distribuição que melhor descreva a aleatoriedade desses dados. Esta metodologia é também aplicada para determinar a performance do processo, ou seja, a variabilidade a longo prazo e será discutida nas seções seguintes.
4.2.1 - Índices de performance do processo: Pp e Ppk
Quando não é possível normalizar os dados através de transformações, como visto anteriormente, é necessário buscar outra forma de calcular os índices de performance do processo, por exemplo utilizando outra distribuição de probabilidade que se ajuste aos dados. A seguir vamos discutir com maiores detalhes os cálculos desses índices quando os dados não seguem distribuição normal.
A equação para calcular os índices $P_{p}$ e $P_{pk}$ são similares aos índices $C_{p}$ e $C_{pk}$. Desta forma, temos
- Cálculo do $P_{p}$
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
- Cálculo do PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2} ~~~~~ {e}~~~~~ PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
em que
LSE = Limite Superior de Especificação
LIE = Limite Inferior de Especificação
$q_{1}$ = Quantil da distribuição específica com 0,135%
$q_{2}$ = Quantil da distribuição específica com 50% (equivalente ao valor correspondente à mediana dos dados)
$q_{3}$ = Quantil da distribuição específica com 99,865%.

Desta forma garantimos o nível de confiança desejado (99,73% = 6σ) entre os quantis $q_{1}$ e $q_{3}$ da distribuição desejada.
- Cálculo do $P_{pk}$
$$P_{pk} = \min{(PPS, PPI)}$$
Índices de performance esperados a longo prazo
- Cálculo do $PPM_{Esp}$ < LIE
O número esperado de partes por milhão que tem observações menores que o limite inferior de especificação é dado por
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}$$
em que $q_{LIE}$ = Percentil da distribuição específica relativo ao limite inferior de especificação (LIE).
- Cálculo do $PPM_{Esp}$ > LIE
O número esperado de partes por milhão que tem observações maiores que o limite superior de especificação é dado por
$$PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
em que $q_{LSE}$ = Quantil da distribuição específica relativo ao limite superior de especificação (LSE).
- Cálculo do $PPM_{EspTotal}$
$$PPM_{EspTotal} = [PPM_{Esp}~<~LIE] + [PPM_{Esp}~>~LSE].$$
Índices de performance observados
- Cálculo do $PPM_{Obs}$ < LIE
A proporção do total de observações menores que o limite inferior de especificação, multiplicada por 1.000.000, é dada por
$$PPM_{Obs}~<~LIE = \left(\dfrac{Qtde.~de~Obs.~<~LIE}{n}\right) \ast 1.000.000$$
- Cálculo do $PPM_{Obs}$ > LSE
A proporção do total de observações maiores que o limite superior de especificação, multiplicada por 1.000.000, é dada por
$$PPM_{Obs}~>~LSE = \left(\dfrac{Qtde.~de~Obs.~>~LSE}{n}\right) \ast 1.000.000$$
- Cálculo do $PPM_{ObsTotal}$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE].$$
A seguir vamos discutir a análise de performance do processo considerando as distribuições Weibull, exponencial e log-normal.
4.2.2 - Análise de performance do processo com a distribuição de Weibull
Temos que a função densidade de probabilidade da distribuição Weibull é dada por
$$f(t) = \dfrac{\delta}{\alpha^\delta}t^{\delta-1}\exp[-(t/\alpha)^\delta],~~~~t \geq 0$$
em que
$\alpha$: parâmetro de escala
$\delta$: parâmetro de forma.
A função densidade de probabilidade pode ser observada na figura a seguir

Figura 4.2.2.1: Gráfico das funções densidades da distribuição Weibull com $\alpha = 1$ e diferentes valores de $\delta.$
Sabemos também que
$${Média} = MTTF ({ou}~MTBF) = E[T] = \alpha \ast \Gamma\left[1 + \left(\dfrac{1}{\delta}\right)\right]$$

em que $\Gamma(z) = \mathop{\int}^{\infty}_{0}r^{z-1}e^{-r}dr$
E então, o desvio padrão (s) é dado por
$$s = \sqrt{Var[T]}.$$
Exemplo 4.2.2.1
A utilização da distribuição Weibull permite calcular apenas a variabilidade a longo prazo e, consequentemente os índices $P_{p}$, $P_{pk}$, PPS e PPI. O cálculo destes índices de performance, diferentemente da distribuição normal que depende da média e desvio padrão, para a Weibull é preciso conhecer as estimativas de máxima verossimilhança dos parâmetros de forma ($\delta$) e locação ($\alpha$) da distribuição Weibull. Os dados da Tabela 4.2.2.1 são usados para exemplificar esta situação.
| Medições | ||||
|---|---|---|---|---|
| 0,086726 | 0,261364 | 0,234034 | 0,351005 | 0,387835 |
| 0,010857 | 0,615852 | 0,433043 | 0,37279 | 0,306073 |
| 0,368851 | 0,183577 | 0,788636 | 0,331414 | 0,303861 |
| 0,28748 | 0,071625 | 0,84719 | 0,357962 | 0,174402 |
| 0,909071 | 0,318152 | 0,459984 | 0,358099 | 0,338571 |
| 0,150298 | 0,103415 | 0,293006 | 0,560374 | 0,226616 |
| 0,608511 | 0,478834 | 0,648248 | 0,828459 | 0,371329 |
| 0,490219 | 0,41213 | 0,154507 | 0,565067 | 0,551373 |
| 0,151538 | 0,192791 | 0,320434 | 0,626277 | 0,187531 |
| 0,156621 | 0,208925 | 0,340069 | 0,054402 | 0,782792 |
Tabela 4.2.2.1: Dados.
O papel de probabilidade da Figura 4.2.2.2 indica que os dados podem ser melhor ajustados pela distribuição de Weibull, o que pode ser confirmado pelo p-valor associado ao teste de Anderson-Darling.
(imagem em falta)
Figura 4.2.2.2: Papel de probabilidade.
As estimativas dos parâmetros de escala e de forma da distribuição Weibull são dadas, respectivamente, por
$$\widehat{\alpha} = 0,4168 ~~~~~ {e} ~~~~~ \widehat{\delta} = 1,7318$$
Desta forma,
$$E[T] = 0,4168 \ast \Gamma\left[1 + \left(\dfrac{1}{1,7318}\right)\right] = 0,4168 \ast 0,8912 = 0,3714$$
A variabilidade a longo prazo é dada por

O desvio padrão (s) é dado por
$$s = \sqrt{0,4890} = 0,6993$$
Em seguida, vamos encontrar os índices de performance do processo considerando os seguintes limites de especificação: LSE = 1,5 e LIE = 0,45.
- Cálculo do $P_{p}$
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
sendo $q_{1}$ = quantil da distribuição Weibull com 0,135% e $q_{3}$ = quantil da distribuição Weibull com 99,865%.
Dessa forma,
$$P_p = \dfrac{1,5 - 0,45}{1,2401 - 0,0092} = 0,8530$$
- Cálculo do PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
sendo $q_{1}$ = quantil da distribuição Weibull com 0,135%, $q_{2}$ = quantil da distribuição Weibull com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição Weibull com 99,865%.
Assim,
$$PPS = \dfrac{1,5 - 0,3373}{1,2401 - 0,3373} = 1,2879~~~~~~~~~~PPI = \dfrac{0,3373 - 0,45}{0,3373 - 0,0092} = 0,3434$$
em que os valores $q_{1}$ = 0,0092 , $q_{2}$ = 0,3373 e $q_{3}$ = 1,2401 podem ser calculados através do Software Action.
- Cálculo do $P_{pk}$
$$P_{pk}=\min{PPI,PPS}=\min{-0,3434;1,2879}=-0,3434$$
- Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
sendo $q_{LIE}$ = quantil da distribuição Weibull relativo ao LIE e $q_{LSE}$ = quantil da distribuição Weibull relativo ao LSE.
Assim,
$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,680775693 = 680775,693$$
$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,000102369147= 102,369147$$
$$PPM_{EspTotal} = 680775,6935+ 102,369147 = 6870878,063$$
- Cálculo do (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \left(\dfrac{0}{50}\right) \ast 1.000.000 = 0$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \left(\dfrac{35}{50}\right) \ast 1.000.000 = 700.000$$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 700.000$$
A seguir temos os resultados obtidos pelo Software Action para esse exemplo.
(imagem em falta)
Figura 4.2.2.3: Gráfico da análise de performance do processo.
Exemplo 4.2.2.2
Na tabela a seguir são apresentados dados de gramatura em $g/m^2$ de uma folha de papel. As especificações para estes dados são LSE = 92,88 , Alvo = 90,21 e LIE = 87,54.
| Gramatura(g/m2) |
|---|
| 88,20 |
| 88,90 |
| 90,50 |
| 90,30 |
| 90,00 |
| 90,20 |
| 91,20 |
| 91,00 |
| 91,50 |
| 91,40 |
| 91,30 |
| 90,20 |
| 91,40 |
| 89,90 |
| 90,20 |
| 90,10 |
| 90,80 |
| 91,40 |
| 91,30 |
| 89,00 |
| 90,70 |
| 89,50 |
| 91,20 |
| 90,50 |
| 90,60 |
Tabela 4.2.2.2: Dados de gramatura em $g/m^2$ de uma folha de papel.
A Figura 4.2.2.4 mostra o papel de probabilidade dos dados de gramatura de papel, indicando que a distribuição Weibull é a que melhor se ajusta a esses dados. Esse resultado pode ser confirmado observando os valores numéricos do teste de Anderson-Darling.

Figura 4.2.2.4: Papel de probabilidade.
As estimativas dos parâmetros de escala e de forma da distribuição Weibull são, respectivamente
$$\widehat{\alpha} = 90,838~~~~~~{e}~~~~~~\widehat{\delta} = 140,329$$
Desta forma,
$$E[T] = 90,838 \ast \Gamma\left[1+\left(\dfrac{1}{140,329}\right)\right] = 90,468$$
A variabilidade a longo prazo é dada por

O desvio padrão (s) é dado por
$$s = \sqrt{0,6766628} = 0,8225951$$
A seguir vamos calcular os índices de performance do processo.
- Cálculo do $P_{p}$
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1} = \dfrac{92,88 - 87,54}{92,069 - 86,66029} = 0,9873786$$
- Cálculo do PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2} = \dfrac{92,88 - 90,60106}{92,06855 - 90,60106} = 1,552$$
$$PPI = \dfrac{q_2 - LIE}{q_2 - q_1} = \dfrac{90,60106 - 87,54}{90,60106 - 86,66029} = 0,7768$$
em que $q_{1}$ = 86,66029 , $q_{2}$ = 90,60106 e $q_{3}$ = 92,06855 são quantis da distribuição Weibull e podem ser calculados através do Software Action.
- Cálculo do $P_{pk}$
$$P_{pk} = \min{PPS, PPI} = \min{1,552;~0,7768} = 0,7768$$
- Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,005558515 = 5556,67$$
$$PPM_{Esp}>~LSE = 1.000.000 \ast 0,000000000147211 = 0,000147211$$
em que $q_{LIE}$ = 0,00555667 e $q_{LSE}$ = 0,999999999852789.
$$PPM_{EspTotal} = 5556,67 + 0,000147211 = 5556,67$$
- Cálculo do (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \dfrac{0}{25} \ast 1.000.000 = 0$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \dfrac{0}{25} \ast 1.000.000 = 0$$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 0$$
A seguir temos os resultados obtidos pelo Software Action para esse exemplo.


Figura 4.2.2.5: Gráfico da análise de performance do processo.
Exemplo 4.2.2.3
A utilização da distribuição Weibull permite calcular apenas a Variabilidade a longo prazo e, consequentemente os índices Pp, Ppk, PPS e PPI. Os dados da Tabela são usados para exemplificar esta situação.
A Figura 4.2.2.6 mostra o papel de probabilidade dos dados de gramatura de papel, indicando que a distribuição Weibull é a que melhor se ajusta a esses dados. Esse resultado pode ser confirmado observando os valores numéricos do teste de Anderson-Darling.
(imagem em falta)

Figura 4.2.2.6: Papel de probabilidade.
As estimativas dos parâmetros de escala e de forma da distribuição Weibull são dadas, respectivamente, por
$$\widehat{\alpha} = 0,53 ~~~~~ {e} ~~~~~ \widehat{\delta} = 4,11$$
Desta forma,
$$E[T] = 0,53 \ast \Gamma\left[1 + \left(\dfrac{1}{4,11}\right)\right] = 0,4811$$
A variabilidade a longo prazo é dada por

O desvio padrão (s) é dado por
$$s = \sqrt{0,0176} = 0,1326$$
Em seguida, vamos encontrar os índices de performance do processo considerando os seguintes limites de especificação: LSE = 20 e LIE = 5.
Cálculo do Pp
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
sendo q1 = quantil da distribuição Weibull com 0,135% e q3 = quantil da distribuição Weibull com 99,865%.
Dessa forma,
$$P_p = \dfrac{20 - 5}{144,9 - 1,58e^{-5}} = 0,103$$
Cálculo do PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
sendo q1 = quantil da distribuição Weibull com 0,135%, q2 = quantil da distribuição Weibull com 50% (equivalente ao valor correspondente à mediana dos dados) e q3 = quantil da distribuição Weibull com 99,865%.
Assim,
$$PPS = \dfrac{20 - 2,058}{144,91 - 2,058} = 0,125~~~~~~~~~~PPI = \dfrac{2,058 - 5}{2,058 - 1,58e^{-5}} = -1,429$$
em que os valores q1 = $1,58e^{-5}$ , q2 = 0,2,058 e q3 = 144,91 podem ser calculados através do Software Action.
Cálculo do Ppk
$$P_{pk}=\min{PPI,PPS}=\min{0,125;-1,429}=-1,429$$
Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
sendo qLIE = quantil da distribuição Weibull relativo ao LIE e qLSE = quantil da distribuição Weibull relativo ao LSE.
Assim,
$$PPM_{Esp}~<~LIE = 669885,77$$
$$PPM_{Esp}~>~LSE= 99011,87$$
$$PPM_{EspTotal} = 768897,64$$
Cálculo do (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = 600.000$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = 50.000$$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 650.000$$
(imagem em falta)
(imagem em falta)
Figura 4.2.2.7: Gráfico da análise de performance do processo.
4.2.3 - Análise de performance do processo com a distribuição exponencial
Temos que a função densidade de probabilidade da distribuição exponencial é dada por
$$f(t) = \dfrac{1}{\alpha} e^{-t/ \alpha} ~{para todo}~t~>~0~(4.2.3.1)$$
sendo $\alpha~>~0$ denominado o parâmetro da distribuição. Assim, temos que a função de distribuição acumulada é dada por
$$F(t) = P[T \leq t] = \int_{0}^{t}\dfrac{1}{\alpha} e^{-x/ \alpha}dx = 1 - e^{-t/ \alpha} ~~~~{para todo}~t~>~0$$
tal que
$$E[T] = \alpha~~~~~~~~~Var[T] = \alpha^2$$
A função densidade de probabilidade da distribuição exponencial pode ser observada na Figura 4.2.3.1.

Figura 4.2.3.1: Gráfico das funções densidades da distribuição exponencial para diferentes valores de $\alpha.$
Exemplo 4.2.3.1
Vamos considerar os dados da Tabela 4.2.3.1 referentes à medições. Para este exemplo considere as seguintes especificações: LSE = 0,3 e LIE = 0,0015. Temos também que a média dos dados é dada por $\overline{x} = 0,04876$.
| Dados Medidos | ||||
|---|---|---|---|---|
| 0,106 | 0,012 | 0,039 | 0,009 | 0,023 |
| 0,007 | 0,015 | 0,036 | 0,007 | 0,017 |
| 0,007 | 0,011 | 0,087 | 0,049 | 0,03 |
| 0,014 | 0,002 | 0,075 | 0,094 | 0,201 |
| 0,052 | 0,02 | 0,008 | 0,003 | 0,011 |
| 0,058 | 0,292 | 0,04 | 0,036 | 0,055 |
| 0,003 | 0,059 | 0,206 | 0,101 | 0,055 |
| 0,03 | 0,04 | 0,002 | 0,047 | 0,08 |
| 0,03 | 0,016 | 0,114 | 0,002 | 0,002 |
| 0,041 | 0,023 | 0,052 | 0,114 | 0,005 |
Tabela 4.2.3.1: Dados referentes à medições.
Os resultados do teste de Anderson-Darling verificados na Figura 4.2.3.2 indicam que os dados acima podem ser modelados pela distribuição exponencial, Weibull ou log-normal. Porém, para ilustrar o cálculo dos índices de performance para esse exemplo vamos considerar a distribuição exponencial para modelar esses dados.

Figura 4.2.3.2: Papel de probabilidade.
A estimativa de máxima verossimilhança do parâmetro da distribuição exponencial expressa na forma (4.2.3.1) é dada por
$$\widehat{\alpha} = \overline{x} = 0,04876$$
Desta forma,
$$E[T] = \widehat{\alpha} = 0,04876$$
A variabilidade a longo prazo é dada por
$$Var[T] = \widehat{\alpha}^2 = 0,002378$$
Com isso, obtemos o desvio padrão (s) dado por
$$s = \sqrt{0,002378} = 0,04876$$
A seguir vamos calcular os índices de performance do processo para os dados com distribuição exponencial.
- Cálculo de $P_{p}$
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
em que LIE e LSE são os limites de especificação, $q_{1}$ = quantil da distribuição exponencial com 0,135% e $q_{3}$ = quantil da distribuição exponencial com 99,865%.
Assim,
$$P_p = \dfrac{0,3 - 0,0015}{0,32218 - 0,0000658} = 0,9266$$
- Cálculo de PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~{e}~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
sendo $q_{1}$ = quantil da distribuição exponencial com 0,135%, $q_{2}$ = quantil da distribuição exponencial com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição exponencial com 99,865%.
Dessa forma,
$$PPS = \dfrac{0,3 - 0,033797}{0,32218 - 0,033797} = 0,9231~~~~~~{e}~~~~~~PPI = \dfrac{0,033797 - 0,0015}{0,033797 - 0,0000658} = 0,95748$$
sendo $q_{1}$ = 0,0000658 , $q_{2}$ = 0,033797 e $q_{3}$ = 0,32218 quantis da distribuição exponencial que podem ser calculados através do Software Action.
- Cálculo de $P_{pk}$
$$P_{pk} = \min{PPI, PPS} = \min{0,9231;~0,95748} = 0,9231$$
- Cálculo de (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~{e}~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
em que $q_{LIE}$ = quantil da distribuição exponencial relativo ao LIE e $q_{LSE}$ = quantil da distribuição exponencial relativo ao LSE.
Assim,
$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,03029456 = 30294,56$$
$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,002127976 = 2127,976$$
E portanto,
$$PPM_{EspTotal} = 30294,56 + 2127,976 = 32422,536$$
- Cálculo de (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \dfrac{0}{50} \ast 1.000.000 = 0$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \dfrac{0}{50} \ast 1.000.000 = 0$$
Portanto,
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 0.$$
A seguir temos os resultados obtidos pelo Software Action Stat para esse exemplo.


Figura 4.2.3.3: Gráfico da análise de performance do processo.Figura 4.2.3.3: Gráfico da análise de performance do processo.
4.2.4 - Análise de performance do processo com a distribuição log-normal
Assim como a distribuição de Weibull, a distribuição log-normal é muito usada para caracterizar o tempo de vida de produtos e materiais. Isto inclui por exemplo, fadiga de metal, semicondutores, diodos e isolação elétrica. A função densidade de probabilidade para uma distribuição log-normal é dada por
$$f(t) = \dfrac{1}{t\sigma\sqrt{2\pi}}~\exp\left[\dfrac{-\left(\log(t)-\mu\right)^2}{2\sigma^2}\right],~~~t \geq 0$$
em que μ é a média do logaritmo e σ é o desvio-padrão do logaritmo.

Figura 4.2.4.1: Gráfico das funções densidades da distribuição log-normal com $\mu = 0$ e diferentes valores de $\sigma$
O valor esperado e a variância são dados, respectivamente, por

$$Var[T] = (\exp{\sigma^2} - 1)\exp{2\mu + \sigma^2}$$
Existe uma relação entre a distribuição log-normal e normal. Como o nome sugere, o logaritmo de uma variável com distribuição log-normal com parâmetros μ e σ tem distribuição normal com média μ e desvio padrão σ. Esta relação significa que dados provenientes de uma distribuição log-normal podem ser analisados segundo uma distribuição normal, caso sejam usados o logaritmo dos dados ao invés dos valores originais.
Exemplo 4.2.4.1
Vamos considerar os dados referentes à medições dispostos na Tabela 4.2.4.1 . As especificações para esse exemplo são: LSE = 3000 e LIE = 30.
| Medições | ||||
|---|---|---|---|---|
| 24,23 | 323,44 | 61,65 | 8,61 | 3556,16 |
| 62,55 | 115,35 | 1865 | 127,5 | 59,75 |
| 193,35 | 91,44 | 199,21 | 309,33 | 10,53 |
| 79,59 | 31,2 | 79,02 | 17,11 | 92,9 |
| 149,88 | 272,17 | 58,15 | 2300,26 | 217,09 |
| 733,15 | 59,6 | 691,09 | 244,52 | 115,66 |
| 514,14 | 9,98 | 42,43 | 7,68 | 425,71 |
| 238,75 | 85,78 | 51,42 | 83,97 | 296,95 |
| 222,57 | 29,01 | 342,19 | 45,33 | 867,67 |
| 363,23 | 593,02 | 138,81 | 520,4 | 161,08 |
Tabela 4.2.4.1: Medições.
A seguir temos o papel de probabilidade para os dados. Podemos ver que o p-valor para o teste de Anderson-Darling referente à distribuição log-normal (0,924) é maior do que 0,05 então, podemos dizer que esta distribuição descreve bem os dados.

Figura 4.2.4.2: Papel de probabilidade.
As estimativas dos parâmetros da distribuição log-normal são dadas por
$$\widehat{\mu} = {Média[log(dados)]} = 4,8975$$
$$\widehat{\sigma} = \sqrt{{Var[log(dados)]}} = 1,4032$$
Com isso, temos

A variabilidade a longo prazo é dada por
$$Var[T] = (\exp{1,969} - 1)\exp{2 \ast (4,8975) + 1,969} = 792261,1$$
Logo, o desvio padrão é dado por
$$s = \sqrt{792261,1} = 890,09$$
Com isso, os valores dos índices de performance para os dados do noso exemplo são obtidos da seguinte forma
- Cálculo de $P_{p}$
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
sendo $q_{1}$ = quantil da distribuição log-normal com 0,135% e $q_{3}$ = quantil da distribuição log-normal com 99,865%.
Assim,
$$P_p = \dfrac{3000 - 30}{9021,697 - 1,9892} = 0,3292$$
- Cálculo de PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~{e}~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
em que $q_{1}$ = quantil da distribuição log-normal com 0,135%, $q_{2}$ = quantil da distribuição log-normal com 50% (equivalente ao valor correspondente à mediana dos dados) e $q_{3}$ = quantil da distribuição log-normal com 99,865%.
Assim,
$$PPS = \dfrac{3000 - 133,955}{9018,81 - 133,955} = 0,3225~~~~~~~{e}~~~~~~~PPI = \dfrac{133,955 - 30}{133,955 -1,9896} = 0,7877$$
sendo $q_{1}$ = 1,9896 , $q_{2}$ = 133,955 e $q_{3}$ = 9018,81 quantis da distribuição log-normal e que podem ser calculados através do Software Action.
- Cálculo de $P_{pk}$
$$P_{pk} = \min{PPI, PPS} = \min{0,7877;~0,3225} = 0,3225$$
- Cálculo de (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~{e}~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
em que $q_{LIE}$ = quantil da distribuição log-normal relativo ao LIE e $q_{LSE}$ = quantil da distribuição log-normal relativo ao LSE.
Com isso,
$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,1431370 = 143137$$
$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,01336716 = 13367,16$$
E, portanto
$$PPM_{EspTotal} = 143137 + 13367,16 = 156504,16$$
- Cálculo de (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \left(\dfrac{7}{50}\right) \ast 1.000.000 = 140000$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \left(\dfrac{1}{50}\right) \ast 1.000.000 = 20000$$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 140000 + 20000 = 160000$$
A seguir temos os resultados obtidos pelo Software Action Stat para esse exemplo.

Figura 4.2.4.3: Gráfico da análise de performance do processo.
4.2.5 - Análise de performance do processo com a distribuição normal truncada
A variável aleatória contínua $X$ tem distribuição normal truncada em $[a,b]$ com os parâmetros $\mu, \sigma^2$ se sua função densidade de probabilidade for dada por

ou em termos da função da distribuição acumulada da normal padrão, $\Phi(\cdot)$, temos

Notação
$X \sim NT(\mu, \sigma^2;a,b)$
(imagem em falta)
Figura 4.2.5.1: Função densidade de probabilidade da distribuição normal truncada
O valor esperado é dado por
$$E(X) = \mu + \dfrac{ \phi \left( \frac{a-\mu}{\sigma} \right) - \phi \left( \frac{b-\mu}{\sigma} \right) }{ \Phi \left( \frac{b-\mu}{\sigma} \right) - \Phi \left( \frac{a-\mu}{\sigma} \right) } \sigma,$$
A variância é dada por
$$ Var(X) = \left[ 1 + \dfrac{ \left( \dfrac{a - \mu}{\sigma } \right) \phi \left( \dfrac{a - \mu}{\sigma } \right) - \left( \dfrac{b - \mu}{\sigma } \right) \phi \left( \dfrac{b - \mu}{\sigma } \right) }{ G(b) - G(a) } \right] \sigma^2 - \left[ \dfrac{ \phi \left( \dfrac{a - \mu}{\sigma } \right) - \phi \left( \dfrac{b - \mu}{\sigma } \right) }{ G(b) - G(a) } \right]^2 \sigma^2 $$
em que $\phi(\cdot)$ é a f.d.p. e $\Phi(\cdot)$ é a função de distribuição da distribuição normal padrão.
Exemplo 4.2.5.1:
Suponha que um processo de fabricação de uma determinada peça é estável e tenha limite superior e inferior de especificação em $LSE = 60mm$ e $LIE = 30mm$ e o alvo do processo é $45mm$. Além disso, devido às características do processo é impossível ter uma peça fabricada abaixo de $20mm$ (truncamento à esquerda) e acima de $70mm$ (truncamento à direita). Uma amostra de tamanho 30 é selecionada para estudar a capacidade do processo. Os valores estão na tabela abaixo.
| 30.709 | 39.881 | 38.887 | 40.48 | 53.794 |
|---|---|---|---|---|
| 56.98 | 51.212 | 37.97 | 49.866 | 42.547 |
| 45.289 | 34.562 | 36.649 | 44.493 | 59.616 |
| 48.079 | 43.759 | 36.413 | 40.419 | 49.865 |
| 48.492 | 51.265 | 43.097 | 57.779 | 48.266 |
| 55.115 | 57.527 | 52.867 | 37.887 | 46.975 |
Tabela 4.2.5.1: Medições
O papel de probabilidades e o teste de Anderson Darling a seguir, indicam que a distribuição normal truncada descreve bem os dados.
(imagem em falta)
Figura 4.2.5.2: Papel de probabilidades
As estimativas dos parâmetros da distribuição normal truncada no intervalo $[20, 70]$ são dadas por
$$\widehat{\mu} = 46,04\text{ e }\widehat{\sigma} = 7,62$$
Assim, podemos calcular os índices de performance para os dados do nosso exemplo da seguinte forma
- Cálculo de Pp
$$P_p = \dfrac{LSE-LIE}{q_3 - q_1} $$
em que q1 e q2 são os quantis da distribuição normal truncada no intervalo $[20,70]$ com 0,135% e 99,865%, respectivamente.
Portanto,
$$P_p = \dfrac{60-30}{67,77 - 23,66} = 0,68$$
- Cálculo de PPS e PPI
$$PPS = \dfrac{LSE-q2}{q3-q2}\text{ e } PPI = \dfrac{q2-LIE}{q2-q1}$$
em que $q_2$ é o quantil da distribuição normal truncada no intervalo [20, 70] com 50% (equivalente à mediana dos dados)
Portanto,
$$PPS = \dfrac{60-46,03}{67,77-46,03} = 0,645\text{ e } PPI = \dfrac{46,03-30}{46,03-23,66} = 0,716$$
- Cálculo de Ppk
$$P_{pk} = min{ PPI, PPS } = min { 0,716; 0,645 } = 0,645$$
- Cálculo de (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp} < LIE = 1.000.000 * q_{LIE} \text{ e } PPM_{ESP} > LSE=1.000.000*(1- q_{LSE}) $$
em que $q_{LIE}$ e $q_{LSE}$ são os quantis da distribuição normal truncada no intervalo [20,70] nos pontos LIE e LSE, respectivamente.
Assim,
$$PPM_{Esp}< LIE = 1.000.000 * 0,01743081 = 17.430,81$$
$$PPM_{Esp}> LSE = 1.000.000 * (1 - 0,9672764) = 32.723,56$$
- Cálculo do PPMEspTotal
$$PPM_{EspTotal} = [PPM_{Esp} < LIE] + [PPM_{Esp} > LSE] = 17.430,81 + 32.723,56 = 50.154,37$$
- Cálculo de (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs} < LIE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} < LIE}{n} \right) = 1.000.000 \times \left( \dfrac{0}{30} \right) = 0 $$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} > LSE}{n} \right) 1.000.000 \times \left( \dfrac{0}{30} \right) = 0 $$
$$PPM_{ObsTotal} = PPM_{Obs} < LIE + PPM_{Obs} > LSE = 0 + 0 = 0$$
A seguir, temos os resultados obtidos utilizando o software Action.
(imagem em falta)
Figura 4.2.5.3: Análise de Performance do Processo
4.2.6 - Análise de performance do processo com a distribuição normal dobrada
A variável aleatória contínua X tem distribuição normal dobrada com os parâmetros $(\mu, \sigma^2)$ se a sua função densidade de probabilidade for dada por:
$$f(x) = \dfrac{1}{\sqrt{2 \pi \sigma^2}} \left[ e^{ -\frac{(x-\mu)^2}{ 2 \sigma^2 } } + e^{ -\frac{(x+\mu)^2}{ 2 \sigma^2 } } \right], x \geq 0$$
A função de distribuição de X é dada por:
$$F_X(x; \mu, \sigma) = \dfrac{1}{2} \left[ erf \left( \dfrac{x + \mu}{\sigma\sqrt{2}} \right) + erf \left( \dfrac{x - \mu}{\sigma\sqrt{2}} \right) \right], $$
em que a função erro (erf) é definida por,
$$erf(x) = \dfrac{2}{ \sqrt{\pi} } \int_0^x e^{-t^2} dt$$
(imagem em falta)
Figura 4.2.6.1: Gráficos da função densidade de probabilidade e da função de distribuição
O valor esperado e a variância de X são dados, respectivamente, por:
$$E(X)=\mu \left[1-2\Phi\left( \dfrac{-\mu}{\sigma} \right) \right] + \sigma \sqrt{ \dfrac{2}{\pi} } \exp \left( -\dfrac{ \mu^2 }{ 2\sigma^2} \right)$$
$$Var(X)=\mu^2 + \sigma^2 - \left\lbrace \mu \left[ 1 - 2\Phi \left( \dfrac{-\mu}{\sigma} \right) \right] + \sigma \sqrt{ \dfrac{2}{\pi} } \exp \left( -\dfrac{ \mu^2 }{ 2\sigma^2} \right) \right\rbrace^2, $$
em que $\Phi(\cdot)$ é a função de distribuição da distribuição normal padrão.
Exemplo 4.2.6.1
Uma fábrica que produz peças cilíndricas precisa estudar a performance do processo de sua linha de produção. Foram coletadas as medidas dos diâmetros de 25 amostras (ver Tabela 4.2.6.1). Suponha que os limites inferior e superior de especificação são, respectivamente, 0,01cm e 0,07cm.
| 0.0345 | 0.0033 | 0.0185 | 0.0414 | 0.0305 |
|---|---|---|---|---|
| 0.0244 | 0.0518 | 0.0452 | 0.03 | 0.0108 |
| 0.0483 | 0.0339 | 0.0204 | 0.0239 | 0.0551 |
| 0.0137 | 0.0146 | 0.0272 | 0.0253 | 0.0588 |
| 0.0653 | 0.0679 | 0.047 | 0.0226 | 0.0209 |
A seguir, temos o papel de probabilidades para os dados da Tabela 4.2.6.1. A distribuição normal dobrada descreve bem os dados, pois o p-valor do teste de Anderson Darling é > 0,05.
(imagem em falta)
Tabela 6.2.4.1: Teste de Anderson Darling
(imagem em falta)
Figura 4.2.6.1: Papel de probabilidades
As estimativas de $\mu$ e $\sigma$ são dadas por:
$$\hat{\mu}=0,0329$$
$$\widehat{\sigma}=0,0181$$
Assim, podemos calcular os índices de performance para os dados do nosso exemplo da seguinte forma
- Cálculo de Pp
$$P_p = \dfrac{LSE-LIE}{q_3 - q_1}$$
em que q1 e q2 são os quantis da distribuição normal dobrada com 0,135% e 99,865%, respectivamente.
Portanto,
$$P_p = \dfrac{0,07-0,01}{0,087 - 0,0002} = 0,689$$
- Cálculo de PPS e PPI
$$PPS = \dfrac{LSE-q2}{q3-q2} \text{ e } PPI = \dfrac{q2-LIE}{q2-q1}$$
em que $q_2$ é o quantil da distribuição normal dobrada com 50% (equivalente à mediana dos dados)
Portanto,
$$PPS = \dfrac{0,07-0,033}{0,087-0,033} = 0,682 \text{ e } PPI = \dfrac{0,033-0,01}{0,033-0,0002} = 0,6997$$
- Cálculo de Ppk
$$P_{pk} = min{ PPI, PPS } = min { 0,6997; 0,682 } = 0,682$$
- Cálculo de (PPM < LIE) e (PPM > LSE) esperados
$PPM_{Esp} < LIE = 1.000.000 * q_{LIE}$ e $ PPM_{ESP} > LSE = 1.000.000*(1- q_{LSE}) $ em que $q_{LIE}$ e $q_{LSE}$ são os quantis da distribuição normal dobrada nos pontos LIE e LSE, respectivamente.
Assim,
$$PPM_{Esp} < LIE = 1.000.000 * 0,09381355 = 93.813,55$$
$$PPM_{Esp} > LSE = 1.000.000 * (1 - 0,9796906) = 20.309,43$$
- Cálculo do PPMEspTotal
$$PPM_{EspTotal} = [PPM_{Esp} < LIE] + [PPM_{Esp} > LSE] = 93.813,55 + 20.309,43 = 114.123$$
- Cálculo de (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs} < LIE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} < LIE}{n} \right) = 1.000.000 \times \left( \dfrac{1}{30} \right) = 40.000$$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} > LSE}{n} \right) 1.000.000 \times \left( \dfrac{0}{30} \right) = 0$$
$$PPM_{ObsTotal} = PPM_{Obs} < LIE + PPM_{Obs} > LSE = 40.000 + 0 = 40.000$$
A seguir temos os resultados obtidos pelo software Action
(imagem em falta)
Figura 4.2.6.2: Análise de performance do processo
4.2.7 - Análise de performance do processo com distribuição de Rayleigh
A variável aleatória contínua X segue uma distribuição de Rayleigh se sua função densidade de probabilidade for dada por
$$f(x) = \dfrac{x}{\sigma^2} \exp \left\lbrace \dfrac{-x^2}{2 \sigma^2} \right\rbrace$$
A função de distribuição é dada por
$$F(x) = 1 - \exp \left\lbrace \dfrac{-x^2}{2 \sigma^2} \right\rbrace; x \geq 0; \sigma ~>~ 0$$
A função densidade e a função de distribuição podem ser observadas no gráfico abaixo.
(imagem em falta)
Figura 4.2.7.1: Função densidade de probabilidade (gráfico à esquerda) e função de distribuição (gráfico à direita)
O valor esperado e a variância são dados, respectivamente, por,
$$E(X)=\sigma \dfrac{\pi}{2} \approx 1,253 \sigma$$ $$Var(X)=\dfrac{4-\pi}{2} \sigma^2 \approx 0,429 \sigma^2$$
Exemplo 4.2.7.1
A Tabela 4.2.7.1 contém 50 amostras de um processo sob controle. Considere que $LSE=5$ e o alvo é $1,5$. Analise a performance do processo.
| 2,761 | 1,422 | 0,797 | 2,624 | 0,318 |
|---|---|---|---|---|
| 2,379 | 0,559 | 1,671 | 2,001 | 0,394 |
| 2,038 | 1,410 | 3,056 | 4,495 | 1,947 |
| 0,887 | 0,999 | 1,233 | 0,233 | 1,481 |
| 0,943 | 1,204 | 1,405 | 2,534 | 0,418 |
| 1,793 | 1,184 | 2,328 | 3,540 | 1,595 |
| 3,703 | 1,721 | 2,389 | 3,455 | 2,830 |
| 0,562 | 1,952 | 1,817 | 2,469 | 2,692 |
| 2,076 | 1,753 | 2,067 | 1,495 | 1,604 |
| 1,903 | 1,159 | 3,963 | 1,016 | 1,843 |
Tabela 4.2.7.1: 50 amostras de um processo sob controle
A distribuição de Rayleigh descreve bem os dados, pois o p-valor do teste de Anderson Darling é > 0,05 (ver a tabela abaixo). O papel de probabilidade da Figura 4.2.7.1 também indica essa conclusão.
(imagem em falta)
Tabela 4.2.7.2: Identificação da distribuição
(imagem em falta)
Figura 4.2.7.1: Papel de probabilidades
A estimativa de $\sigma$ é dada por:
$$\hat{\sigma} = 1,469$$
Dessa forma,
$$E(X) = \dfrac{\sigma \pi}{ 2 } \approx 1,253 \sigma \approx 1,469 \times 1,253 \approx 1,841$$
A variância é dada por,
$$Var(X) = \dfrac{4-\pi}{2} \sigma^2 \approx 0,429 \sigma^2 \approx 0,429 \times 1,469^2 \approx 0,926$$
Assim, podemos calcular os índices de performance para os dados do nosso exemplo da seguinte forma:
- Cálculo do PPS
$$PPS = \dfrac{LSE - q2}{q3-q2},$$
em que $q_2$ é o quantil da distribuição normal dobrada com 50% (equivalente à mediana dos dados).
Portanto,
Como temos apenas o limite superior, $P_{pk} = PPS = 0,905$
- Cálculo do PPM > LSE esperado
$$PPM_{ESP} ~>~ LSE = 1.000.000*(1- q_{LSE})$$
em que $q_{LSE}$ é o quantil da distribuição de Rayleigh no ponto LSE.
Assim,
$$PPM_{Esp}~>~LSE = 1.000.000 * (1 - 0,9969403) = 3.059,74$$
- Cálculo de PPM > LSE observado
$$PPM_{Obs}~>~LSE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada}~>~LSE}{n} \right) = 1.000.000 \times \left( \dfrac{0}{50} \right) = 0$$
$$PPM_{ObsTotal}=PPM_{Obs}~>~LSE=0$$
A seguir a saída pelo software Action
(imagem em falta)
Tabela 4.2.7.3: Índices da análise de performance do processo
(imagem em falta)
Figura 4.2.7.2: Gráfico da análise da performance do processo
4.2.8 - Análise de performance do processo com a distribuição de Rice
A variável aleatória contínua $X$ tem distribuição de Rice se a sua função densidade de probabilidade for dada por
$$f(x)=\dfrac{x}{\sigma^2} \exp \left( \dfrac{ -(x^2 + v^2) }{2\sigma^2} \right) I_0 \left( \dfrac{xv}{\sigma^2} \right); x,v \in \Re; \sigma^2 > 0,$$
em que,
- $$I_{\alpha}(z) = \sum_{m=0}^\infty \dfrac{1}{ m! \Gamma(m + \alpha + 1) } \left( \dfrac{z}{2} \right)^{2m+\alpha}, \alpha \in \Re,$$
é a função modificada de Bessel do primeiro tipo de ordem $\alpha$.
- $$\Gamma(y) = \left\lbrace \begin{array}{} (y-1)!, ~~~~~~~~~~~~~~~~~~\text{se} y \in \aleph* \ \\int_0^\infty x^{y-1} e^{-x} dx~~~~~~~~~~ \text{se}~~ y ~>~ 0 \end{array} \right. $$
é a função Gama.
A função de distribuição $F(x)$ é dada por
$$F(x) = 1- Q_1 \left( \dfrac{v}{\sigma}, \dfrac{x}{\sigma} \right)$$
em que
$$Q_M(a,b) = \int_a^\infty x \left( \dfrac{x}{a} \right)^{M-1} \exp \left( - \dfrac{x^2 + a^2}{2} \right) I_{M-1}(ax) dx$$
é chamada Função-Q Marcum Marcum Q-Function.
A função densidade de probabilidade e a função de distribuição de X podem ser observadas no gráfico a seguir
(imagem em falta)
Figura 4.2.8.1: Função densidade de probabilidade e função de distribuição.
O valor esperado é dado por
$$E(X)= \sigma \sqrt{ \dfrac{\pi}{2}} L_{1/2} \left( \dfrac{-v^2}{2 \sigma^2} \right),$$
em que
$$L_n(x) = \dfrac{e^x}{n!} \dfrac{d^n}{dx^n} \left( e^{-x} x^n\right) = \dfrac{1}{n!} \left( \dfrac{d}{dx} -1 \right)^n x^n$$
A variância é dada por
$$Var(X) = 2\sigma^2 + v^2 - \dfrac{\pi \sigma^2}{2} L^2_{1/2} \left( \dfrac{-v^2}{2\sigma^2} \right)$$
Exemplo 4.2.8.1
Considere que a medida ideal do raio de uma roda de carro de 17 polegadas seja de $21,59cm$. Os limites inferior e superior de especificação são, respectivamente, $21cm$ e $22,18cm$. Utilize os dados da Tabela e faça uma análise de performance do processo.
| 21.5583 | 21.3205 | 21.0805 | 21.6013 | 21.9007 |
|---|---|---|---|---|
| 21.4604 | 21.7211 | 21.3939 | 20.7637 | 21.2943 |
| 20.6189 | 21.6634 | 21.7711 | 21.7145 | 21.3376 |
| 21.8112 | 21.0616 | 21.9476 | 20.9771 | 21.5657 |
| 21.7394 | 22.2237 | 21.3482 | 22.4511 | 21.3744 |
| 21.5593 | 22.4244 | 20.7905 | 21.4619 | 21.9561 |
| 21.4434 | 21.389 | 21.7656 | 21.9378 | 21.6846 |
| 21.3088 | 21.9121 | 21.0232 | 20.8948 | 21.8802 |
| 22.138 | 21.4864 | 21.6453 | 22.069 | 22.3829 |
| 21.189 | 22.0284 | 21.6328 | 21.3858 | 20.8845 |
Tabela 4.2.8.1: Medidas
O papel de probabilidades e o teste de Anderson Darling a seguir indicam que a distribuição Rice descreve bem os dados.
(imagem em falta)
(imagem em falta)
Figura 4.2.8.2: Papel de probabilidades
As estimativas dos parâmetros de escala e de forma da distribuição Rice são dadas, respectivamente, por
$$\hat{v}=22$$
e
$$\hat{\sigma}=0,43$$
Dessa forma,
$$E(X)=\sigma \sqrt{ \dfrac{\pi}{2}} L_{1/2} \left( \dfrac{-v^2}{2 \sigma^2} \right) =0,43*\sqrt{1.570796}*L_{1/2}(-932,2562)=$$
$$= E(X) = 0,43 * 1,253314 * 34,4619 = 21,59579$$
$$Var(X)=2\sigma^2 + v^2 - \dfrac{\pi \sigma^2}{2} L^2_{1/2} \left( \dfrac{-v^2}{2\sigma^2} \right)=$$
$$= Var(X) = 2 * 0,43^2 + 22^2 - \dfrac{\pi*0,43^2}{2}L^2_{1/2}(-932,2562) = $$
$$= Var(X) = 2 * 0,1849+484 - 0,3927 * 1187,622 = 0,2499329$$
Assim, o desvio padrão $s$ é dado por
$$s=\sqrt(0,2499329)=0,4999329$$
Agora, vamos calcular os índices de performance do processo.
- Cálculo do Pp
$$P_p = \dfrac{ LSE - LIE }{q_3 - q_1}$$
em que $q_1$ e $q_3$ são os quantis da distribuição Rice com 0,135% e 99,865%, respectivamente.
Dessa forma,
$$P_p = \dfrac{22,5-20,5}{23,096-20,096}=0,6667614$$
- Cálculo do PPS e PPI
$$PPS = \dfrac{LSE - q_2}{q_3-q_2}~~~~~~~~~~~~~~~~~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2-q_1}$$
em que $q_1=$quantil da distribuição Rice com 0,135%, $q_2=$quantil da distribuição Rice com 50% (mediana dos dados) e $q_3=$quantil da distribuição Rice com 99,865%.
Portanto,
$$PPS = \dfrac{22,5-21,5962}{23,096-21,596}=0,6029~~~~~~~~~~~~~~~~~~~~~~~~~~PPI = \dfrac{21,596-20,5}{21,596-20,096}=0,7306$$
- Cálculo do Ppk
$$P_{pk}=min{PPI,PPS}=min{0,7306;0,6029}=0,6029$$
- Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp} < LIE = 1.000.000 \times q_{LIE}~~~~~~~~~~~~~~~~~~PPM_{Esp} > LSE = 1.000.000 \times ( 1 - q_{LSE} )$$
sendo qLIE = quantil da distribuição Rice relativo ao LIE e qLSE = quantil da distribuição Rice relativo ao LSE.
Assim,
$$PPM_{Esp} < LIE = 1.000.000 \times 0,01419397=14.193,97$$
$$PPM_{Esp} > LSE = 1.000.000 \times ( 1 - 0,9647478)=35.252,16$$
$$PPM_{EspTotal}=(PPM_{Esp} < LIE)+(PPM_{Esp} > LSE)=14.193,97+35.252,16=49.446,13$$
- Cálculo do (PPM<LIE) e (PPM>LSE) observados
$$PPM_{Obs} < LIE = 1.000.000 \times \left(\dfrac{\text{Qtde. de Observada} < LIE}{n} \right)$$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} > LSE}{n} \right)$$
Assim,
$$PPM_{Obs} < LIE = 1.000.000 \times \left(\dfrac{0}{50} \right)=0$$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{0}{50} \right)=0$$
$$PPM_{ObsTotal}= (PPM_{Obs} < LIE)+(PPM_{Obs} > LSE)=0+0=0$$
A seguir temos os resultados obtidos pelo software Action
(imagem em falta)
(imagem em falta)
4.2.9 - Análise de performance do processo com a distribuição normal estendida
A variável aleatória X tem distribuição normal estendida com os parâmetros $\sigma^2,\mu_1,\mu_2$ se a sua função densidade de probabilidade for dada por:


Em que,
-
μ1 e μ2 são as médias das distribuições normais que limitam a normal estendida
-
σ é o desvio padrão
(imagem em falta)
Figura 4.2.9.1: Gráfico da função densidade de probabilidade da distribuição normal estendida
(imagem em falta)
Figura 4.2.9.2: Gráfico da função de distribuição acumulada da distribuição normal estendida.
Notação: $X \sim NE(\mu_1,\mu_2,\sigma)$
A esperança de X é dada por:
$$ E[X] = \int_{-\infty}^{\infty} x f(x) dx$$
$$E[X] = \dfrac{1}{\sqrt{2\pi}\sigma+\mu_2 - \mu_1} \times \left\lbrace \int_{-\infty}^{\mu_1} x \exp{ \left[ -\dfrac{1}{2} \left(\dfrac{x-\mu_1}{\sigma}\right)^2 \right]}+\int_{\mu_1}^{\mu_2} x dx + \int_{\mu_2}^{\infty} x \exp{\left[-\dfrac{1}{2}\left(\dfrac{x-\mu_2}{\sigma}\right)^2\right]}\right\rbrace$$
A variância de X é dada por:
$$Var(X) = E[X^2] - (E[X])^2$$
em que,
$$E[X^2] = \int_{-\infty}^\infty x^2 f(x) dx$$
Exemplo 4.2.9.1:
Suponha que uma determinada peça cilíndrica deva possuir 20cm de diâmetro. Os limites, inferior e superior, de especificação são, respectivamente, 19,8cm e 20,2cm. Foram coletadas 9 amostras de tamanho 15 cada. Os dados estão na tabela abaixo.
| 19.781 | 20.039 | 20.108 | 19.887 | 19.973 | 20.044 | 19.829 | 19.975 | 20.128 |
|---|---|---|---|---|---|---|---|---|
| 19.876 | 20.021 | 20.117 | 19.963 | 19.923 | 20.097 | 19.94 | 19.969 | 20.103 |
| 19.954 | 20.016 | 20.14 | 19.942 | 20.038 | 20.107 | 19.922 | 20.024 | 20.094 |
| 19.923 | 19.892 | 20.159 | 19.921 | 20 | 20.125 | 19.877 | 19.982 | 20.055 |
| 19.786 | 20.039 | 20.035 | 19.9 | 20.043 | 20.003 | 19.862 | 19.942 | 20.051 |
| 19.864 | 20.013 | 20.16 | 19.839 | 19.954 | 20.105 | 19.943 | 19.993 | 20.072 |
| 19.94 | 20.04 | 20.151 | 19.929 | 20.016 | 20.134 | 19.876 | 19.908 | 20.052 |
| 19.952 | 20.056 | 20.171 | 19.931 | 19.965 | 20.123 | 19.93 | 20.042 | 20.077 |
| 19.871 | 19.934 | 20.06 | 19.898 | 19.974 | 20.171 | 19.905 | 19.981 | 20.082 |
| 19.961 | 20.012 | 20.143 | 19.924 | 20.026 | 20.114 | 19.871 | 20.053 | 20.116 |
| 19.863 | 20.03 | 19.977 | 19.906 | 20.036 | 20.045 | 19.856 | 20.04 | 20.09 |
| 19.898 | 20.008 | 20.152 | 19.866 | 19.998 | 20.114 | 19.923 | 19.958 | 20.077 |
| 19.929 | 20.074 | 20.056 | 19.845 | 20.07 | 20.038 | 19.916 | 20.041 | 20.065 |
| 19.919 | 19.95 | 20.139 | 19.907 | 19.985 | 20.005 | 19.89 | 20.003 | 20.066 |
| 19.926 | 19.994 | 20.07 | 19.875 | 19.955 | 20.118 | 19.863 | 20.09 | 20.024 |
Tabela 4.2.9.1: Dados
O papel de probabilidades da Figura 4.2.9.1 indica que os dados podem ser melhor ajustados pela distribuição Normal Estendida, o que pode ser confirmado pelo p-valor do teste de Anderson Darling.
(imagem em falta)
(imagem em falta)
Figura 4.2.9.2: Papel de Probabilidades
As estimativas dos parâmetros da distribuição normal estendida são dados por,
$$ \hat{\mu_1} = 19.9, \hat{\mu_2} = 20.1, \hat{\sigma}=0.055 $$
Dessa forma, considerando os seguintes limites de especificação: LIE=19,8 e LSE=20,2
- Cálculo do Pp
$$P_p = \dfrac{LSE - LIE}{q_3 - q_1}$$
em que q1 é o quantil da distribuição Normal Estendida com 0,135% e q3 quantil da distribuição Normal Estendida com 99,865%.
Assim,
$$P_p = \dfrac{20,2-19,8}{20,22703-19,76688} = 0,8692875$$
- Cálculo do PPI e PPS
$$PPS = \dfrac{LSE - q_2}{q_3 - q_2}~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2 - q_1}$$
em que q1 = quantil da distribuição normal estendida com 0,135%, q2 = quantil da distribuição normal estendida com 50% (equivalente ao valor correspondente à mediana dos dados) e q3 = quantil da distribuição normal estendida com 99,865%.
Assim,
$$PPS = \dfrac{20,2 - 19,99696}{20,22703 - 19,99696} =0,8825341 ~~~~~~~~~~PPI = \dfrac{19,99696 - 19,8}{19,99696 - 19.76688} =0,8560414 $$
em que os valores q1 = 19,76688 , q2 = 19,99696 e q3 = 20,22703 podem ser calculados através do Software Action.
- Cálculo do Ppk
$$P_{pk}=\min{PPI,PPS}=\min{0,8560414;0,8825341}=0,8560414$$
- Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp}~<~LIE = 1.000.000 \ast q_{LIE}~~~~~~~~~PPM_{Esp}~>~LSE = 1.000.000 \ast (1 - q_{LSE})$$
sendo qLIE = quantil da distribuição normal estendida relativo ao LIE e qLSE = quantil da distribuição normal estendida relativo ao LSE.
Assim,
$$PPM_{Esp}~<~LIE = 1.000.000 \ast 0,007260785 = 7.260,785$$
$$PPM_{Esp}~>~LSE = 1.000.000 \ast 0,005466887= 5.466,887$$
$$PPM_{EspTotal}=7.260,785+5.466,887=12.727,67$$
Cálculo do (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs}~<~LIE = \left(\dfrac{{Qtde.~de~Obs.}~<~LIE}{n}\right) \ast 1.000.000 = \left(\dfrac{2}{135}\right) \ast 1.000.000 = 14.814,81$$
$$PPM_{Obs}~>~LSE = \left(\dfrac{{Qtde.~de~Obs.}~>~LSE}{n}\right) \ast 1.000.000 = \left(\dfrac{0}{135}\right) \ast 1.000.000 = 0$$
$$PPM_{ObsTotal} = [PPM_{Obs}~<~LIE] + [PPM_{Obs}~>~LSE] = 14.814,81$$
A seguir temos os resultados obtidos pelo Software Action para esse exemplo.
(imagem em falta)
Figura 4.2.9.3: Gráfico de análise de performance do processo
4.2.10 - Análise de perfomance do processo com a distribuição normal mista
Sejam $X_1, X_2, \cdots, X_n$ variáveis aleatórias contínuas com função densidade de probabilidade $p_1, p_2, \cdots, p_n$, respectivamente. Com $p_i \sim N(\mu_i, \sigma^2_i), i=1,\cdots,n$
A função densidade de probabilidade da distribuição normal mista é dada por,
$$f(x) = \sum_{i=1}^n w_i p_i(x) = \sum_{i=1}^n w_i \dfrac{1}{\sigma_i \sqrt{2 \pi} } \exp\left\lbrace\dfrac{-(x-\mu_i)^2}{2\sigma^2_i}\right\rbrace$$
em que $\sum_{i=1}^n w_i = 1$
A função de distribuição é dada por,
$$F(x)=\sum_{i=1}^n w_i \Phi \left( \dfrac{x-\mu_i}{\sigma_i} \right),$$
onde Φ(⋅) é a função de distribuição da N(0,1)
Notação: $X \sim Normal Mista( \boldsymbol\mu, \boldsymbol\sigma^2, \mathbf{w})$,
em que $\boldsymbol\mu= (\mu_1, \mu_2, \cdots, \mu_n)$, $\boldsymbol\sigma^2=(\sigma^2_1, \sigma^2_2, \cdots, \sigma^2_n)$ e $\mathbf{w} = (w_1, w_2, \cdots, w_n)$
(imagem em falta)
Figura 4.2.10.1: Gráfico da função densidade de probabilidade da normal mista
(imagem em falta)
Figura 4.2.10.2: Gráfico da função de distribuição da normal mista
Como vimos em 6.18 - Distribuições mistas, a esperança e a variância da distribuição normal mista são dadas, respectivamente, por
$$E(X) = \sum_{i=1}^n w_i \mu_i$$
$$Var(X) = E[(X-\mu)^2] = \sum_{i=1}^n w_i ((\mu_i-\mu)^2 + \sigma^2_i),$$
em que $w_i$ é o peso associado à componente $p_i, i=1,\cdots,n$, tal que $\sum_{i=1}^n = 1$ e $E(X)=\mu$
Exemplo 4.2.10.1: Analise a performance do processo com os dados da Tabela abaixo. Considere LIE = 7, LSE = 16 e o alvo = 11,5.

Tabela 4.2.10.1: Medidas do exemplo
O papel de probabilidades da Figura indica que o modelo que melhor se ajusta aos dados é o normal misto, o que pode ser confirmado pelo valor-p associado ao teste de Anderson Darling.
(imagem em falta)
Figura 4.2.10.1: Papel de probabilidade
As estimativas dos parâmetros da normal mista são dadas por,
$$\widehat{\mu_1} = 9,43431; \widehat{\sigma^2_1}=0,7700895^2; \widehat{w_1}=0,4851258$$
$$\widehat{\mu_2}=12,63923; \widehat{\sigma^2_2}=1,0850133^2; \widehat{w_2}=0,5148742$$
Desta forma,
$$E[X]=\widehat{\mu}=\sum_{i=1}^2w_i\mu_i=0,4851258\times 9,43431+0,5148742\times 12,63923=11,08444$$
$$Var(X)=\widehat{\sigma^2}=\sum_{i=1}^2 w_i{(\mu_i-\mu)^2+\sigma^2_i}=$$
$$=0,4851258\times{((9,43431-11,08444)^2 + 0,7700895^2)}+0,5148742\times{((12,63923-11,08444)^2+1,0850133^2)}=$$
$$=3,459448$$
O desvio padrão (s) é dado por
$$s=\sqrt{Var(X)}=\sqrt{6,994977}=1,859959$$
Em seguida, vamos encontrar os índices de performance do processo considerando os seguintes limites de especificação: LIE=7 e LSE=16.
- Cálculo do Pp
$$P_p=\dfrac{ LSE - LIE }{q_3 - q_1}$$
em que $q_1$ e $q_3$ são os quantis da distribuição normal mista com 0,135% e 99,865%, respectivamente.
Dessa forma,
$$P_p = \dfrac{16-7}{15,65791-7,291779} = 1,075767$$
- Cálculo do PPI e PPS
$$PPS = \dfrac{LSE - q_2}{q_3-q_2}~~~~~~~~~~~~~~~~~~~~~~~~~~PPI = \dfrac{q_2 - LIE}{q_2-q_1}$$
em que $q_1=$quantil da distribuição normal mista com 0,135%, $q_2=$quantil da distribuição normal padrão com 50% (mediana dos dados) e $q_3=$quantil da distribuição normal padrão com 99,865%.
Portanto,
$$PPS = \dfrac{16-10,76474}{15,65791-10,76474}=1,069912~~~~~~~~~~~~~~~~~~~~~~~~~~PPI = \dfrac{10,76474-7}{10,76474-7,291779}=1,084015$$
- Cálculo do Ppk
$$P_{pk}=min{PPI,PPS}=min{1,084015;1,069912}=1,069912$$
- Cálculo do (PPM < LIE) e (PPM > LSE) esperados
$$PPM_{Esp} < LIE = 1.000.000 \times q_{LIE}~~~~~~~~~~~~~~~~~~PPM_{Esp} > LSE = 1.000.000 \times ( 1 - q_{LSE} )$$
sendo qLIE = quantil da distribuição normal mista relativo ao LIE e qLSE = quantil da distribuição normal mista relativo ao LSE.
Assim,
$$PPM_{Esp} < LIE = 1.000.000 \times 0,0003930211=393,0211$$
$$PPM_{Esp} > LSE = 1.000.000 \times ( 1 - 0,999512)=487,9968$$
$$PPM_{EspTotal}=(PPM_{Esp} < LIE)+(PPM_{Esp} > LSE)=393,0211+487,9968=881,0179$$
- Cálculo do (PPM < LIE) e (PPM > LSE) observados
$$PPM_{Obs} < LIE = 1.000.000 \times \left(\dfrac{\text{Qtde. de Observada} < LIE}{n} \right)$$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{\text{Qtde. de Observada} > LSE}{n} \right)$$
Assim,
$$PPM_{Obs} < LIE = 1.000.000 \times \left(\dfrac{0}{50} \right)=0$$
$$PPM_{Obs} > LSE = 1.000.000 \times \left( \dfrac{0}{50} \right)=0$$
$$PPM_{ObsTotal}= (PPM_{Obs} < LIE)+(PPM_{Obs} > LSE)=0+0=0$$
A seguir temos os resultados obtidos pelo software Action
(imagem em falta)
4.3 - Análise de performance não paramétrica
Algumas vezes nos deparamos com dados que não se encaixam em nenhuma distribuição conhecida (por exemplo a distribuição normal, Weibull, exponencial) e, quando isso acontece dizemos que esses dados são não paramétricos.
Portanto, quando estamos trabalhando com dados não paramétricos não é possível calcular os índices de performance usando uma distribuição conhecida. No entanto, podemos utilizar métodos não paramétricos no cálculo desses índices, como o método do núcleo (Kernel). A seguir vamos discutir como fazer uma análise de performance do processo nessas condições.
4.3.1 - Estimação não paramétrica de densidades: método do núcleo
Em situações que os dados não se ajustam em alguma distribuição conhecida (por exemplo a distribuição normal, Weibull, exponencial, log-normal), utilizam-se técnicas não paramétricas para ajustar uma densidade aos dados. O método de estimação de densidades através de um núcleo (Kernel) é uma técnica não paramétrica para estimação de curvas de densidades no qual cada observação é ponderada pela distância em relação a um valor central, o núcleo. A ideia é centrar cada observação x onde se queira estimar a densidade, uma janela b que define a vizinhança de x e os pontos que pertencem à estimação.
Estimação não paramétrica de Densidade por núcleo (kernel)
O Histograma é a forma mais antiga e utilizada para estimar a função densidade de probabilidade. Dado uma origem $x_0$ e um tamanho de janela $h$ define-se as janelas do histograma pelos intervalos $[x_0 + mh, x_0 + (m+1)h)$ para inteiros positivos e negativos $m$.
$$\widehat{f}(x)=\dfrac{1}{nh}$$
Dada uma função núcleo $K$ não negativa tal que:
$$\int_{-\infty}^{\infty} K(x)dy = 1$$
O estimador do núcleo para função densidade de probabilidade é dado:
$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x-x_i}{h}\right)$$
A função núcleo mais utilizada é denominada núcleo gaussiano e sua função é dada pela distribuição normal padrão:
$$K(x)=\dfrac{1}{\sqrt{2\pi}}e^{-\dfrac{x^2}{2}}$$
Exemplo 4.3.1.1: Dada uma amostra aleatória $X_1,X_2,…,X_{10}$ deseja-se estimar a função densidade não paramétrica utilizando o método de Kernel Gaussiano no intervalo de $[-4;4,05]$ com uma janela de $h=0,35$, ou seja observam-se 24 valores $x$.

Observação Dados
| -4 |
|---|
| -3,65 |
| -3,30 |
| -2,95 |
| -2,6 |
| -2,25 |
| -1,9 |
| -1,55 |
| -1,2 |
| -0,85 |
| -0,5 |
| -0,15 |
| 0,2 |
| 0,55 |
| 0,9 |
| 1,25 |
| 1,6 |
| 1,95 |
| 2,3 |
| 2,65 |
| 3 |
| 3,35 |
| 3,7 |
| 4,05 |
X : [−4,00; 4,05]
Portanto incialmente podemos calcular $\sum_{i=1}^{n}K\left(\dfrac{x-X_i}{h}\right)$
$$\sum_{i=1}^{10}K\left(\dfrac{x_1-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{-4-X_i}{0,35} \right) = 0,008038$$
$$\sum_{i=1}^{10}K\left(\dfrac{x_2-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{-3,65-X_i}{0,35} \right) = 0,079734$$
$$\vdots$$
$$\sum_{i=1}^{10}K\left(\dfrac{x_{24}-X_i}{0,35}\right) = \sum_{i=1}^{10}K\left(\dfrac{4,05-X_i}{0,35} \right) = 0,00000003$$
Assim, pode-se calcular a densidade estimada:
$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_1-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{-4-x_i}{0,35}\right)= 0,0022997$$
$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_2-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{-3,65-x_i}{0,35}\right) =0,022781 $$
$$\vdots$$
$$\widehat{f}(x)=\dfrac{1}{nh} \sum_{i=1}^{n} K\left(\dfrac{x_{24}-x_i}{h}\right) =\dfrac{1}{3,5} \sum_{i=1}^{10} K\left(\dfrac{4,05-x_i}{0,35}\right) =0,00000001$$
Depois de estimada a densidade, segue-se com a análise de porformance de forma usual.
Exemplo 4.3.1.2
Acompanhamos a medição de torque do parafuso de fixação das rodas do terceiro eixo do lado direito do ônibus . A cada duas horas, um especialista da qualidade realiza a medição do torque do parafuso em cinco eixos. Os limites de especificação para essa peça são: LSE = 720 e LIE = 480. Avaliar a capacidade e performance do processo.
| Coleta de dados | |||||
|---|---|---|---|---|---|
| Subgrupo | X1 | X2 | X3 | X4 | X5 |
| 1 | 623,00 | 589,00 | 618,00 | 620,00 | 613,00 |
| 2 | 618,00 | 604,00 | 594,00 | 618,00 | 606,00 |
| 3 | 637,00 | 584,00 | 608,00 | 608,00 | 608,00 |
| 4 | 618,00 | 635,00 | 618,00 | 630,00 | 608,00 |
| 5 | 587,00 | 606,00 | 604,00 | 616,00 | 608,00 |
| 6 | 608,00 | 601,00 | 601,00 | 606,00 | 580,00 |
| 7 | 599,00 | 589,00 | 664,00 | 618,00 | 728,00 |
| 8 | 584,00 | 637,00 | 599,00 | 628,00 | 606,00 |
| 9 | 584,00 | 606,00 | 587,00 | 584,00 | 620,00 |
| 10 | 623,00 | 632,00 | 604,00 | 580,00 | 601,00 |
| 11 | 589,00 | 611,00 | 599,00 | 592,00 | 589,00 |
| 12 | 592,00 | 726,00 | 580,00 | 589,00 | 618,00 |
| 13 | 604,00 | 613,00 | 599,00 | 611,00 | 599,00 |
| 14 | 611,00 | 596,00 | 611,00 | 580,00 | 613,00 |
| 15 | 589,00 | 709,00 | 592,00 | 625,00 | 687,00 |
| 16 | 628,00 | 592,00 | 608,00 | 637,00 | 656,00 |
| 17 | 606,00 | 584,00 | 604,00 | 592,00 | 620,00 |
| 18 | 613,00 | 604,00 | 618,00 | 592,00 | 584,00 |
| 19 | 596,00 | 587,00 | 613,00 | 618,00 | 592,00 |
| 20 | 581,00 | 604,00 | 580,00 | 611,00 | 613,00 |
| 21 | 608,00 | 623,00 | 604,00 | 584,00 | 606,00 |
| 22 | 616,00 | 599,00 | 616,00 | 714,00 | 611,00 |
| 23 | 632,00 | 618,00 | 611,00 | 584,00 | 592,00 |
| 24 | 620,00 | 587,00 | 580,00 | 613,00 | 608,00 |
| 25 | 608,00 | 582,00 | 599,00 | 604,00 | 604,00 |
Tabela 9.13: Fixação das rodas do terceiro eixo lado direito - Mercedes-Benz.
Observando o papel de probabilidade a seguir vemos que os dados não seguem nenhuma distribuição conhecida testada.
(imagem em falta)
(imagem em falta)
Figura 4.3.1.3: QQplot.
Portanto, vamos utilizar o método do núcleo (Kernel) para fazer uma análise de performance do processo.
A seguir temos os resultados obtidos pelo Software Action para esse exemplo.
(imagem em falta)
(imagem em falta)
(imagem em falta)
Figura 4.3.1.4: Gráfico da análise de performance do processo - Método do núcleo.