Sie sind auf Seite 1von 153

CURSO DE CONFIABILIDAD P. REYES / DIC.

2006

CURSO DE CONFIABILIDAD

Elaboró: Dr. Primitivo Reyes Aguilar

Diciembre de 2006

Página 1
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

CONTENIDO

1. Introducción a la confiabilidad

2. Distribuciones de probabilidad

3. Modelos de distribuciones de probabilidad para el tiempo


de falla

4. Estimación de parámetros del modelo

5. Determinación de la confiabilidad

6. Pruebas de vida aceleradas

7. Confiabilidad de sistemas

8. Mantenabilidad y disponibilidad

Página 2
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

MÉTODOS DE CONFIABILIDAD
INTRODUCCIÓN

Los Requerimientos de confiabilidad se establecen en la fase desarrollo de


ingeniería. Las actividades pueden incluir: colección de datos, análisis de fallas,
acciones correctivas y establecimiento de metas de confiabilidad. En las fases
de verificación y validación del diseño, se realizan actividades de control para
asegurar que se cumplan los requerimientos de confiabilidad establecidos. Los
datos de falla son analizados estadísticamente y se enfatiza el proceso de
planeación.

Fuentes de confiabilidad

Para establecer los requisitos de confiabilidad se pueden utilizar algunas de las


siguientes fuentes:

 Internas
o Políticas corporativas y organizacionales
o Sistemas de colección de datos para confiabilidad
o Metas de diseño de confiabilidad del producto
o Predicción de la confiabilidad
o Procedimientos de prueba de la confiabilidad
 Externas
o APQP
o Programas de confiabilidad para sistemas y equipos – MIL-STD-
785
o Kit de herramientas de la confiabilidad de la USAF
o Requerimientos del consumidor sobre la confiabilidad del
producto
o Evaluación del desempeño de confiabilidad de la competencia
o Diagrama de flujo detallado del programa de confiabilidad
 Algunos web sites relacionados con la confiabilidad son:
o American National of Standards Association - ANSI www.ansi.org
o American Society for Qaulity - ASQ www.asq.org
o Automotive Industry Action Group - AIAG www.aiag.org
o Internacional Organization for Standarization – ISO www.iso.ch
o Society of Automotive Engineers www.sae.org
o Thoery of Inventive Problem Solving – TRIZ
www.personal.engin.umich.edu/ gmasur/triz/
o Formato de colección de datos de garantía – TMC
www.truckline.com
o Weibull www.barringer1.com/ www.weibullnews.com
www.reliasfot.com

Página 3
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

CONCEPTO

Planeación de la confiabilidad

Su propósito es ser proactivo anticipándose y verificando modos de falla y sus


causas en la fase de planeación del diseño, donde es más efectivo atender y
resolver los problemas, en lugar de apagar fuegos para resolver los problemas
solo después de que han aparecido.

Desarrollo del Programa de confiabilidad

El programa debe utilizarse como línea base que permita a los ingenieros de
aplicación determinar la profundidad y amplitu de acuerdo a las necesidades.

Función der Despliegue de Calidad (QFD)

Es un proceso que desarrolla una presentación visual de cómo se realizan las


interacciones del sistema de valores del cliente (voz del cliente) con relación al
diseño, proceso de desarrollo de ingeniería, y proceso de manufactura del
producto.

Benchmarking

Es un proceso de medición y comparación continua del desempeño de los


procesos de una organización, contra los de otras organizaciones, a nivel
global, para obtener información de prácticas, procesos, y métodos que ayuden
a la organización a mejorar su desempeño. Pueden incluir organizaciones
dentro y fuera del sector industrial.

Análisis y gestión del riesgo

Es un método proactivo que identifica si todos los recursos de la planeación,


desarrollo, y gestión del proyecto son adecuados para cumplir con los
requerimientos del proyecto. Permite que las consecuencias adversas se
resuelvan hasta un punto en que no tengan impacto significativo en el logro del
proyecto.

Diseño para Seis Sigma (DFSS)

Es un proceso que identifica, documenta, y asegura que los requerimientos de


los clientes internos y externos, sean comprendidos e integrados en la solución
de un producto o servicio. También ayuda a definir los atributos que los clientes
consideran “Críticos para la Calidad” (CTQs).

Metas de confiabilidad

Las metas se establecen en la fase de desarrollo del concepto, con base en la


voz del cliente por medio de QFD, DFSS, e historial de fallas.

Página 4
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

DISEÑO DE INGENIERÍA

Después de definir las metas de confiabilidad. Se identifican los problemas en


estas etapas tempranas y se corrigen antes de la producción masiva. La clave
es agregar la dimensión del tiempo mientras los productos están expuestos a la
posibilidad de falla, esto requiere probar en ambientes reales y simulando el
uso real del cliente.

Entre las herramientas disponibles se tienen: FRACAS, Diagramas de bloques


de confiabilidad, Análisis de degradación, Análisis de árbol de falla, Análisis de
criticalidad de riegos, Revisiones de diseño, De-gradación, HLAT/HAST, FMEA
de diseño, Modelo de crecimiento de la confiabilidad, y Análisis de datos de
vida de Weibull.

Sistema de Reporte de fallas, su análisis, y acción correctiva (FRACAS)

Es un sistema de bucle cerrado para iniciar el reporte, el análisis de fallas, y


retroalimentar acciones correctivas dentro del diseño, fabricación, y procesos
de prueba para promover la mejora de la confiabilidad a través del ciclo de vida
del producto.

Diagramas de bloque de confiabilidad

Indica las relaciones funcionales de confiabilidad entere componentes de un


ensamble y entre ensambles de un sistema. Las representaciones más
comunes son las relaciones en serie y las relaciones en paralelo. Los sistemas
complejos se pueden modelar combinando las relaciones serie y paralelo.

La combinación de confiabilidad en serie entre partes, representa la situación


donde todos los componentes necesitan funcionar correctamente para que el
ensamble funcione correctamente, si una parte falla, falla el sistema. Una
relación en serie es descrita con bloques conectados en serie.

Confiabilidad en serie de A y B = R(A) * R(B)

La confiabilidad en paralelo entre partes representa la situación donde


justamente una de las partes necesita funcionar adecuadamente para que le
ensamble funcione correctamente. La relación paralela es descrita como
bloques compartiendo las mismas entradas y salidas.

Confiabilidad en paralelo de A y B = 1 – [(1-R(A)) * (1-R(B))]

Análisis de degradación

Proporciona una estimación de de los modos de falla de componentes a largo


plazo que no pueden ser fácilmente duplicados en pruebas. Estos efectos
toman un largo tiempo en aparecer y normalmente pueden ser atendidos
revisando los datos históricos de confiabilidad y garantías de productos o
componentes similares.

Página 5
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Análisis de árbol de fallas (FTA)

Los eventos catastróficos o significativos pueden requerir un análisis de árbol


de falla (FTA), que inicia con el evento significativo (en la parte superior), e
identifica causas asociadas intermedias (en medio) y finalmente las causas raíz
(en la parte inferior). Se pueden asociar probabilidades con cada evento
relevante en la estructura de árbol y combinando las probabilidades se
proporciona una forma de calcular la probabilidad de que ocurra el evento en la
parte superior.

Un FTA es un subconjunto de los eventos descritos en un análisis de FMEA.


Sólo los eventos que pueden causar el evento significativo se incluyen en el
árbol de fallas.

Análisis de criticalidad de riesgo

La asignación de categorías de criticalidad y probabilidades asociadas a cada


una de las posibilidades falla proporciona un análisis completo de riegos. Esto
normalmente se combina con el análisis de FMEA.

Un conjunto típico de categorías de criticalidad puede ser:

 Categoría 4: catastrófica – causa de muerte, falla en un sistema de


seguridad o falla en un sistema complejo
 Categoría 3: significativa – tal como accidente humano reportable OSHA
o périda mayor de parte de un sistema de seguridad
 Categoría 2. Menor – tal como interrupción temporal de un sistema no
relacionado con la seguridad
 Categoría 1 – Despreciable – tal como una indicación espuria de luces
indicadoras o bocinas.

Revisiones de diseño

Las revisiones de diseño preliminares (PDR) y revisión crítica de diseño (CDR)


coordinan los esfuerzos y reenfocan las prioridades.

La PDR se puede realizar después de que se termina el diseño conceptual.

La CDR se puede realizar después de que el diseño detallado está terminado y


antes de la manufactura, atendiendo los problemas de manufactura y
mantenabilidad.

Análisis de De-rating

Arroja resultados para proporcionar un factor de seguridad suficiente entre el


esfuerzo de la parte y su capacidad real. Los componentes protegidos con este
factor de seguridad se espera que tengan una vida más larga.

Página 6
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Prueba de vida altamente acelerada (HALT)

Es una reproducción personalizad del ambiente real en el que el producto será


utilizado, donde puede ocurrir una falla en la vida relevante del producto. Sus
resultados pueden ser analizados por técnicas estadísticas, tales como los
análisis con las distribuciones de Weibull / log normal, junto con el
conocimiento del factor de aceleración para formar la base de predicción del
comportamiento en el campo.

El factor de aceleración es la razón del tiempo de vida en un ambiente real de


servicio al tiempo de vida de prueba.

A = factor de aceleración = Tiempo de vida en un ambiente de servicio real /


Tiempo de vida de prueba. Es más tardado que HAST.

Prueba de esfuerzo altamente acelerado (HAST)

Sobre esfuerzo del producto para inducirle fatiga, que causa falla y revela
debilidad, tiene la desventaja que las debilidades del producto pudieran no
ocurrir en la vida útil del producto.

Diseño para manufactura y ensamble (DFMA) / Metodlogía de integración


de sistema

La integración de sistemas en producción pueden ocasionar fallas que no se


presentan con componentes simples. Tales posibilidades deben ser
consideradas en el diseño preliminar. Los errores humanos tales como fallas en
ensamble pueden mitigarse con DFMA.

Análisis del Modo y Efecto de Falla de Diseño (FMEA)

Este método lista cada de una las partes funcionales en su nivel más bajo e
incluye todos los ensambles mayores. Es una auditoría de las posibilidades de
falla y las consecuencias de esas fallas en el siguiente nivel de ensamble.

Modelado del crecimiento de la confiabilidad

Los modelos de AMSAA (Duane) y otros modelos de crecimiento de la


confiabilidad llevan seguimiento de cambios de la confiabilidad en el tiempo.

Análisis de datos de tiempo de vida de Weibull

Con Weibull se pueden medir los tipos de datos siguientes:

 “Datos estándar” – todos los tiempos de falla y suspensión son


conocidos.
 “Modos de falla mezclados o en competencia” – las fallas y tiempos de
suspensión son conocidos pero los modos de falla son desconocidos.

Página 7
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 “Datos de intervalo, datos agrupados, o de inspecciones no destructivas”


– el tiempo de falla exacto no es conocido – solo el intervalo en el cual
ocurrío la falla es conocido.
 “Datos de inspección destructiva o quantiles” – cada observación es falla
o censurada.

VERIFICACIÓN Y VALIDACIÓN DEL DISEÑO

Como resumen de planeación y realización de actividades de pruebas con


objeto de asegurar que el diseño cumple con los requerimientos de
confiabilidad. Las disciplinas de solución de problemas son importantes para
identificar y resolver los modos de falla durante las pruebas.

Plan de verificación del diseño y reporte (DVP&R)

El plan describe el método de la actividad de prueba tanto para la verificación


como para la validación. El plan identifica el número y tipo de aspectos a ser
probados y los criterios para certificar que los resultados son aceptables.

Las estrategias de prueba consideran prueba por atributos versus variables y


tiempo versus truncado de fallas. Las pruebas pueden realizarse con o sin
reemplazo de artículos con falla. Se incluye la determinación estadística del
tamaño de muestra requerida para llegar a una decisión acerca de la hipótesis
nula establecida e intervalo de confianza.

Pruebas de confiabilidad

Las pruebas determinan la capacidad de un producto para cumplir con los


requerimientos de confiabilidad, sujetando al producto a un conjunto de
pruebas físicas, químicas, ambientales, o de condiciones de operación. Una
prueba de confiabilidad mide tanto la confiabilidad como la confianza bajo
diversas condiciones.

La información obtenida de estas pruebas se utiliza para estimar la


confiabilidad alcanzable dentro de los intervalos de confianza especificados.
Los resultados se comparan con las metas como base para toma de acciones
correctivas para mejorar la confiabilidad.

Entre las pruebas utilizadas para detectar modos de falla se encuentran:


pruebas funcionales, ambientales, aceleradas, de quemado, y confiabilidad en
vida útil.

Pruebas aceleradas

Las pruebas aceleradas se utilizan para recrear modos de falla conocidos o


conceptualizados en le laboratorio, acortando el tiempo de prueba al exponer al
producto a condiciones más severas de operación o ambientales que las
normales de uso.

Página 8
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Técnicas de Shanin©

SU proceso de prevención se enfoca a identificar y eliminar enlaces débiles de


alto riesgo antes de la manufactura del producto, se hace en tres etapas:

 Comprensión de cómo se diseña el producto para su función y como


puede fallar en esa función.
 La confirmación de la relación entre las especificaciones del producto y
las tolerancias de manufactura.
 Se aplican métodos de prueba acelerados y de sobre esfuerzo para
asegurar la confiabilidad del producto.

Diseño experimentos (DOE)

El DOE se refiere a la planeación, realización, análisis e interpretación de


pruebas controladas, para evaluar los factores que controlan el valor de un
parámetro o grupo de parámetros.

La lista siguiente identifica conceptos que pueden ser considerados para


diseñar experimentos efectivos:

 Conceptos estadísticos de DOE


 Pruebas de hipótesis
 Modelado de medias y desviaciones estándar
 Tipos de respuestas – variables y atributos
 Tamaños de muestra y potencia
 Experimentos simples comparativos
 Experimentos de un factor
 Bloques aleatorizados, Cuadrados latinos y diseños relacionados
 Diseños factoriales y fraccionales de dos niveles
 Bloqueo
 Alias / confusión
 Resolución
 Experimentación secuencial / Desaliasing / Diseños desdoblados
 Diseño factoriales y fraccionales de tres niveles y niveles mezclados
 Diseño anidados
 Ajuste de modelos de regresión
 Métodos de superficie de respuesta
 Diseños de Taguchi
 Determinación de la muestra para diferencias discriminantes
 Necesidad de aleatorización y métodos
 Características experimentales de diseño
 Análisis de correlación y regresión
 Análisis de varianza
 Diseños factoriales completos y fraccionales
 Operación evolutiva (EVOP)

Página 9
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

VERIFICACIÓN Y VALIDACIÓN DEL PROCESO

Muchos de los métodos de verificación y validación del diseño también se


aplican a los procesos. Con lo problemas típicos de arranque como falta partes,
errores humanos y cambios en los requerimientos de los clientes requiere que
el desempeño del producto se pruebe en lotes pequeños.

Plan de verificación y reporte (PVP&R

El propósito es identificar cambios sistémicos que puedan resultar de


variaciones en el proceso durante la transición de diseño a producción. Se
toman unidades de la producción piloto para su validación y verificación en
confiabilidad y durabilidad de acuerdo a especificaciones. Las diferencias
pequeñas pueden impactar significativamente la confiabilidad del producto.

Análisis del modo y efecto de falla de proceso (PFMEA)

Identifica aspectos de alto riesgo en el proceso de manufactura y se hace una


vez completado el FMEA de diseño. Cualquier número de prioridad de riesgo
(RPN) que no pueda ser resuelto por el equipo de manufactura o
modificaciones al proceso o a prueba de error, debe considerarse para prueba.

Otras técnicas para mejorar la confiabilidad

Otros métodos de apoyo son:

 Proceso de aprobación de partes para producción – PPAP


 Análisis de sistemas de medición – MSA
 Etc.

MONITOREO DESPUÉS DEL LANZAMIENTO / MEJORA

Incluye tres áreas diferentes:

 Colección de datos en campo


 Técnicas analíticas para interpretar los datos
 Distribución de los resultados de análisis a las diferentes áreas de la
organización

Colección de datos

Incluyen:
 Datos de reclamaciones en garantía, es necesario un filtraje perceptual
de esta información
 Análisis de partes con falla en campo, se requiere un árbol de decisión
para determinar quien debe estar involucrado en el análisis (laboratorio,
proveedor, etc.)

Página 10
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Filtrado de esfuerzo ambiental, para componentes electrónicos con


pruebas de quemado se eliminan las fallas de ensamble e infantiles.
 Identificación de problemas potenciales en campo, “hotlines”.
 Reporteo por Internet
 Resultados de pruebas en campo (mejora de partes / durabilidad),
encontrar usuarios que se presten a las pruebas.

RESUMEN

Los diseños se crean o mejoran utilizando el historial de fallas, expectativas de


los clientes, y demandas externas (gubernamentales y de limitación de
recursos). Los diseños se prueban antes de hacer las partes y también se
prueban con pruebas físicas. Después se verifican y validan los diseños y los
procesos de manufactura. Se introduce el producto al mercado y se evalúa que
tan bueno es realmente. La experiencia real “en las manos del cliente o
usuario” se usa para ayudar a desarrollar la siguiente generación de productos.
El ciclo se repite una y otra vez.

Página 11
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Pasos para el análisis de datos de vida

Rama principal

1. Identificar el tipo de datos “¿Qué tipo de datos se tienen?”

2. “Datos estándar” – si se conocen todos los tiempos de falla y todos los


tiempos de suspensión. Pruebas controladas o datos de garantías. Ir a rama A.

3. “Modos de falla en competencia o mezclados” – no se conocen los modos de


falla o no se sabe si los modos de falla son iguales. Los datos de garantías
caen en este grupo. Ir a rama B.

4. “Datos por intervalo, datos agrupados, o datos de pruebas no destructivas”-


se presentan cuando las inspecciones se hacen en varios puntos en el tiempo y
las fallas se encuentran solo durante esas inspecciones, el tiempo de falla
exacto no se conoce, solo el intervalo en que ocurrió. Las garantías
contabilizadas por mes caen en esta categoría. Ir a rama C.

5. “Datos de inspecciones destructivas o quantiles” – son datos donde una


pieza sólo se inspecciona una vez. Cada observación es falla o censurada
(como las pruebas de bombas). Ir a rama D.

Rama A (datos estándar)

6. ¿Se tienen cero fallas en los datos?

7. Si lo anterior sucede, el único análisis que se puede hacer es el de


Weibayes. Se puede seleccionar una pendiente basada en experiencias
previas con modos de falla esperados. Se usa para probar si se ha eiliminado
un tipo de falla.

8. ¿Se tiene una falla?

9. ¿Se tienen suspendidos posteriores?, un suspendido posterior es una unidad


que no ha fallado y que ha funcionado más tiempo que las unidades con falla.

10. Si hay una falla y cero suspendidos, usar Weibayes. Se debe conocer el
número de unidades que hay y que tanto duraron. Se debe hacer una
suposición de la pendiente para usar Weibayes, en base a experiencias previas
o conocimiento del mecanismo de falla.

11. Si hay suspendidos, ¿se tiene un buen conocimiento de la pendiente?

12. Si hay confianza en la pendiente usar Weibayes como lo indica el punto 10.

13. Si no hay confianza acerca del conocimiento de la pendiente, usar MLE?

14. ¿Se tienen más de una falla pero menos de 10 fallas?

Página 12
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

15. Con dos a nueve fallas, ¿se tiene un buen conocimiento de la pendiente?
Un buen conocimiento de la pendiente puede ser el conocimiento en base a
experiencias previas, datos de la biblioteca de Weibull, o conocimiento del
mecanismo de falla.

16. Si se está satisfecho con el conocimiento de la pendiente con el


conocimiento en base a experiencias previas, datos de la biblioteca de Weibull,
o conocimiento del mecanismo de falla, se puede usar Weibayes.

17. Si no se está satisfecho con el conocimiento de la pendiente, ajustar un


modelo de dos parámetros de Weibull con una regresión de rango de medianas
de X sobre Y.

18. Ajustar un modelo de estimación de máxima verosimilitud (MLE) por medio


del ajuste reducido de sesgo (RBA).

19. ¿Los modelos de ajuste en pasos 17 y 18 parecen razonables con base en


el conocimiento de las fallas?

20. Si el modelo en 19 no parece razonable, usar Weibayes con el


conocimiento en base a experiencias previas, datos de la biblioteca de Weibull,
o conocimiento del mecanismo de falla.

21. ¿Los modelos en 17 y 18 están en acuerdo razonable?

22. Si los modelos en 17 y 18 concuerdan razonablemente, usar el más


conservador de los dos modelos.

23. Si los modelos en 17 y 18 no tienen un acuerdo razonable, considerar la


posibilidad de problemas de lote. Hay varios indicadores a buscar: 1) ¿es el
límite inferior del intervalo de confianza para el riesgo presente mayor al
número de fallas observadas? 2) ¿es la pendiente MLE menor que la pendiente
de la regresión de rango de medianas? 3) ¿la función acumulada agregada de
falla indica un efecto de lote?

La rama A1 inicia aquí:

24. ¿se tienen entre 10 y 20 fallas?

25. Si hay entre 10 y 20 fallas, ajustar con un modelo de dos parámetros de


Weibull con una regresión de rango de medianas de X sobre Y.

26. ¿Es adecuado el ajuste anterior? Considerar el coeficiente de correlación


crítico y el coeficiente crítico de determinación.

27. Si el ajuste es aceptable, usar la regresión de rango de medianas de X


sobre Y.

28. Ajustar un modelo de 2 parámetros con la regresión de rango de medianas


de X sobre Y.

Página 13
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

29. ¿Es adecuado el ajuste anterior? Considerar el coeficiente de correlación


crítico y el coeficiente crítico de determinación.

30. Utilizar el modelo de 2 parámetros con la regresión de rango de medianas


de X sobre Y.

31. Si hay más de 20 fallas. Realizar un análisis de la distribución para


identificar la que mejor ajuste a los datos.

32. ¿Se identificó una distribución que ajuste adecuadamente? Considerar el


coeficiente de correlación crítico y el coeficiente crítico de determinación.

33. ¿Desea verificar el resultado de la regresión por rango de medianas con el


MLE?

34. Usar el modelo de regresión por rango de medianas de 32.

35. Ajustare el modelo MLE para la mejor distribución encontrada en 32.

36. ¿Concuerdan los modelos de regresión y MLE?

37. Si concuerdan, utilizar el modelo más conservador.

38. Si no concuerdan, ¿se tienen más de 100 fallas?

39. Si se tienen más de 100 fallas utilizar el modelo MLE.

40. Si se tienen menos de 100 fallas, usar el resultado de la regresión por


rango.

41. Si el ajuste no es aceptable, verificar si hay mezcla de modos de falla.

Aquí inicia la rama B

42. ¿se pueden separar los modos de falla mezclados? Requiere un análisis de
las partes con falla.

43. Si se pueden separa los modos de falla, ir a paso 2 y realizar el análisis


para cada uno de los modos de falla. En el análisis, considerar las fallas de
otros modos como suspensión.

44. ¿Se pueden separar los modos de falla estadísticamente?

45. Si se pueden separar los modos de fallas estadísticamente, usar estos


resultados e ir al paso 2 y realizar el análisis para cada uno de los modos de
falla. En el análisis tratar los otros modos de falla como suspendidos.

Página 14
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

46. Si no se pueden separar los modos de falla ¿se desea predecir el tiempo
de vida con base en tiempo de prueba / calendario o antigüedad de las
unidades?

47. Si se quiere predecir la vida con base en la antigüedad de las unidades,


usar Kaplan Meir.

48. Si se quiere predecir la vida con base en tiempo de prueba o de calendario,


usar Crow-AMSAA-Duane.

La rama C inicia aquí

49. ¿se tiene fallas benignas que se encuentran solo en la inspección?

50. Cuando se encuentran estas fallas, ajustar un modelo al punto máximo del
intervalo de datos.

51. ¿se inspecciona el mismo número de unidades y se usa el mismo intervalo


para todas las inspecciones?

52. Si no se inspecciona el mismo número de unidades, ¿se usa el mismo


intervalo de inspección para todas las inspecciones?

53. Usar el método de intervalo MLE.

54. Usar Probit.

55. Usar Kaplan Meir

Aquí inica la rama D

56. Usar Probit

Método WeiBayes

Es un término acuñado por el Dr. Bob Abernethy para el análisis de Weibull


cuando se selecciona el parámetro de la pendiente de antremano, con relación
al supuesto Bayesiano. El Dr. Abernethy se refiere a esta técnica como Weibull
de un parámetro dado que uno de los dos parámetros de Weibull ya está
seleccionado. Este método basado en la máxima verosimilitud proporciona
respuesta a preguntas difíciles con relación a la mejora del producto y
comparaciones de diseño.

Su uso es posible sin requerir la prueba a falla, lo cual puede ser tardado y
costoso. La situación de no falla produce un límite de confianza más bajo para
la vida característica, reduciéndose a un punto estimado.

Página 15
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

MÉTODOS DE CONFIABILIDAD

Página 16
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Contenido

Introducción y relación con el APQP


1. Prueba de vida acelerada
2. Benchmarking
3. Análisis de degradación
4. Diseño para manufactura y ensamble
5. Diseño de experimentos
6. Revisión de diseño **
7. Selección del diseño y optimización
8. Identificación temprana de problemas
9. Selección por esfuerzo ambiental
10. A prueba de error / detección de falla / Poka Yokes
11. FMEA
12. Reporte de falla, análisis y sistema de acción correctiva (FRACAS)
13. Análisis de árbol de falla
14. Análisis de elemento finito
15. Diagrmas de bloque funcionales
16. Pruebas de vida altamente acelerada (HALT) / Selección por esfuerzo
(HASS)
17. Análisis de costo de ciclo de vida
18. Análisis de datos de vida
19. Análisis de sistemas de medición (MSA)
20. Análisis Multivari
21. Diagramas de parámetros
22. Derating de partes
23. Solución de problemas – análisis de causa raíz
24. Estudios de capacidad de procesos
25. Mapeo de procesos
26. Especificaciones de desempeño del producto **
27. Plan de confiabilidad del producto **
28. Tablero de control del producto
29. Proceso de aprobación de partes de producción (PPAP)
30. Despliegue de la función de calidad (QFD)
31. Modelo de asignación de confiabilidad **
32. Diagramas de bloque de confiabilidad
33. Mantenimiento centrado en confiabilidad
34. Modelado de crecimiento de la confiabilidad (Crow/AMSAA)
35. Predicción de confiabilidad
36. Análisis de seguridad en peligros
37. Análisis de circuitos
38. Análisis del software
39. Características especiales
40. Tolerancias estadísticas
41. Diseño robusto de taguchi
42. Planes y reportes de pruebas **
43. Bases de datos de garantías
44. Análisis de Weibull
45. Análisis del peor caso.

Página 17
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

MÉTODOS DE CONFIABILIDAD

Introducción y relación con el APQP

Las herramientas y actividades clave relacionadas con el APQP para hacer


productos más confiables se indican a continuación:

FASE I. PLANEACIÓN

 Determinar las necesidades de confiabilidad del mercado y las


expectativas.
 Identificar las métricas clave de confiabilidad que serán aplicadas al
producto, con la definición adecuada de “falla” relacionada con cada
métrica.
 Desarrollar metas cuantitativas de confiabilidad del producto para cada
métrica.
 Caracterizar, en términos medibles, el perfil operativo y ambiental del
producto.
 Asignar las metas de confiabilidad, perfil de operación, y ambiental a los
principales subsistemas y componentes del producto.
 Realizar un estudio de factibilidad del concepto inicial del diseño contra
metas de confiabilidad.
 Compara el costo beneficio orientado a la confiabilidad asociado a
alternativas de diseño.
 Preparar los programas de confiabilidad y presupuestos asociados.

El cliente puede no especificar las metas de confiabilidad, en todo caso el


proveedor debe establecerlas como sigue:

 Una meta mejorada sobre el desempeño pasado del producto.


 Benchmarks competitivos.
 Límites deseables para la exposición del producto a riesgos de garantía.
 Encuestas de satisfacción y lealtad de clientes.

La información para los planes de confiabilidad puede venir de fuentes como


son:

 Datos de mantenimiento de campo


 Datos de planes de prueba anteriores
 Encuestas de clientes
 Clínicas de clientes / grupos de enfoque
 Visitas a las instalaciones del cliente
 Entrevistas en exposiciones
 Análisis de los datos reales de garantías
 Requerimientos obligatorios del gobierno
 Benchmarks competitivos de producto
 Requerimientos / especificaciones del cliente

Página 18
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Fase primaria 1 Objetivos de confiabilidad

Los tres principales objetivos de la actividad de confiabilidad durante la fase de


planeación son:

1. Definir requerimientos, se incluyen aspectos de mantenabilidad y de


disponibilidad (uptime).

2. Identificar y mitigar el riesgo, usar información histórica de fallas.

3. Planear el proyecto de confiabilidad

FASE 2 DISEÑO y DESARROLLO DEL PRODUCTO

El objetivo es asegurar que los productos nuevos, cumplan o excedan las


expectativas de confiabilidad del cliente.

Entradas:

 Metas generales de confiabilidad del diseño


 Plan del programa de confiabilidad del producto
 Diagramas de bloques funcionales
 Predicciones de confiabilidad a nivel del sistema
 Definiciones del perfil ambiental y de uso
 Metas de costo de ciclo de vida
 Metas y riesgos de costos de garantía
 Lista de materiales preliminar
 Diagrama de flujo del proceso preliminar
 Plan preliminar de crecimiento de la confiabilidad

Actividades de confiabilidad:

 Especificaciones de desempeño del producto (subsistemas y


componentes)
 Modelo de asignación de confiabilidad a ensambles, subensambles, y
componentes.
 Predicción de la confiabilidad
 DFMEA
 DFM/A
 Selección y optimización del diseño
 DOE enfocado a la confiabilidad
 Pruebas de vida aceleradas
 Planes y repoirtes de prueba
 Características especiales
 Análisis de costo del ciclo de vida
 Planeación y gestión del crecimiento de la confiabilidad
 Solución de problemas, análisis de causas raíz
 Sistema de reporte de fallas, análisis y acción coreectiva (FRACAS)
 Análisis de Weibull

Página 19
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Análisis de datos de vida


 Análisis de árbol de falla (FTA)

Salidas:

 Predicciones de confiabilidad
 DFMEA
 Estimación del costo del ciclo de vida
 Estimación de costos de garantía
 Revisiones de diseño
 Verificaciones de diseño
 Plan de validación de diseño
 Plan de crecimiento de confiabilidad
 DFM/A
 Plan de control de prototipo
 Dibujos de ingeniería con cálculos
 Especificaciones de ingeniería
 Requerimientos de confiabilidad y garantía de proveedores
 Lista de materiales final
 Requerimientos de nuevos equipos, herramentales e instalaciones
 Características especiales del proceso o producto
 Requerimientos de equipo e instrumentos de prueba

FASE 3. DISEÑO Y DESARROLLO DEL PROCESO

Define y reduce los riesgos de confiabilidad asociados con el proceso de


manufactura. Se realiza en forma concurrente con la fase 2.

Objetivos primarios de la fase 3:

1. Definir un proceso de manufactura que optimice la confiabilidad inherente del


producto

2. Asegurar el control de las características críticas de manufactura

Entradas:

Adicionales a las salidas de la fase 2 se incluye lo siguiente:

 Resultados del DFMEA


 Listado de características críticas
 Lista de materiales preliminar
 Especificaciones y dibujos de ingeniería
 Requerimientos de equipos e instrumentos de medición y prueba
 Soporte de la dirección al comité de factibilidad

Actividades de confiabilidad:

 Mapa de proceso
 PFMEA de proceso

Página 20
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Características especiales
 Estudios de capacidad de proceso
 Análisis del sistema de medición
 DFM/A
 Selección del diseño y optimización
 Revisiones de diseño
 DOE para proceso
 Diseño robusto de Taguchi
 Análisis Multivari
 Solución de problemas – análisis de causa raíz
 A prueba de error / Poka Yokes
 FRACAS
 Análisis de datos de vida
 Plan y reporte de prueba

Salidas:

 Layout final
 Instructivos de operación por estación
 Plan de control del prelanzamiento
 Requerimientos de confiabilidad / garantía de proveedores
 Selección de proveedores
 Plan de aseguramiento de calidad de proveedores
 Requerimientos de nuevos equipos, herramentales e instalaciones
 Requerimientos de equipos e instrumentos de medición y prueba
 Evaluaciones de materiales en recibo y de producto embarcado

FASE 4. VALIDACIÓN DE PRODUCTO Y PROCESO

Se enfoca a probar que tanto el producto como el proceso de manufactura son


capaces de cumplir con los requerimientos incluyendo los de confiabilidad del
producto y capacidad del proceso. Es un paso necesrio previo a la producción
normal

Objetivos primarios de la fase 4:

1. Probar que la confiabilidad del producto representativo de la producción, el


proceso de manufactura y ensamble, cumple con los requerimientos de
confiabilidad.

2. Validad que el proceso de producción es capaz de producir repetidamente un


producto que cumpla sus requerimientos de confiabilidad y otros.

3. Verificar la eficacia de los planes de control de producción

4. Resolver problemas de diseño y manufactura que se descubran durante las


actividades de validación antes de su lanzamiento a producción

Entradas

Página 21
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Además de las salidas de la fase 2 y fase 3, las siguientes entradas osn


necesarias:

 Estándares de empaque
 Revisiones del sistema de calidad del producto/proceso
 Matriz de características

Actividades de confiabilidad:

 Pruebas aceleradas
 FRACAS
 Análisis de datos de vida
 Análisis de sistemas de medición
 Análisis Multivari
 Solución de problemas – causa raíz
 Estudios de capacidad de proceso
 Proceso de aprobación de partes de producción (PPAP)
 Plan y reporte de pruebas

Salidas:

 Corrida de la producción piloto


 Aprobación de la producción de partes
 Evaluación del empaque
 Planes de control revisados
 Liberación de la planeación de calidad y soporte de la dirección

FASE 5. PRODUCCIÓN

Es imperativo durante esta fase monitorear el desempeño del producto y su


confiabilidad. Es crucial la retroalimentación del cliente sobre la funcionalidad
del producto, utilidad, y disponibilidad, así como asegurar el cuimplimiento de
las variables del proceso.

Objetivos primarios de la fase 5:

1. Monitorear y mejorar confiabilidad verdadera del producto experimentada por


el cliente. Es necesario tener un sistema de aviso para detectar fallas en
campo, tan rápido como sea posible, dar seguimiento, identificar causas raíz y
tomar acciones correctivas para eliminar los modos de falla.

2. Asegurar que el conocimiento ganado con el programa de confiabilidad sea


capturado y esté disponible para usos futuros. Como bibliotecas con
distribuciones de tiempos de vida de componentes y subsistemas.

Entradas:

Además de las salidas de la fase 4 se tienen:

Página 22
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Metas de confiabilidad
 Planes de control del proceso de manufactura
 Características especiales

Actividades de confiabilidad:

 Formación de bases de datos de garantías


 FRACAS
 Identificación temprana de problemas
 Solución de problemas – análisis de causa raíz
 DOE
 Análisis multivari
 Filtraje con esfuerzo ambiental para productos electrónicos
 Características especiales. Criticas para la funcionalidad y confiabilidad
del producto
 Análisis de datos de vida
 Análisis de Weibull

Salidas:

 Seguimiento de metas de confiabilidad y garantía


 Seguimiento de la capacidad en características especiales contra metas
 Documentación de lecciones prendidas en el desarrollo del producto

FASE 6. HISTORIAL DE CONFIABILIDAD Y LECCIONES APRENDIDAS

Se realiza en forma concurrente con las otras fases.

Objetivos primarios de la fase 6:

1. Colectar datos de la confiabilidad del producto (o no confiabilidad) para la


realización de actividades de prevención de fallas.

2. Proporcionar un creciente repositorio de conocimiento para la organización,


reduciendo la dependencia de “conocimiento tribal”, que se puede perder
fácilmente cuando la gente se va de la organización.

Entradas:

Recibe información de todas las demás fases, con excepción de la fase de


planeación. El propósito es contar con con sistemas de información que
estructuren los datos de forma que se pueda utilizar por las primeras etapas del
diseño.

Actividades de confiabilidad:

Soportan la actualización de los siguientes repositorios de conocimiento de


confiabilidad:

Página 23
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 FMEA de proceso y de diseño (PFMEA y DFMEA)


 Base de datos de Weibull, desempeño de confiabilidad de productos,
sistemas subsistemas, componentes y por modo de falla promueve
modelado exacto de la confiabilidad para nuevos proyectos.
 Base de datos de capacidad de características especiales, crucial para
DFMA/A.
 Guías de diseño
 Base de datos de lecciones aprendidas, bitácoras de revisiones de
diseño, FRACAS reportes de solución, y acciones de acción correctiva
deben estar disponibles para referencia cuando se planeen y ejecuten
proyectos.

Salidas:

 Se proporciona a las diferentes fases del proceso de desarrollo del


producto en la forma de datos e información.

Página 24
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

MÉTODOS DE CONFIABILIDAD
1. PRUEBAS ACELERADAS

Es una evaluación realizada en ciclos de vida más rápidos, donde sea


aplicable, y con altos esfuerzo de operación y ambientales, mayores a los
normales. Hay modelos como el de Arrhenius, Eyring, HALT, HASS.

Ejemplos de factores usados para acelerar las pruebas:

Mecánicos Climáticos Esfuerzo Tasa de ciclo


operativo
Sock, vibración, Temperatura, Voltaje, presiónd Ciclos de
colisión, humedad, cámara e aire, presión de transición de
aceleración, polvo salina, lluvia, fluido, peso, temperatura,
y grava viento, presión transientes aplicaciones
atmosférica, eléctricos mecánicas,
presión, radiación flexiones,
solar movimientos,
aperturas y
cierres, etc.

Propósito:

Se usa para estimar las características de confiabilidad de un producto bajo


uso normal. Otros usos son filtraje de línea base para esfuerzo ambiental
usado en manufactura y mejora de la confiabilidad del producto.

Beneficios:

 Tiempo de prueba reducido


 Se pueden obtener distribuciones de vida, determinación de la
confiabilidad, y modos de falla de manera rápida antes de lanzar el
producto
 Se pueden hacer comparaciones rápidas entre diseños diferentes
 Se pueden evaluar problemas de campo durante la vida del producto de
manera rápida
 Se puede hacer un monitoreo eficiente del producto en relación a su
confiabilidad

Implementación:

Se pueden hacer pruebas con diferentes tipos de esfuerzos al mismo tiempo.

Algunas limitaciones son:

 La determinación de los factores de aceleración puede ser difícil

Página 25
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Para nuevos productos puede no haber correlación entre la prueba


acelerada y el uso normal, dado que los modos de falla no se han
establecido.
 Un esfuerzo excesivo puede ocasionar cambios físicos no realistas.
 La inversión inicial en equipo reprueba es costoso.
 Se pueden inducir modos de falla no indicativos del uso normal.

Ejemplo:

Un componente se usa con esfuerzo para determinar si o no se podría utilizar


una prueba actual para reducir el ciclo de diseño. Se evaluó la prueba en tres
niveles de esfuerzo.

Timepo_a_falla Newtons
3890000 5573
3980000 5573
4132000 5573
2363000 697
2478000 697
2483000 697
1310000 640
1336000 640
1365000 640

Identificación de la distribución de ajuste:

1. Stat > Reliability / Survival > Distribution analysis (right censoring)


2. Distribution ID Plot > Variable Tiempo_de_falla > Distribution Lognormal
3. OK

Probability Plot for Timepo_a_falla


LSXY Estimates-Complete Data
C orrelation C oefficient
Lognormal Lognormal
0.941
99

95

80
Percent

50

20

1
00 00 00 00 00
0
00
0 00 00
0
00
0
00
0 0
00 00
0
00 00 00 00 00 00 00
0
00 00 00 000 000
70 80 90 100 15 20 30 40 50 60 7 8
Timepo_a_falla

Página 26
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Tiempo de vida acelerado:

1. Stat > Reliability / Survival > Accelated life testing


2. Variables > TIempo_de_falla
3. Accelerating var. Newtons
4. Estimate: Confidence level 95%
OK

La gráfica resultante se muestra a continuación:

Probability Plot (Fitted Linear) for Timepo_a_falla


Lognormal
Complete Data - ML Estimates
99
Newtons
5573
95 6967
90 8640
Table of S tatistics
80 Loc Scale A D* F C
70 15.2032 0.0218849 3.757 3 0
Percent

60 14.7050 0.0218849 4.167 3 0


50 14.1071 0.0218849 3.417 3 0
40
30
20

10
5

1
1500000 2000000 3000000 4000000
Timepo_a_falla

Relation Plot (Fitted Linear) for Timepo_a_falla


Lognormal - 99% CI
Complete Data - ML Estimates
Percentiles
4000000 90
50
10

3000000
Timepo_a_falla

2000000

1500000

5500 6000 6500 7000 7500 8000 8500 9000


Newtons

Se observa que los tres estados no difieren significativamente a un 99% de NC:

Página 27
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

1. Graph Lognormal

2. Variable Tiempo_de_falla

3. OK

Probability Plot of Timepo_a_falla


Lognormal - 99% CI
99
Loc 14.67
Scale 0.4759
95 N 9
AD 0.552
90
P-Value 0.111
80
70
Percent

60
50
40
30
20

10

1
1000000 10000000
Timepo_a_falla

Fitted Line Plot


Y = 8642485 - 856.2 X

4000000 S 244824
R-Sq 98.3%
R-Sq(adj) 96.6%
3500000

3000000

2500000
Y

2000000

1500000

1000000
5500 6000 6500 7000 7500 8000 8500 9000
X

Factor de aceleración

Página 28
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Accelerated Life Testing: Timepo_a_falla versus Newtons


Response Variable: Timepo_a_falla

Censoring Information Count


Uncensored value 9

Estimation Method: Maximum Likelihood


Distribution: Lognormal

Relationship with accelerating variable(s): Linear


Regression Table
Standard 95.0% Normal CI
Predictor Coef Error Z P Lower Upper
Intercept 17.1949 0.0417192 412.16 0.000 17.1132 17.2767
Newtons -0.0003574 0.0000058 -61.43 0.000 -0.0003688 -0.0003460
Scale 0.0218849 0.0051583 0.0137884 0.0347357

Log-Likelihood = -110.419

Probability Plot (Fitted Linear) for Timepo_a_falla


Anderson-Darling (adjusted) Goodness-of-Fit
At each accelerating level
Fitted
Level Model
5573 3.757
6967 4.167
8640 3.417

Página 29
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

2. BENCHMARKING

Es el proceso para mejorar el desempeño de los productos y los procesos,


identificando, comprendiendo, y adaptando las mejores prácticas, procesos y
características, y desempeño de productos y procesos de clase mundial, de
manera continua. El benchmarking compara productos, procesos, o servicios y
puede ser interno o externo.

Beneficios

 Evitar reinventar la rueda


 Acelera el cambio (usa prácticas probadas, convence a escepticos, etc.)
 Orienta a buscar soluciones en el exterior de la organización
 Fuerza a la organización a hacer análisis de sus procesos actuales
 Identifica quienes son los mejores en la industria

3. ANÁLISIS DE DEGRADACIÓN
Degradación es la propiedad de uin proceso o producto que pierde su calidad
de diseño o características de confiabilidad en el tiempo al ser sometido a
esfuerzo.

Beneficios

 Identifica criterios básicos de diseño


 Establece vida de anaquel para los productos
 Proporciona confianza estadística de que un diseño es confiable en el
tiempo.

Ejemplo:

Se hace una prueba de hipótesis para probar si hay diferencia entre el antes y
después de someter a un producto a una prueba de esfuerzo, con partes
idénticas.

Antes Despues
1.701 1.66
1.694 1.699
1.88 1.701
1.686 1.71
1.696 1.719

Two-Sample T-Test and CI: Antes, Despues

Two-sample T for Antes vs Despues

N Mean StDev SE Mean


Antes 5 1.7314 0.0832 0.037
Despues 5 1.6978 0.0226 0.010

Página 30
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Difference = mu (Antes) - mu (Despues)


Estimate for difference: 0.033600
95% CI for difference: (-0.055350, 0.122550)
T-Test of difference = 0 (vs not =): T-Value = 0.87 P-Value = 0.409 DF = 8
Both use Pooled StDev = 0.0610

Boxplot of Antes, Despues


1.90

1.85

1.80
Data

1.75

1.70

1.65
Antes Despues

Evaluación de la confiabilidad

Identificación de la distribución que mejor ajuste a los datos de Después:

1. Stat > Reliability / survival > Distribution analysis (right censoring)


2. Distribution (ID) Plot
3. Variables Despúes seleccionar Use all distributions
4.OK

Probability Plot for Despues


LSXY Estimates-Complete Data
C orrelation C oefficient
3-Parameter Weibull 3-Parameter Lognormal
3-P arameter Weibull
99
0.952
90
3-Parameter Lognormal
90
0.917
50
2-Parameter E xponential
Percent

Percent

50 *
10 3-P arameter Loglogistic
0.920
10

1 1
52.65 52.70 52.75 52.80 52.95 53.00 53.05
Despues - Threshold Despues - Threshold

2-Parameter Exponential 3-Parameter Loglogistic


99
90

90
50
Percent

Percent

50
10
10

1 1
0.001 0.010 0.100 52.65 52.70 52.75 52.80
Despues - Threshold Despues - Threshold

Página 31
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Evaluando la fracción defective Antes y Después se tiene:

1. Stat > Quality tools > Capability Analysis > Nonnormal


2. Data as single column – antes y después
3. Distribution 3-Parameters Loglogistic Lower spec 1.6 Upper spec 1.9
4. OK

Process Capability of Antes


Calculations Based on Loglogistic Distribution Model

LSL Target USL


Process Data O v erall C apability
LS L 1.60000 Pp 0.47
Target 1.75000 PP L 3.38
U SL 1.90000 PP U 0.32
S ample M ean 1.73140 Ppk 0.32
S ample N 5
E xp. O v erall Performance
Location -3.46682
P P M < LS L 0.0
S cale 0.45862
P P M > U SL 12581.6
Threshold 1.66914
P P M Total 12581.6
O bserv ed P erformance
PP M < LS L 0
PP M > U S L 0
PP M Total 0

1.60 1.65 1.70 1.75 1.80 1.85 1.90

Process Capability of Despues


Calculations Based on Loglogistic Distribution Model

LSL Target USL


P rocess Data O v erall C apability
LS L 1.60000 Pp 2.07
Target 1.75000 PP L 1.40
U SL 1.90000 PP U 2.74
S ample M ean 1.69780 Ppk 1.40
S ample N 5
E xp. O v erall P erformance
Location 3.96368
P P M < LS L 98.6823
S cale 0.00021
PPM > USL 0.0139
Threshold -50.94981
P P M Total 98.6963
O bserv ed P erformance
P P M < LS L 0
P P M > US L 0
P P M Total 0

1.60 1.64 1.68 1.72 1.76 1.80 1.84 1.88

Página 32
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

4. DISEÑO PARA MANUFACTURA Y ENSAMBLE (DFMA)

Es una metodología interdisciplinaria que proporciona un método para analizar


un diseño propuesto desde le punto de vista del ensamble y manufactura.

Beneficios

 Permite reducir los costos en producción, proceso y ensamble.


 Mejora la confiabilidad del producto al hacerlo más sencillo.
 Integra aspectos del factor humano en el diseño del proceso.
 Proporciona un método para minimizar partes junto con su manejo e
inserción durante el ensamble.
 Proporciona una métrica de “Factor de complejidad del diseño” que
considera el número de partes, sus tipos, e interfases en el ensamble.

Actividades clave

 Minimizar el número de partes


 Estandarizar partes y materiales
 Minimizar reorientación de partes durante el ensamble
 Crear ensambles modulares
 Diseño para uniones eficientes
 Simplificar el número de operaciones de manufactura

5. DISEÑO DE EXPERIMENTOS (DOE)

Se usa para proporcionar un método estadístico estructurado para la


planeación y ejecución de pruebas. Se basa en la variación sistemática de
parámetros para determinar el efecto de esos parámetros en el resultado.

Beneficios

 Mejora la robustes del desempeño y la confiabilidad de un producto, al


identificar y controlar las variables que más influyen en el producto. En
algunos casos los productos se pueden hacer insensibles a variables no
controladas.
 Permite identificar las interacciones entre las variables que tienen
influencia en el desempeño del producto.
 El DOE permite estudiar el efecto de los parámetros de influencia de
manera simultanea, para hacer eficientes las pruebas.

Tipos de DOEs

 Diseños estándar 2^(K-p) (Box, Hunter & Hunter)


 Diseños de filtraje de 2 niveles (Plackett Burman)
 Diseños 2^(K-p) con máxima no confusión
 Diseños 3^(K-p) y diseños de Box-Behnken
 Diseños con 2 y 3 niveles mezclados
 Diseños de superficie de respuesta

Página 33
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Cuadrados latinos y grecolatinos


 Diseño de experimentos robustos de Taguchi
 Diseños de mezclas y diseños de superficies triangulares
 Diseños de superficies y mezclas restringidas
 Diseños algorítmicos óptimos D- y A-(T-)

Actividades

 Definir las metas de la experimentación


 Determinar la variable de respuesta
 Determinar las variables de entrada a ser controladas y sus niveles
 Determinar las variables no controladas que puedan tener influencia en
la respuesta
 Determinar las variables de entrada que se mantendrán constantes
 Seleccionar el método de prueba a utilizar
 Diseñar la prueba
 Realizar la prueba
 Analizar los resultados
 Confirmar los resultados
 Formular las conclusiones e implementar las acciones

6. REVISIONES DE DISEÑO

Es una evaluación disciplinada e interdisciplinaria por un grupo de expertos


para encontrar y resolver deficiencias o impedimentos que puedan afectar el
lanzamiento de proyecto, revisando al final de cada actividad mayor del plan
del proyecto. Las revisiones pueden ser formales e informales.

Beneficios

 Espíritu de equipo
 Comunicación mejorada
 Reglas formales de operación
 Agenda y actividades de seguimiento formales

Se puede utilizar una lista de verificación con los aspectos relevantes del
diseño o una agenda de revisión.

Ejemplo de lista de verificación:

Entradas a la revisión Función responsable Revisión de diseño


del diseño
Requerimientos del
cliente
Requerimientos
funcionales
Metas de calidad
Metas de confiabilidad

Página 34
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Metas de
mantenabilidad
Requerimientos
reglamentarios
DFMA y análisis de
riesgos

7. SELECCIÓN DEL DISEÑO Y OPTIMIZACIÓN

Es un proceso en el cual los conceptos de diseño se ponderan ante los criterios


de desempeño del producto, confiabilidad, manufacturabilidad, serviciabilidad, y
otras especificaciones para seleccionar la mejor alternativa. Se tienen dos
modelos: la matriz de Pugh y al método MCDMDA (Multi criteria Decisión
Management Decisión Analysis). El proceso se enlaza con el QFD para
comprender los requerimientos de los clientes.

Actividades

 Definir el equipo de trabajo multifuncional


 Definir los criterios y requerimientos del QFD, especificaciones de
desempeño, historial de desempeño, y capacidades de manufactura y
de proveedores.
 Definir conceptos de diseño alternativos.
 Definir escalas de calificación
 Preparar una matriz alternativa de atributos
 Evaluar y ordenar por rango las alternativas

Ejemplo de Matriz de pugh

Requisitos Del Impor- Línea base Alternativa Alternativa


cliente tancia Diseño de diseño A de diseño B
actual
Costo 5 0 - -
Manufacturabilida 8 0 - -
d
Confiabilidad 10 0 0 +
Mantenabilidad 5 0 0 0
Serviciabilidad 5 0 0 0
Disponibilidad 10 0 + +
Empaque 8 0 + +
Durabilidad 5 0 0 0
56 5 15

Notas:
0 bajo - Desventaja
10 alto 0 Similar al diseño actual

Página 35
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

+ Ventaja
El valor más alto es el mejor

8. IDENTIFICACIÓN TEMPRANA DE PROBLEMAS


Es un método que aplica métodos estadísticos a datos de campo para detectar
problemas de producto y proceso lo más antes posible.

Beneficios

 Reduce el tiempo tomado para identificar problemas


 Aplica soluciones a lotes pequeños en vez de a la producción masiva
 Reduce costos de garantías
 Mejora la calidad del producto

Actividades

 La tarea principal es formar depositorios de datos (data warehousing),


que provienen de campo, centros de llamadas, garantías, quejas, etc.)
cuantificando los datos textuales y detectando y dando seguimiento a
patrones, con alertas automáticas de problemas emergentes.
 Con minería de datos (data mining) se tiene la capacidad de identificar y
dar seguimiento a patrones en los datos. Analizándolos para detectar
tasas de falla con variación anormal (se puede aplicar el CEP).

Por ejemplo:

A representa el límite de tasa de falla “normal” para un producto, cuando está


abajo del límite se tomaron acciones.

Time Series Plot of A, Limite


Variable
60 A
Limite

55

50
Data

45

40

35

30

Month Ene May Sep Ene May Sep


Year 2001 2002

Página 36
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

9. SELECCIÓN POR ESFUERZO AMBIENTAL /


QUEMADO
El quemado (Burn in) y la selección por esfuerzo ambiental (Environmental
Stress Screening) se utilizan en la manufactura para precipitar la mortalidad
infantil causada por defectos en componentes electrónicos o electromecánicos.
Se trata de evitar que estos defectos se presenten con el cliente, normalmente
asignados a fallas del ensamble (soldadura pobre, componentes débiles, etc.)

10. A PRUEBA DE ERROR (POKA YOKE)


Es la práctica de diseñar productos o procesos de manera que se minimice o
prevenga la probabilidad de errores humanos o mecánicos.

Se aplica para:
 Evitar que los productos se fabriquen o ensamblen incorrectamente
 Diseñar el proceso de manufactura para evitar partes más ensambladas
 Diseñar el software que no permita entradas en campos incorrectos

Cuando se identifiquen fuentes potenciales de productos no conformes, a


través de Kaizen y con el apoyo de expertos, utilizar el FMEA, estudios de
capacidad de procesos, y reportes de servicio para identificar oportunidades de
acción.

Actividades

 Organizar el lugar de trabajo con las 5S’s


 Establecer procedimientos estándar

Página 37
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Compartir los estándares con todos los involucrados


 Avisar de posibles situaciones anormales
 Prevenir los defectos
 A prueba de error

Fuentes de error humanos:

 Olvidos
 No comprensión
 Mala identificación
 Falta de conocimiento
 No poner atención a detalles
 No seguir procedimientos estándar
 Respuesta inadecuada a problemas

Fuentes de error en equipos y sus condiciones

 Ajustes excesivos
 Tiempos de preparación largos
 Complejidad del proceso innecesaria
 Falta de instrucciones de trabajo efectivas o estandarizadas
 Trabajo de la máquina excediendo su capacidad
 Proceso congestionado

Dispositivos Poka Yoke

 Listas de verificación
 Pins de guía, referencia o interferencia
 Plantillas
 Microswitches o switches límite
 Switches de proximidad
 Indicadores visuales
 Restricciones de secuencia
 Detectores de condiciones críticas
 Sensores de nivel de fluidos
 Lógica de software

11. ANÁLISIS DEL MODO Y EFECTO DE FALLA (FMEA)


Es un grupo de actividades sistemático orientado a reconocer y evaluar las
fallas potenciales de un producto o proceso y los efectos de esa falla,
identificando acciones que puedan eliminar o reducir la posibilidad de que
ocurra la falla, y documentar el proceso completo.

El FMEA se enfoca a mejorar el diseño del producto o proceso a través de


análisis preventivo y proactivo.

Actividades

Página 38
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Formar un equipo de trabajo


 Definir el alcance del sistema o proceso a ser analizado
 Listar los aspectos clave del sistema o procesos a ser analizado
(ambientales, reglamentarios, etc.)
 Desarrollar los bloques funcionales o flujo de proceso que se utilizará
para realizar el análisis. Definir las interfases de los elementos.
 Usar el manual de la AIAG o SAE como referencia
 Analizar los riesgos y a quine corresponden, y enfocar su solución.
 Actualizar el FMEA conforme se tenga nueva información

Se consideran tres niveles:

 El nivel de sistema (específico de la aplicación)


 El nivel de diseño de componentes (específico del componente)
 El nivel de procesos de manufactura (específico de manufactura)

12. REPORTE DE FALLAS, ANÁLISIS, SISTEMA DE


ACCIÓN CORRECTIVA (FRACAS)

Es una revisión formal de la dirección y un sistema de bucle cerrado que se


enfoca a resolver incidentes de fallas. Un grupo interdisciplinario analiza,
determina la causa de falla, e inicia la acción correctiva, agrupando los
incidentes individuales para enfocar de modo eficiente los recursos.

Después de la solución del problema la información se transfiere a un archivo


de lecciones aprendidas para su uso futuro.

El FRACAS asegura que todos los modos de falla que ocurran en un producto
durante su desarrollo desde su arranque, estén documentados, monitoreados,
y corregidos como sea necesario.

Beneficios

 Permite dar soluciones efectivas y permanentes a los problemas


 Descubre modos de falla antes de que el producto llegue al cliente
 Conciencia en el uso efectivo de recursos priorizando problemas del
desarrollo.
 Proporciona un método común para resolver problemas de confiabilidad
asegurando que la acción correctiva sea efectiva.
 Documenta los problemas de confiabilidad y acciones correctivas para
su uso en el futuro

Actividades:

 Establecer el proceso
 Ocurre un incidente
 Describir la falla y las partes con falla
 Realizar priorización y asignar

Página 39
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Reporte de estatus y métrica

Se puede utilizar para cada incidente un formato de 7/8 pasos como sigue:
 Descripción del problema (qué, dónde, cuándo, impacto)
 Acciones interinas
 Acciones de contención del problema
 Acciones correctivas
 Verificación de la efectividad de la acción correctiva
 Control de la recurrencia
 Prevención de ocurrencia de fallas potenciales futuras

16. ANÁLISIS DE ÁRBOL DE FALLA (FTA)


El FTA es un proceso lógico y estructurado de análisis de causas potenciales
de fallas en el sistema (riesgos), no identificando riesgos.

El FTA es usa para representar la interacción lógica y las probabilidades de


ocurrencia de fallas de componentes y otros eventos del sistema en el evento
superior bajo estudio.

Por ejemplo para un equipo de compresor:

Página 40
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

14. ANÁLISIS DE ELEMENTOS FINITOS (FEA)

El análisis de elementos finitos (FEA) es un modelo matemático para predecir


el esfuerzo o respuesta térmica de una estructura a la carga o estímulo térmico.
Puede usarse también para modelado de fluidos. La estructura se divide en
elementos muy pequeños analizando su interacción. El comportamiento de los
elementos individuales se suma y la respuesta de la estructura completa se
predice, en relación con la distribución del esfuerzo, temperatura o flujo.

De esta forma se puede identificar el peor caso.

Actividades

 Definir el componente específico a ser analizado


 Crear un modelo sólido en CAD
 Transferir el modelo de CAD al programa FEA
 Definir las restricciones del modelo
 Definir las cargas del modelo
 Definir los materiales
 Definir las relaciones de contacto entre componentes en el ensamble
 Correr el modelo
 Evaluar la validez del modelo contra resultados de prueba
 Comparar los resultados del modelo contra los criterios de diseño
 Modificar el diseño como sea necesario

15. DIAGRAMAS DE BLOQUE FUNCIONALES (FBD)

Son medios gráficos para reducir sistemas complejos dentro de partes más
pequeñas de elementos comprensibles con el propósito de realizar análisis
(FMEA / FMECA/ Confiabilidad, etc.), también se refieren como “BOundary
Diagrams”

Beneficios
 Define la propiedad de elementos de sistemas e interfases
 Mejora la comprensión de sistemas complejos y las interfases
funcionales
 Resalta las interdependencias funcionales y de interfase cuando se
requieren análisis detallados.

¿Quién es el ¿Cuáles son ¿Qué es?


responsable? las interfases
y el medio
ambiente?

Página 41
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

16. PUEBAS DE VIDA ALTAMENTE ACELERADAS


(HALT) Y SELECCIÓN CON ESFUERZO ALTAMENTE
ACELERADO (HASS)
HALT aplica estímulos ambientales simples y múltiples para descubrir
debilidades inherentes en el diseño inicial, encontrar causas raíz y hacer los
productos más robustos y con mayor confiabilidad. Se utiliza vibración, ciclos
de temperatura, y parámetros eléctricos como estímulos ambientales, además
de otros que se consideren necesarios.

HASS es un filtro rápido de producción una vez que se ha caracterizado el


producto con HALT. Como participación se aplican algunos de los mismos
esfuerzos de HALT pero en menor grado, por debajo de los límites de
destrucción pero siempre más allá de las condiciones normales de operación.
Como detección la prueba se hace en las condiciones normales de operación.

Beneficios

 Se usa un número pequeño de muestras y periodos cortos de tiempo en


el proceso HALT, lo cual reduce los costos de experimentación.
 Establecimiento de límites de operación
 Entrada proporcionada para determinar los requerimientos HASS
 Recepción de un producto madura en la introducción
 Eliminación de “apagar fuegos” después del lanzamiento inicial.

El proceso HASS puede ser considerado un filtrado de esfuerzo ambiental


(Environmental Stress Screen ESS), reduciendo el tiempo necesario para
precipitar el proceso de defectos del producto fabricado.

Los procesos HALT y HASS son procesos complemetarios, HALT se utiliza


como una herramienta de diseño acelerado para refinarlo, y HASS se usa
como una herramienta de filtro en la manufactura con esfuerzo ambiental
acelerado.

Página 42
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 43
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

17. ANÁLISIS DEL COSTO DE CICLO DE VIDA (LCC)


El precio que un cliente paga por un producto, es solo el costo inicial en el que
el cliente incurrirá durante la vida útil del producto.

El análisis de costo del ciclo de vida se realiza para desarrollar un estimado del
LCC de un producto o un elemento de producto que se somete a estudios de
negociación de diseño, una vez realizado, se puede usar para:

 Comparar alternativas de diseño desde un punto de vista del LCC


 Identificar los motivadores LCC de un sistema
 Soportar la planeación presupuestal para soporte de un sistema

Se estima que entre el 90 a 95% del costo de ciclo de vida inherente a un


diseño de producto se establece durante las fases de desarrollo del concepto y
desarrollo de ingeniería. Para minimizar el LCC, se debe analizar desde las
primeras etapas del diseño para optimizarlo.

Página 44
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Beneficios

 Mejora la satisfacción del cliente


 Ventaja competitiva debido a una mayor efectividad del costo del
producto
 Capacidad para vender mejoras al producto con base en el costo del
ciclo de vida del producto
 Mayores contratos ganados cuando no se es proveedor de bajo costo

Es importante considerar el costo del dinero en el tiempo (Valor Presente Neto)


para comparar alternativas.

Como alternativas de análisis se sugiere utilizar un FMEA dando una alta


calificación en “Severidad” al impacto de las fallas críticas, de esta forma al
menos se identifican los riesgos futuros desde el punto de vista del costo
operativo y de soporte, sin tener que desarrollar un modelo especial para esto.

Página 45
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

18. ANÁLISIS DE DATOS DE VIDA

Sirve de marco de referencia analítico para determinar la probabilidad de falla


de productos durante su ciclo de vida y evaluar la conformancia de acuerdo a
los requerimientos especificados de entrada.

EL análisis de datos de vida caracterizan las distribuciones de probabilidad de


falla de un componente, subsistema, o producto para evaluar su conformancia
de las características de confiabilidad contra los requerimientos establecidos.

Beneficios

 Demuestra el desempeño de la confiabilidad durante cualquier punto del


diseño. La forma de la curva determina si se trata de fallas infantiles,
fallas aleatorias o desgaste.

Actividades

 Definir la prueba y/o tipo de de datos (con reemplazo y sin reemplazo,


prueba terminada a falla o a tiempo, ensamble o componente, modos de
falla simples o múltiples).
 Definir el esquema de muestreo de datos (discretos o continuos)
 Recolectar datos (muestras verus vida)
 Graficar frecuencia de falla versus vida
 Ajustar los datos contra el mejor modelo (exponencial, Weibull,
Lognormal, Normal, etc.) con el criterio de aceptación de “bondad de
ajuste”
 Realizar el estimado del intervalo de confianza
 Realizar el análisis de riesgos
 Determinar la naturaleza de los datos (mortalidad infantil, aleatorio,
desgaste)
 Realizar acciones correctivas como sea adecuado

Por ejemplo:

Temp80_1 Cens80_1 Temp100_1 Cens100_1


50 1 101 0
60 1 11 1
53 1 48 1
40 1 32 1
51 1 36 1
99 0 22 1
35 1 72 1
55 1 69 1
74 1 35 1
101 0 29 1
56 1 18 1
45 1 38 1
61 1 39 1
92 0 68 1

Página 46
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

73 0 36 1
51 1 18 1
49 1 25 1
24 1 14 1
37 1 77 0
31 1 47 1

Identificación de la distribución:

Probability Plot for Temp80_1, Temp100_1


LSXY Estimates-Censoring Column in Cens80_1, Cens100_1
V ariable
Weibull Lognormal
Temp80_1
99
Temp100_1
90
90 C orrelation C oefficient
50 Weibull
P er cent

P er cent

0.989, 0.979
50
Lognormal
10
0.982, 0.990
10 E xponential
*, *
1 1 Loglogistic
10 100 10 100 0.988, 0.990
Data Data

Exponential Loglogistic
99
90
90
50
P er cent

P er cent

50
10
10

1 1
1 10 100 1000 10 100
Data Data

Pruebas de vida a dos temepraturas

Página 47
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Probability Plot for Temp80_1, Temp100_1


Weibull - 95% CI
Censoring Column in Cens80_1, Cens100_1 - LSXY Estimates
99
Variable
90 Temp80_1
80 Temp100_1
70 Table of Statistics
60 S hape Scale C orr F C
50 3.70020 59.2118 0.989 16 4
40
2.07260 45.4911 0.979 18 2
30
Percent

20

10

3
2

1
1 10 100
Data

19. ANÁLISIS DEL SISTEMA DE MEDICIÓN (MSA)

El MSA determina la variación del sistema de medición en proporción a la


variación del proceso y/o la tolerancia permitida. Es el proceso por medio del
cual se califica si un sistema de medición es adecuado para el uso. Es decir,
indica si el sistema de medición es capaz de medir cambios y mejoras en la
variación del proceso y/o si es adecuado para determinar la capacidad del
proceso con respecto al rango de las especificaciones. Se usa para identificar
las causas de las variaciones, ya sea por personal o por equipo.

Es importante seleccionar el diseño experimental de Repetibilidad y


Reproducibilidad (R&R), involucra diferentes operadores y diferentes muestras.
Mide la razón de variación del sistema de medición a la variación en el proceso.
Un error R&R menor al 10% se considera aceptable, entre 10% y 30% puede
ser aceptable dependiendo de la importancia del a aplicación, costo del
dispositivo de medición, costo de reparación, etc.. Un valor mayor al 30% es
inaceptable.

Premisas requeridas en los sistemas de medición

 El proceso o sistema bajo medición debe estar en control estadístico,


con sólo variación común presente.
 La variabilidad del sistema de medición debe ser pequeña comparada
con la variabilidad del proceso de manufactura si la intención es medir
esta variabilidad.
 La variabilidad del sistema de medición debe ser pequeña comparada
con los límites de especificación si la intención es medir la capacidad del
proceso.

Página 48
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Para lo incrementos de medición no deben ser mayores a 1/10 de la


más pequeña entre la variabilidad del proceso o los límites de
especificación dependiendo de los que se mida.

Tipos de análisis

 Continuos
 Método corto del rango
 Estimación de la varianza
 Porcentaje de tolerancia
 Método de la X media y del rango (X-R)
 Método del Análisis de varianza (ANOVA)
 Método de ANOVA en porcentaje de tolerancia

 Métodos por atributos

Actividades

 Definir el proceso a ser medido


 Desarrollar la matriz de causa efecto
 Definir las mediciones
 Definir el sistema de medición
 Seleccionar las partes específicas
 Determinar la matriz de prueba
 Colectar datos de acuerdo a la matriz de prueba
 Realizar los análisis estadísticos de los datos, determinando la
repetibilidad, reproducibilidad y razón de precisión a tolerancia
 Tomar acciones correctivas como sea necesario

Ejemplo:

Se toma una parte con tolerancia 0.9, usando 6 sigmas, realizar un estudio de
R&R por ANOVA cuando 3 operadores miden 3 partes en 3 intentos:

Operador Parte Medición


1 1 0.12
1 2 0.14
1 3 0.13
1 1 0.14
1 2 0.12
1 3 0.15
2 1 0.12
2 2 0.11
2 3 0.16
2 1 0.13
2 2 0.12
2 3 0.14
3 1 0.12
3 2 0.14
3 3 0.15

Página 49
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

3 1 0.11
3 2 0.14
3 3 0.15

Las instrucciones para correrlo son:

1. Stat > Quality Tools > Gage Study > Gage R&R Study (Crossed)

2. Part numbers Partes Operators Operadores Measurement data


Mediciones seleccionar Method of Analysis ANOVA

3. Options: Study variation 6 Process tolerance 0.9

4. OK

Los resultados se muestran a continuación:

Gage R&R Study - ANOVA Method

Two-Way ANOVA Table With Interaction

Source DF SS MS F P
Operador 2 0.0000778 0.0000389 0.16867 0.850
Parte 2 0.0018111 0.0009056 3.92771 0.114
Operador * Parte 4 0.0009222 0.0002306 2.18421 0.152
Repeatability 9 0.0009500 0.0001056
Total 17 0.0037611

Gage R&R

%Contribution
Source VarComp (of VarComp)
Total Gage R&R 0.0002806 100.00
Repeatability 0.0001056 37.62
Reproducibility 0.0001750 62.38
Parte 0.0001125 40.10
Parte*Operador 0.0000625 22.28
Part-To-Part 0.0000000 0.00
Total Variation 0.0002806 100.00

Study Var %Study Var %Tolerance


Source StdDev (SD) (6 * SD) (%SV) (SV/Toler)
Total Gage R&R 0.0167498 0.100499 100.00 11.17
Repeatability 0.0102740 0.061644 61.34 6.85
Reproducibility 0.0132288 0.079373 78.98 8.82
Parte 0.0106066 0.063640 63.32 7.07
Parte*Operador 0.0079057 0.047434 47.20 5.27
Part-To-Part 0.0000000 0.000000 0.00 0.00
Total Variation 0.0167498 0.100499 100.00 11.17

Number of Distinct Categories = 1

Página 50
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Gage R&R (ANOVA) for Medición


Reported by :
Gage name: Tolerance:
Date of study : M isc:

Components of Variation Medición by Operador


100 % Contribution 0.16
% Study Var
Percent

% Tolerance
0.14
50
0.12

0
Gage R&R Repeat Reprod Part-to-Part 1 2 3
Operador
R Chart by Parte
1 2 3 Medición by Parte
0.04 UCL=0.03993 0.16
Sample Range

0.14
0.02
_
R=0.01222 0.12

0.00 LCL=0
1 2 3
Parte
Xbar Chart by Parte
1 2 3 Parte * Operador Interaction
0.16
UCL=0.15576 0.150 Parte
Sample Mean

Average
0.14 _
_ 0.135
2
3
X=0.13278

0.12 0.120
LCL=0.10979
1 2 3
Operador

El sistema de medición es adecuado para determinar aceptabilidad de acuerdo


a la tolerancia, pero no puede usarse para evaluar mejora en el proceso mismo
ya que la variación de medición es una porción significativa de la variación de
las partes.

Boxplot of Medición
1 2
0.165

0.150

0.135

0.120
Medición

3
0.165

0.150

0.135

0.120

Panel variable: Operador

20. ANÁLISIS MULTIVARI


Es una herramienta gráfica utilizada en la solución de problemas para
identificar las fuentes de varianza durante la manufactura.

Página 51
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Beneficios

 Despliega patrones de cambio en las mediciones


 Enfoca los esfuerzos sobre aspectos con el efecto más significativo,
resaltando grupos de mediciones con la mayor variación

Las muestras se deben tomar en forma secuencial de la producción, al menos


tres muestras por familia y tomar tres familias, los resultados de las mediciones
deben incluir al menos el 80% del rango de variación experimentado. La familia
con el rango de varianza mayor contiene la causa raíz sospechada.

Por ejemplo: Una parte con dos secciones y dos diámetros de mide en
diferentes tiempos:

Tipo Diametro Extremo Hora


A 12.8 1 7
A 12.6 2 7
B 12.9 1 7
B 12.7 2 7
A 12.6 1 7
A 12.5 2 7
B 12.5 1 7
B 12.4 2 7
A 12.7 1 7
A 12.6 2 7
B 12.7 1 7
B 12.7 2 7
A 11.8 1 9
A 11.5 2 9
B 11.8 1 9
B 11.4 2 9
A 11.7 1 9
A 11.4 2 9
B 11.7 1 9
B 11.4 2 9
A 11.8 1 9
A 11.6 2 9
B 11.8 1 9
B 11.6 2 9
A 10.7 1 11
A 10.7 2 11
B 10.75 1 11
B 10.75 2 11
A 10.5 1 11
A 10.5 2 11
B 10.5 1 11
B 10.5 2 11
A 10.8 1 11
A 10.7 2 11
B 10.8 1 11
B 10.7 2 11
A 12.7 1 12

Página 52
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

A 12.5 2 12
B 12.7 1 12
B 12.5 2 12
A 12.8 1 12
A 12.6 2 12
B 12.8 1 12
B 12.7 2 12
A 12.7 1 12
A 12.6 2 12
B 12.6 1 12
B 12.6 2 12
A 11.5 1 13
A 11.5 2 13
B 11.5 1 13
B 11.5 2 13
A 11.6 1 13
A 11.4 2 13
B 11.6 1 13
B 11.4 2 13
A 11.7 1 13
A 11.4 2 13
B 11.7 1 13
B 11.4 2 13

Página 53
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Instrucciones:

1. Stat > Quality Tools > Multivari charts

2. Response Diámetro Factor 1 Extremo Factor 2 Tipo Factor 3 Hora

3. Ok

La gráfica resultante es la siguiente:

Multi-Vari Chart for Diametro by Extremo - Hora


A B A B
7 9 11 12 13 Extremo
13.0 1
2

12.5
Diametro

12.0

11.5

11.0

A B A B A B
Tipo
Panel variable: Hora

En la gráfica la mayor varianza es la que ocurre de tiempo a tiempo, algo pasa


a las 11AM.

21. DIAGRAMAS DE PARÁMETROS

Son un medio para reducir sistemas complejos a elementos comprensibles con


el propósito de identificar influencias internas y externas en la funcionalidad del
sistema, subsistema, ensamble o componente.

Los diagramas de parámetros se utilizan para diagnosticar problemas donde la


funcionalidad se degrada o no es aceptable, los resultados motivan a mejorar la
robustez.

Beneficios

 Define el alcance del análisis a ser realizado


 Define la propiedad de los elementos del sistema, interfases, y factores
de control
 Mejora la comprensión de sistemas complejos y las interfases
funcionales
 Junto con los diagramas de bloque, facilita el análisis en el FMEA.

Página 54
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Resalta riesgos que requieren pruebas como un esfuerzo para verificar


veracidad o funcionamiento inadecuado.

Actividades

 Definir los componentes a ser analizados. Determinar los límites y


nivel de complejidad del componente.
 Definir los factores físicos controlables del artículo o componente.
¿Qué parámetros de diseño del componente se pueden controlar y
que puede cambiar?
 Definir los factores de ruido que pueden tener influencia en la
funcionalidad del artículo o componente
 Determinar el efecto potencial en la funcionalidad del artículo o
componente en términos de “estados de error” potenciales.

Por ejemplo:

Las preguntas que surgen al hacer un diagrama de parámetros son las


siguientes:

 ¿Qué puede ser controlado (factores de control)?


 ¿Qué influencias externas degradan la salida (factores de ruido)?
 ¿Cómo se manifiesta esta degradación al cliente o usuario (estados de
error)?

Un análisis detallado de las influencias puede orientar a análisis más


profundos y esfuerzos de optimización (DOE, etc.)

Página 55
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 56
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

22. DERATING DE PARTES


Es un método de diseño utilizado para asegurar que los componentes tengan
robustez en una aplicación específica de diseño, incrementado el margen de
seguridad del componente, contra esfuerzos que se puedan presentar con el
uso.

Derating significa: incrementar la resistencia promedio; reducir el esfuerzo


promedio; reducir las variaciones del esfuerzo a que se someten los
componentes, reducir las variaciones de resistencia, todo esto mejora la
durabilidad y la confiabilidad.

Beneficios

 Elimina el potencial de fallas prematuras bajo las condiciones


especificadas.
 Mejora o mantiene los niveles especificados de confiabilidad,
incrementado la resistencia para un ambiente dado o limitando el
impacto de esfuerzos externos.
 Orienta al desarrollo de guías para futuras aplicaciones.

Ejemplos:
Tipo de parte Nivel recomendado de Derating
Capacitores Máximo 60% del voltaje máximo
Resistores Máximo 60% de la potencia máxima
Semiconductores Máximo 50% de la potencia máxima
Máximo 75% del voltaje máximo
Temperatura en la unión máx. 110ºC
Microcircuitos Máximo 80% del voltaje de alim. Máx.
Máximo 75% de la potencia máxima
Temperatura en la unión máx. 100ºC
Bobinas Máximo 50% del voltaje máximo
Máximo 50% de la corriente máxima

Tasa de esfuerzo = Esfuerzo aplicado / Esfuerzo máximo

Tasa de Tasa de esfuerzo = 1.0


Falla
Tasa de esfuerzo = 0.8

Tasa de esfuerzo = 0.6

Temperatura
Bases para el Derating de tasa de falla contra temperatura

Página 57
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

23. PROCESO DE SOLUCIÓN DE PROBLEMAS – AIAG


El método proporciona una lista de verificación completa de acciones a
considerar cuando se desarrolle una acción correctiva o preventiva ante un
problema. Se recomienda el uso de herramientas de colección y análisis de
datos en cada paso para asegurar que las acciones en el proceso se basen en
la causa raíz, las decisiones se basen en datos y la solución prueb ser efectiva.

Se trata de identificar, documentar, analizar, y eliminar la recurrencia del


problema.

Beneficios

 Proporciona soluciones a problemas efectivas y permanentes


 Proporciona un proceso claro que puede ser seguido con FRACAS
 Proporciona un mecanismo de seguimiento para problemas del
programa de confiabilidad

Actividades (en cada caso, fechas programada y terminación, y responsable)

 Identificar el problema
 Determinar y clasificar las posibles causas
 Tomar acción a corto plazo
 Recolectar información / Diseñar pruebas
 Realizar pruebas / Analizar datos / Identificar causas raíz / Seleccionar la
solución
 Planear e implementar una solución permanente
 Medir y evaluar / Reconocer al equipo

En este último paso se proporciona evidencia de la efectividad de las acciones


correctivas y describir otras medidas preventivas tomadas.

Documentos a actualizar:

 DFMEA
 PFMEA
 Plan de control de proceso
 Prácticas
 Documentación de ingeniería
 Plan de capacitación
 Capacitación realizada

Página 58
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

24. ESTUDIOS DE CAPACIDAD DE PROCESO


Los estudios de capacidad de procesos evalúan la habilidad de un proceso
para mantener una característica o características del proceso dentro de
especificaciones.

Cuando el proceso es capaz, se tiene confianza en la funcionalidad y la


confiabilidad del producto.

Un estudio de capacidad de sistemas de medición deben preceder al estudio


de capacidad para asegurar que el sistema de medición es adecuado.

Los planes de control deben definir el proceso que se está midiendo y reflejar el
sistema de medición y proceso usado.

La efectividad de los estudios de capacidad de proceso están muy relacionados


con la criticalidad de las características para la funcionalidd del producto y su
confiabilidad.

Actividades

 Definir los requerimientos de tolerancia de las características del


producto, a través de FMEA, FTA, 8Ds, pruebas de campo.
 Definir los requerimientos de capacidad de las características del
producto.
 Definir el método de medición, por variables o por atributos.
 Definir / evaluar el plan de control
 Realizar un estudio del sistema de medición
 Realizar el estudio de capacidad de procesos
 Documentar los resultados
 Mejorar el proceso como sea necesario

Ejemplo:

Una parte tiene una dimensión de 0, +6 mm, con un requerimiento de Cpk de


1.33. Se hace un estudio R&R y se determina un error versus tolerancia de 8%,
lo cual es adecuado. Se realiza un estudio de capacidad de proceso como
sigue:

1. Cargar datos
2. Stat > Quality tools > Capability analysis > Normal
3. Lower Spec 0 Upper spec 6
4. seleccionar Estimate Rbar
5. OK

Página 59
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Process Capability of Altura

LSL USL
P rocess Data Within
LS L 0.00000 Overall
Target *
U SL 4.50000 P otential (Within) C apability
S ample M ean 2.04800 Cp 1.38
S ample N 100 C PL 1.26
S tDev (Within) 0.54266 C PU 1.51
S tDev (O v erall) 0.62086 C pk 1.26
C C pk 1.38
O v erall C apability
Pp 1.21
PPL 1.10
PPU 1.32
P pk 1.10
C pm *

0.00 0.75 1.50 2.25 3.00 3.75 4.50


O bserv ed Performance Exp. Within Performance E xp. O v erall Performance
PP M < LS L 0.00 P P M < LS L 80.33 PP M < LS L 485.80
PP M > U S L 0.00 P P M > U SL 3.11 PP M > U S L 39.19
PP M Total 0.00 P P M Total 83.44 PP M Total 524.98

16. MAPA DE PROCESO / DIAGRAMA DE FLUJO


Es una representación gráfica para reducir procesos complejos a elementos
más pequeños comprensibles, que faciliten el análisis de (PFMEA), la
simulación y la mejora continua.

Proporciona un mapa de las actividades realizadas y sus interdependencias


(internas / externas) para un producto dado que será producido en un proceso.

Página 60
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

26. ESPECIFICACIONES DE DESEMPEÑO DEL


PRODUCTO
Es una lista de todos los requerimientos técnicos que debe cumplir un producto
durante su vida útil. Incluye, descripciones funcionales, tiempos de ciclo,
requerimientos de confiabilidad, requerimientos ambientales, y requerimientos
reglamentarios. También identifica todos los factores externos que pueden
influenciar el desempeño y confiabilidad del producto.

Beneficios

 Se identifican los requerimientos de confiabilidad desde el inicio del


desarrollo del producto, con base en esto se pueden desarrollar perfiles
de prueba específicos y criterios bajo los cuales se evalúe el producto.
 Permite desarrollar perfiles de prueba ambientales que no tengan
referencia a estándares, al probar con usuarios finales.

Actividades

 Considerar todas las entradas externas que puedan afectar el


desempeño y durabilidad del producto.
 Determinar la variación en el tiempo de estas entradas en la vida útil del
producto
 Hacer una referencia cruzada de la coincidencia de tiempo de las
entradas requeridas
 Investigar y documentar los límites en cada modo de operación
 Resumir todos los requerimientos en la especificación de desempeño del
producto

Ejemplo

Entradas ambientales
Muestra Bajo Medio Alto Tiempo
Rango temp. 20 40 60 1 hora
Vibración 5 rpm 10 rpm 20 rpm 200 horas
Ozono 0.1 ppm 0.2 ppm 0.5 ppm 4000 horas

Perfil operacional
Hrs/Año Hrs en vida útil % vida
Circuito Enc. 400 5000 5
Circuito Espera 5 50 .05
Circuito Apag. 9000 83000 94.5

Página 61
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

27. PLAN DE CONFIABILIDAD DEL PRODUCTO


Documenta las actividades de planeación enfocadas a alcanzar los objetivos de
confiabilidad de un programa de producto. Incluye el establecimiento de
políticas, procedimientos, y actividades necesarias para lograr los objetivos de
confiabilidad. Identifica las técnicas y herramientas empleadas en el programa,
su justificación, los tiempos y responsabilidades para su ejecución.

Proporciona una ruta del control proactivo de la confiabilidad del producto,


desde su concepto hasta su servicio postventa en campo.

Beneficios

 Permite una planeación sistemática de la confiabilidad.

Actividades

 Establecer requerimientos cuantitativos de la confiabilidad (confiabilidad,


IC de MTBF, perfil de uso del producto, y ambiente al que será
expuesto).
 Hacer una evaluación de requerimientos de riesgo de alto nivel, con
base en comparaciones, historial de desempeño de productos similares,
predicciones de confiabilidad, FMEA de concepto.
 Actividades de confiabilidad planeadas, identificando las técnicas y
herramientas utilizadas para alcanzar los objetivos y su justificación, así
como mitigar los riesgos de manera adecuada.
 Programación de tareas, con carta de Gantt incluyendo el programa de
cada tarea y los eventos importantes a revisar.
 Responsabilidades, de cada tarea o actividad.

Datos generales
Actividades Departamento Responsable
1. Gestión del programa
1.1 Plan de confiabilidad
1.2 Revisiones de diseño formales
1.3 Revisiones al programa de confiabilidad

2. Actividades de ingeniería
2.1 Lista de aspectos de confiabilidad
2.2 Asignación de confiabilidad
2.3 Predicción de la confiabilidad / Simulación
2.4 Revisión historial de desempeño campo
2.5 FMEA de diseño
2.6 FMEA de proceso
2.7 Análisis FTA
2.8 Análisis de esfuerzo eléctrico
2.9 Análisis de esfuerzo mecánico
2.10 Análisis térmico
2.11 Análisis del costo del ciclo de vida
2.12 Análisis del mantenimiento centrado en la

Página 62
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

confiabilidad

3. Actividades de prueba
3.1 Plan de pruebas formales
3.2 Pruebas de esfuerzo acelerado /etapas
3.3 Pruebas de desempeño
3.4 Pruebas de calificación de confiabilidad
3.5 Pruebas de desarrollo / crecimiento de la
confiabilidad
3.6 Otras pruebas

4. Control de proveedores/ subcontratistas


4.1 Requerimientos de confiabilidad asignados
4.2 Alcance de la ingeniería de confiabilidad
4.3 Planes de prueba del proveedor
4.4 Pruebas de validación del proveedor
4.5 Requerimientos de garantía del proveedor

5. Control de la manufactura
5.1 Control de características críticas

6. Actividades de mejora continua


6.1 FRACAS
6.2 Medición de la confiabilidad
6.3 Medición del crecimiento de la
confiabilidad

Uso del producto y perfil de operación


Esfuerzo o condición Valor % del valor en la vida
de operación del producto

Metas cuantitativas de confiabilidad


Característica Valor objetivo Método de Método de
verificación validación
Disponibilidad
MTBF
Vida esperada

Página 63
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ambiente de operación

Factor ambiental Rango Tasa de cambio


Temperatura
Humedad
Vibración
Choque mecánico
Campo magnético
Polvo
Corrosivos
Solventes
Ruido eléctrico
Vapores químicos

Análisis de aspectos mayores de confiabilidad y nivel de detalle

Elemento Asignación Predicción FMEA FMEA Análisis Análisis Otros


de de de de de de árbol LLC
diseño o confiabilidad confiabilidad diseño proceso de falla
proceso

Nivel de detalle: 1-Sistema, 2-Ensamble, 3-Componente, 4-Estándar,

Monitoreo del desempeño en campo

 Análisis de datos colectados por el cliente


 Análisis de reclamaciones y garantías
 Análisis de reemplazo de partes
 Auditorías periódicas de desempeño
 Contactos informales y seguimiento por personal de campo

Programación de tareas:

Página 64
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

16. TABLERO DE PRODUCTO


Es una herramienta utilizada en el Diseño para Seis Sigma (DFSS) que da
seguimiento al logro de la capacidad para cada uno de los parámetros críticos.
Los parámetros críticos se identifican en varios niveles del diseño.

Página 65
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

El tablero de producto se utiliza durante cada una de las fases del proceso de
desarrollo, incluye información de manufactura e ingeniería, mostrando los
entregables críticos medidos, para identificar y corregir por anticipado
problemas de confiabilidad.

Beneficios

 Son una ayuda visual para identificar los avances y obstáculos del
programa.
 Proporcionan un mecanismo de seguimiento a través del programa de
desarrollo.

Actividades

 Identificar necesidades del cliente


 Identificar requerimientos de sistema
 Identificar requerimientos de subsistemas
 Identificar requerimientos de componentes
 Identificar requerimientos de manufactura
 Identificar las respuestas funcionales críticas en cada nivel
 Introducir los datos en el programa de seguimiento / matriz
 Seguir el bañase en el logro de la capacidad

Ejemplo

Tablero de Control de alto nivel: CTQs de alto nivel para DFSS


Especificación Como se diseñó Predicción conf. Proceso Validación
CTQ Unidad TF Mín Nom Máx Mín Nom Máx Cp Cpk Media Desv. Cp Cpk n Media Desv. Cp Cpk
Est. Est.

Tablero de Control de nivel medio: CTQs y X`s de nivel medio


Especificación Como se diseñó Predicción conf. Proceso Validación
CTQ Unidad TF Mín Nom Máx Mín Nom Máx Cp Cpk Media Desv. Cp Cpk n Media Desv. Cp Cpk
Est. Est.

Tablero de Control de nivel inferior: un CTQ


Especificación Como se diseñó Predicción conf. Proceso Validación
CTQ Unidad TF Mín Nom Máx Mín Nom Máx Cp Cpk Media Desv. Cp Cpk n Media Desv. Cp Cpk
Est. Est.

Página 66
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

29. PROCESO DE APROBACIÓN DE PARTES PARA


PRODUCCIÓN (PPAP)

Es un método estructurado para que los proveedores sometan partes nuevas o


cambiadas para aprobación de sus clientes antes de embarcan producción
normal de productos.

El PPAP se usa para determinar si los registros de diseño de ingeniería del


cliente y las especificaciones son comprendidas por el proveedor y que el
proceso tiene el potencial de producir productos que consistentemente cumplan
esos requerimientos durante una producción real en su tasa establecida.

Beneficios

 Tener un proceso estándar de someter muestras iniciales al cliente.

Actividades

 Realizar una planeación avanzada de la calidad (APQP), involucrando al


usuario, proveedor, etc. como sea necesario, durante las fases de
prototipo y producción piloto.
 Utilizar mapas de proceso, planes de control, análisis de capacidad del
proceso y FMEA
 Realizar el PPAP

El ejemplo se omite por ser muy largo.

30. DESPLIEGUE DE LA FUNCIÓN DE CALIDAD (QFD)


Es una herramienta sistemática para traducir los requerimientos del cliente en
requerimientos organizacionales para cada una de las fases desde el concepto,
desarrollo de ingeniería, manufactura, hasta ventas y distribución.

Tiene el propósito de desplegar la voz del cliente a toda la organización (desde


el concepto hasta su disposición) usando una serie de fases: Concepto, diseño,
manufactura, y producción.

31. MODELO DE ASIGNACIÓN DE CONFIABILIDAD


Es la tarea de distribuir los requerimientos de confiabilidad / garantía a
subsistemas individuales y componentes para cumplir con los requerimientos
de confiabilidad del sistema, desde el sistema de alto nivel al nivel de
componente, a través de un proceso lógico.

Página 67
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 68
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Teoría de la confiabilidad

Página 69
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

1. Introducción a la confiabilidad

No es suficiente que un producto cumpla las especificaciones y criterios de


calidad establecidos sino que además es necesario que tenga un buen
desempeño durante su vida útil es decir que sea confiable. Esto cada vez cobra
una importancia mayor dado que cambia la tecnología, los productos son cada
vez más complejos, los clientes se tornan cada vez más exigentes y la
competencia es alta.

Confiabilidad es la probabilidad de que un componente o sistema desempeñe


satisfactoriamente la función para la que fue creado durante un periodo
establecido y bajo condiciones de operación establecidos. La confiabilidad es
calidad en el tiempo.

Falla de un producto sucede cuando deja de operar, funcionar o no realiza


satisfactoriamente la función para la que fue creado. El tiempo de falla es el
tiempo que transcurre hasta que el producto deja de funcionar.

Las razones de estudio de la confiabilidad de productos son las siguientes:

1. Determinar el tiempo tp hasta el cual se espera que falle una proporción p


dada de los productos en operación. Esto es útil para determinar tiempos de
garantía apropiados así como sus costos.

2. Encontrar el tiempo tp al cual se espera que sobreviva una proporción 1-p


dada de los productos en operación. Es una estimación de la confiabilidad de
los productos.

3. Determinar la propensión a fallar que tienen el producto en un tiempo dado.


Para comparar dos o más diseños o procesos, o lo que se publicita por un
proveedor.

4. Dado que un artículo ha sobrevivido un tiempo T0, encontrar la probabilidad


de que sobreviva un tiempo un tiempo t adicional. Para planear el reemplazo de
los equipos.

5. Los puntos anteriores se pueden hacer de manera comparativa para


diferentes materiales, proveedores o modos de falla.

La información para los estudios de confiabilidad tienen diferentes


denominaciones: datos de tiempos de vida, datos de tiempos de falla, datos de
tiempo a evento, datos de degradación, etc.

Entre las características que tienen los estudios de confiabilidad se encuentran


los siguientes:

1. Los tiempos de falla son positivos con comportamiento asimétrico y sesgo


positivo, por tanto las distribuciones para modelar estos tiempos de falla son la
Weibull, lognormal, exponencial y gamma, la distribución normal casi no se
utiliza.

Página 70
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

2. Mientras que en estadística lo que interesa son los parámetros de la


población media y desviación estándar, en la confiabilidad lo que interesa son
las tasas de falla, las probabilidades de falla y los cuantiles. Un cuantil es el
tiempo tp hasta el cual se espera que falle una proporción p de artículos.

3. Para tener datos es necesario tener datos a través de pruebas las que en
algunas ocasiones son costosas.

4. A veces el tiempo para observar las fallas es muy largo y es necesario cortar
el tiempo de prueba, dando lugar a observaciones censuradas. Normalmente
se requiere extrapolar los resultados, por ejemplo al estimar la tasa de falla a
las 10,000 horas con pruebas de funcionamiento durante 1,000 horas.

5. Cuando es necesario acortar el tiempo de prueba se pueden hacer pruebas


de vida acelerada utilizando condiciones estresantes.

Ejemplo:

Se tomaron n = 1,000 chips probados durante 1,500 horas a una temperatura


de 80ºC y se observaron 40 con falla. Al finalizar la prueba 960 chips
funcionaban adecuadamente.

Entre las preguntas que se pueden contestar se encuentran las siguientes:

¿Cuál es la probabilidad de que fallen los chips antes de las 500 horas?
¿Cuál es el riesgo de falla a las 300 horas?
¿Cuál es la proporción de chips que fallarán antes de 250 horas?

Datos censurados

Censura

Página 71
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Se tienen datos censurados cuando no se conocen los tiempos de falla de las


unidades de manera exacta, sino solo los intervalos de tiempo donde
ocurrieron o hubieran ocurrido las fallas. Es información parcial sobre los
tiempos de falla. Algunas de las fuentes de censura son las siguientes:

 Tiempo fijo de terminación de la prueba


 Tiempos de inspección (límites superiores e inferiores en T)
 Modos de falla múltiples (también conocidos como riesgos en
competencia, y dando por resultado censura por la derecha),
Independiente (simple) y no independiente(difícil).

TIPOS DE CENSURA

 Censura por la derecha (tipo I y II): La tipo I es cuando se tienen


unidades sin falla limitando el tiempo de observación o censura por
tiempo. Cuando se limita el tiempo hasta que fallan r unidades, se tiene
censura tipo II para las unidades sobrevivientes (n-r).

 Censura por la izquierda: Ocurre cuando al inspeccionar las unidades


después de un periodo de tiempo se encuentra que algunas fallaron,
pero no se sabe el momento de su ocurrencia.

Página 72
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 Censura por intervalo cuando se inspecciona en intervalos de tiempo y


se observan fallas en cierto intervalo pero no se conoce exactamente en
que momento ocurrieron, se censuran los productos sobrevivientes.

 Censura múltiple: Cuando en el mismo estudio se tienen diferentes tipos


de censura.

Ejemplo:

A X

B ¿ ¿
C
¿
D

Fig. 1 Tipos de censura: A sin censura; B Censura por la izquierda; C Censura por la derecha;
D censura por intervalo.

2. Distribuciones de probabilidad

Página 73
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Verosimilitud (probabilidad de los datos)

La Verosimilitud proporciona un método general y versátil de estimación, se


prefieren las combinaciones de Modelo/Parámetros con Verosimilitud grande.
Permite censura, intervalos, y datos truncados.

La forma de la verosimilitud dependerá del: propósito del estudio, modelo


asumido, sistema de medición e identificación y parametrización.

La contribución por diferentes tipos de censura es como sigue:

Por ejemplo para la función de distribución:

La verosimilitud en censura por intervalo es:

Si una unidad continua operando en el tiempo T=1.0 pero ha fallado en t= 1.5,


Li =F(1.5) - F(1) = 0.231

La verosimilitud de censura por la izquierda es:

Si una falla se detecta en la primera inspección a un tiempo t=0.5,

Página 74
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Li = F(0.5) = .265

La verosimilitud de censura por la derecha es:

Si una unidad continua operando en la ultima inspección en el tiempo T=2.0,


Li =1 - F(2) = 0.0388

Para una tabla de tiempos de vida se tiene:

Los datos son: el número de las fallas (di), censuradas por la derecha (ri), y
censuradas por la izquierda (li) en cada uno de los intervalo (no traslapadas)
(ti-1, ti ], i = 1. . . m, m+1, t0 = 0. La verosimilitud (probabilidad de los datos)
para una sola observación, en (t i-1, ti ] es:

Si se supone que la censura es en ti:

Página 75
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Análisis no paramétrico de los tiempos de falla

Para la estimación no paramétrica de F(ti) con base en la teoría binomial para


datos con censura simple de intervalo se tiene:

Con los datos:

n = tamaño de muestra
Di = # de fallas en el iesimo intervalo
De la distribución binomial se tiene:

Por ejemplo si en una muestra de n = 100, en el primer intervalo se obtienen


d1 = 2 fallas, en el segundo periodo se obtienen d2 = 2 fallas y en el periodo
d3 = 2 fallas, entonces:

está definida sólo al final del intervalo

Página 76
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Es el estimador de máxima verosimilitud de F(t).

El incremento en a cada valor de ti es

El nivel de confianza expresa la confianza (no probabilidad) de que un intervalo


específico contiene la cantidad de interés.

La probabilidad de cobertura es la probabilidad de que el procedimiento dará


lugar a un intervalo que contiene la cantidad de interés. Un intervalo de
confianza es aproximado si el nivel especificado de la confianza no es igual a la
probabilidad real de la cobertura.

Con datos censurados la mayoría de los intervalos de confianza son


aproximados, para mejorar las aproximaciones se requieren más cálculos.

El intervalo de confianza de F(ti) con base en la distribución binomial es:

Donde y es el cuantil 100(1-/2) de

la distribución F con (1, 2) grados de libertad.

Usando la aproximación normal del intervalo de confianza para F(ti), el intervalo


aproximado del cuantil 100(1-) en % para F(ti) esta dado por:

Es el cuantil 100(1-/2) de la distribución normal estándar.

Es una estimación de la desviación

estándar de

Del ejemplo para un nivel de confianza del 95% se tiene:

Página 77
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Cuando el número de inspecciones se incrementa, el ancho del intervalo (ti-1,


ti) tiende a cero y los tiempos de falla son exactos.

F(t) está definido para todo t en el intervalo (0, tc ] donde tc es el tiempo de


censura F(t) es el estimador de mv de F(t). La estimación es una función
escalonada con un paso del tamaño 1/n en cada tiempo de falla, algunas
veces es múltiplo de 1/n porque hay tiempos de falla similares. Cuando no hay
censura, el F(t) es el fda empírico bien conocido.

Para la estimación no paramétrica de F(ti) con base en datos por intervalo y


censura múltiple por la derecha se tiene:

n=tamaño de muestra
di = numero de fallas en el intervalo i
ni = conjunto bajo riesgo al tiempo t-1
ri = numero de observaciones censuradas al tiempo ti

En el límite, si el numero de intervalos aumenta, el ancho del intervalo tiende a


0 y obtenemos el estimador Kaplan Maier o producto limite. Las fallas se
concentran en intervalos con ancho de intervalo infinitesimal. El estimador será
constante sobre todos los intervalos que no tienen fallas. La función cambia
cuando existe alguna falla,

Página 78
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 79
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Función de densidad de probabilidad

La función de densidad f(t) es continua si cumple para f(t) >= 0 el área bajo la
curva es igual a 1, en confiabilidad el intervalo es de cero a infinito o sea:



f (t ) dt  1

Para el caso de la distribución exponencial se tiene que:

f (t )e  t ; t  0

Función de distribución acumulada

Esta función se define como la integral de la función de densidad desde cero


hasta el tiempo t y representa la probabilidad de fallar antes del tiempo t
(P(t)  t), es decir:

t
P(T  t )  F (t )   f ( x )dx  1
0

Para el caso de la distribución exponencial se tiene:

t
P(T  t )  F (t )   e x dx  e x t
0  1  e t , t  0
0

Función de confiabilidad

Es una función decreciente denominada también función de supervivencia es la


probabilidad de sobrevivir hasta el tiempo t, se representa como:

R(t)= 1 – F(t)

Para el caso de la función exponencial es:

R (t ) e  t

f(t) 1 F(t) 1 R(t)

0 tiempo 0 tiempo 0 tiempo

Fig.2 Función de densidad Función de distribución Función de

Página 80
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Acumulada confiabilidad

Función de riesgo / Tasa de riesgo / Tasa instantánea de riesgo

Se define como:

f (t )
h(t ) 
R (t )

Es el resultado del siguiente límite:

P (t  T  T   T  t )
h(t )  lim
 0 

Representa la probabilidad de falla instantánea en el tiempo t + t dado que la


unidad ya sobrevivió hasta el tiempo t.

Vida útil de un producto

La vida útil de un producto se puede representar por una curva de la bañera,


como sigue:

f(t)

tiempo
Mortalidad Vida útil o fallas Envejecimiento
Infantil o aleatorias o fallas por desgaste
Fallas tempranas

Fig. 3 La curva de la bañera con el ciclo de vida de un producto

 La mortalidad infantil representa las fallas debidas a problemas de


diseño o ensamble con tasa de falla decreciente respecto al tiempo.
Normalmente se hace un quemado a las unidades durante un tiempo
razonable para eliminar este tipo de fallas al usuario del producto.

 La zona de fallas aleatorias representa una tasa de falla constante


respecto al tiempo.

 La zona de desgaste o envejecimiento representa la zona de tasa de


falla creciente cuando el componente está llegando a su vida útil.

Página 81
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Función de riesgo acumulado

Es la integral hasta el tiempo t de la función de riesgo como sigue:


t
H (t )   h( x) dx  1
0

Por medio de esta función también se puede calcular la confiabilidad como


sigue:

R (t )  e  H ( t )

Vida promedio o tiempo medio entre falla (MTBF)

La vida media es el valor esperado o media de la variable T como sigue:

t
E (t )   tf (t )dt
0

La vida media para el caso de la distribución exponencial es:

Por tanto para la distribución exponencial la vida media es la inversa de la tasa


de riesgo.

Función cuantil

El cuantil p es el tiempo tp al cual falla una porción de las unidades. Se define


en términos de la distribución acumulada como:

t p  F 1 ( p)

La función F-1(p) es la función inversa de F(t). En el caso exponencial resulta de


despejar t como sigue:

1 1
t p  F 1 ( p)   ln(1  F (t ))   ln(1  p)
 

Ejemplo:

Se someten 20 componentes a una prueba de vida y las horas transcurridas


hasta la falla fueron las siguientes:

Unidad Horas
1 3.70

Página 82
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

2 3.75
3 12.18
4 28.55
5 29.37
6 31.61
7 36.78
8 51.14
9 108.71
10 125.21
11 125.35
12 131.76
13 158.61
14 172.96
15 177.12
16 185.37
17 212.98
18 280.40
19 351.28
20 441.79

Si las horas de falla siguen la distribución exponencial, estimar las funciones de


densidad de probabilidad, función de distribución acumulada, función de
confiabilidad y función de riesgo.

Como no hay censura la media concuerda con las media de las observaciones
o sea 133.43.

La función de densidad es:

1
1  t
f (t ) e 133.43
133.43

La función de distribución acumulada es la siguiente:

1
 t
F (t ) 1  e 133.43

La probabilidad de que los componentes fallen antes de las 20 horas es:

F(20) = 0.139

La función de confiabilidad es la siguiente:

1
 t
R (t ) e 133.43

Y la función de riesgo es:

Página 83
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

1
h(t ) 
133.43

3. Modelos (distribuciones de probabilidad) para el


tiempo de falla

Los modelos que se utilizan para el tiempo de falla son: Weibull, Valor extremo,
exponencial, normal y lognormal. Aquí se mostrarán sus funciones de densidad
f(t), distribución acumulada F(t), función de confiabilidad R(t) y función o tasa
de riesgo h(t). También se incluyen la vida media y la función cuantil de cada
distribución.

Distribución exponencial de un parámetro

Modelo de confiabilidad para tasa de riesgo constante, de componentes de


muy larga vida y alta calidad que “no envejecen” durante su vida útil. Se dice
que esta distribución tiene falta de memoria ya que no importa el tiempo que
haya transcurrido, su probabilidad de falla es la misma que cuando estaba
nuevo. Es muy aplicable a componentes electrónicos ya que no exhiben
desgaste o mejora en el tiempo (por ejemplo los transistores, los resistores, los
circuitos integrados y los condensadores). No es aplicable a componentes con
desgaste como las balatas o baterías cuya tasa de falla se incrementa con el
tiempo.

Sus funciones básicas son:

f (t )  e  t , F (t )  1  e  t , R(t )  e  t , h(t )  

La función cuantil y la vida media son:

t p  (1 /  ) ln(1  p ), E (T )  1 / 

En función de la media se tiene (MTBF = ):

Página 84
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

f(t) 1 F(t) 1 R(t)

0 tiempo 0 tiempo 0 tiempo

Fig.4 Función de densidad Función de distribución Función de


Acumulada confiabilidad
.008

Función de riesgo

El efecto de la tasa de falla en la pdf es:

Página 85
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución exponencial de dos parámetros

Para:

• Donde  > 0 es un parámetro de escala y  es un parámetro


localización y frontera. Cuando  = 0 se tiene la distribución exponencial
de un parámetro.

Los cuantiles son:

Tp =  -  log (1-p)

Los Momentos son.

Página 86
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución Weibull de dos parámetros

Es una distribución flexible donde su tasa de falla puede ser decreciente,


constante o creciente dependiendo de sus parámetros. Normalmente se define
con dos parámetros: el de forma  que tiene efecto sobre la forma de la
distribución y el de escala  que afecta la escala del tiempo de vida.

La teoría de valores extremos demuestra que la distribución de Weibull se


puede utilizar para modelar el mínimo de una gran cantidad de variables
aleatorias positivas independientes de cierta distribución: tales como falla de un
sistema con una gran cantidad de componentes en serie y con los mecanismos
de falla aproximadamente independientes en cada componente.

Sus funciones básicas son:



 1  t 
 t  
f (t )    e   Distribución de densidad
  

 t 
  
F (t )  1  e   Distribución acumulada


 t 
 
R (t )  e   Función de confiabilidad

 1
 t 
h(t )    Función de riesgo
  

La vida media y la función cuantil son las siguientes:

E (T )  (1  1 /  )

t p     ln(1  p )
1/ 

La función gamma se define como:


t
x 1
( x)  e t dt Generalización del factorial de un número
0

( x )  ( x  1) ( x  1) Para cualquier número

( n)  (n  1)! Para números enteros

Página 87
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

=0.5 =1 =2


1

Tiempo
Figura 5. Funciones de densidad Funciones de riesgo

En general cuando el para valores de beta 0<<1 la función de riesgo es


decreciente y para valores de >1 la función de riesgo es creciente.  también
se conoce como pendiente.

Página 88
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 89
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 90
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Esta distribución se aplica a productos con varios componentes de vida similar,


donde cuando falla un componente falla el producto.

Página 91
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución Weibull de tres parámetros

En ocasiones las fallas no empiezan a observarse desde el tiempo cero sino


hasta después de un periodo , es decir hasta después de este tiempo la
probabilidad de falla es mayor a cero. Para esto se introduce en la distribución
un parámetro de localización que recorre el inicio de la distribución a la
derecha, quedando las funciones de densidad, de distribución, de confiabilidad
y de riesgo para la distribución de Weibull (, , ) como sigue:


 1  t  
  t    
f (t )    e    Distribución de densidad
   

 t  
 
F (t )  1  e    Distribución acumulada


 t  
 
R (t )  e    Función de confiabilidad

 1
  t  
h(t )    Función de riesgo
   

Donde t>= 

La vida media y la función cuantil son las siguientes:

E (T )    (1  1 /  )

t p       ln(1  p )
1/ 

En el caso de =1 se tiene la distribución exponencial.

Página 92
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ejemplo:

Sea la función de riesgo de Weibull dada por:

h(t )  (0.5 / 1000)(t / 1000) 0.5 t se expresa en años

Si se implementa un periodo de quemado (burn-in) de 6 meses (tb=0.5), a que


tiempo las unidades sobrevivientes tendrán una confiabilidad de 90%.
De la función de riesgo, el parámetro de forma =0.5 y el parámetro de escala
es =1000.

Sustituyendo estos valores en la función de confiabilidad de Weibull se tiene:


0 .5
 t 
 
R (t )  0.9  e  1000 

t  1000  ln(0.90)  11 .1
2

A seis meses la confiabilidad de las unidades sobrevivientes estará dada por la


probabilidad condicional siguiente:

Página 93
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

C (t t  t b )  0.90 

R(t  t b ) exp  ((t  0.5) / 1000) 0.5


R (t b ) 
exp  (0.5) / 1000) 0.5 
Igualando a 90% y despejando para t se obtiene t = 15 años, es decir el
periodo de quemado eliminaría unidades débiles que fallarían pronto y las
unidades sobrevivientes tienen mayor confiabilidad.

Distribución Valor extremo para mínimos

Se utiliza para describir la vida de productos cuya duraci´´on está determinada


por la vida mínima de sus componentes:

1 t    t   
f (t )  exp   exp  Función de densidad
     

  t   
F (t )  1  exp  exp  Función de distribución
   

  t   
R (t )  exp  exp  Función de confiabilidad
   

1 t   
h(t )  exp  Función de riesgo
   

La vida media y la función cuantil son las siguientes:

E (T )    0.5772 0.5772 constante de Euler

t p     ln  ln(1  p)

=1 =2 =3


1

Tiempo
Figura 6. Funciones de densidad Funciones de riesgo

La distribución Valor extremo se relaciona con la distribución Weibull donde si


la variable T sigue una distribución Weibull (, ), su logartimao ln(T) sigue una

Página 94
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

distribución valor extremo con parámetros de escala =1/ y parámetro de


localización =ln().

Para:

Donde

Son fdp y fda para una normal estándar  es el parámetro de localización y 


es el parámetro de escala.

Los cuantiles son:

Donde es el cuantil p de una normal estándar.

Los Momentos son:

Página 95
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución de los valores extremos máximos

Para

Donde:

Son fdp y fda para una distribución

 es el parámetro de localización y  es el parámetro de escala.

Los cuantiles son:

La media y la varianza son las siguientes:

Página 96
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución normal

No es muy utilizada en confiabilidad dado su comportamiento simétrico, el


comportamiento del tiempo de vida es asimétrico, sin embargo es un modelo
adecuado cuando muchos componentes tienen un efecto aditivo en la falla del
producto. Aquí  es el parámetro de localización y  es el parámetro de
escala.

Sus funciones básicas de densidad, distribución y confiabilidad son las


siguientes:
2
1  t  
1   
f (t )  e 2  
Función de densidad
2

t  
t
F (t )   f ( x)dx  

 
 Función de distribución

t  
t
R(t )  1   f ( x)dx  1  

 
 Función de confiabilidad

La vida media y la función cuantil estan dadas por:

E (T )  
t p     1 ( p )

Donde -1 es la función inversa de la distribución normal estándar acumulada.

=1 =2 =3


1

Página 97
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Tiempo
Figura 6. Funciones de densidad Funciones de riesgo

Página 98
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 99
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución lognormal

Esta distribución es apropiada cuando los tiempos de falla son el resultado de


muchos efectos pequeños que actúan de manera multiplicativa. Esto hace que
al sacar el logaritmo de dichos efectos actúen como de manera aditiva sobre el
logaritmo del efecto global o logaritmo del tiempo de falla, se aplica a procesos
de degradación por ejemplo de fatiga de metales y de aislantes eléctricos.

La distribución lognormal es un modelo común para los tiempos de la falla, se


justifica para una variable aleatoria obtenida como el producto de un número
variables aleatorias positivas, independientes e idénticamente distribuidas. Se
se puede aplicar como modelo de el tiempo de falla causado por un proceso de
degradación con tazas aleatorias que se combinan multiplicativamente.

La distribución lognormal se relaciona con la normal ya que si T sigue una


distribución lognormal, su logaritmo sigue una distribución normal. O si T tiene
una distribución normal, Y=exp(T) sigue una distribución lognormal.

Sus funciones básicas son las siguientes:

1  1 
2
1  ln( t )   
  
f (t )   e 2    Función de densidad
t  2 
 

 ln(t )   
t
F (t )   f ( x)dx  




Función de distribución

 ln(t )   
t
R (t )  1   f ( x)dx  1  




Función de confiabilidad

La vida media y la función cuantil estan dadas por:

E (T )  exp(   2 / 2)

t p  exp(    1 ( p )

Página 100
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 101
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 102
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Donde el cuantil para la distribución normal es

La media y el cuantil es:

Página 103
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribución logística

Para:

 es el parámetro de localización y  > 0 es el parámetro de escala

Donde y son fdp y fda para una logistica estandarizada dada por:

Los cuantiles son:

Con

es el p esimo cuantil para una distribución logística estándar.

La media y la varianza son:

Página 104
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ejemplos:

Distribución Loglogística

Si entonces

Con:

Donde y son fdp y fda para una logistica estándar . Exp( ) es el


parámetro de localización y  > 0 es el parámetro de escala.

La media para sigma > 1 es:

Y para sigma < ½ es:

Página 105
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 106
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

4. Estimación de parámetros del modelo

Los modelos paramétricos complementan a las técnicas no paramétricas. Los


modelos paramétricos se pueden describir con precisión con apenas algunos
parámetros, en vez de tener que reportar una curva entera.

Es posible utilizar un modelo paramétrico para extrapolar (en tiempo) a la cola


inferior a o superior de una distribución. En la práctica a menudo es útil
comparar varios análisis paramétricos y no paramétricos de un conjunto de
datos.

Funciones de los parámetros

Función de distribución acumulativa

El p cuantil es el valor mas pequeño de tp tal que

La función de Riesgo

El tiempo medio de falla, MTTF, de T (también conocida como esperanza de T).

Si esta integral no converge, se dice que la media no existe.

La varianza (o el segundo momento central) de T y la desviación estándar son:

El coeficiente de variación es:

Página 107
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Distribuciones con parámetros de localización y escala

Para las distribuciones de esta familia su fda se puede expresar como.

Dónde - < µ <  es un parámetro de localización y  >0 es un parámetro


de escala.

 es la fda de Y cuando µ = 0 y  = 1 y  no depende de ningún parámetro


desconocido. Como en la distribución de Z = (Y- µ ) /  que no depende de
ningún parámetro desconocido.

Las distribuciones estadísticas de esta clase de distribuciones son las


siguientes: distribuciones exponenciales, normales, Weibull, lognormal,
loglogistica, logísticas, y de valor extremos. Su teoría es relativamente simple.

Resumen de modelos de confiabilidad

En la tabla siguiente se relaciona la distribución de los tiempos de falla T con:


1) Las transformaciones idóneas para Tp , y
2) Las distribuciones que siguen los residuos.

Página 108
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Especificación de la distribución de vida y estimación gráfica de sus


parámetros

Un primer paso en un estudio de confiabilidad es identificar la distribución que


mejor modela los tiempos de falla (o vida) de los productos.

Linearización de la función de distribución acumulada (fda)

Esto es necesario para determinar la confiabilidad usando papel deprobailidad


de Weibull:

Para el caso de la distribución exponencial se tiene:

t

F (t )1  e 

Se deduce que:

t

e 
 1  F (t )

t
 ln1  F (t ) 

Es la ecuación de la recta y = ax con y = -ln(1-F(t)) y x = t. La pendiente de la


recta es 1/. Por tanto se pueden graficar los pares ordenados (t(i), -ln(1-
F^(t(i))) con F^(t(i)) = (i-0.5)/n, en papel ordinario o graficar en papel
exponencial los pares (t(i), (i-0.5)/n).

 t t (i )
Exponencial 1  exp    log(1  p( i ) ) 
  

Para el caso de Weibull dela función cuantil:

t p     ln(1  p )
1/ 

Tomado logaritmos naturales de ambos lados y sustituyendo p por F(ft) (es lo


mismo), se obtiene:

1
ln(t )  ln( )  ln  ln(1  F (t )

Reacomodando la ecuación queda como:

ln  ln(1  F (t )    ln( )   ln(t )

Ecuación de la foirma y = ax + b, con y = ln (-ln(1-F(t)), a = - ln() y x = ln(t).

Se puede graficar en papel ordinario (ln(t(i), ln (-ln(1-F(t)), o graficar en papel


logarítmico de Weibull (t(i), (i-0.5)/n).

Página 109
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ejemplo:

Se prueban seis unidades similares en un estudio de confiabilidad, las cuales


presentaron fallas como sigue:

Tiempo de Orden de Posición en gráfica


falla (Hrs.) fallas, i (i-0.5)/6
16 1 0.083
34 2 0.250
53 3 0.416
75 4 0.583
93 5 0.750
120 6 0.916

Utilizando Minitab con las siguientes instrucciones:

1. Stat > Reliability / Survival > Distribution analysis (Right sensoring) >
Parametric distribution analysis

2. Variables t; Assumed distribution Weibull

3. OK

Los resultados son los siguientes:

Distribution Analysis: t
Variable: t

Censoring Information Count


Uncensored value 6
Estimation Method: Least Squares (failure time(X) on rank(Y))
Distribution: Weibull

Parameter Estimates
Standard 95.0% Normal CI
Parameter Estimate Error Lower Upper
Shape 1.43966 0.770081 0.504604 4.10744
Scale 76.1096 23.0668 42.0206 137.853

Log-Likelihood = -29.977

Goodness-of-Fit
Anderson-Darling (adjusted) = 1.980
Correlation Coefficient = 0.996

Characteristics of Distribution
Standard 95.0% Normal CI
Estimate Error Lower Upper
Mean(MTTF) 69.0792 21.6192 37.4070 127.568
Standard Deviation 48.7161 31.6088 13.6579 173.765
Median 59.0032 19.5515 30.8190 112.962
First Quartile(Q1) 32.0329 17.6650 10.8690 94.4070
Third Quartile(Q3) 95.4934 31.2532 50.2794 181.366
Interquartile Range(IQR) 63.4604 32.7893 23.0514 174.707

Table of Percentiles
Standard 95.0% Normal CI

Página 110
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Percent Percentile Error Lower Upper


1 3.11703 5.40393 0.104239 93.2077
2 5.06250 7.48720 0.278920 91.8864
3 6.73318 8.95519 0.496722 91.2696
4 8.25196 10.1030 0.748881 90.9288
5 9.67027 11.0465 1.03062 90.7361
6 11.0159 11.8452 1.33886 90.6365
7 12.3060 12.5347 1.67146 90.6017
8 13.5521 13.1381 2.02681 90.6153
9 14.7626 13.6715 2.40367 90.6672
10 15.9435 14.1466 2.80105 90.7505
20 26.8511 16.9820 7.77351 92.7483
30 37.1916 18.1019 14.3268 96.5476
40 47.7313 18.6733 22.1717 102.756
50 59.0032 19.5515 30.8190 112.962
60 71.6255 21.8154 39.4287 130.114
70 86.5837 26.9542 47.0382 159.376
80 105.925 37.2835 53.1361 211.156
90 135.843 59.0936 57.9098 318.656
91 140.131 62.6511 58.3405 336.587
92 144.857 66.6766 58.7677 357.060
93 150.135 71.2939 59.1935 380.792
94 156.128 76.6846 59.6209 408.847
95 163.088 83.1306 60.0537 442.898
96 171.433 91.1043 60.4981 485.788
97 181.936 101.493 60.9642 542.951
98 196.302 116.288 61.4723 626.862
99 219.854 141.853 62.0763 778.651

Probability Plot for t


Weibull - 95% CI
Complete Data - LSXY Estimates
99
Table of S tatistics
Shape 1.43966
90 Scale 76.1096
80 M ean 69.0792
70 StD ev 48.7161
60 M edian 59.0032
50 IQ R 63.4604
40 F ailure 6
30
Percent

C ensor 0
20 A D* 1.980
C orrelation 0.996

10

3
2

1
0.1 1.0 10.0 100.0 1000.0
t

La confiabilidad a las 15 horas por medio de la distribución de Weibull es:

> Estimate Estimate survival probabilities for these times (values) 15


Table of Survival Probabilities

95.0% Normal CI
Time Probability Lower Upper
15 0.908008 0.276139 0.992789

Página 111
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Por cálculo manual se tiene con Shape 1.43966 y Scale 76.1096:

1.43966
 15 
  
R (15)  e  76.1096 
0.9080

Por tanto el 90.8% de los componentes duran más de 15 horas.

Estimador de Kaplan Meyer

Si se consideran los datos censurados por la derecha, para graficar en papel


de probabilidad, se utilizan las posiciones estimadas por Kaplan Meyer (KM) de
la función de confiabilidad definido como:


R(t (i ) )  1  f (1)
n (1)  x1  .....1  
f ( 2)
n( 2)
f (i )
n (i )

Donde f(j) son las unidades que fallan en el j-ésimo intervalo de tiempo (ti-1, ti)
y n(j) son las unidades en riesgo justo antes del tiempo j. Las unidades en
reisgo son iguales al total de unidades menos las que han fallado hasta antes
de ese tiempo, menos las que fueron censuradas hasta ese tiempo, es decir.

i 1 i 1
n ( j )  n   f ( j )   rj
j 0 j 0

Donde rj denota el número de unidades que fueron censuradas en el tiempo tj,


y además f(0) = 0 y r(0) = 0.

El estimador de Kaplan Meyer toma en cuenta la censura contando las


unidades en riesgo un instante antes del tiempo j.

Ejemplo:

t(i) Fallas f(j)


Posición en gráfica
(i-0.5)/6
16 1 0.083
34 2 0.250
53 3 0.416
75 4 0.583
93 5 0.750
120 6 0.916
De aquí siguen las lienalizaciones

Estimación por mínimos cuadrados

Página 112
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Es un método para estimar los parámetros de las distribuciones de probabilidad


que se basa en ajustar un modelo de regresión lineal simple a los datos,
graficados en el papel de probabilidad correspondiente.

Las ecuaciones linealizadas para las distribuciones de probabilidad


acumuladas son las siguientes:

Distribución fda, F(t) fda en forma de y = a + bx

 t t (i )
Exponencial 1  exp    log(1  p( i ) ) 
  

Weibull
  t 
1  exp   
  



 
log  log(1  p(i )    log( )   log(t (i ) )
 

 t      t (i )
Valor extremo 1  exp  exp 
   
 
log  log(1  p( i ) )   
 

t   t(i )
Normal    1 ( p( i ) )   
    

 log(t )     log(t (i ) )
Lognormal    1 ( p( i ) )   
    

En las ecuaciones de la última columna se aprecian la pendiente de la recta y


la ordenada al origen.

Por ejemplo para la distribución exponencial, se hace una regresión simple


entre las parejas de coordenadas (t(i), ln(1-P(i)) para i = 1, 2, ……, n.

La pendiente de la recta es un estimador del parámetro 1/.

Por ejemplo para los datos anteriores se tiene:

Tiempo de Orden de Posición en gráfica Ln(1-P(i))


falla (Hrs.) fallas, i P(i) = (i-0.5)/6
16 1 0.083 -0.08664781
34 2 0.250 -0.28768207
53 3 0.416 -0.5378543
75 4 0.583 -0.87466906
93 5 0.750 -1.38629436
120 6 0.916 -2.47693848

Página 113
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Fitted Line Plot


Y = 0.4929 - 0.02201 t
S 0.268099
R-Sq 92.6%
0.0
R-Sq(adj) 90.7%

-0.5

-1.0
Y

-1.5

-2.0

-2.5

20 40 60 80 100 120
t

Así 1/ = -0.022 por tanto el MTBF = 45.45

Para la distribución Weibull las parejas a ajustar son:

(log(t(i)), log(-log(1-p(i)).

Tiempo Orden Posición en Log(t(i) log(-log(1-P(i))


de de gráfica
falla fallas, i P(i) = (i-0.5)/6
(Hrs.)
16 1 0.083 2.77258872 -2.44590358
34 2 0.250 3.52636052 -1.24589932
53 3 0.416 3.97029191 -0.62016758
75 4 0.583 4.31748811 -0.13390968
93 5 0.750 4.53259949 0.32663426
120 6 0.916 4.78749174 0.90702331

Página 114
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Fitted Line Plot


log(-log(1-P(i)) = - 6.955 + 1.611 Log(t(i)
1.0 S 0.108555
R-Sq 99.3%
R-Sq(adj) 99.2%
0.5

0.0
log(-log(1-P(i))

-0.5

-1.0

-1.5

-2.0

-2.5

3.0 3.5 4.0 4.5 5.0


Log(t(i)

Y la pendiente b estima a  y  se obtiene con exp(-a/b).

Por tanto  = 1.611 y  = 74.978 similar al obtenido arriba.

Máxima verosimilitud

Es un método para estimar los parámetros del modelo que provee los
estimadores que maximizan la probabilidad de haber observado los datos bajo
tal modelo.

Es más recomendado para estimar los parámetros del modelo, consiste en


maximizar la función de verosimilitud.

Con los datos se desea estimar el valor del parámetro . Los datos son un
evento E en el espacio muestral del modelo y la probabilidad de E será función
de los valores desconocidos de los parámetros del modelo, P(E;). El
estimador de máxima verosimilitud (emv) de  es el valor de  que maximiza
P(E;), y se denota por ^. La función de verisimilitud L() se define como la
probabilidad conjunta de los datos:

L( )  cP( E ; ) c es una constante que no depende de .

Para el caso de una variable aleatoria discreta como P(T=ti) la da la función de


probabilidad P(T=ti), la función de verosimilitud estará dada por:

L( , t i )  P(T  t ; )  f (t i , )
Por ejemplo para el caso de la distribución binomial se tiene:

Página 115
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 n  x n x
L( p;x)  f (x; p)    p (1 p)
 x
Donde x es el número de éxitos observados, p es la probailidad. Por lo que
dado x, L(p) toma distintos valores en función de p. El valor de p que maximice
L(p) es el (evm).

Para el caso de una variable continua, si se tienen n observaciones no


censuradas e independientes: t1, t2, t3,…., tn, la información que paortan esos
datos sobre  lo proporciona la función de verosimilitud dada por:
n
L( ; datos )  c f (t i ; )
i 1

Los estimadores de máxima verosimilitud son los valores de los parámetros


que maximizan la función L(), que maximizan la probabilidad de ahaber
observado esos datos bajo el modelo propuesto.

Para el caso de una observación censurada por la derecha, el artículo no había


fallado al tiempo t, o sea T > t, por lo tanto la verosimilitud de este evento es
proporcional a la probabilidad del mismo, es decir:

L( ; T  t )  P (T  t ; )  R (t ; ) Función de confiabilidad

Para el caso de una observación censurada por la izquierda, lo que se sabe es


que T < t, por tanto la verosimilitud de este evento es proporcional a la
probabilidad del mismo;

L( ; T  t )  P (T  t ; )  F (t ; ) Función de distribución acumulada

Para el caso de censura por intervalo, o por resolución baja del instrumento, se
sabe que el evento ocurrió entre: t i 1  T  t i y su verosimilitud está dada por:

ti
L( )  P (t i 1  t  t i )   f (t; )dt  F (t )  F (t
t 1
i i 1 )

Si se tienen cuatro datos: uno completo ti, uno censurado por la derecha tder,
otro por la izquierda tizq y el último por intervalo (tbajo, talto), la función de
verosimilitud para el modelo es:


L( ; datos)  f (t i ; ) xC (t der ; ) xF (t izq ; ) x F (t alto ; )  F (t bajo ; ) 

Página 116
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

En general la maximización de esta función para obtener los estimadores de


máxima verosimilitud para algunos de los modelos se hace por cálculo
diferencial (derivando e igualando a cero). Para el caso exponencial con
parámetro , considerando n tiempos de falla exactos,

n 
1  i  1   ti
t 1
L( ; datos)    e    n e 
i 1    
Maximizar esta función equivale a maximizar su logaritmo dado por:

1 n
ln L( ; datos)   n ln( )   ti
 i 1

Derivando respecto a  e igualando a cero se tiene:

d ln( L ( ))  n 1 n

d
 
 2
t
i 1
i 0

Despejando  para obtener el estimados de máxima verosimilitud se tiene:

n

   ti
i 1

Varios tipos de falla

Las unidades de prueba de un estudio de confiabilidad pueden fallar de


diversas maneras, no solo del tipo de falla que más interesa en un momento
dado. Si los modos de falla son independientes, cada uno debe analizarse por
separado, para lo cual las otras unidades que fallaron debido a otros modos de
falla se toman como censuradas. Si Ri(t) es la función de confiabilidad para el
modo de falla i, entonces la confiabilidad global del producto al tiempo t
consiuderando los k modos de falla del producto es:

R g (t )  R1 (t ) xR2 (t ) x....... xRk (t )

O sea que para sobrevivir al tiempo t se debe sobrevivir a todos los modos de
falla.

Ejemplo: Vida de conexiones con dos modos de falla

Los datos de la tabal siguiente son esfuerzos de ruptura de 20 conexiones de


alambre, con un extremo soldado sobre un semiconductor y el otro al poste
Terminal. Cada falla consiste en la ruptura del alambre (modo de falla 1 = A) o
de una soldadura (modo de falla 2 = S). En este caso el esfuerzo hace las
veces de tiempo de falla:

Esfuerzo Modo de
falla

Página 117
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

550 S
750 A
950 S
950 A
1150 A
1150 S
1150 S
1150 A
1150 A
1250 S
1250 S
1350 A
1450 S
1450 S
1450 A
1550 S
1550 A
1550 A
1850 A
2050 S

Interesa estudiar la distribución del esfuerzo de las conexiones, considerando


que se requiere que menos del 1% debe tener un esfuerzo menor a 500 mg. O
sea que al menos el 99% de las conexiones resista un esfuerzo de mayor a
500 mg. Se desea estimar el esfuerzo que resultaría de eliminar uno de los
modos de falla.

Primero se hace un análisis sin distinguir los modos de falla, identificando la


distribución que ajuste a los datos:

Con Minitab:

1. Stat > Reliability / Survival > Distribution analysis (right censoring) >
Distribution ID Plot

2. En Variables Esfuerzo Use all distributions (Weibull, Lognormal, Exponential,


Normal)

3. Options > Estimation Maximum likelihood

4. OK

Página 118
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Probability Plot for Esfuerzo


ML Estimates-Complete Data
A nderson-Darling (adj)
Weibull Lognormal
Weibull
99
1.011
90
Lognormal
90
1.123
50
E xponential
P er cent

P er cent
50 5.561
10 N ormal
0.970
10

1 1
500 1000 2000 1000 2000
Esfuer zo Esfuer zo

Exponential Normal
99
90
90
50
P er cent

P er cent

50
10
10

1 1
10 100 1000 10000 500 1000 1500 2000
Esfuer zo Esfuer zo

3. Options > Estimation Least squares

Probability Plot for Esfuerzo


LSXY Estimates-Complete Data
C orrelation C oefficient
Weibull Lognormal
Weibull
99
0.981
90
Lognormal
90
0.958
50
Exponential
P er cent

P er cent

50 *
10 N ormal
0.981
10

1 1
500 1000 2000 1000 2000
Esfuer zo Esfuer zo

E xponential Normal
99
90
90
50
P er cent

P er cent

50
10
10

1 1
10 100 1000 10000 500 1000 1500 2000
Esfuer zo Esfuer zo

Se puede observar que la distribución normal y la de Weibull dan un ajuste


parecido y los datos parecen provenir de una misma población donde las fallas
se presentan por la “liga más débil” que favorece al modelo Weibull donde .

Determinado los parámetros de la distribución Weibull por medio de Minitab:

Página 119
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

1. Stat > Reliability / Survival > Distribution analysis (right censoring) >
Distribution Overview Plot

2. En Variables Esfuerzo Parametric analysis - distribution Weibull

3. Options > Estimation Least squares

4. OK

Distribution Overview Plot for Esfuerzo


LSXY Estimates-Complete Data
Table of Statistics
P robability Density F unction Weibull
S hape 3.96368
0.0012
S cale 1416.71
90
M ean 1283.45
50 S tDev 363.046
0.0008
M edian 1291.59
P er cent
P DF

IQ R 503.809
10 F ailure 20
0.0004
C ensor 0
A D* 0.998
C orrelation 0.981
0.0000 1
500 1000 1500 2000 500 1000 2000
Esfuer zo Esfuer zo

Surv iv al F unction H azard F unction


100
0.0075
P er cent

0.0050
Rate

50

0.0025

0 0.0000
500 1000 1500 2000 500 1000 1500 2000
Esfuer zo Esfuer zo

Se obtiene una distribución Weibull con parámetro de forma o aspecto Beta =


3.96368 y parámetro de escala Etha = 1416.71.

5. Determinación de la confiabilidad

Haciendo un análisis de confiabilidad considerando los dos tipos de falla se


tiene:

Instrucciones de Minitab:;

1. Stat > Reliability / Survival > Distribution analysis (right censoring) >
Parametric Distribution Analysis

2. En Variables Esfuerzo Assumed distribution - Weibull

3. Options > Estimation Least squares

Página 120
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

4. OK

Los resultados se muestran a continuación:

Probability Plot for Esfuerzo


Weibull - 95% CI
Complete Data - LSXY Estimates
99
Table of Statistics
Shape 3.96368
90
Scale 1416.71
80 M ean 1283.45
70
StDev 363.046
60
50 M edian 1291.59
40 IQ R 503.809
F ailure 20
30
Percent

C ensor 0
20 A D* 0.998
C orrelation 0.981
10

5
3
2

1
0 0 0 0 0 0 0 0 00 00
30 40 50 60 70 80 90 100 15 20
Esfuerzo

Estimado la confiabilidad para 500 mg. Se tiene:

3ª. Estimate > Estimate survival probailities for these times 500 OK

Distribution Analysis: Esfuerzo

Variable: Esfuerzo

Censoring Information Count


Uncensored value 20

Estimation Method: Least Squares (failure time(X) on rank(Y))

Distribution: Weibull

Parameter Estimates

Standard 95.0% Normal CI


Parameter Estimate Error Lower Upper
Shape 3.96368 0.708783 2.79182 5.62743
Scale 1416.71 84.2759 1260.80 1591.91

Log-Likelihood = -145.245

Goodness-of-Fit
Anderson-Darling (adjusted) = 0.998
Correlation Coefficient = 0.981

Página 121
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Characteristics of Distribution

Standard 95.0% Normal CI


Estimate Error Lower Upper
Mean(MTTF) 1283.45 80.9684 1134.17 1452.37
Standard Deviation 363.046 53.1580 272.475 483.722
Median 1291.59 85.3243 1134.73 1470.13
First Quartile(Q1) 1034.60 95.8025 862.880 1240.48
Third Quartile(Q3) 1538.40 87.8896 1375.44 1720.68
Interquartile Range(IQR) 503.809 77.9169 372.069 682.196

Table of Percentiles

Standard 95.0% Normal CI


Percent Percentile Error Lower Upper
1 443.865 102.702 282.032 698.558
2 529.362 106.405 356.990 784.963
3 587.135 107.635 409.915 840.973
4 632.155 107.983 452.296 883.535
5 669.641 107.910 488.287 918.353
6 702.091 107.604 519.920 948.091
7 730.908 107.159 548.361 974.223
8 756.969 106.628 574.349 997.655
9 780.860 106.042 598.382 1018.98
10 802.995 105.420 620.818 1038.63
20 970.366 98.8486 794.742 1184.80
30 1092.26 93.0318 924.324 1290.70
40 1195.86 88.4357 1034.51 1382.39
50 1291.59 85.3243 1134.73 1470.13
60 1385.81 84.1349 1230.34 1560.92
70 1484.64 85.6630 1325.89 1662.40
80 1597.44 91.5272 1427.75 1787.29
90 1748.50 106.332 1552.03 1969.84
91 1768.35 108.820 1567.43 1995.03
92 1789.78 111.634 1583.83 2022.52
93 1813.20 114.856 1601.50 2052.88
94 1839.16 118.600 1620.80 2086.94
95 1868.53 123.044 1642.28 2125.94
96 1902.70 128.478 1666.84 2171.94
97 1944.24 135.440 1696.11 2228.68
98 1998.66 145.109 1733.56 2304.30
99 2082.63 161.124 1789.61 2423.63

Table of Survival Probabilities

95.0% Normal CI
Time Probability Lower Upper
500 0.984016 0.920465 0.996872

Y el porcentaje de falla será 100 – 98.40 = 1.6% que es mayor al objetivo del
1%, por lo que se tratará de eliminar uno de los modos de falla.

Obteniendo el análisis separado por modo de falla se tiene:

Instrucciones de Minitab:;

1. Stat > Reliability / Survival > Distribution analysis (right censoring) >
Parametric Distribution Analysis

Página 122
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

2. En Variables Esfuerzo By Variable Modo de falla Assumed distribution -


Weibull

3. Options > Estimation Least squares

4. OK

Los resultados son:

Distribution Analysis: Esfuerzo by Modo de falla

Variable: Esfuerzo
Modo de falla = A

Censoring Information Count


Uncensored value 10

Estimation Method: Least Squares (failure time(X) on rank(Y))

Distribution: Weibull

Parameter Estimates

Standard 95.0% Normal CI


Parameter Estimate Error Lower Upper
Shape 4.27142 1.20349 2.45892 7.41995
Scale 1414.58 110.427 1213.90 1648.45

Log-Likelihood = -71.553

Goodness-of-Fit
Anderson-Darling (adjusted) = 1.397
Correlation Coefficient = 0.986

Characteristics of Distribution

Standard 95.0% Normal CI


Estimate Error Lower Upper
Mean(MTTF) 1287.02 107.337 1092.94 1515.57
Standard Deviation 340.225 79.4624 215.258 537.739
Median 1298.27 112.923 1094.78 1539.58
First Quartile(Q1) 1056.70 133.092 825.550 1352.58
Third Quartile(Q3) 1527.00 115.966 1315.82 1772.08
Interquartile Range(IQR) 470.298 116.703 289.168 764.885

Table of Percentiles

Standard 95.0% Normal CI


Percent Percentile Error Lower Upper
1 481.849 159.303 252.056 921.140
2 567.416 162.268 323.949 993.862
3 624.664 162.391 375.287 1039.75
4 668.990 161.599 416.684 1074.07
5 705.726 160.416 452.015 1101.84
6 737.405 159.046 483.188 1125.37
7 765.450 157.585 511.303 1145.92
8 790.745 156.082 537.058 1164.26
9 813.878 154.565 560.927 1180.90
10 835.265 153.050 583.249 1196.17
20 995.688 139.088 757.214 1309.27
30 1111.24 127.738 887.082 1392.05

Página 123
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

40 1208.74 118.942 996.715 1465.86


50 1298.27 112.923 1094.78 1539.58
60 1385.93 110.342 1185.69 1619.98
70 1477.41 112.463 1272.65 1715.13
80 1581.30 121.743 1359.82 1838.86
90 1719.60 144.914 1457.79 2028.43
91 1737.71 148.743 1469.32 2055.12
92 1757.25 153.056 1481.47 2084.36
93 1778.57 157.969 1494.41 2116.77
94 1802.19 163.649 1508.37 2153.25
95 1828.88 170.351 1523.70 2195.18
96 1859.90 178.497 1540.98 2244.81
97 1897.55 188.861 1561.25 2306.28
98 1946.79 203.138 1586.72 2388.56
99 2022.57 226.538 1623.92 2519.08

Table of Survival Probabilities

Table of Survival Probabilities


Modo A
95.0% Normal CI
Time Probability Lower Upper
500 0.988299 0.841829 0.999196

Distribution Analysis: Esfuerzo by Modo de falla

Variable: Esfuerzo
Modo de falla = S

Censoring Information Count


Uncensored value 10

Estimation Method: Least Squares (failure time(X) on rank(Y))

Distribution: Weibull

Parameter Estimates

Standard 95.0% Normal CI


Parameter Estimate Error Lower Upper
Shape 3.32722 0.953840 1.89697 5.83582
Scale 1425.91 142.915 1171.60 1735.43

Log-Likelihood = -73.614

Goodness-of-Fit
Anderson-Darling (adjusted) = 1.529
Correlation Coefficient = 0.962

Characteristics of Distribution

Standard 95.0% Normal CI


Estimate Error Lower Upper
Mean(MTTF) 1279.60 133.140 1043.53 1569.06
Standard Deviation 423.801 103.468 262.633 683.874
Median 1277.18 141.540 1027.83 1587.03
First Quartile(Q1) 980.548 157.439 715.811 1343.20
Third Quartile(Q3) 1573.00 155.189 1296.43 1908.56
Interquartile Range(IQR) 592.449 149.699 361.053 972.145

Table of Percentiles

Página 124
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Standard 95.0% Normal CI


Percent Percentile Error Lower Upper
1 357.805 152.934 154.819 826.932
2 441.349 162.918 214.078 909.895
3 499.313 167.355 258.866 963.098
4 545.250 169.647 296.317 1003.31
5 583.983 170.836 329.150 1036.11
6 617.849 171.372 358.745 1064.09
7 648.177 171.486 385.917 1088.66
8 675.802 171.314 411.190 1110.70
9 701.288 170.939 434.927 1130.78
10 725.033 170.416 457.390 1149.29
20 908.468 162.047 640.438 1288.67
30 1045.99 153.087 785.145 1393.50
40 1165.24 145.843 911.751 1489.20
50 1277.18 141.540 1027.83 1587.03
60 1388.94 141.628 1137.33 1696.20
70 1507.73 148.293 1243.38 1828.28
80 1645.16 165.486 1350.79 2003.69
90 1832.13 203.940 1473.02 2278.80
91 1856.94 210.156 1487.52 2318.09
92 1883.78 217.141 1502.85 2361.28
93 1913.18 225.082 1519.19 2409.34
94 1945.86 234.251 1536.88 2463.67
95 1982.93 245.065 1556.35 2526.41
96 2026.21 258.210 1578.38 2601.10
97 2079.02 274.954 1604.30 2694.21
98 2148.52 298.080 1636.99 2819.90
99 2256.48 336.193 1685.05 3021.71

Table of Survival Probabilities


Modo S
95.0% Normal CI
Time Probability Lower Upper
500 0.969865 0.762180 0.996558

Página 125
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Probability Plot for Esfuerzo


Weibull - 95% CI
Complete Data - LSXY Estimates
99
Modo
90 de
80 falla
70 A
60 S
50
40 Table of Statistics
Shape Scale C orr F C
30
Percent

4.27142 1414.58 0.986 10 0


20 3.32722 1425.91 0.962 10 0

10

3
2

1
100 1000
Esfuerzo

Combinado los dos se tiene:

Rg = RA x RS =0.988299 x 0.969865 = 0.95851661

En este caso se observa que para tener menos de 1% de falla en 500 mg. Es
necesario eliminar los dos modos de falla, uno no es suficiente.

Página 126
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

6. Pruebas de vida acelerada

Los fabricantes desean tener resultados de confiabilidad para sus productos,


más rápidamente, que bajo condiciones de funcionamiento normal. Para lo
cual, se trata de acelerar las fallas sometiendo los productos a niveles altos de
esfuerzo, para después, extrapolar la confiabilidad a condiciones normales de
operación.

Se tienen los tipos de Pruebas de vida aceleradas cualitativas y cuantitativas:

Pruebas Cualitativas

Las pruebas de vida aceleradas cualitativas (tales como las pruebas de tortura)
se utilizan sobre todo para revelar los modos de falla probables para el
producto con objeto de mejorar su diseño. Una prueba acelerada que sólo da
Información de Falla (ó Modos de Falla), comúnmente se llama “Prueba de
Tortura”, “Prueba de Elefante”, “Prueba Cualitativa”, etc.

Sobre-esforzar a los productos para obtener fallas más “rápido” es la forma


más antigua de Pruebas de Confiabilidad. Normalmente no se obtiene
información sobre la distribución de la vida (Confiabilidad). Los tipos de
esfuerzo son en: Temperatura, Voltaje, Humedad, Vibración o, cualquier otro
esfuerzo que afecte directamente la vida del producto.

Las pruebas de Tortura se realizan sobre muestras de tamaño pequeño y los


productos se someten a un ambiente agresivo (niveles severos de esfuerzo)
Si el producto sobrevive, pasó la prueba. Muchas veces los datos de las
pruebas de tortura no pueden ser extrapolados a las condiciones de uso

Como beneficios de las pruebas de tortura se aumenta la Confiabilidad por la


revelación de modos probables de falla, aunque quedan en el aire diversos
cuestionamientos como son: ¿Cuál es la Confiabilidad del Producto?, ¿se
mantendrán los mismos Modos de Falla durante la vida del producto bajo uso
normal?

Pruebas Cuantitativas

Las pruebas de vida aceleradas cuantitativas (QALT) se diseñan para


cuantificar la vida útil del producto.

La Prueba de Vida acelerada, a diferencia de la Prueba de Tortura, está


diseñada para proveer Información de la Confiabilidad del producto,
componente o sistema, como dato básico se tiene el Tiempo de Falla, puede
estar en cualquier medida cuantitativa, tal como: horas, días, ciclos,
actuaciones, etc.

Los modelos de tiempos de vida de escala acelerada (TAEF) se definen como:

Página 127
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Cuando FA(x)>1, el modelo acelera el tiempo, esto es T(x) >T(x0); en caso


contrario, el modelo desacelera el tiempo.

En la grafica de T(x0) vs T(x):


 El modelo TAEF se representa por líneas rectas a través del origen.
 El modelo TAEF acelerado se representa por lineas rectas por abajo de
la diagonal.
 El modelo TAEF desacelerado se representa por líneas rectas por arriba
de la diagonal.

Para un modelo TFAE T(x) = T(x0)/FA(x), (Ψ(x) > 0), donde:

 Si la cdf base está en x0 F(t; x0) entonces AF(x0) = 1

 Tiempo escalado: F(t; x) = F [AF(x) t; x0]. Entonces las cdfs F(t; x) y F(t;
x0) no se cruzan.

 Cuantiles proporcionales: tp(x) = tp(x0)/AF(x). Entonces tomando


Logaritmos se tiene log[tp(x0)] − log[tp(x)] = log[AF(x)]. Esto muestra que
cualquier grafica en escala log-tiempo tp(x0) y tp(x) son equidistantes.
 En particular, en una grafica de probabilidad en escala log-tiempo F(t, x)
es una translación de F(t, x0) a lo largo del eje log(t).

Página 128
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Grafica de Probabilidad Weibull de dos miembros de una familia TFAE de


modelos con distribución Lognormal

Note que para modelos con una sola variable de la familia log-localización –
escala:

Por tanto pertenecen a la familia de modelos de tiempos de vida de escala


acelerada y,

Página 129
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Modelos de vida acelerada

Se han desarrollado modelos que relacionan el nivel de esfuerzo y la función


de densidad de los tiempos de falla como sigue:

Modelos de aceleración

Los modelos de aceleración se derivan a menudo de modelos físicos o


cinéticos relacionados al modelo de falla, por ejemplo:

 Arrhenius
 Eyring
 Regla de Potencia Inversa para Voltaje
 Modelo exponencial de Voltaje
 Modelos de Dos: Temperatura / Voltaje
 Modelo de Electromigración
 Modelos de tres esfuerzos (Temperatura, Voltaje y Humedad)
 Modelo Coffin-Manson de Crecimiento de Fracturas Mecánicas

Ley de la potencia inversa

L = medida cuantificable de vida, tal como la media, la mediana cuantiles, etc.,


S = nivel de estrés o esfuerzo
K = parámetros del modelo por determinar (K debe ser > 0), y,
n = es otro parámetro del modelo.

Para el caso de la distribución de Weibull, se tiene:

Página 130
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Una vez que se estiman los parámetros b, K y n, se pueden hacer


predicciones de vida útil para diferentes valores de t y S.

El modelo de Arrhenius se muestra a continuación:

R = velocidad de reacción,
A = constante desconocida,
EA = energía de activación (eV),
K = constante de Boltzman, y
T = temperatura absoluta (Kelvin).

El modelo de Eyring es como sigue:

L = medida cuantificable de vida, tal como la media, la mediana, cuantiles, etc.,


V = nivel de estrés (temperatura medida en grados kelvin)
A = uno de los parámetros del modelo, y,
B = otro parámetro del modelo

Página 131
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Los modelos de regresión lineales y log lineales vistos anteriormente pueden


ser útiles para modelar diversos efectos de estrés. Para distribuciones de la
familia log-localización escala (weibull, exponencial, lognormal):

Con media:

Y modelo de regresión:

Sus residuos se definen como:

Para distribuciones de la familia localización-escala (Normal, Logística, valores


extremos):

Con media:

Y Tp:

Sus residuos se definen como:

Página 132
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Como resumen de los modelos se tiene:

Los modelos más utilizados son los siguientes:

 El modelo de Arrhenius,

 El modelo de Eyring y

 El modelo de la ley de la potencia inversa

Página 133
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

7. Confiabilidad de sistemas
Cuando se estudia la confiabilidad de un sistema compuesto por componentes,
la falla de alguno de ellos hace que todo el sistema deje de funcionar, en este
caso el se dice que los componentes están en serie. En caso de que la falla de
un componente particular no afecte al funcionamiento total del sistema dado
que otros componentes continúan funcionando, se dice que están conectados
en paralelo.

Sistemas Complejos

El estudio de sistemas complejos implica la subdivisión de un producto en sus


componentes individuales. Al modelar un sistema complejo es crucial
especificar el nivel del detalle del modelo. La operación del sistema se expresa
en función de la operación de los componentes. La función de estructura
describe el lazo entre el estado del sistema y el estado de los n componentes
que forman el sistema.

El Estado del Sistema

El sistema se asume como una colección de “n” componentes. También se


asume que hay dos estados posibles para los componentes del sistema:
“funcionando” o “falla”. El estado del componente i, denotado por Xi, es:

para i = 1...,n.

Los estados de los n componentes se pueden escribir como el vector X=(X1...,


Xn). Hay n componentes, cada uno de los cuales puede tomar 2 valores,
entonces, hay 2n posibles estados del sistema.

Función de Estructura de un sistema

La función de estructura asocia los estados del sistema { X } al conjunto { 0.1 },


rindiendo el estado del sistema.

El estado del sistema es:

La forma de la función de estructura depende del diseño del sistema. Las


estructuras más comunes que vemos son sistemas en series y sistemas en
paralelo.

Considere un sistema con k componentes y sea la variable xi (i=1, 2, 3,…., k)


que toma el valor 1 si el i-ésimo componente funciona y el valor 0 si no

Página 134
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

funciona. En cierto momento el estado del sistema está determinado por el


vector X = (x1, x2, x3,…., xk) de ceros y unos. La función de estructura del
sistema está definida en este espacio de vectores y toma valores:

1,
 (x)   1 si el sistema funciona; 0 si no funciona
0
La función de estructura de un sistema serie es:
k
 ( x )   xi
i 1

La función de estructura de un sistema paralelo es:

k
 ( x )  1   (1  xi )
i 1

Cada vector X donde el sistema funciona se denomina trayectoria y cada vector


X donde el sistema no funciona se denomina corte. En total se tienen 2K
posibles estados sumando los cortes y las trayectorias. En el sistema serie solo
hay una trayectoria con un vector de unos X=(1,1,1…,1) y 2 K-1 cortes y en el
sistema paralelo solo hay un corte cuando X=(0,0,0,…,0) y 2K-1 trayectorias.

El número de componentes que funcionan en un estado se denominan tamaño


de X, con valores desde 1 hasta k. La trayectoria mínima es un vector X con
todos los componentes funcionando.

Revisar la importancia estructural:

¿Qué importancia tienen los componentes en la estructura?


¿Si el componente i falla, dejará de operar el sistema?
¿Cuántos estados posibles hay del sistema?
¿En cuantos estados el componente i es funcional?
¿En que estados al fallar el componente i el sistema fallará?

Por ejemplo para el componente 1:

Página 135
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ahora considere que el componente 1 falla.


El sistema fallara para los vectores (1,1,1), (1,0,1) y (1,1,0), (1,0,0).
Entonces el componente 1 tiene una importancia estructural de 4/4.

Si falla el componente 2:
El sistema operara en el estado (1,1,1) y fallará en los estados (0,1,1) y (0,1,0)
y (1,0,1).

Entonces la importancia estructural del componente 2 es 1/4.

Por simetría, la importancia estructural del componente 3 es 1/4.

Página 136
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Sistemas en Serie

Un sistema en serie tiene k componentes. Suponiendo que trabajan en modo


independiente, la confiabilidad del sistema es la probabilidad de que todos los
componentes funcionen.

Entonces (X) = 1 si todas los valores Xi toman el valor 1 y (X) = 0 de otra


manera. Por tanto:

Regla de producto de probabilidades

Los diagramas de bloque son usados para visualizar sistemas de


componentes. El diagrama de bloque que corresponde a un sistema de la
serie es:

El diagrama de bloque representa el lazo lógico de la operación de los


componentes y el sistema. No representa su disposición física. La idea es que
si se puede trazar un camino de izquierda a derecha a través del sistema, el
sistema funciona.

Ejemplo:

Un producto electrónico tiene 40 componentes en serie. La confiabilidad de


cada uno es de 0.999, por tanto la confiabilidad de producto completo es de:

Rs  (0.999) 40  0.961

Si el producto se rediseñara para tener solo 20 componentes, la confiabilidad


sería de Rs = 0.98.

A B C Z
Figura 7. Sistema con componentes en serie

Sistemas en paralelo

En este sistema, si tiene k componentes, basta con que uno funcione para que
siga en operación. Se requiere que todos los componentes fallen para que falle
el sistema, o sea:

Página 137
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

 ( X )  max{ X 1 ,..., X n },
n
 1   (1  X i ).
i 1

Rs  1  P(todos fallen)  1   (1  R1 ) x(1  R2 ) x......x(1  Rk )

El diagrama de bloque para una estructura en paralela es

Entre más componentes redundantes haya, la confiabilidad del sistema es


mayor, esto también está presente en los seres vivos, como por ejemplo en los
riñones.
Ejemplo:

Considere 4 componentes A, B, C y D de un producto conectados en paralelo,


con confiabilidades de 0.93, 0.88, 0.88 y 0.92 respectivamente, la confiabilidad
total es:

Rs  1   (1  0.93)(1  0.88)(1  0.95)(1  0.92)  1  0.0000336  0.9999664

B
A
C

D
Fig. 8 Sistema con 4 componentes en paralelo

Sistemas con componentes en serie o en paralelo (K de n)

Página 138
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Los sistemas pueden tener componentes en serie y en paralelo, en algunos


casos es importante identificar cuales componentes son clave para incrementar
la confiabilidad del sistema.

Un sistema k de n funciona si cualesquier k de los n componentes del sistema


funcionan. Los sistemas en serie y en paralelo son casos especiales del
sistema k en n. Un sistema en serie es un sistema k de k. Un sistema en
paralelo es un sistema 1 de n.

Por ejemplo:
En los puentes algunos de los cables de la suspensión pueden fallar, y el
puente no cae. En las bicicletas algunos de los rayos pueden fallar.

La función de estructura es:

Un ejemplo de diagrama de bloques para un sistema 2 de 3 donde con dos de


3 componentes que operen, el sistema continuará operando, es el siguiente:

Ejemplo:

Para el caso de un avión continua volando si funcionan 2 de 4 motores.

Su diagrma de bloques es el siguiente:

Su función de estructura es la siguiente:

Página 139
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Ejemplo:

Se tienen los siguientes 7 componentes conectados en serie y en papralelo,


sus confiabilidades son: RA=0.96; RB=0.92; RC=0.94; RD=0.89; RE=0.95;
RF=0.88; RG=0.90.

A G
C D
E F
B
Figura 9. Sistema con 7 componentes en serie y en paralelo

Rs = Rab x Rc x Rd x Refg

Rab = 1-(1-0.96)(1-0.92) = 0.9968

Refg= 1-(1-0.95)(1-0.88)(1-0.90) = 0.9836

Rs = 0.9968 x 0.94 x 0.89 x 0.9836 = 0.82

Método de trayectoria para calcular la confiabilidad de un sistema

Para calcular las confiabilidades de sistemas simples se aplican las fórmulas de


estructuras serie o paralelo. Para sistemas más complejos, es necesario
conocer las reglas siguientes:

Regla 1. Sean dos sistemas, uno con función de estructura 1(x)= 0(x) A(x) y
otro con función de estructura 2(x)= 0(x) B(x). Si se conectan en serie, la
función de estructura resultante es: (x)= 0(x) A(x) B(x) puesto que 02(x)=
0(x).

Regla 2. Si los mismos sistemas anteriores se conectan en paralelo, la función


de estructura resultante es: (x)= 0(x)[(1- A(x)) (1- B(x)) ].

Se siguen los pasos siguientes:

1. Encontrar todas las trayectorias mínimas posibles.

Página 140
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

2. Dado que para que el sistema funcione es necesario que funcione al menos
una de las trayectorias mínimas, se aplica la definición de sistema paralelo a
dichas trayectorias.

3. Se simplifica la expresión resultante aplicando las reglas 1 y 2.

4. Se sustituyen las xi (i=1, 2, 3,…., k) por las confiabilidades de las k


componentes y se resuelve.

Ejemplo:

Para el sistema de la figura 9, las trayectorias mínimas son: ACDEF, ACDG,


BCDEF y BCDG.

Aplicando la función de estructura en paralelo se tiene:

s(x) = 1 – (1-ACDEF) (1-ACDG)(1-BCDEF)(1-BCDG) =

= BCD(EF + G + EFG) + ACD(EF – BEF + G –BG – EFG + BEFG) = 0.82

Página 141
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Estructuras de puente

Su diagrama de bloques es el siguiente:

El sistema funcionara si alguno de los siguientes conjuntos funciona: {1,3,5}


{1,4} {2,3,4} {2,5}. Estos conjuntos son denominados conjuntos de ruta
mínima, dando un diagrama equivalente a:

Redundancia

La redundancia a nivel componente es siempre proporciona una mayor


confiabilidad que a nivel sistema. Sea (X) la función de estructura para un
sistema coherente de n componentes. Para cualquier vector de estados X y Y

Página 142
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Uso de Minitab

Se capturan dos columnas, una para los tiempos de falla observados y otra
para indicar cuales tiempos son falla y cuales son censuras por la derecha. Se
puede escoger 1 para censuras y 0 para falla.

Cuando se tienen fallas por intervalos se construyen tres columnas, en dos de


ellas se señala el inicio y el final de cada intervalo de tiempo y en la tercera la
frecuencia de las fallas observadas en cada intervalo.

Para los análisis se usa el menú Stat > Relibility / Survival, en la primera opción
se identifica la distribución de manera gráfica, en la segunda se hace una
exploaración más detallada (paramétrica o no paramétrica) de la distribución
seleccionada, en la tercera opción se hace el análisis paramétrico detallado y
en la cuarta el análisis no paramétrico. En el primer bloque se considera
censura por la derecha y en el segundo bloque se analiza lo mismo con otras
opciones de censura.

Página 143
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

8. Mantenabilidad y disponibilidad

Los sistemas reparables reciben Acciones de mantenimiento cuando fallan.


Estas acciones se deben ahora tomar en la consideración al determinar el
comportamiento del sistema. La edad de los componentes del sistema ya no
es uniforme ni el tiempo de operación del sistema es continuo.

Mantenimiento

El Mantenimiento se define como cualquier acción que restaure unidades


falladas a una condición operacional, o conserve unidades que no están en un
estado operacional. Para los sistemas reparables, el mantenimiento
desempeña un papel vital en la vida de un sistema. Afecta la confiabilidad total
del sistema, la disponibilidad, el tiempo muerto, los costos de operación, etc.

Generalmente, las acciones del mantenimiento se pueden dividir en tres tipos:

Mantenimiento correctivo, es la accion(es) tomado para restaurar un sistema


que ha fallado, al estado operacional.

Mantenimiento preventivo, es la práctica de susstituir componentes o


subsistemas antes de que fallen, para promover la operación continua del
sistema. Son las Inspecciones que se utilizan para descubrir fallas ocultas
(también llamadas fallas inactivas).

Mantenabilidad

Es la capacidad de mantenimiento se define como la probabilidad de realizar


una acción acertada de reparación dentro de un tiempo dado. Es decir la
capacidad de mantenimiento mide la facilidad y la velocidad con las cuales un
sistema se puede restaurar al estado operacional después de que fallo.

Por ejemplo, se dice que un componente particular tiene una mantenabilidad o


capacidad de mantenimiento del 90% en una hora, esto significa que hay una
probabilidad del 90% que el componente será reparado dentro de una hora.

La mantenabilidad puede incluir los eventos siguientes:

1. El tiempo que toma diagnosticar con éxito la causa de la falla.


2. El tiempo que toma procurar o entregar las piezas necesarias para realizar
la reparación.
4. El tiempo que toma quitar los componentes dañados y substituirlos por los
buenos.
5. El tiempo que toma regresar el sistema a su estado de funcionamiento.
6. El tiempo que toma verificar que el sistema está funcionando dentro de lo
especificado.
7. El tiempo asociado de ajuste de un sistema para su operación normal.

Página 144
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Para el caso de sistemas donde su mantenabilidad sigue la distribución


exponencial se tiene:

Donde = tasa de la reparación.

La media de la distribución se puede obtener con:

Para el caso de la distribución de Weibull se tiene:

La tasa de reparación es:

Disponibilidad

La disponibilidad, se define como la probabilidad que el sistema esté


funcionando correctamente cuando se solicita para el uso. Criterio del
funcionamiento para los sistemas reparables que considera las características
de confiabilidad y de mantenabilidad o capacidad de mantenimiento de un
componente o sistema.

Por ejemplo, si una lámpara tiene una disponibilidad del 99.9%, habrá una vez
fuera de mil que alguien necesite utilizar la lámpara y suceda que la lámpara no
opere.

Los conceptos de confiabilidad, mantenabilidad y disponibilidad se relacionan


como sigue:

Un sistema reparable que funciona adecuadamente un periodo de tiempo,


después falla y es reparado para regresarlo a su condición operacional puede
tener los siguientes comportamientos:

Página 145
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

El artículo funcionó correctamente a partir de 0 a t con la probabilidad R(t)


o funcionó correctamente desde la reparación pasada en el tiempo u, 0 < u < t,
con probabilidad:

Con m(u) siendo la función de la densidad de la renovación del sistema.


Entonces la disponibilidad del punto es la adición de estas dos probabilidades:

Se tienen diversos tipos de disponibilidad como sigue: Disponibilidad


instantánea; Disponibilidad media; Disponibilidad Limite; Disponibilidad
Inherente; y Disponibilidad Operacional.

Disponibilidad instantánea, A(t):

La disponibilidad instantánea es la probabilidad que un sistema (o el


componente) será operacional (en servicio) en cualquier hora, t.

Página 146
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Esto es muy similar a la función de la confiabilidad en que da una probabilidad


que un sistema funcione en el tiempo dado, t. La medida instantánea de la
disponibilidad incorpora la información de la mantenabilidad.

Disponibilidad media

La disponibilidad media es la proporción de tiempo durante una misión o un


período de tiempo en que el sistema está disponible para el uso.

Representa el valor medio de la función instantánea de la disponibilidad sobre


el período (0, T ] y esta dada por:

Disponibilidad Limite

Disponibilidad inherente

Página 147
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

La disponibilidad inherente es la disponibilidad del estado constante al


considerar solamente el tiempo muerto correctivo del sistema. Para un solo
componente, esto se puede calcular como sigue:

Disponibilidad operacional

La disponibilidad operacional es una medida de la disponibilidad media durante


el tiempo e incluye todas las fuentes experimentadas del tiempo muerto, tales
como tiempo muerto administrativo, tiempo muerto logístico, etc.

Ejemplo:

Un generador de energía está proveyendo electricidad, sin embargo en los


últimos seis meses, había acumulado fallas por 1.5 meses. El generador tiene
un MTTF = 50 días (o 1200 horas) y MTTR = 3 horas. Se puede poner un
generador de viento alterno con una disponibilidad del 99.71% con sus
parámetros MTTF = 2,400 Horas y MTTR = 7 horas.

Página 148
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Página 149
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

Problemas
1. Escribir y graficar la función de riesgo h(t) para una distribución de Weibull
con parámetros a) Beta =1, Etha = 4; b) Beta = 2, Etha = 2; c) Beta = 3, Etha =
1. Comentar el efecto de cada parámetro.

2, La duración t en horas de cierto componente electrónico es una variable


aleatoria con función de densidad f(t) = 0.001exp(-t/1000) para t >0.

a) Calcular F(t), R(t) y h(t)

b) ¿Cuál es la confiabilidad del componente a las 100 horas?

c) Si una unidad ha sobrevivido a las 100 horas, ¿cuál es la probabilidad de


que sobreviva a las 200 horas?

d) Graficar h(t) e interpretar los resultados.

2. Una unidad de disco tiene una falla temprana si ocurre antes del tiempo t =
alfa y una falla por desgaste si ocurre después de t = beta. Si la vida del disco
se puede modelar con la distribución f(t) = 1/(Beta – alfa):

a) Obtener las ecuaciones de F(t) y R(t)

b) Calcular la tasa de riesgo h(t)

c) Graficar la tasa de riesgo si Alfa = 100 y Beta = 1500 horas.

d) ¿Con los datos de c) cuál es la confiabilidad de la unidad a las 500 horas?

3. Se realizó un estudio para estimar la vida media de locomotoras. Se


operaron 96 máquinas durante 135,000 millas o hasta que fallaron y de estas,
37 fallaron antes de cumplirse el periodo de 135,000 millas, la tabal siguiente
muestra las fallas de las 37. Las otras 59 no fallaron por tanto entran al estudio
en forma censurada.

22.5 57.5 78.5 91.5 113.5 122.5


37.5 66.5 80.0 93.5 116.0 123.0
46 68 81.5 102.5 117.0 127.5
48.5 69.5 82.0 107.0 118.5 131.0
51.5 76.5 83.0 108.5 119.0 132.5
53 77 84.0 112.5 120.0 134.0
54.5

Página 150
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

a) Utilizando Minitab identificar la distribución que mejor aproxime a los datos.

b) Comparar las estimaciones por mínimos cuadrados y por máxima


verosimilitud.

c) Determinar la vida mediana de las locomotoras.

d) ¿Cuál es la confiabilidad de las locomotoras a las 200,000 millas?. Dar un


intervalo de confianza para esta confiabilidad e interpretarlo.

4. Un fabricante de balatas le da seguimiento al tiempo de falla de las mismas


en kilómetros recorridos. Al finalizar el estudio no todas las balatas habían
fallado pero por su desgaste se estimó el tiempo de falla. Los datos obtenidos
para los 55 productos se muestran a continuación:

9500 10512 12824 13514 14096 14128 14404 14520 14689 14766 14859
14951 15117 15520 15555 15912 16037 16481 16622 16626 16689 16935
17980 18508 18624 18699 18719 18773 19126 19165 19274 19414 19429
19451 19611 19708 20066 20546 20610 21599 21978 21978 22386 23592
23659 24165 25731 25961 25991 26553

a) Utilizando el Minitab, identificar la distribución que siguen los datos.

b) Estimar los parámetros de la distribución que mejor se ajuste utilizando


mínimos cuadrados y máxima verosimilitud. Comparar los estimadores.

c) ¿Cuál es la confiabilidad de las balatas a los 10,000 kms.?

d) Si el fabricante no está dispuesto a reemplazar más de 2% de las balatas


¿es razonable otorgar una garantía de 10,000 kms?.

e) Proporcionar un intervalo de confianza al 95% para los kilómetros en que


falla el 2% de las balatas e interpretarlo.

5. La vida de ventiladores se registra como ventiladores fallados y ventiladores


con censura a la derecha (1) indicando que su vida fue más larga.

0-no censurado 1-censurado

450 0 1850 1 2200 1 3750 1 4300 1 6100 1 7800 1 8750 0


460 1 1850 1 3000 1 4150 1 4600 0 6100 0 7800 1 8750 1
1150 0 1850 1 3000 1 4150 1 4850 1 6100 1 8100 1 9400 1
1150 0 2030 1 3000 1 4150 1 4850 1 6100 1 8100 1 9900 1
1560 1 2030 1 3000 1 4150 1 4850 1 6300 1 8200 1 10100 1
1600 0 2030 1 3100 0 4300 1 4850 1 6450 1 8500 1 10100 1
1660 1 2070 0 3200 1 4300 1 5000 1 6450 1 8500 1 10100 1
1850 1 2070 0 3450 0 4300 1 5000 1 6700 1 8500 1 11500 1
1850 1 2080 0 3750 1 5000 1 7450 1 8750 1

El objetivo es determinar la proporción de ventiladores que fallan antes de


tiempo de garantía que es de 8,000 horas.

Página 151
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

a) Estimar el modelo adecuado para los datos

b) Estimar los parámetros de la distribución que mejor se ajuste utilizando


mínimos cuadrados y máxima verosimilitud. Comparar los estimadores.

c) Graficar el estimador no paramétrico de la función de supervivencia.

c) ¿Cuál es la proporción de ventiladores que fallan antes del tiempo de


garantía de 8,000 horas?

d) ¿Será necesario rediseñar los ventiladores para tratar de incrementar su


confiabilidad?

6. La duración de un chip de computadora tiene una distribución de Weibull.


Para estimar sus parámetros, se someten 100 chips a prueba y se registra el
número de supervivientes al final de cada año, durante 8 años. Los datos con
censura por intervalo son los siguientes:

Año Superv.
1 94
2 78
3 88
4 36
5 22
6 10
7 6
8 2

a) Utilizar el método de mínimos cuadrados para obtener Beta y Etha.

b) Establcer un intervalote confianza del 95% para el percentil 1%.

c) Calcular la probabilidad de que un chip falle antes de 5 años.

d) Estimar la confiabilidad de los chips en el tiempo de 7 años.

e) Calcular la tasa de riesgo, h(t) y graficarla. Obtener la tasa de riesgo a t=4


años e interpretar su valor.

7. Se toma una muestra de n = 138 baleros y se hace una prueba de vida. La


tabla siguiente muestra los que seguían funcionando al final de cada periodo de
100 horas hasta que todos fallaron.

Horas Baleros Horas Baleros


4 138 12 8
5 114 13 6
6 104 17 4
7 64 19 3
8 37 24 2
9 29 51 1

Página 152
CURSO DE CONFIABILIDAD P. REYES / DIC. 2006

10 20
11 10

a) Ajustar un modelo de Weibull a estos datos.

b) Dar un intervalo de confianza al cual falla el 2% de los baleros.

c) Calacular la confiabilidad a las 400 horas.

d) Calacular la confiabilidad de que habiendo sobrevivido las primeras 300


horas, un balero sobreviva 100 horas más.

8. El tiempo de vida en años de un generador que se compra tiene una


distribución Weibull con parámetros Etha = 13 años y Beta = 2. El period de
garantía es de dos años.

a) ¿Cuál es la confiabilidad del generador al fin del periodo de garantía?

b) ¿Si se compran 1000 unidades cuál es el número de reclamos al fabricante?

c) ¿Cuál es el periodo de garantía que debe ofrecerse si se quiere tener una


proporción de reclamos a lo más del 1%?

Página 153

Das könnte Ihnen auch gefallen