Sie sind auf Seite 1von 39

Las 7 Nuevas Herramientas de la Calidad

Además de las conocidas 7 Herramientas Básicas de la Calidad que fueran descritas en


una publicación anterior, la Unión Japonesa de Científicos e Ingenieros (JUSE) agregó,
luego de años de análisis y aplicación, siete nuevas herramientas. Si bien las herramientas
clásicas se siguen utilizando masivamente y con mucho éxito, sólo funcionan bien en los casos
en los que contemos con suficiente información cuantitativa.

Las denominadas 7 Nuevas Herramientas de la Calidad fueron diseñadas para cubrir


necesidades de complejidad considerable, permitiendo un alto nivel de detalle en el análisis de
tipo cualitativo.

En este resumen intentaremos dar a conocer en qué consiste cada una de ellas y cuáles son
sus aplicaciones principales. Las 7 Nuevas Herramientas de la Calidad son las siguientes:
 Diagrama de Relaciones
 Diagrama de Afinidad
 Diagrama de Árbol
 Diagrama Matriz
 Matriz de Priorización
 Diagrama de Proceso de Decisiones
 Diagrama de Flechas

Diagrama de Relaciones
Esta herramienta es sumamente útil para el análisis de un problema en el cual sus causas se
encuentran relacionadas entre sí de manera compleja. Su implementación se realiza
generalmente de manera grupal mediante el uso de tarjetas.

Para comenzar, se define el problema a analizar y se lo escribe en una tarjeta que irá colocada
en el centro del diagrama. Luego, los integrantes del grupo deben colocar sus ideas aisladas
sobre posibles causas en tarjetas. Cuando se cuente con todas las tarjetas, se las debe agrupar
por similitud o relación entre sí. A las que se les determine una relación más directa con el
problema, se las considerará causas principales o primarias. Las tarjetas correspondientes
deberán ser colocadas cerca de la tarjeta central con el problema. Con el mismo criterio, cerca
de las causas primarias se deben colocar las tarjetas con mayor relación a ellas (causas
secundarias, terciarias, etc) alejándose del centro. Una vez distribuidas por completo las
tarjetas, se procede a relacionarlas entre sí mediante el criterio de causa-efecto, a través de
flechas. Esto permite representar la relación que pueda existir entre una causa y otra. Es decir,
si una causa es originada por otra causa.

El siguiente ejemplo permite una mayor comprensión:


Por último, con el gráfico completo, el grupo puede realizar un análisis de las relaciones
existentes que le permita identificar con mayor claridad las causas reales del problema.

Diagrama de Afinidad
Este diagrama es conocido también como Diagrama KJ por las iniciales de su
creador, Kawakita Jiro. Surgido en la década de 1980, constituye una herramienta esencial
para ordenar grandes cantidades de datos. El criterio utilizado es el de agrupar los datos en
función de la afinidad, de alguna relación que exista entre ellos. Esto permite clarificar mejor las
ideas a la hora de determinar la causa de un problema. En mucho de los casos, su resultado
puede no ser determinante pero sí orientativo. Es decir, puede no brindarnos la respuesta exacta
sobre la causa del problema, aunque sí guiarnos hacia la dirección correcta.

Una de las maneras más habituales de implementación de esta herramienta es también a través
del uso de tarjetas. Se forma un grupo de trabajo, con un moderador. Se plantea grupalmente
el tema a tratar y cada uno expresa sus ideas de manera escrita en tarjetas. Una vez que todas
las ideas son volcadas, se trabaja en grupo para agrupar todas las tarjetas según su afinidad.

En el siguiente gráfico podemos observar una distribución típica de las tarjetas, desde las ideas
sueltas en unbrainstorming, hasta su ordenamiento por afinidad:
Diagrama de Árbol

Esta es quizás una de las herramientas más sencillas, aunque no por eso menos útil. Permite
obtener una visión sistemática del problema (razón por la que también se lo conoce
como Diagrama Sistemático). Su estructura es similar a la del organigrama de una
organización en el que se plantea una relación jerárquica. En el nivel superior se coloca el
objetivo principal a alcanzar y luego se va desglosando en ramas. De cada objetivo se van
desprendiendo los medios posibles para alcanzarlo y un nuevo objetivo del cual se
desprenderán nuevos medios, y así sucesivamente. Una mejor comprensión puede obtenerse
a través del siguiente esquema:

La principal ventaja sobre los dos métodos anteriores es que el diagrama de árbol impide que
existan "cabos sueltos", exige una continuidad lógica en el análisis. Tanto en el Diagrama de
Afinidad como en el de Relaciones se agrupan datos por similitud y se establecen relaciones
entre causas identificadas. El problema es que no necesariamente, están todas las causas que
deberían estar. El diagrama de árbol ayuda a establecer una dependencia ininterrumpida como
una cadena.

Diagrama de Matriz

Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos aspectos o
variables a analizar. Se pueden vincular opciones con criterios, causas con efectos, etc. Uno de
los aspectos se coloca en las filas de la matriz, y el otro en las columnas. En la celda que resulta
de la intersección de ambas se coloca generalmente un símbolo que suele representar el grado
de relación existente: fuerte, media o débil. Esto nos permite tener referencia del grado de
vinculación o conexión que existe entre ambos aspectos.

Con estos símbolos suele representarse el grado de vinculación entre aspectos.


De izquierda a derecha: relación fuerte o alta, relación media y relación débil o
baja
Existen diferentes configuraciones de matrices dependiendo de la cantidad de dimensiones
simultáneas que se están analizando.

La más habitual es la matriz tipo L, que vincula dos dimensiones.

Las otras matrices disponibles son generalmente combinaciones de esta, entre las que se
encuentran:

La matriz tipo T (dos matrices L combinadas: un listado comparado en simultáneo con otros
dos).
La matriz tipo X (cuatro matrices L combinadas: cuatro listados, comparados cada uno con
otros dos, de a pares):

Luego se encuentran otras combinaciones para tres listados: La matriz tipo Y (tres matrices L
combinadas: cada listado comparado con los otros dos) y la matriz tipo C (los tres listados
comparados entre sí, en simultáneo, dando un gráfico en tres dimensiones).
De izquierda a derecha: Matriz tipo C y matriz tipo Y

Matriz de Priorización

Esta herramienta se utiliza para escoger entre varias opciones, en función de criterios
predefinidos y de manera ponderada. El grupo de trabajo es quien determina cuáles son las
opciones disponibles y qué criterios se tendrán en cuenta. Estos criterios deben ser diferentes
entre sí. Es importante escoger un número prudente de criterios, sólo los más importantes, para
reducir la complejidad del análisis. Tres o cuatro criterios suelen ser aceptables. Para elaborar
una Matriz de Priorización, en primer lugar, se debe definir claramente el objetivo. Luego se
deben determinar las opciones disponibles. A continuación, se deberán especificar los criterios
sobre los cuales se decidirá. Seguramente no todos los criterios tienen igual importancia (igual
"peso"). Por lo tanto, se deben ponderar los criterios para que no todos impacten de igual
manera a la hora de tomar la decisión final.

Un ejemplo de Matriz de Priorización es el que vimos en una publicación anterior con un caso
práctico: laMatriz de Pugh.
Diagrama de Proceso de Decisiones

Es una herramienta, también conocida por las siglas PDPC (Process Decision Program Chart)
muy útil para detectar posibles obstáculos o inconvenientes al implementar un plan de acción,
permitiéndonos tomar decisiones a tiempo para solucionarlos. Se parte desde la actividad inicial
y se va descendiendo. En primer lugar encontramos a las fases, que son las tareas
fundamentales que deben realizarse para alcanzar el objetivo. De cada una de ellas se plantean
problemas que puedan surgir (problemas potenciales) los cuales aparecen en el nivel inmediato
inferior. Para cada problema se determinan medidas para contrarrestarlos. Las medidas
aparecen en el nivel inferior. Si la medida es efectiva, se coloca un círculo (O) debajo. Si no lo
es, una cruz (X). Se implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas

El Diagrama de Flechas se utiliza para representar de manera gráfica una red compuesta por
la secuencia lógica de las actividades que se precisan realizar para resolver un problema o
alcanzar una meta. Nos permite, por ejemplo, determinar posibles "cuellos de botella" o hallar
los caminos más cortos.

Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar claramente
cuál es el objetivo del uso de la herramienta y definir los límites y el alcance. Los eventos o
situaciones son representadas por círculos y las actividades necesarias para pasar de un evento
a otro, por flechas.

Es muy habitual encontrar este tipo de gráficas en la gestión de proyectos, en donde se suelen
utilizar dos técnicas muy importantes: PERT (Program Evaluation and Review Technics)
y CPM (Critical Path Method). PERT es básicamente una técnica utilizada para revisar y evaluar
proyectos, en donde el parámetro principal a evaluar es el tiempo que se utiliza para realizar
cada tarea, siempre en búsqueda de su optimización. CPM también persigue el mismo fin,
intentanto determinar la "ruta" más corta para alcanzar el objetivo (completar el proyecto).
Hablaremos, en mayor detalle, sobre estas dos técnicas en otra publicación.

En resumen....
Las 7 Nuevas Herramientas de la Calidad no son en realidad tan nuevas, sólo seguimos
utilizando el término para diferenciarlas de las clásicas. En todos los casos, se trata de un
conjunto de herramientas sumamente poderoso y versátil. La posibilidad de ser utilizadas en
infinidad de actividades, en un sinnúmero de aplicaciones, las hace imprescindibles. Su vigencia
es absoluta. Sólo debe seleccionarse la más adecuada para cada necesidad. En futuras
publicaciones seguiremos profundizando este tema a través de ejemplos y aplicaciones.

DIAGRAMA DE AFINIDAD
2.1 INTRODUCCIÓN A LAS 7 NUEVAS HERRAMIENTAS

INTRODUCCIÓN

En los años 70, un comité de la unión japonesa de científicos e ingenieros (Japanese Unión Of
Scientist And Engineers JUSE) analizó un gran conjunto de técnicas y herramientas de gestión
existentes seleccionados de entre ellas las denominadas “siete nuevas herramientas de gestión y
planificación”.

El objetico era determinar un conjunto de herramientas que sirvieran de apoyo a la estrategia de


Calidad Total en las áreas fusiónales de las organizaciones y empresas de fabricación, para ser
utilizadas por gestores y directivos de una forma similar a como las siete herramientas clásicas
habían servido de apoyo en los departamentos de fabricación a través de los Círculos de Calidad.
En esa época el reto desidia en que otras áreas (direcciones/departamentos funcionales) distintas a
la de producción asumieran la función calidad, de igual forma que con anterioridad los departamentos
de producción habían asumido la función de controlar la calidad de los productos.
Estas herramientas debían ser capaces de ayudar a que los directivos de estas áreas:

a) Se comprometieran en un programa de Calidad Total

b) Identificar oportunidades de mejora en sus organizaciones

c) Implantaran programas de mejora

El conjunto seleccionado fue el compuesto por las siguientes herramientas:


1. Diagrama de afinidad
2. Diagrama de relaciones
3. Diagrama de árbol
4. Matrices de priorización
5. Diagramas matriciales
6. Diagrama de proceso de decisión
7. Diagrama de flechas

Las siete herramientas de Gestión y Planificación son la herramientas de segunda generación


utilizadas por grupos constituidos en el seno de una organización con el objetivo de resolver los
problemas pocos e importantes (frente a los muchos y triviales en los que se utilizan las siete
herramientas clásicas), fundamentalmente durante la etapa de planificación del ciclo de mejora de
la Calidad.

Con posterioridad a su selección, estas siete herramientas han mostrado su utilidad en todo el
mundo, habiéndose introducido en los Estados Unidos por el gabinete GOAL (Gorwth Opportunity
Alliance of Lawrence)a mediados de los 80, utilizándose de forma sistemática en la aplicación del
despliegue de la función Calidad (Quality Function Deployment, QFD).

La mejora continua de la calidad es una estrategia de dirección que a través de una serie de
actividades logra crear un habito de mejora continua en todo los procesos, tanto de fabricación como
de gestión aumentando la eficacion de la empresa y por lo tanto su competitividad.

En un programa de mejora continua es crítico para el éxito del programa seguir el ciclo de mejora de
la calidad o “rueda de Deming”:

• Planificar

• Hacer

• Comprobar

• Actuar

Las siete nuevas herramientas comprenden una metodología, cuya eficiencia ya ha sido probada
en todos los sectores empresariales del mundo, para abordar la fase de planificación de la citada
rueda de Deming.
Esta segunda generación de herramientas son además, capaces de tratar con datos de “topo de
ideas u opiniones”. Datos por lo general de tipo cualitativo y de difícil tratamiento.

Es necesario mencionar que estas herramientas son conocidas en ocasiones por otras
denominaciones (p.e. el diagrama de proceso de decisión también es conocido como diagrama de
decisión de acción). Y que han sufrido en ocasiones modificaciones y en otras ocasiones se les han
añadido otras herramientas complementarias, como por ejemplo el método de jerarquización d
Saaty.

Lo cierto es que estas herramientas promueven la creatividad y son susceptibles de adaptarse a las
distintas problemáticas que se puedan presentar, por lo que, salvo en lo que concierne al fondo (los
conceptos claves en, los que se basa su utilización), sus usuarios no deben sentirse limitados ni en
la forma ni en le numero de herramientas a utilizar.

DIAGRAMA DE AFINIDAD

El diagrama de afinidad (DA) es la herramienta básica del conjunto de las siete herramientas.
También es conocida con el nombre de “Método KJ” (Kawatika JIro es la persona que lo desarrollo).
Esta herramienta se utiliza para conseguir gran cantidad de datos en forma de ideas, opiniones,
temas, aspectos a considerar y organizarlos en grupos en base a criterios afines de relación natural
entre cada elemento.

En muchas ocasiones, el mayor obstáculo que es necesario vencer en la fase de planificación de


cualquier programa de mejora. Radica en el resultado obtenido en el pasado con otros programas
similares. Generalmente se supone que aquello que tuvo éxito en el pasado. Tampoco lo tendrá en
el futuro. Por lo tanto se puede perpetuar prejuicios por lo general no adecuados, que son un
obstáculo a la creatividad. Para abordar con una mínima esperanza de éxito un programa de mejora
continua, es necesario dejar a un lado estos prejuicios, haciendo “tabula rasa”.
El DA es una herramienta muy útil a la hora de lograr que un grapo de personas trate un tema
determinado, no de forma lógica e intelectual, sino de forma creativa. Dada la dificultad existe en el
tratamiento de las ideas, también es útil antela necesidad de organizar eficazmente el resultado
obtenido, en lo que respecta a datos, con este esquema creativo.

Es necesario tener en cuenta que la eficiencia en la herramienta es directamente proporcional al


número de ideas o temas obtenido. En una sesión de medida hora se puede obtener más de 50 idas,
numero muy superior por lo general al obtenido en una reunión de trabajo normal.

Al igual que sucede con las herramientas Tormenta de ideas (herramienta pertenece a las siete
herramienta clásicas), no solamente es necesario tener en cuenta esta ventaja en lo que a eficacia
se refiere. Existe otra ventaja fundamental relacionada con la participación de las personas en la
actividad del grupo. En una reunión clásica, muchas ideas se pierden en el “calor” de la discusión,
no siendo nunca consideradas. Sin embargo todos los participantes en un DA, al descubrir una vía
de aplicación de sus ideas en la solución del problema o el proceso en cuestión, sienten que tienen
un papel en este proceso, que son” Co-responsables” de las decisiones tomadas y su participación
será mucho mas atractiva.

Como resumen, el objetivo DA es analizar gran cantidad de datos en forma de ideas e identificar las
ideas claves inherentes a los datos. Con términos de cocina, diríamos que el DA permite al equipo
“reducir” una gran cantidad de datos en un conjunto manejable de ideas claves.

a) Los hechos o conceptos no se encuentren claramente delimitados, sean complejos o


excesivamente amplios. El DA permitirá representar un “mapa” de estos hechos o conceptos.

b) Debido a la gran cantidad de incidencias detectadas, estas impidan determinar con claridad las
causas concretas de la situación.

c) Sea conveniente utilizar un nuevo enfoque, tanto en la actuación como en el análisis de un tema.
El DA permitirá al grupo romper con los conceptos tradicionales, ampliando su campo de
pensamiento.

d) No se conozcan de forma clara los datos a dar para salir de una determinada situación, siendo
necesario una ayuda para poner en marcha con éxito una solución.

e) Sea necesario el consenso de un grupo para abordar una actuación.

En aquellos casos en que el consenso de un grupo para abordar una actuación.

a) El problema a abordar es sencillo

b) Es necesario disponer de la solución rápidamente


DIAGRAMA DE RELACIONES

El diagrama de relaciones es, junto con le diagrama de afinidad, una herramienta que se utiliza en
la planificación general. A diferencia del diagrama de afinidad, el diagrama de relaciones utiliza el
lado lógico del cerebro. Determina que idea tiene influencia sobre otra, respetando esta relación
mediante una flecha en la dirección de la influencia.
Las ideas unidas por flechas de este tipo formando un gráfico que puede ser interpretado
identificando aquellas ideas que tiene la mayoría de las flechas saliendo de ellas o aquellas ideas
que tienen la mayoría de las flechas entrando en ellas. Igual que el diagrama de afinidad, su objetivo
es identificar las distintas categorías en las que pueden agruparse las ideas representadas, siendo
de gran utilidad realizar un diagrama de afinidad y un diagrama de relación a partir de un mismo
conjunto de ideas, comparando los resultados obtenidos.

DIAGRAMA DE ARBOL

El diagrama de árbol tiene una apariencia similar a la de un organigrama funcional de una


organización. Su objeto es identificar ideas en detalle creciente. La pregunta que desencadena en
proceso: ¿Cuál es el componente principal de esta idea?, pasando a continuación a responder a la
pregunta: ¿Cómo deberá llevarse a la practica esta idea?
El diagrama de árbol es una herramienta que va mas allá que los diagramas de afinidad y de
relaciones, siendo fundamental en la identificación de aquellos elementos que pudieran haberse
olvidado durante el proceso de tormenta de ideas previo al diagrama de afinidad o al de relaciones.

MATRICES DE PRIORIZACIÓN

Esta herramienta se utiliza para establecer prioridades en tareas, actividades o temas, en base a
criterios de ponderación conocidos. Utiliza una combinación de dos de las técnicas expuestas, el
diagrama de árbol y el diagrama matricial, reduciendo la opciones posibles a aquellas más eficientes
y deseables esta herramienta reemplaza a la herramienta conocida como “Análisis Matricial” de datos
que formaba parte del conjunto inicial de las siete herramientas de gestión y planificación.

DIAGRAMA MATRICIAL

El diagrama matricial es quizá la herramienta mas utilizada de las siete. Esta herramienta enfrenta
dos conjuntos de ideas y las compara con el objetivo de decidir si existe correlación entre ellas. En
el diseño uno de los mayores problemas es que por lo general se olvidan algunas cosas.
El grafico matricial ayuda aprevenir estos olvidos siendo utilizado ampliamente en el desarrollo del
Despliegue de la función Calidad (QFD). Esta herramienta se relaciona con el diagrama de árbol,
siendo practica habitual en le QFD utiliza las ideas componentes del diagrama de árbol como las
filas y /o columnas del diagrama matricial.
DIAGRAMA DE PROCESO DE DECISIÓN

El diagrama del proceso de decisión es una herramienta utilizada por lo general con posterioridad a
la construcción de un análisis del Árbol de Fallos. Ambos gráficos tienen en común la capacidad de
detectar aquello que puede fallar en el proceso haciéndolo en ya conocido formato de árbol. La
diferencia fundamental consiste en q el diagrama de proceso de decisión relacionada de forma
explicita las contra medidas para todo aquello que puede fallar. Esta herramienta suele utilizarse
en la planificación de actividades con emprendidas con anterioridad, la actividad consiste en
identificar y registrar todo lo que puede fallar mejora sustancialmente la probabilidad de tener éxito
en el proyecto abordado. El diagrama del proceso de decisión también es similar al diagrama de
árbol con la diferencia de que el primero se desarrolla con un enfoque secuencial.
DIAGRAMA DE FLECHAS

El diagrama de flechas es una herramienta muy similar al PERT (Program Evaluation Review
Technique) o al CPM (Critical Merhod Path). La diferencia fundamental es que tratándose de un
método muy simplificado puede ser utilizado por la mayor parte de las personas de la organización.
Muchas personas conocen la existencia del método PERT o el CPM pero solo una pequeña parte
de ellas lo utilizan debido a su complejidad. El diagrama de flechas muestra los caminos paralelos
existentes a la hora de desarrollar una actividad. El propósito de esta herramienta es determinar cual
es el tiempo mínimo posible en la realización de un proyecto representando gráficamente todas
aquellas actividades que puedan realizarse de forma simultanea.

José Francisco Villar Barrio. Las 7 nuevas herramientas para la mejora de la calidad. , 2da
Edición PP.9-12.
Las 7 nuevas herramientas de la
Gestión de la Calidad
Keila Yeritze Rojas Gutiérrez

 Administración
 03.10.2016
 3 minutos de lectura

calidadcalidad y gestión de la calidadherramientas de gestión de la


calidadherramientas gerencialespioneros de la gestión de la calidad
Keila Yeritze
Rojas
Gutiérrez
Administración
de calidad
INSTITUTO
TECNOLÓGICO
DE ORIZABA
ingenieros
(JUSE) analizó
un gran
conjunto de
técnicas y
herramientas
de gestión
existentes
selecciono de
entre ellas las
denominadas
“siete
nuevas
herramientas
de gestión y
planificación”
del despliegue
de la función
Calidad
(QFD).
utilizan las
siete
herramientas
clásicas)
CALIDAD Y LAS SIETE HERRAMIENTAS
EL CONTROL DE

BÁSICAS[1]
El Control de Calidad tuvo su origen en la producción industrial masiva de principios del siglo XX, el
desarrollo de los métodos de producción en cadena planteó el primer problema de calidad, en cuanto
que ésta estaba ligada a la conformidad con las especificaciones de los productos y sus
componentes: a una más alta conformidad (calidad), correspondería un número menor de desechos
y reprocesos, con lo que el coste del proceso productivo, y del producto, se reduciría.

Surgen entonces los primeros procedimientos de control de calidad. La función de calidad, bajo esta
óptica clásica, se limita a la realización de una serie de observaciones que tienen como objetivo la
verificación de la concordancia de los diferentes dispositivos y componentes a su especificación,
previamente establecida. Los resultados de las observaciones permitirían separar el producto
aceptable del no aceptable mediante la inspección final del producto ya terminado.

En Estados Unidos, el liderazgo de Frederick Taylor y su “dirección científica” (Taylor, 1911) supuso
la separación entre la planificación del trabajo y su ejecución: la planificación era realizada por
distintos especialistas mientras que los capataces y operarios ejecutaban la planificación hecha por
aquellos.
Desde el punto de vista del control de calidad, también se segregó la producción de la inspección.
Se crearon entonces departamentos de inspección, llamados de “Control de Calidad” o de
“Aseguramiento de la Calidad”, con la finalidad de separar los productos buenos de los defectuosos
de forma que éstos no llegaran al cliente.

Si bien el aumento de la productividad fue evidente, se fomentó la idea de que la calidad era materia
de los departamentos especializados en la inspección de la calidad. El concepto subyacente de
gestión de la calidad era que cada departamento funcional entregaba su producto al siguiente y,
finalmente, el departamento de calidad separaba la producción correcta de la incorrecta.

En el desarrollo de los métodos de control de calidad se produjo un salto cualitativo con los estudios
de Walter A. Shewhart, que entonces trabajaba en los Laboratorios Bell Telephone, quien a partir de
la década de 1920 inició el perfeccionamiento del control de la calidad introduciendo el muestreo
estadístico de los procesos. Definió el control de calidad en términos de variación provocada por
causas asignables y causas aleatorias[2] e introdujo los gráficos de control de proceso como una
herramienta para distinguir entre los dos tipos de variaciones.
El control de calidad se desplaza entonces de la mera inspección final del producto, al control
estadístico del proceso con el fin de determinar cuándo un proceso está sometido a variaciones en
su comportamiento, tales que su resultado derivará en producto defectuoso, es decir, fuera de los
límites de las especificaciones establecidas en el diseño.

Shewhart hizo hincapié en que los procesos de producción deben ser controlados estadísticamente,
de forma que sólo existan variaciones de causas ocasionales o aleatorias, para así mantenerlos bajo
control. Sus trabajos fueron expuestos en Economic Control of Quality of Manufactured
Products (Shewart, 1931).
La Introducción del Control de Calidad en Japón

Durante la II Guerra Mundial, la industria de Estados Unidos llevó a cabo la producción de gran
cantidad de material militar, para uso propio o para entrega a los aliados. Muchos de esos productos
empleaban una tecnología nueva y sofisticada, por lo que era necesario asegurar su calidad. Los
métodos estadísticos de control de calidad fueron entonces intensamente desarrollados en lo que
supuso un fuerte impulso al moderno control de calidad.
En Japón, antes de la II Guerra Mundial, la aplicación del control de calidad era escasa. Japón
elaboraba productos de baja calidad que eran vendidos a bajo precio. Tras el conflicto bélico, la
ocupación militar del país por parte de Estados Unidos supuso el estímulo del moderno control de
calidad, centrándose al principio en el sector de las telecomunicaciones al necesitar los militares
estadounidenses que estos servicios funcionaran adecuadamente por razones logísticas, para
extenderse posteriormente a otro tipo de industrias.

En 1949 la Unión Japonesa de Científicos e Ingenieros (JUSE – Union of Japanese Scientists


and Engineers) constituye un grupo de investigación sobre control de calidad. En 1950 Edwards
Deming es invitado a impartir una serie de cursos y seminarios que promueven fuertemente el uso
del control estadístico de la calidad, que se había mostrado muy eficaz en la disminución de las
causas asignables de variación de los procesos y en la reducción del personal encargado de efectuar
la inspección.
La aplicación del control estadístico de la calidad tuvo amplia difusión en las industrias,
especialmente en el ámbito de la fabricación. Ello en un país con una elevadísima densidad de
población que carece de materias primas, por lo que se consideró estratégico producir bienes con
una calidad que facilitara la exportación. No obstante, el enfoque del control de calidad se mostró
insuficiente ya que involucraba únicamente a ingenieros y personal de planta, producía rechazo en
el personal y no implicaba suficientemente a la gerencia de las industrias.

Juran y el Control de Calidad Total

En 1954, Joseph M. Juran visita Japón e imparte una serie de seminarios dirigidos a niveles
directivos altos y medios, sensibilizándolos acerca de su papel en el control de la calidad. Esta visita
de Juran marcó “una transición en las actividades de control de calidad en Japón” (Ishikawa,
1985), en el sentido de no limitarlas a ingenieros y empleados de la línea operativa, sino de
extenderla a toda la empresa, dando paso a lo que se denominó “control total de calidad”.
Esta perspectiva pone el énfasis en la participación total; en la cooperación de todos los
departamentos y empleados. El control de calidad no ha de limitarse a la inspección, para evitar que
los procesos generen productos defectuosos, y a los departamento de producción, sino que ha de
extenderse a todas las actividades de la organización: desde el diseño de productos, a la fabricación,
la garantía posventa, los subcontratistas y el resto de actividades auxiliares o de soporte, como la
contabilidad o la administración del personal. Un planteamiento en el que puede reconocerse lo que
más tarde se denominaría Gestión de la Calidad Total.
Desde el enfoque japonés, control de calidad total significa la participación de todo individuo en el
control de calidad, y no únicamente de especialistas en calidad, de personal de producción o de
miembros de la dirección.

También este punto de vista entraba en contradicción con los


principios del taylorismo que, con su división entre planificación y ejecución, relegaba a los operarios
al papel de seguir las órdenes y los procedimientos establecidos por los especialistas.
Para canalizar la participación se impulsó, a partir de 1962, la creación de círculos de calidad. Un
círculo de calidad es: “Un grupo pequeño que desarrolla actividades de control de calidad
dentro de un mismo taller. Este pequeño grupo lleva a cabo continuamente, como parte de
las actividades de control en toda la empresa, autodesarrollo y desarrollo mutuo, control y
mejora dentro del taller utilizando técnicas de control de calidad con participación de todos
los miembros” (Ishikawa, 1980).
No obstante las técnicas estadísticas del control de calidad poseían una cierta complejidad que
impedía su uso por parte del personal no especializado en ellas. Era entonces necesario disponer
de herramientas que no requirieran de un conocimiento experto en técnicas estadísticas y que, por
tanto, pudieran ser aplicadas en los círculos de calidad.

En 1968 Ishikawa propone un conjunto de técnicas estadísticas sencillas para ser aplicadas por los
círculos de calidad. Según Ishikawa, con las siete herramientas básicas es posible resolver el 95%
de los problemas que presenta una organización, sobre todo en el área de producción (Ishikawa,
1986).
Las Siete Herramientas Básicas de la Calidad
Estas herramientas, que posteriormente fueron denominadas “las siete herramientas básicas de
la calidad”, pueden ser descritas genéricamente como métodos para la mejora continua y la solución
de problemas.
Las siete herramientas básicas de la calidad son:

 Diagrama Causa – Efecto. Ayuda a identificar, clasificar y poner de manifiesto posibles causas,
tanto de problemas específicos como de efectos deseados.
 Hoja de Comprobación. Registro de datos relativos a la ocurrencia de determinados sucesos,
mediante un método sencillo.
 Gráficos de Control. Herramienta estadística utilizada para controlar y mejorar un proceso
mediante el análisis de su variación a través del tiempo.
 Histograma. Gráfico de barras verticales que representa la distribución de frecuencias de un
conjunto de datos.
 Diagrama de Pareto. Método de análisis que permite discriminar entre las causas más importantes
de un problema (los pocos y vitales) y las que lo son menos (los muchos y triviales).
 Diagrama de Dispersión. Herramienta que ayuda a identificar la posible relación entre dos
variables.
 Estratificación. Procedimiento consistente en clasificar los datos disponibles por grupos con
similares características que muestra gráficamente la distribución de los datos que proceden de
fuentes o condiciones diferentes.
El éxito de estas técnicas radica en la capacidad que han demostrado para ser aplicadas en un
amplio rango de problemas, desde el control de calidad hasta las áreas de producción, marketing y
administración. Las organizaciones de servicios también son susceptibles de aplicarlas, aunque su
uso comenzara en el ámbito industrial.

Estas técnicas pueden ser manejadas por personas con una formación media, lo que ha hecho que
sean la base de las estrategias de resolución de problemas en los círculos de calidad y, en general,
en los equipos de trabajo conformados para acometer mejoras en actividades y procesos.

[1] El contenido de este post está basado en la publicación: Talavera Pleguezuelos, C: “Métodos y
Herramientas de Mejora aplicados en la Administración Pública” Ed: Unión Iberoamericana de
Municipalistas. Granada, 2013. (ISBN: ISBN: 978-84-937777-6-0). Está por tanto protegido por
derechos de autor, no autorizándose su reproducción sin autorización expresa y por escrito del autor.
[2] Las causas aleatorias de variación son causas desconocidas y con poca significación, debidas al
azar y presentes en todo proceso. Las causas asignables (específicas o imputables) no deben estar
presentes en el proceso. Provocan variaciones significativas. Las causas aleatorias son de difícil
identificación y eliminación. Las causas específicas, o asignables, sí pueden ser descubiertas y
eliminadas, para alcanzar el objetivo de estabilizar el proceso.
Las 7 Nuevas Herramientas
¿Qué son las 7 nuevas herramientas?
Origen y Justificación
Dentro del variado espectro de las herramientas de gestión utilizadas en los procesos de
Mejora Continua y normalmente reconocidas como de resolución de problemas, existen dos
macro enfoques que la literatura sobre el tema diferencia claramente[1].
El primero de estos enfoques esta referido a las situaciones, tal ves más convencionales,
donde la información está disponible y por lo tanto el mayor esfuerzo de los grupos de
mejora reside en organizar y analizar los datos con un enfoque sistemático que permita
obtener conclusiones diagnósticas.
Este tipo de enfoque generalmente aplica a áreas de producción y es bien conocido a través
del ciclo PDCA (Plan, Do, Check, Act)[2] y las siete herramientas básicas[3] que, entre otras,
permiten obtener resultados muy satisfactorios en estas circunstancias.
Estas herramientas, muy tradicionales en las aplicaciones realizadas por los equipos de
mejora en todo el mundo (originalmente los círculos de control de calidad Japoneses de la
década del 60`), tienen, sin embargo, alguna ambigüedad en su constitución como grupo.
Las diferentes listas de siete herramientas se suceden en los libros especializados,
manteniendo este número de componentes como factor común, pero variando la integración
de manera leve, según sea el autor y la tendencia.
La lista original de JUSE (Unión Japonesa de Científicos e Ingenieros)[4], contemplaba las
siguientes herramientas:

1. Diagrama de Causa y Efecto


2. Diagrama de Pareto
3. Hojas de chequeo
4. Histogramas
5. Estratificación
6. Diagramas de dispersión y correlación
7. Gráficos de control

Posteriores publicaciones y las experiencias de sucesivas aplicaciones, generaron


modificaciones en esta lista, introduciendo los “gráficos” (en general), en reemplazo de la
estratificación (que tal vez es más un concepto que una herramienta), o en otros casos los
diagramas de flujo[5] como séptima herramienta.

La permanencia del número siete como cantidad de herramientas de la lista no ha sido, en


cambio, alterada por ningún autor. Esto, tal vez, este relacionado con el origen de este tipo
de denominaciones que debe buscarse en las ancestrales creencias de los principales autores
Japoneses.
Según Gitlow (1991), este número (además de ser considerado como “de suerte” en Japón),
representa la cantidad de piezas básicas utilizadas por el guerrero Samurai al entrar en
combate[6] (armadura, espada, espada larga, arco, flecha, capucha y casco), lo cual
establece un significado especial que ha permitido mantener el número inalterado a pesar de
las numerosas herramientas que existen para el análisis de problemas y que, de hecho, han
sido utilizadas en diferentes ocasiones y en múltiples aplicaciones.

Existe una clara relación entre las herramientas básicas, el mencionado ciclo PDCA y los,
usualmente denominados “7 pasos QC” (una secuencia lógica y sistemática para aplicar el
método científico a las etapas de detección, análisis y resolución de problemas)[7]
Correlación entre herramientas básicas y pasos del ciclo de mejora

7 pasos QC 7 herramientas básicas Ciclo PDCA


1. Selección del tema Lista de chequeo, Planificar
2. Recoger y analizar datos gráficos, diagrama de
3. Analizar causas Pareto, histogramas,,
diagramas de dispersión,
diagrama de causa y
efecto.
4. Planear e implementar la Ejecutar
solución
5. Evaluar resultados Lista de chequeo, Verificar
gráficos, diagrama de
Pareto, histogramas,,
diagramas de dispersión,
diagrama de causa y
efecto, gráficos de
control
6. Estandarizar Actuar
7. Reflexionar sobre el
proceso

Las herramientas de este primer grupo han sido masivamente utilizadas por millones de
equipos de mejora en todo el mundo. Si bien las aplicaciones han alcanzado a todos los
niveles organizacionales (desde operarios hasta gerentes), es más común su utilización en los
niveles medios y bajos, que conforman mayoritariamente a los equipos de mejora.

El segundo de los macro enfoques mencionados, corresponde a aquellas situaciones en donde


no todos los datos para la resolución del problema están disponibles. Este enfoque,
normalmente tipificado como el enfoque de diseño, ya que puede ser utilizado para el
desarrollo de nuevos productos, está compuesto también por un conjunto de siete
herramientas (se observa aquí nuevamente la importancia dada a la figura del número siete),
que contrariamente a lo ocurrido con la lista anterior están precisamente definidas y son
invariables en todos los textos que las desarrollan. La herramientas mencionadas (siete
nuevas herramientas)[8], son las siguientes:

1. Diagrama de relaciones
2. Diagrama de afinidad (Método KJ)
3. Diagrama sistemático o de árbol
4. Diagrama matriz
5. Matriz de análisis de datos
6. PDPC (process decision program chart); Diagrama del proceso de decisiones
7. Diagrama de flechas

Su utilización debe ser entendido dentro del marco de lo que comúnmente se conoce como
mejora proactiva. Es decir, aquellas situaciones donde los cursos de acción posible son varios
o no están claros y los datos existentes no pueden, desde su organización o análisis
estadístico, establecer un diagnóstico indubitable.
El enfoque sistemático de los procesos de Mejora Continua, puede dividirse en tres fases con
distintas características y diferentes alternativas en cuanto a herramientas diagnósticas.
El control de procesos, alude fundamentalmente al concepto estadístico de “estado de
control”, permitiendo establecer los límites, dentro de los cuales la variabilidad esta
definida y puede ser garantizada.
La mejora reactiva, se aplica en cambio a aquellas circunstancias donde la evidencia, a
partir de los datos disponibles, muestra la necesidad de cambios para modificar uno o varios
resultados de manera beneficiosa. La palabra “reactiva”, debe interpretarse aquí como una
reacción frente al requerimiento que puede provenir de distintas fuentes (los clientes, el
proceso, la tecnología, los materiales, los métodos, etc.).
Finalmente el escenario de la mejora proactiva, como ya fue definida, se plantea como una
manera de enfrentar aquellas situaciones más desafiantes, donde ni la información, ni los
paradigamas instalados, permiten establecer con claridad las acciones necesarias para la
mejora, o incluso, empeorando lo dicho, tanto los datos como los hábitos y preconceptos
aceptados descartan la posibilidad de cambios beneficiosos, con argumentos aparentemente
lógicos y basados en la experiencia de los actores.

Es interesante analizar con algo más de detalle la importancia del punto que se está aquí
planteando. Las fases de control de proceso y mejora reactiva previamente comentadas, son
indudablemente, un avance significativo con relación a los tradicionales métodos de prueba
y error, para la resolución de problemas crónicos. Si embargo, actúan dentro del marco de
los paradigmas instalados y es, por lo tanto, poco probable que resulten en cambios
“revolucionarios”.

Las 7 nuevas herramientas, en general, y el diagrama de afinidad (método KJ), en particular,


apuntan, en cambio, a resolver este problema en particular: ¿cómo innovar traspasando los
límites de los paradigmas instalados?; ¿cómo hacer que la experiencia, acumulada a lo largo
de años, no signifique un obstáculo para concebir nuevas y diferentes maneras de hacer las
cosas?. Este es indudablemente un problema especial y de resolución no trivial.

Thomas Kuhn (1962), en su libro “La estructura de las revoluciones científicas”, es sin duda
quien mejor explica el concepto de paradigma. Si bien todas sus argumentaciones están
referidas a la evolución científica, no resulta complicado trasladar estos conceptos al campo
organizacional.
La idea de Kuhn de progreso se establece alrededor del concepto de “capacidad para
resolver problemas”. La incapacidad de un “viejo” paradigma para resolver problemas
importantes permitirá su reemplazo por uno nuevo, aún cuando dicho reemplazo no se
asume como algo natural o exento de dificultades, ya que el nuevo paradigma enfrentará
severas resistencias y se le exigirá que satisfaga la resolución de algún nuevo problema
extraordinario (que el viejo paradigma no podía explicar), sin dejar por ello de resolver los
problemas que si eran resueltos por el viejo paradigma.

Esta descripción es fácilmente trasladable al plano empresario, donde la mejora del proceso
/ producto deberá mostrar su capacidad para mejorar drásticamente los resultados (en el o
los aspectos bajo estudio), sin dejar por ello de atender y mantener aquellas cuestiones que
ya estaban precedentemente resultando satisfactorias.

La visión tradicional de progreso, manifestada en el positivismo lógico, consideraba que la


investigación científica tenía un desarrollo básicamente acumulativo. Es decir, las teorías
confirmadas son inmunes a modificaciones posteriores, y por el contrario, cuando surge una
teoría nueva o más amplia que la existente, esta última se suma a la primera.
Por otro lado este proceso acumulativo se manifestaba como una paulatina aproximación a la
verdad.
Conocemos en las organizaciones la frecuente argumentación, respecto de que hay una
manera y solamente una de hacer determinadas cosas; por lo tanto esta “manera”, podrá ser
perfeccionada (he aquí el concepto acumulativo mencionado), pero de ninguna forma
cambiada, ya que la experiencia de “años en la materia”, así lo demuestra.

De acuerdo a la concepción Kuhniana de progreso podemos plantear dos diferencias


fundamentales con la visión tradicional:

1. La idea de progreso a partir de las revoluciones (según se definió en el punto


anterior), contradice la concepción del proceso acumulativo, ya que, los cambios de
paradigma no se corresponden con este supuesto positivista. Por el contrario, cuando
se produce una revolución, las viejas teorías pierden vigencia dentro del nuevo
paradigma.
2. El concepto de “paulatina aproximación a la verdad”, también es negado por
Kuhn, quien considera que no existe una meta o algo predeterminado hacia lo cual se
avanza. Esta regla la aplica incluso para los cambios de paradigma, considerando que
no necesariamente llevan a los científicos más cerca de la verdad.

No obstante lo anterior, Kuhn si admite que la ciencia normal (acumulativa), es eficiente


para resolver problemas dentro del paradigma instalado. Esto aporta a extender la
comprensión, alcance y precisión de dicho paradigma y es aceptado por Kuhn que
esta resolución de problemas significa inevitablemente una forma de progreso.

Para nosotros, y si bien los términos son ajenos a la literatura “Kuhniana”, se puede
diferenciar aquí claramente, los alcances de nuestros enfoques para la mejora reactiva
(dentro del paradigma) y la mejora proactiva como un intento, al menos, de establecer o
alcanzar un cambio revolucionario que transgreda las fronteras de los hábitos y usos
establecidos.

Al decir de Kuhn, el científico (para nosotros el observador), trabaja en su propio mundo,


habida cuenta que, el paradigma instalado es su único acceso al mismo.
Según Gaeta y Gentile (1998), “Kuhn parece asumir, consecuentemente, una concepción
idealista del mundo”. Es decir, las características de los objetos tiene relación con la actividad
cognoscente del sujeto que observa.
La lectura de los siguientes párrafos nos amplían y aclaran esta cuestión:

“Aunque el mundo no cambia con un cambio de paradigma, el científico después trabaja en


un mundo diferente”[9]
“ Sea lo que fuere lo que pueda ver el científico después de una revolución, está mirando aún
el mismo mundo”[10]

Se confirma aquí por lo tanto la posible defensa de una postura más asociada al realismo
metafísico que al idealismo anteriormente enunciado.
Existe un mundo independiente del observador, sin embargo, la observación y el conocimiento
que de ella se desprende, está condicionado por el paradigma a través del cual se accede.

Gaeta y Gentile (1998), asocian esta dualidad Kuhniana, con las ideas de Kant en cuanto a la
realidad fenoménica (el mundo que es percibido por el sujeto observador), conviviendo con la
realidad nouménica (la realidad en si mismo).Según expresan estos mismos autores y tal como
se desprende de lo anteriormente comentado, la diferencia principal estaría en que, para
Kant, existe un único mundo fenoménico, mientras que para Kuhn, los “mundos
construidos” son múltiples y dependen de los paradigmas que le dan acceso.
Podríamos finalmente concluir que, para Kuhn, existe un mundo real externo independiente
de cualquier tipo de observación o conocimiento científico. Este mundo es inaccesible para el
observador y por lo tanto la “verdad” es inalcanzable. Sin embargo, los paradigmas dominantes
nos permiten construir un mundo, dentro de su contexto y con reglas inteligibles y aceptables
en ese ámbito.

Entender estos conceptos nos permiten establecer, con cierto grado de realismo, las
dificultades inherentes al logro de cambios significativos dentro de escenarios con fuertes
paradigmas instalados. Las técnicas proactivas y las 7 nuevas herramientas como instrumentos
de las mismas, apuntan a generar un enfoque metodológico válido para recorrer tan difícil
camino. Las experiencias acumuladas indican que es posible.

Las 7 nuevas herramientas

Estas herramientas, denominadas también de planificación y dirección, creadas por el


comité de investigaciones de JUSE (dirigido por Yoshinobu Nayatani), facilitan, como se
explicó previamente, el abordaje de situaciones complejas con escasa o nula información
cuantitativa.

No existe para este “set” de herramientas una secuencia preestablecida, como ocurre en el
caso de las herramientas básicas, que permitan su utilización secuencial en diferentes
circunstancias. De hecho, en mucho casos, algunas de ellas pueden utilizarse en forma
aislada para atender la necesidad de una situación particular.

Una breve descripción de cada una nos permitirá entender mejor su posible uso y la
aplicación desarrollada en este trabajo.

· Diagrama de relaciones: Clarifica entrelazadas relaciones causales en problemas o


situaciones complejas. Intenta contestar la pregunta ¿porqué sucede esto?. Se utiliza cuando
la estructura del tema no es apta (por su complejidad), para la organización en familias que
propone el diagrama de Ishikawa.
· Diagrama de afinidad (método KJ): Es seguramente la herramienta más original de este
conjunto y su correcta aplicación puede generar las mayores cuotas de proactividad en un
grupo. En general se aplica a la organización de datos verbales (ideas, opiniones,
pensamientos, etc.), provenientes de una situación confusa, compleja o desordenada, para
su posterior análisis en función de su afinidad. Intenta contestar la pregunta ¿qué sucede en
esta situación?. Facilita el reconocimiento de las estructuras básicas cuando se exploran
problemas o situaciones complejas. Permite identificar los factores intervinientes y sus
mecanismos primarios de interacción.
· Diagrama sistemático o de árbol: Se enfoca a encontrar los medios más apropiados para
alcanzar fines u objetivos determinados. En general intenta contestar la pregunta ¿cómo?. Es
una excelente herramienta para “desplegar” objetivos, alcanzando niveles de detalle que
puedan luego ser adecuadamente manejables y asignables.
· Diagrama matriz: Es una herramienta que promueve el pensamiento multidimensional.
Puede configurarse desde matrices que interrelacionan dos conjuntos de variables, hasta
otras que lo hacen con múltiples conjuntos. A menudo contesta la pregunta ¿cuál?,
identificando que elementos deben ser modificados, ajustados o diseñados para satisfacer
determinados requerimientos, por ejemplo del cliente. La herramienta conocida como QFD
(Quality function deployment), utiliza varios esquemas de matriz interrelacionados para
alcanzar un efectivo despliegue de la voz del cliente dentro de la organización.
· Matriz de análisis de datos: Facilita el análisis de grandes cantidades de datos numéricos,
de manera que los mismos puedan ser visualizados y comprendidos con menor dificultad. Es
la única herramienta cuantitativa de este conjunto. Intenta contestar la pregunta ¿qué
pautas o patrones muestran estos datos?. Existen varios enfoques, para su construcción,
desde la concepción estadística clásica.
· Diagrama del proceso de decisiones (PDPC): Permite analizar un proceso o flujo de
actividades encadenadas, con el objetivo de anticipar acciones preventivas y contingentes,
resultantes de las distintas alternativas de evolución que el proceso permita concebir. En
general contesta la pregunta ¿qué pasaría si.......?. Es muy utilizado en problemas de
seguridad o cuando un plan complejo debe ser garantizado en cuanto a eficacia de los
resultados. Sus pariente cercanos son: el árbol de fallas, FTA (Fault tree análisis) y el análisis
de modos de falla, FMEA (failure mode and effect analysis).
· Diagrama de flechas: Una herramienta que utiliza las conocidas técnicas de PERT (program
evaluation and review technics) y CPM (critical path method), para definir temporalmente
sucesos y actividades determinando los “cuellos de botella”. Apunta a contestar la pregunta
¿cuándo tenemos que hacer esto?.

Das könnte Ihnen auch gefallen