trabajo calidad 2º trimestre

78
CALIDAD Daniel Antonio Clemente Méndez 11 DE MARZO DE 2014 COLEGIO SALESIANO SAN IGNACIO

Upload: donateloo93

Post on 29-Dec-2015

55 views

Category:

Documents


0 download

TRANSCRIPT

Calidad

Daniel Antonio Clemente Méndez

11 DE MARZO DE 2014

Tabla de contenido5. Técnicas estadísticas de control de la calidad......................................................................2

5.1 Fundamentos de la estadística y probabilidad.................................................................5

5.1.1 Distribución de frecuencias..........................................................................................6

5.1.2 Otras distribuciones probabilísticas..............................................................................7

5.2 Control por variables y atributos. Gráficos de control por variables y atributos..............8

5.3 Manejo de paquetes informáticos de control estadístico de proceso............................14

5.4 Capacidad de proceso y de máquinas............................................................................24

5.4.1 Construcción e interpretación en la recta de probabilidad........................................25

5.4.2 Cálculo de índices de capacidad para máquinas y procesos.......................................26

5.5 Planes de muestreo........................................................................................................26

5.5.1 Curvas características y tipos de muestreo (UNE 66.020)..........................................29

5.5.2 Control secuencial y control continuo........................................................................29

5.5.3 Utilización de tablas de muestreo..............................................................................29

5.6 Análisis de regresión: Correlación y de la varianza (ANOVA)..........................................30

5.7 Aplicación de la informática al control del proceso........................................................31

6 Herramientas de la calidad aplicadas a la mejora de la calidad..........................................33

6.1 Toma de datos, recopilación, ponderación, presentación numérica y gráfica de datos. Histogramas...............................................................................................................................35

6.2 Diagramas de evolución o gestión, de Pareto, de afinidad, causa-efecto, correlación, dispersión o distribución, etc.....................................................................................................37

6.3 Matrices de prioridades, de criterio, de análisis, etc......................................................41

6.4 Análisis de modos de fallos y efectos (AMFE).................................................................43

7 Documentación de la calidad.............................................................................................47

7.1 Estructura y contenidos que deben cumplir las pautas de control.................................48

7.2 Informes y partes de control. Normas a considerar en su elaboración y presentación..48

7.3 Organización, gestión y actualización de la documentación generada...........................50

1

5. Técnicas estadísticas de control de la calidad.

Definimos el “Control Estadístico de la Calidad” como la aplicación de diferentes

técnicas estadísticas a procesos industriales (mano de obra, materias primas medidas,

máquinas y medio ambiente), procesos administrativos y/o servicios con objeto de

verificar si todas y cada una de las partes del proceso y servicio cumplen con unas

ciertas exigencias de calidad y ayudar a cumplirlas, entendiendo por calidad “la aptitud

del producto y/o servicio para su uso.

La aplicación de técnicas estadísticas al control está basada en el estudio y

evaluación de la variabilidad existente en cualquier tipo de proceso que es

principalmente el objeto de la Estadística.

Las fuentes que producen la variabilidad objeto de estudio en la Estadística, se

clasifica en “variabilidad controlada” o “corregible” que no entra dentro de nuestro

campo pero si es posible detectarla por causar una variabilidad muy grande (ajuste

incorrecto de la máquina, errores humanos, siendo posible eliminar la causa o causas

que la han producido, y la “variabilidad debida al azar”, también denominada

“variabilidad no controlable que no puede ser asignada a una causa única sino al

efecto combinado de otras muchas.

Supongamos un esquema de un proceso de fabricación determinado que

produce cierta pieza donde la característica de calidad sea Y (medible u observable). Se

observa que la magnitud de la característica varía de unidad a unidad de producto;

esto es, se dice que el producto posee variabilidad, objetivo primario o base de la

Estadística

Las herramientas de Control Estadístico de la Calidad han evolucionado con las

distintas revoluciones industriales. El nivel tecnológico de muchas empresas del sector

es muy elevado pero en cambio el uso de técnicas Estadísticas es muy reducido,

considerándose a menudo de gran dificultad, innecesarias y cuyos costos son elevados.

La tesis que se presenta se plantea como objetivo romper con esta forma de pensar y

2

demostrar algunas de las ventajas que puede aportar el uso de la Estadística para

tomar decisiones y mejorar la calidad de productos y procesos.

Para alcanzar este objetivo, se hace un breve repaso al grado de

utilización de la ciencia en el sector.

Esta indagación proporciona las claves necesarias para encaminar la

investigación hacia dos tipos de productos diferentes, por un lado, los de hogar que

son los que tradicionalmente se producen en la zona, y por otro, los técnicos que

representan una oportunidad de innovación.

La primera propuesta se realiza con la intención de dotar de mayor valor

añadido a los productos tradicionales, mediante la incorporación de un sistema de

Control de la Calidad de sus características sensoriales. Utilizando algunas técnicas de

Análisis Sensorial se quiere controlar la calidad del artículo en el proceso de

producción, así como definir las características sensoriales que lo caractericen y lo

puedan distinguir de sus competidores.

3

En el desarrollo práctico de la asignatura tendremos en cuenta siempre su

aplicación a procesos industriales que permiten la disponibilidad de gran variedad de

datos donde la o las características de calidad podrán ser medibles y se conocen como

variables o podrán ser observadas a las que se refiere como atributos, utilizando

distintas técnicas según el tipo de ellas.

En todo proceso industrial cabe distinguir la calidad de diseño que no es

objetivo de la asignatura y la calidad de fabricación, sobre la que nos centraremos

especialmente, aplicando los métodos estadísticos al:

Control del proceso o en curso de fabricación que proporciona no solo

detectar fallos en curso de fabricación sino también permite aprender cuáles

son las causas que provocan variabilidad, aportando datos para mejorar el

proceso.

El objetivo del Control Estadístico de la Calidad es:

1. Detectar rápidamente la ocurrencia de variabilidad debida a causas asignables.

2. Investigar la(s) causa(s) que la han producido y eliminarla(s).

3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se

producirían gran cantidad de unidades de calidad no aceptable, originando una

disminución de la capacidad productiva e incremento de costos del producto

terminado (supervisor).

4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del proceso

(dirección).

4

5.1 Fundamentos de la estadística y probabilidad.

El Control Estadístico de la Calidad es la disciplina científico-técnica que utiliza

técnicas estadísticas dentro del contexto más general del Control de la Calidad.

Permite medir y mejorar la Calidad de los productos y servicios. Básicamente

son tres las etapas donde se engloban dichas técnicas: la Inspección, el Control

Estadístico de Procesos y el Diseño Estadístico de Experimentos. La Inspección y

el Diseño de Experimentos son técnicas de control fuera de línea (Control off-

line), en cambio el Control Estadístico de Procesos es una técnica de control

durante la fabricación (Control off-line), (Navarrete, 1998).

El control estadístico de la calidad es la parte del control de la calidad

donde se utilizan técnicas estadísticas. Pueden distinguirse diversos tipos de

control estadístico de la calidad como:

Control de procesos durante la fabricación.

Control de recepción o inspección por muestreo.

Cabe destacar que antes del control estadístico de la calidad, se realiza una

etapa de Diseño del proceso y del producto. El control durante la fabricación o

de procesos se realiza de forma continuada a intervalos de tiempo fijos y tiene

por objeto vigilar el 8funcionamiento de los sistemas para que se mantenga en

las mejores condiciones posibles.

El control de recepción se realiza sobre partidas o lotes de unidades

recibidas ya sean materias primas, semielaboradas o acabadas y con el

propósito de inspeccionar si se verifican las especificaciones establecidas

(Navarrete, 1998).

Las herramientas estadísticas que se utilizan en el control estadístico de

la calidad son las siguientes:

Estadística descriptiva: histogramas y diagramas de probabilidad que se

utilizan en el estudio de la capacidad del proceso.

Variables estadísticas: medidas de posición y dispersión.

5

Distribuciones: binomial, chi-cuadrado, t- Student y F Snedecor.

Test de hipótesis.

Análisis de la varianza

Estudio de la desviación típica muestral en poblaciones normales

Estudio de la distribución del rango muestral dentro del contexto de los

estadísticos ordenados.

5.1.1 Distribución de frecuencias.

Estudiemos el caso de control por variables, es decir estamos

midiendo con un instrumento cuya resolución nos permite medir

las variaciones que produce nuestro proceso.

Una vez que el inspector recibe la muestra tomada

estadísticamente de la población a valorar, procede a las

correspondientes mediciones de cada una de las muestras.

Téngase presente que lo más probable es que en cada unidad se

hagan varias mediciones por variables y por atributos.

Como resultado de esta acción tendremos una tabla de

valores desordenados e incomprensibles. Lo primero que

deberemos hacer es clasificarlas de menor a mayor, luego

agruparlas en clases siguiendo algún criterio que nos permita

acumular los datos dentro de clases, esto es dentro de valores

que contengan varios de estos datos.

Supongamos que tenemos la siguiente tabla de valores

experimentales:

6

38 47 54 61 26 35 28 48 53 44

32 52 46 42 63 35 50 38 35 57

49 68 47 45 65 45 25 19 56 58

44 73 50 40 46 76 40 64 36 42

Total, n: 40 datos

Valor mínimo: 19, valor máximo: 76

Rango, 76-19= 57

5.1.2 Otras distribuciones probabilísticas.

Distribución Continua, o Distribución Gaussiana, o Distribución

Normal

Un histograma se construye a partir de un cierto número

de datos. Pero ¿que le pasaría al histograma si continuamos

aumentando el número de datos? Si el intervalo de clase se

reduce poco a poco a medida que aumenta el número de datos,

se obtiene una distribución de frecuencias continua, como límite

de una distribución de frecuencia relativa. En realidad es una

expresión de la población misma, puesto que se obtiene de un

número infinito de datos.

Existen muchas clases de distribución, y una de las más

frecuentes es la Distribución Normal. En muchos casos, cuando la

variación de una característica de calidad es causada por la suma

de un gran número de errores infinitesimales independientes

debidos a diferentes factores, la distribución de la característica

7

de calidad se aproxima a una distribución normal. La forma de la

Distribución Normal puede describirse como la de una campana.

La siguiente figura muestra la forma de esta distribución:

5.2 Control por variables y atributos. Gráficos de control por variables y

atributos.

Es una herramienta estadística que detecta la variabilidad, consistencia, control y

mejora de un proceso.

La gráfica de control se usa como una forma de observar, detectar y prevenir el

comportamiento del proceso a través de sus pasos vitales.

Así mismo nos muestra datos en una forma estática, tienen por supuesto sus

aplicaciones, y es necesario saber sobre los cambios en los procesos de producción, la

naturaleza de estos cambios en determinado período de tiempo y en forma dinámica,

es por esto que las gráficas de control son ampliamente probadas en la práctica.

Características Generales de las Gráficas de Control

8

El termino consistencia se refiere a la uniformidad en la salida del proceso; es

preferible tener un producto de un proceso consistente, que tener uno con calidad

superior, pero de un proceso intermitente.

Una gráfica de control se inicia con las mediciones considerando, sin embargo

que las mediciones dependen tanto de los instrumentos, como de las personas que

miden y de las circunstancias del medio ambiente, es conveniente anotar en las

gráficas de control observaciones tales como cambio de turno, temperatura ambiente.

Tipos de Gráfica y Características Principales

Para construir una gráfica de control, es importante distinguir el tipo de datos a

graficar pueden ser. Datos continuos, datos discretos, dicha gráfica dependerá del tipo

de datos.

Para la utilización de las gráficas se requiere un procedimiento específico:

Decidir la gráfica de control a emplear

Construir gráficas de control para el control estadístico del proceso

Controlar el proceso, si aparece una anormalidad sobre la gráfica de

control, investigar inmediatamente las causas y tomar acciones

apropiadas.

GRÁFICAS DE VARIABLES

Una gráfica de control X-R, en realidad son dos gráficas en una, una representa los

promedios de las muestras de la (gráfica X) y la otra representa los rangos (gráfica R),

deben construirse juntas, ya que la gráfica X, nos muestra cualquier cambio en la

media del proceso y la gráfica R nos muestra cualquier cambio en la dispersión del

proceso, para determinar las X y R de las muestras, se basan en los mismos datos.

El uso particular de la gráfica X-R es que nos muestra los cambios en el valor

medio y en la dispersión del proceso al mismo tiempo, además es una herramienta

efectiva para verificar anormalidades en un proceso dinámicamente.

9

Algunos puntos importantes a considerar previo a la elaboración de esta

gráfica son:

Propósito de la gráfica

Variable a considerar

Tamaño de la muestra

Tener un criterio para decidir si conviene investigar causas de variación del

proceso de producción.

Familiarizar a l personal con el uso de esta gráfica.

El proceso que se debe seguir para construir una gráfica es:

La construcción de una gráfica de rangos y promedio resulta de formar una

unidad, tanto de la gráfica de promedios como de la de rangos.

Consta de dos secciones, parte superior se dedica a los promedios, y la parte

inferior a los rangos.

En el eje vertical se establece la escala, a lo largo del eje horizontal se numeran

las muestras.

En la gráfica se relacionan estos promedios con los intervalos durante los

cuales se tomaron las muestras. En el eje vertical se indican los valores

correspondientes a los valores de muestras. En el eje horizontal se señalan los

periodos de tiempo en los que se toman las muestras a semejanza que la de

promedios.

La interpretación de esta grafica de promedio y rango seria que a partir de los datos de

la gráfica de promedios y rangos, podemos determinar el valor central del proceso y su

aplicación.

Mediante este proceso está bajo control cuando no muestra ninguna

tendencia y además ningún punto sale de los límites.

Se describen los distintos tipos de tendencia, que son patrones de

comportamiento anormal de los puntos (inestabilidad o proceso fuera de control

estadístico)

10

GRAFICA DE MEDIAS Y DESVIACIONES ESTÁNDAR

Esta gráfica es el instrumento estadístico que sirve para estudiar el comportamiento de

un proceso de manufactura, considerando como indicador la desviación estándar.

La estructura general, está constituida por dos porciones, una se destina al

registro de los promedios de la característica de calidad en consideración y otra para

controlar la variabilidad del proceso.

La ventaja de usar esta gráfica es que para estos valores de n la desviación

estándar es más sensible a cambios pequeños que el rango.

Dentro del procedimiento de construcción para dicha grafica incluye cálculos

de límites de control para las dos partes que constituyen la gráfica y la graficación de

los promedios y desviaciones estándar obtenidos en cada subgrupo.

Es importante la variabilidad del proceso de control, al iniciar la construcción

de la gráfica, si el proceso no muestra estabilidad estadística, entonces la parte

correspondiente a los promedios no será confiable dado que los límites de control de X

dependen del valor medio de s.

GRAFICAS DE MEDIANAS Y RANGOS

Es la herramienta estadística que permite evaluar el comportamiento del proceso a

partir de la mediana y del rango. La estructura es la común a todas las gráficas de

control para variables.

La parte superior registra el valor medio de las características de calidad en

estudio, y la parte inferior indica la variabilidad de la misma.

El cálculo de la mediana, es muy sencillo, de modo que utilizar esta gráfica par

monitorear el proceso es atractivo para el usuario.

El uso de esta gráfica en procesos que actualmente muestren estabilidad

estadística. Como toda gráfica de control, el usuario obtendrá, de una manera

continua, información rápida y eficiente del proceso en estudio; para verificar que el

proceso continua en control o bien para reconocer la aparición de causas especiales de

variación.

11

Para el procedimiento de construcción de esta gráfica es muy similar al de la

gráfica de medias y rangos; estos es calculando los límites de control, luego se grafican

los puntos y se integran los límites de control y líneas centrales, por último se efectúa

la lectura de la gráfica, a fin de ver si el proceso continua estable o bien percibir alguna

situación de anormalidad.

GRAFICA DE CON TROL POR ATRIBUTOS

Las características de calidad que no pueden ser medidas con una escala numérica, se

juzga a través de un criterio más o menos subjetivo.

Los datos se presentan con periodicidad a la gerencia y con ellos se integran números

índices, que son muy importantes en el desarrollo de una empresa, estos pueden

referirse al producto, desperdicio rechazo de materiales.

Dentro de la clasificación de las características calidad por atributos se requiere:

De un criterio

De una prueba

De una decisión

El criterio se establece de acuerdo con las especificaciones.

La prueba consiste en la operación que se realiza para averiguar la existencia o no del

criterio establecido.

La decisión determina que título debe darse a los productos, es decir si pasó o no pasa.

TIPOS DE GRAFICA DE CONTROL POR ATRIBUTOS

P Porcentaje de Fracción Defectiva

np Número de Unidades Defectivas por muestra constante.

U Proporción de Defectos

C Número de Defectos por unidad

GRAFICAS P PORCENTAJE DE FRACCIÓN DEFECTIVA

El porcentaje de artículos defectivos se expresa como fracción decimal para el cálculo

de los límites de control.

La fracción sin embargo, se convierte generalmente en porcentaje cuando se

transcribe en la gráfica y se usa en la presentación general de los resultados.

12

Las muestras que se utilizan para elaborar esta gráfica son de tamaño variable.

Las muestras de tamaño grande permiten evaluaciones más estables del desarrollo del

proceso y son más sensibles a cambios pequeños.

Se utiliza cuando no podemos tener el tamaño de muestra (n) constante, en la

práctica es muy común.

El defectivo son aquellas piezas que no cumplen con especificaciones y es

causa de rechazo.

Los principales objetivos de la gráfica P son:

Poner a la atención de la dirección cualquier cambio en el nivel medio de

calidad.

Descubrir los puntos fuera de control que indican modelos de inspección

relajados.

Proporcionar un criterio para poder juzgar si lotes sucesivo pueden considerarse

como representativos de un proceso.

Esto puede influir convenientemente en la severidad del criterio de aceptación.

GRÁFICA np NUMERO DE UNIDADES DEFECTIVAS POR MUESTRA

Esta gráfica es el instrumento estadístico que se utiliza cuando se desea graficar

precisamente las unidades disconformes, y no el porcentaje que éstas representan,

siendo constante el tamaño de la muestra.

Es necesario establecer la frecuencia para la toma de datos, teniendo en cuenta que

los intervalos cortos permiten una rápida retroalimentación del proceso.

Los principales objetivos de la gráfica np son:

Conocer las causas que contribuyen al proceso

Obtener el registro histórico de una o varias características de una operación

con el proceso productivo.

GRAFICA C NUMERO DE DEFECTOS POR UNIDAD

La gráfica c estudia el comportamiento de un proceso considerando el número de

defectos encontrados al inspeccionar una unidad de producto.

13

La gráfica hace uso del hecho de que artículo es aceptable aunque presente cierto

número de defectos.

Los objetivos de la gráfica c son:

Reducir el costo relativo al proceso

Informar a los supervisores de producción y a la administración acerca del nivel de

calidad.

Determinar qué tipo de defectos no son permisibles en un producto informar de la

probabilidad de ocurrencia de los defectos en una unidad.

Estas graficas deben utilizarse solo cuando el área de oportunidad de encontrar

defectos permanece constante.

GRAFICA u PROPORCIÓN DE DEFECTOS

La gráfica u puede ser usada bajo cada una de las siguientes suposiciones:

Como substituto de la gráfica c cuando el tamaño muestra.

Cuando el tamaño muestra varía, de qué modo la gráfica c no puede usarse.

5.3 Manejo de paquetes informáticos de control estadístico de proceso

Conceptualmente, un paquete estadístico es un conjunto de programas informáticos

específicamente diseñados para el análisis estadístico de datos con el objetivo de

resolver problemas de estadística descriptiva, inferencial o ambos

Es un conjunto de programas y subprogramas conectados de manera que

funcionan de manera conjunta; es decir, para pasar de uno a otro no se necesita salir

del programa y volver a él. Un paquete estadístico permite aplicar a un mismo fichero

de datos un conjunto ilimitado de procedimientos estadísticos de manera

sincronizada, sin salir del programa. De esta forma, la utilidad del conjunto integrado

es mayor que la suma de las partes. En cierto modo, un paquete estadístico es similar a

un paquete ofimático (por ejemplo, Office 97 de Microsoft).

14

Hay paquetes que fueron escritos originalmente para ordenadores tipo

mainframe: SPSS , BMDP , SAS , Minitab , Genstat y GLIM. Los tres primeros se

volvieron muy populares en ese entorno. Actualmente pueden usarse en PC todos

ellos. Otros paquetes se han desarrollado específicamente para PC, sin haber pasado

por la etapa de los mainframes.

Algunas de las variables que es necesario tener en cuenta para comparar

adecuadamente unos paquetes estadísticos de otros son, esencialmente, las seis que

se mencionan a continuación:

1.- Coste: Este es uno de los puntos más importantes que hay que tocar al

momento de elegir un Paquete Estadístico, desafortunadamente, el coste de sus

licencias está fuera del alcance de la mayor parte de los usuarios y la obtención de

copias subrepticias no es posible para muchos ni fácil en absoluto para ninguno.

2.- Nivel de sofisticación del usuario: Idealmente, éste debería ser un

entendido en estadística y tener ciertos conocimientos de programación. En la medida

que carezca de los segundos, tendrá que renunciar a realizar por su cuenta cierto tipo

de análisis que vayan más allá de los más comunes; y en tanto que carezca de los

primeros, será más dependiente de aquellos paquetes con un interfaz más

informativo.

3.- Tamaño del conjunto de datos: En la mayor parte de los problemas -al

menos, en lo que respecta a su número, no a su dificultad ni importancia- esta variable

no supone ninguna restricción significativa. De hecho, la mayotia de los paquetes

pueden manejar sin mayores problemas conjuntos de datos no excesivamente

grandes. Sólo cuando se rebasa cierto umbral es preciso considerar paquetes

específicamente diseñados para hacer frente a este tipo de condicionantes. Los

distribuidores de muchos paquetes estadísticos comerciales suelen hacer hincapié en

la probada capacidad de sus productos para manipular grandes conjuntos de datos.

Desafortunadamente para ellos, el rango de problemas en que estas virtudes son

críticas se estrecha aceleradamente: por una parte, las ampliaciones de memoria son

cada vez más económicas, elevando hasta niveles muy cómodos el umbral a partir del

cual serían necesarios productos más sofisticados; por la otra, para los problemas en

que los conjuntos de datos son verdaderamente grandes -bases de datos de

corporaciones, información censal, etc.- pueden emplearse herramientas específicas

15

como, por ejemplo, programas escritos en C que interactúen con el gestor de la base

de datos.

4.- Grado de intensidad computacional: El incremento en la potencia

computacional de los ordenadores permite hoy en día aplicar ciertas técnicas

estadísticas impensables hace unos años y ampliar su campo de aplicación a ámbitos

inasequibles para las tradicionales. Las técnicas de remuestreo o de validación cruzada,

ciertos tests exactos y gran parte de las técnicas bayesianas exigen una enorme

capacidad de cálculo. No todos los paquetes estadísticos están igualmente adaptados

para este tipo de problemas. Con muchos de ellos -por ejemplo, Minitab, Stata y gran

parte de los paquetes gratuitos- resulta simplemente imposible porque fueron

diseñados únicamente para implementar técnicas tradicionales y carecen de un

verdadero lenguaje de programación asociado que resulte eficiente.

5.- Ergonomía: Curiosamente, el aspecto que tal vez más encarezca

determinados paquetes estadísticos es el ergonómico: la posibilidad de contar con

ayudas interactivas o tutoriales, de representar gráficamente datos con un golpe de

ratón, de exportar automáticamente los resultados a formato .html o .pdf, etc. Bajo

cierto punto de vista, el coste de las licencias es, de hecho, el coste de la impericia o la

pereza. A la primera, en mercadotecnia, se la suele denominar productivity; a la

segunda, learning curve. Es más productivo y exige menor esfuerzo mental un paquete

estadístico en que para imprimir no haya sino que pulsar el icono de la impresora, en

que para visualizar unos datos baste con visitar el menú Gráficos o el Importar para

leer datos de un fichero con el formato de cierta hoja de cálculo. Este tipo de

habilidades son realmente reduntantes si se cuenta con un mínimo de habilidad y no

se pretende escatimar un adarme de esfuerzo: utilizando ficheros de texto como

intermediarios, se pueden intercambiar datos con cualquier hoja de cálculo o con otros

programas que permiten manipular datos o gráficos, gran parte de los cuales son de

distribución gratuita.

6.- Facilidad de programación: Si bien contar con lenguajes de programación

complejos no es lo deseable, si lo es disponer de la capacidad de generar programas

sencillos tipo "batch files" que permitan realizar tareas de transformación, cálculo de

datos, realización de pruebas estadísticas, generación de nuevos archivos y

documentos conteniendo resultados sin necesidad de estar digitando cada vez los

comandos correspondientes, con el consiguiente ahorro de tiempo y esfuerzo.

16

VENTAJAS Y DESVENTAJAS DE LOS PAQUETES ESTADÍSTICOS.

Debido a las diferencias existentes entre los paquetes estadisticos, mencionaremos

individualmente las ventajas y desventajas de algunos de ellos, desarrollando

mayormente los Paquetes mas conocidos como son SAS y SPSS y de muchos otros solo

se mencionara su existencia.

- SAS, Statistical Analysis System (SAS Institute Inc., Cary , NC)

http://www.sas.com

* Comprende amplias posibilidades de procedimientos estadísticos

(métodos multivariados, regresión múltiple con posibilidades

diagnósticas , análisis de supervivencia con riesgos proporcionales y

regresión logística) y permite cálculos exactos para tablas r x c y

contiene potentes posibilidades gráficas.

* Todos los procedimientos pueden emplearse de una sola ejecución.

* Los resultados pueden guardarse como archivos y usarse como

entradas para futuras ejecuciones.

* Es particularmente útil en la gestión de datos y en la redacción de

informes.

* Algunos procedimientos tienen varias opciones por lo cual debe

examinarse cuidadosamente el manual antes de seleccionar la opción

deseada.

* SAS ofrece la mayor flexibilidad para personalizar el manejo y análisis

de datos, sin embargo su principal inconveniente es que no resulta fácil

aprender a usarlo.

- SPSS, Statistical Package for the Social Sciencies (SPSS Inc. , Chicago)

17

* Dispone de un amplio conjunto de métodos estadísticos

(multivariados, series temporales, regresión logística y análisis de

supervivencia).Todos los procedimientos pueden emplearse de una

sola ejecución.

* Algunos procedimientos tienen varias opciones por lo cual debe

examinarse cuidadosamente el manual antes de seleccionar la opción

deseada. SPSS es el más fácil de aprender para los investigadores

principiantes y tiene un manual que explica la filosofía y los

mecanismos de las técnicas estadísticas.

* Puede creerse que SPSS es un producto caro y ligado a compras

costosas. Esto no es totalmente cierto. Si bien no es un producto

barato, sí es rentable. De hecho, el éxito de SPSS se debe a:

Vinculación de los objetivos a las necesidades de la empresa.

Perfecto Acoplamiento a un Plan de Investigación bien

formulado.

Servicio de Calidad para los usuarios.

Eficaz Evaluación de los Resultados hallados.

Facilidad del Manejo y de la Programación.

ALGUNAS DIFERENCIAS ENTRES LOS DOS GRANDES (SAS y SPSS)

Precio

El precio de SPSS es mucho menor que el del programa SAS, en torno a la mitad del

precio.

Rentabilidad

Recomendable para PYMES (hasta 500 trabajadores), SPSS es la mejor solución. Para

grandes empresas (más de 500 empleados) o aquellas que puedan permitirse un

fuerte desembolso sin necesidad de retorno a corto plazo, SAS es más rentable que

SPSS, ya que permite ejecutar mayor número de procedimientos estadísticos y

operativos.

18

Facilidad

El manejo de SPSS es mucho más sencillo que el de SAS. El interfaz estilo hoja de

cálculo de SPSS y su posibilidad de abrir ventanas muy comprensivas le convierten en

un feo adversario para SAS. No obstante, SAS, una vez conocido el manejo de su

lenguaje de programación, es más divertido que SPSS.

Formación

La dependencia absoluta del lenguaje de programación por parte de SAS le hace muy

vulnerable ante necesidades repentinas, ya que obliga a la Empresa a costear caros

programas de formación, con el fin de permitir que su personal le saque el máximo

provecho. SPSS, sin embargo, al ser mucho más fácil, no encadena al usuario a largos

procesos formativos, sino que, en un tiempo mucho más corto que SAS, puede realizar

complejos procedimientos de análisis sin esfuerzo.

Robustez

La dependencia absoluta de Windows por parte de SPSS le hace muy vulnerable ante

"caídas" del sistema, normalmente provocadas por acciones ilícitas del usuario. El

programa SAS, por su parte, al tener su propio sistema operativo, toma la iniciativa del

sistema, una vez arrancado, no permitiendo que una acción no autorizada por parte

del usuario paralice el trabajo del operario

- BMDP http://www.spssscience.com/Bmdp/

Es el más antiguo de los paquetes. El primer manual para BMD

Biomedical Computers Programs se publicó en 1961.En 1975 pasó a

denominarse BMDP. Cubre un amplio abanico de métodos estadísticos

pero su capacidad para manejar datos es limitada.

Desventajas: sus programas se ejecutan por separado: solo puede

accederse a uno de ellos en cada ejecución.

Los resultados de cada programa se pueden guardar en un archivo de

BMDP y utilizarse como entrada en otros programas.

- Epi Info (Center for Diseases Control/WHO, Dean et al).

http://www.cdc.gov/epiinfo

19

Posee un excelente manejo de cuestionarios y entrada de datos. Posee escasos pero

muy potentes comandos para el análisis estadístico y funciona prácticamente en

cualquier computadora y sus utilitarios más importantes requieren escasos recursos

informáticos. Es ideal para epidemiología de campo.

No posee métodos multivariados ni estadísticas de supervivencia. No tiene costo. Las

versiones actuales "corren" en DOS. Se está implementando una versión para

Windows.

- Minitab Statistical Software (State College , Pa) http://www.minitab.com

Permite uso interactivo y es popular entre estudiantes y usuarios no especializados

aunque no contempla tantos métodos estadísticos como SPSS, SAS o BMDP, incluye

regresión múltiple. No es adecuado para conjuntos de datos pequeños

- Stata Statistical Package (Stata Corporation ,Computing Resource Center,

College Station , Texas) http://www.stata.com

Tiene muy amplias capacidades estadísticas aplicables a áreas biológicas, del

comportamiento y económicas.

- Stat View Software (Abacus Concepts INC, Berkeley)

http://www.statview.com

Fácil de aprender y operar y dispone de tests básicos y capacidades gráficas, pero no es

capaz de manejar grandes conjuntos de datos ni dispone de estadísticas de análisis de

sobre-vida ni regresión logística.

- StatXact 3 (V3 Cytel Software Corporation , Cambridge , Massachussetts)

http://www.cytel.com

Por primera vez pone a disposición en forma práctica cálculos exactos para datos

discretos, como por ejemplo el test exacto para una tabla r x c, test de tendencia

exacta para tabla r x 2 y el test exacto para la combinación de tablas 2 x 2 cuando falla

el test de Mantel-Haenszel.

También permite el cálculo para niveles de significación semi-p , uso recomendado por

Armitage para datos discretos.

- Genstat, General Statistic Program

20

Se le considera uno de los paquetes más difíciles de aprender. Es al mismo tiempo un

lenguaje y un paquete de modo que el tipo de operaciones algebraicas usadas

habitualmente en estadística pueden programarse facilmente lo que permite la

ejecución de métodos nuevos. Por ello es popular entre los estadísticos que se

encuentran desarrollando nuevos métodos o variantes de métodos existentes. Tiene

buenos recursos para analizar experimentos diseñados.

- GLIM, Generalized Linear Interactive Modelling

http://www.nag.com/stats/GDGE.html

Fue escrito para ajustar modelos lineales en forma interactiva lo que permite al

investigador avanzar mediante la prueba y ajuste de diferentes modelos, con lo que

puede agregar o descartar variables y apreciar el efecto de estos cambios antes de

decidir el siguiente paso. Es más útil en tamaños pequeños a medianos de datos

- Prophet (National Center for Research Resources , National Institutes of

Health. BBN Systems and Technologies , 1997) http://www-prophet.bbn.com

Es un paquete aún en etapa de prueba. Es bastante semejante en sus disponibilidades

a SPSS, pero pensamos que es superior en la presentación de los resultados. Tiene un

excelente y didáctico manual en línea por medio de Internet.

- Arcus Quickset Biomedical (Research Solutions, Cambridge, England)

http://www.researchsolutions.com/arcus_quickstat/index.html

- Cricket Graph III (Islandia , NY)

http://www.cjs.cadmus.com/da/instructions/cricket_mac.html

- CSS Statistical Software (Statsoft Inc)

- EGRET . Epidemiologycal Graphics and Testing Package (Statistic and Research

Corporation , Washington,1988) http://www.cytel.com/products/egret

- Epicure Peanuts (Hirosoft International Corporation , Seattle,

Washington,1993) http://www.hirosoft.com/index.html

- GRAPHROC.Maximatti Oy , Xerttulink , Finland

http://www.saunalahti.fi/~maxim

- Graphpad Instat software http://www.graphpad.com

21

- HLM V4.0 (Scientific Software International , Chicago , Illinois)

http://www.ssicentral.com/hlm/hlm.htm

- JMP Software V3.01, V3.15, V3.2 (SAS Institute,Cary,NC)

http://www.jmpdiscovery.com/

- LISREL V8. Scientific Software International , Chicago , 1993

http://www.ssicentral/com/lisrel/mainlix/htm

- Lotus (Lotus Development Corporation) http://www.lotus.com

- Microsoft Excel http://www.microsoft.com/office/excel/default.htm

- MLn. Multilevel Statistical Models , London

- MLWIN (Multilevel Modeling for Windows).Institute of Education , London ,

1998 http://ioc.ac.uk/mlwin

- NUD*IST V4.0 . Qualitative Solution and Research , Victoria , Australia

http://www.qsr.com.au

- Report V6.0.08 (IDV , Munich , Germany)

- Review Manager. RevMan.The Cochran Collaboration , Oxford) Versiones 3.1,

4.0 http://hiru.mcmaster.ca/cochrane/cochrane/revman.htm

- ROC Analyzer V09B (Centrosoft , Birmingham , Alabama)

- Sigmastat V2.0 (Jandel Scientific) http://www.spssscience.com/sigmastat

- Simstat V3.5 http://www.kovcomp.co.uk

- S-Plus Statistical Package (Stat Sci , Seattle and Europe)

- Statigraphics (Manigistics)

- Statistica (Statsoft, Tulsa Ok)

- Statprobe (Ann Arbor, Mich) http://www.statprobetechnologies.com

- Stat Soft (Tulsa, Okl) http://www.statsoftinc.com

- SUDAAN. Analysis with Complex Samples , Lavange LM

http://www.rti.org./patents/sudaan/sudaan.html

22

- SYSTAT Software (Wilkinson, 1990, SYSTAT Inc)

http://www.spssscience.com/systat

- Testimate V5.2ª (IDV, Munich, Germany)

- True Epistat (Epistat Services) http://www.true_epistat.com

- Clinfo Systems (Southern California School of Medicine)

- Egret (Statistics and Epidemiology Research Corporation)

- GBSTAT http://www.gbstat.com/index1.htm

- LogXact http://www.cytel.com/new.pages/LX.2.html

- NCSS V6.0 (J.L. Hintze , Kaysville , Utah) http://www.ncss.com

- SIP - Sistema Informático Perinatal http://www.clap.hc.edu.uy

- SPIDA (Gebski et al, 1992)

- Statistix (NH Analytical Software) http://www.statistix.com

INTRODUCCIÓN

Un Paquete Estadístico es un conjunto de programas y subprogramas conectados de

manera que funcionan de manera conjunta; es decir, para pasar de uno a otro no se

necesita salir del programa y volver a él. Un paquete estadístico permite aplicar a un

mismo fichero de datos un conjunto ilimitado de procedimientos estadísticos de

manera sincronizada, sin salir del programa. De esta forma, la utilidad del conjunto

integrado es mayor que la suma de las partes. En cierto modo, un paquete estadístico

es similar a un paquete ofimática Este, entre otros temas como las ventajas y

desventajas de cada uno de los paquetes estadísticos por nosotros conocidos, serán

tocados y ampliados en este trabajo.

CONCLUSIÓN

A la vista de lo investigado, podemos decir que los Paquetes Estadísticos son muy

útiles al momento de hacer cálculos estadísticos pero, los usuarios que sólo se

aproximan circunstancialmente a problemas de tipo estadístico y que sólo buscan

soluciones poco sofisticadas y puntuales deben reexaminar las rutinas estadísticas de

cualquier hoja de cálculo, incluyendo, tal vez, algunos de los macros de libre

23

distribución que pueden encontrar en Internet, usar algún programa gratuito con un

interfaz simple como los que pueden encontrarse e Internet o tal vez, buscar en

Internet alguna de las cada vez más numerosas páginas en las que es posible realizar

interactivamente y en línea determinadas manipulaciones estadísticas.

Por otra parte, a aquellos usuarios que tengan que realizar análisis estadísticos

más complejos y de una forma más regular podrían tomar como primera opción R,

programa gratuito que pueden descargarse en internet. Usado en combinación con

otro tipo de programas que extienden su capacidad gráfica -hojas de cálculo,

procesadores de texto, programas específicos para la representación de datos,

JavaScript, etc.- puede realizar con un coste nulo análisis sumamente sofisticado que,

incluyen, tal vez, el 99% de los que precisan el 95% de los usuarios. Sólo un número

pequeño de ellos echaría en falta alguna de las herramientas adicionales que incluye

su versión comercial, S-Plus, o tal vez alguna de las de SAS o SPSS u otros.

5.4 Capacidad de proceso y de máquinas.

La capacidad del proceso es la forma en que se compara la variabilidad inherente de

un proceso con las especificaciones o requerimientos del producto. Las técnicas

estadísticas pueden ser útiles en el ciclo de un producto, incluyendo las actividades de

desarrollo previas a la manufacturas, para cuantificar la variabilidad del proceso, para

analizar esta variabilidad respecto de los requerimientos o especificaciones del

producto y para ayudar al personal de desarrollo y manufactura a eliminar o reducir en

gran medida esta variabilidad. A esta actividad general se le llama análisis de capacidad

del proceso. Evidentemente, la variabilidad del proceso es una medida de la

uniformidad de la salida. Hay dos formas de conceptuar esta variabilidad:

La variabilidad natural o inherente en un tiempo especificad; la

variabilidad“instantánea”.

La variabilidad con el tiempo. El análisis de capacidad del proceso se define

como el estudio de ingeniería para estimar la capacidad del proceso. La estimación de

la capacidad del proceso puede estar en la condición de una distribución de

probabilidad que tenga una forma, centro (media)y dispersión (desviación estándar)

especificados. De manera alternativa, la capacidad del proceso puede expresarse como

24

un porcentaje fuera de las a especificaciones. Sin embargo, las especificaciones son

necesarias para realizar el análisis de capacidad del proceso. El análisis de capacidad

del proceso es una parte vital de un programa integral de mejoramiento de calidad.

Entre los usos principales de los datos de un análisis de capacidad del proceso se

encuentran los siguientes:-

Predecir el grado de variabilidad que exhibirán los procesos. Esta información

de capacidad proporcionará la información importante para establecer límites de

especificación realistas.-

Seleccionar, entre procesos que compiten, el proceso más adecuado para que

las tolerancias se cumplan. Planear la interrelación entre procesos secuenciales. La

cuantificación delas capacidades respectivas del proceso con frecuencia señala el

camino para encontrar una solución. Proporcionar una base cuantitativa para

establecer un programa de verificación de control periódico del proceso reajustes.

Asignar máquinas a los tipos de trabajos para los cuales son más adecuadas.

Probar las teorías de las causas de defectos durante los programas de

mejoramiento de calidad.

Servir como base para la especificación de los requerimientos de calidad para

las máquinas compradas. Por tanto, el análisis de capacidad de un proceso es una

técnica que tiene aplicación en muchos segmentos del ciclo del producto, incluyendo

el diseño de producto y procesos, la fuente de proveedores, la planeación de la

producción o la manufactura, y la propia manufactura. La fórmula para la capacidad

del proceso que más se usa es: Capacidad del proceso.

5.4.1 Construcción e interpretación en la recta de probabilidad.

En el estudio de variables bidimensionales tiene mucho interés buscar posibles

relaciones entre las variables. La más sencilla de estas relaciones es la

dependencia lineal donde se supone que la relación entre dos variables X e Y

viene dada por la ecuación Y = a + bX. Sin embargo, este modelo supone que

una vez determinados los valores de los parámetros a y b es posible predecir

exactamente la respuesta Y dado cualquier valor de la variable de entrada X.

25

En la práctica tal precisión casi nunca es alcanzable, de modo que lo máximo

que se puede esperar es que la ecuación anterior sea válida sujeta a un error

aleatorio, es decir, la relación entre la variable dependiente (Y ) y la variable

regresora (X) se articula mediante una recta de regresión que llamaremos

recta de regresión de Y sobre X para resaltar que se ha obtenido suponiendo

que Y es la variable respuesta y que X es la variable explicativa.

Intercambiando los papeles de X e Y obtendremos una recta de

regresión llamada recta de regresión de X sobre Y que representada en el

mismo eje de coordenadas será en general distinta de la anterior. Solamente

coincidirán en el caso de que la relación entre X e Y sea exacta.

5.4.2 Cálculo de índices de capacidad para máquinas y procesos.

Se dice que un proceso está bajo control estadístico cuando sólo se

producen variaciones debidas a causas comunes. En otras palabras el objetivo

y razón de ser control Estadístico de Procesos es ayudar a identificar las causas

especiales que producen variaciones en el proceso y suministrar información

para tomar decisiones.

La capacidad de un proceso está referida a su habilidad para producir

unidades cuyos valores de la características a medir, se distribuyan a lo largo

de una banda lo suficientemente estrecha como para un centrado del proceso

conlleve a que todos los productos caigan dentro de las especificaciones del

cliente. Luego la capacidad de un proceso está determinada por su variación

total, debida a causas comunes (mínima variación que queda después de

eliminar las causas especiales).

5.5 Planes de muestreo.

26

En los últimos años ha ido disminuyendo el interés del muestreo de aceptación, en

tanto el control estadístico de procesos ha venido adquiriendo un papel cada vez más

prominente en las actividades del control de calidad.

No obstante, el muestreo de aceptación aún mantiene el interés dentro del

cuerpo general de conocimiento que es la ciencia de la calidad.

El muestreo de aceptación se lleva en diversas situaciones en donde existe una

relación ente consumidor y productor, ya sea en el interior de una empresa o entre

diferentes empresas, y se puede ver como una medida defensiva para protegerse

contra la amenaza del posible deterioro en la calidad. Es posible que Productor y

Consumidor sean cada uno de diferente compañía o en dos departamentos diferentes

dentro de una misma planta, sea como fuere, existe siempre el problema de decidir si

se acepta o se rechaza el producto.

En particular si las características de calidad son variables de atributos,

entonces un plan simple de muestro de aceptación está definido por:

N ------- Tamaño de lote

n ------ tamaño de la muestra

c ------ número de aceptación

Se debe tener claro que el muestreo de aceptación, al ser una forma particular de

inspección, simplemente acepta y rechaza lotes, pero no mejora la calidad. Es decir el

muestreo de aceptación no es una estrategia de mejora de la calidad, es mas bien una

forma de garantizar que se cumplan ciertas especificaciones de calidad que han sido

definidas, tampoco este tipo de muestreo proporciona buenas estimaciones de la

calidad del lote

Donde aplicarlo:

En elementos (componentes) terminados.

Componentes y materias primas.

Operaciones.

Materiales en proceso.

Materiales en almacenamiento.

Operaciones en almacenamiento.

27

Datos o Registros.

Procedimientos administrativos.

Cuando aplicarlo:

Cuando la aplicación de una prueba implica la destrucción del producto (ej.

Prueba de un fusible eléctrico).

Cuando el costo es alto para hacer una inspección del 100% es muy elevado,

comparado con el costo que implica pasar una unidad no conforme.

Cuando son muchos y similares las unidades que se van a inspeccionar, el

muestreo produce una mejor opción que el inspeccionar al 100%.

Cuando no se dispone de información sobre la calidad de producto, ejemplo, la gráfica

X, R, p, o c.

Cuando el lote lo forman una gran cantidad de artículos que habria que inspeccionar y

la probabilidad de error en la inspección es suficientemente alta, de tal manera que la

inspección al 100% podría dejar pasar más unidades defectuosas que un plan de

muestro.

Cundo no se dispone de una inspección automatizada.

Cuando es necesario asegurar la confiabilidad del producto, aunque la capacidad del

proceso fabricante del lote sea satisfactoria.

En situaciones donde históricamente el vendedor ha tenido excelentes niveles de

calidad y se desea una reducción de la cantidad de inspección, pero la capacidad del

proceso no es suficientemente buena como para no inspeccionar.

Ventajas:

La responsabilidad por la calidad se asigna a quien verdaderamente

corresponde, ¡No a la inspección!, esto favorece una rápida mejora del

producto.

Es más económico, puesto que se tienen que hacer menos inspecciones, y se

producen menos daños por manipulación durante la inspección.

Permite mejorar la tarea de inspección, pero en vez de tomar decisiones de

pieza con pieza, las decisiones se toman de lote a lote.

Útil en el caso de pruebas que implican destrucción.

28

Se orienta más al rechazo de lotes enteros más que a la devolución de

unidades no conformes.

Desventajas:

Existe cierto riesgo de que se rechacen lotes conformes y/o acepten lotes no

conformes.

Se tiene que dedicar más tiempo a la planeación y a la documentación.

Se proporciona menos información sobre el producto aunque generalmente

ésta es suficiente.

No hay ninguna seguridad dado que la totalidad del lote cumpla con las

especificaciones.

5.5.1 Curvas características y tipos de muestreo (UNE 66.020).

5.5.2 Control secuencial y control continuo.

Sistema de control secuencial

En los procesos, se evidencia a veces la presencia de variables caracterizadas

por tomar valores de sólo dos posiciones por ejemplo, abierto o cerrado, alto o

bajo, lleno o vacío, etc., y el accionamiento de la variable manipulada solo

tiene lugar cuando se ha detectado alguna de esas posiciones antagónicas

dando lugar a la aplicación del denominado control secuencial, o sea la

automatización de procesos según secuencias lógicas

Sistemas de control en procesos Continuos y Discontinuos Los procesos

pueden ser continuos desde que la mayor parte del tiempo se realizan en

régimen permanente o estacionario, como en las plantas de producción y

distribución de gas y petróleo, agua potable, petroquímica, destilerías, plantas

de energía, etc. Otros tipos de procesos, discontinuos, se caracterizan por la

producción en lotes, en cantidades limitadas, tales como en las industrias

farmacéuticas, alimenticias, especialidades medicinales, microelectrónica, etc.

29

5.5.3 Utilización de tablas de muestreo.

El gran volumen de las operaciones o elementos a verificar en una auditoría,

hace que esta sea muy costosa y requiera de gran cantidad de tiempo para su

ejecución, por lo cual es necesario que los auditores dominen las principales

técnicas de muestreo y el uso de tablas y fórmulas matemáticas aplicables a

dichas técnicas.

La determinación del tamaño de muestra en la realización de un

estudio estadístico es una de las etapas más importantes, por lo que debe

afrontarse con estricto apego a las consideraciones de carácter técnico de la

teoría estadística, así como a los objetivos de la investigación y a los usos

futuros de la información.

La revolución informática ha penetrado en todas las facetas de la vida

del ser humano, y el campo de la auditoría no puede estar ajeno a tales

desafíos. Si los objetivos y los principios básicos de la auditoría no han

cambiado sustancialmente, sus técnicas de trabajo, métodos y herramientas,

han experimentado una modificación radical. El auditor contemporáneo debe

dominar las nuevas herramientas que la informática pone a su alcance, para

poder enfrentar con éxito los retos de la automatización de la gestión

económica, contable y financiera de empresas y entidades.

El auditor debe dirigir sus esfuerzos al empleo de programas y sistemas

informáticos para la determinación de la muestra y la selección de los

elementos a investigar, lo que actualmente resulta una necesidad para su

rapidez, confiabilidad y el uso extendido de las técnicas de computación

aplicadas a la contabilidad y al control.

La utilización de un programa de computación adecuado y confiable,

conduce a la obtención de mejores resultados y mayor calidad de estos. El

tiempo es otra ganancia de esta moderna práctica, al reducir el período de

exámenes y procedimientos, así como sus costos. Pero hay más: mejora la

información, garantiza un mínimo de interrupciones al centro supervisado, y

brinda absoluta independencia de trabajo al especialista.

30

5.6 Análisis de regresión: Correlación y de la varianza (ANOVA).

En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según

terminología inglesa) es una colección de modelos estadísticos y sus procedimientos

asociados, en el cual la varianza está particionada en ciertos componentes debidos a

diferentes variables explicativas.

Las técnicas iniciales del análisis de varianza fueron desarrolladas por el

estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido

como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la

distribución F de Fisher como parte del contraste de hipótesis.

5.7 Aplicación de la informática al control del proceso.

La gestión de calidad se ha convertido actualmente en un factor clave de

competitividad, siendo vital para organizaciones de todo tipo la certificación según

normas que les permitan acreditar el cumplimiento de niveles de calidad elevados.

Visual Factory 7 es un conjunto de aplicaciones informáticas para la gestión de

calidad destinadas tanto a simplificar la implantación de un sistema de calidad

conforme a las normas ISO 9000 y ISO TS 16949, como a asegurar la aplicación

sistemática del mismo.

Agilidad. El software para el control y gestión de calidad Visual Factory es ágil

ya que es fácil de instalar y de utilizar. El usuario se familiariza inmediatamente con su

interface de usuario que es tremendamente intuitivo y sigue los estándares utilizado

por el software ofimático que está acostumbrado a utilizar.

Flexibilidad. Es una de las características más importantes de todas las

aplicaciones Visual Factory. Sabemos que no todas las empresas son iguales ni tienen

las mismas necesidades, por ello las aplicaciones se han diseñado para que puedan

configurarse y adaptarse a los requerimientos de cada uno de nuestros clientes:

Fácil configuración de vistas que permite presentar la información como la

precisamos.

31

Fácil e intuitivo diseñador de informes incorporado.

Posibilidad de enlace con datos generados por otras aplicaciones, por ejemplo

ERP.

Integración con Crystal Report, que permite realizar informes sofisticados

aglutinado datos de diferentes fuentes.

ELECSOFT diseña y desarrolla íntegramente todas las aplicaciones Visual

Factory. Por ello nos es posible realizar ampliaciones o diseñar nuevos módulos

complementarios en caso necesario, con el fin de implantar una solución que se ajuste

al 100% a las necesidades y especificaciones de cada cliente.

Para aquellas aplicaciones que permiten la entrada de datos desde dispositivos

de medida existen interfaces de comunicación de datos con múltiples instrumentos de

medida. En caso de que el cliente desee conectar instrumentos de medida para los que

aún no exista interface, se suministra una aplicación para que el cliente pueda

desarrollar sus propios interfaces, o alternativamente estos pueden ser desarrollados

por Elecsoft a partir de la información suministrada por el fabricante del instrumento.

Las bases de datos de las aplicaciones utilizan un formato de datos abierto y

documentado para que el cliente pueda explotar esta información mediante

herramientas de consulta estándar (Access, Excel) o aplicaciones propias.

Escalabilidad. Las aplicaciones de la familia Visual Factory poseen diferentes

versiones para cubrir todas las necesidades. Desde versiones monousuario utilizando

Microsoft Access hasta versiones multiusuario utilizando Microsoft SQL Server. Esto

permite que puedan ser utilizadas tanto por clientes que generan unos pocos cientos

de registros al año como por clientes que generan cientos de miles de registros al año.

Seguridad. Todos estos programas para la gestión de calidad disponen de un

potente gestor de usuarios, grupos de usuarios y permisos. Esto permite definir

diferentes niveles de acceso, adaptandose el interface de usuario de la aplicación para

cada nivel, de forma que cada usuario vea la aplicación personalizada según sus

propias necesidades.

I+D+I. ELECSOFT reinvierte gran parte de sus beneficios en investigación,

desarrollo e innovación. Esto nos permite actualizando constantemente las

32

aplicaciones a las nuevas tecnologías y normativas, al tiempo que ampliamos la familia

de soluciones con nuevos productos.

Aplicaciones estándar. El diseño de Visual Factory se basa en los referenciales

más actuales en cuanto a normativa de calidad. En este sentido, podemos afirmar que

Visual Factory 7 cumple con los requisitos de ISO 9000 e ISO TS 16949. Por otro lado, al

ser aplicación ampliamente utilizadas por empresas líderes en sus respectivos sectores

de la industria (más de 1.000 licencias vendidas) obtenemos una importante

realimentación por parte de nuestros clientes, lo que nos permite detectar

rápidamente las nuevas necesidades del mercado e incorporarlas a las nuevas

versiones de las aplicaciones.

Globalidad. En la coyuntura actual es importante utilizar aplicaciones

informáticas que permitan funcionar en entornos multiidioma. Las aplicaciones Visual

Factory permiten mostrar el interface de usuario en diferentes idomas, pudiendo

conmutar fácilmente entre ellos.

Confianza. Nuestros consultores le aportarán soluciones completas,

estudiando y analizando a fondo sus necesidades para ofrecerles la mejor solución, con

total confianza y con unos tiempos de implantación realmente cortos. Todo ello

respaldado por la eficacia de nuestro soporte técnico, para que pueda aprovechar

todas las características que le ofrece Visual Factory.

Rentabilidad. El entorno de desarrollo propio diseñado por ELECSOFT (Elecsoft

Application Framework) nos permite trabajar con la última tecnología informática con

unos tiempos de desarrollo reducidos que repercuten directamente en el precio del

producto. Además la facilidad de uso permite reducir drásticamente los costes de

formación e implantación. Por todo ello podemos ofrecer soluciones muy completas a

unos precios muy competitivos.

Ámbito. Las aplicaciones de Visual Factory 7 son aptas para todo tipo de

empresas e industrias de manufactura. Estas aplicaciones de gestión de calidad han

sido implantadas en numerosas fábricas del sector del automóvil, químico,

farmacéutico, metalúrgico, siderúrgico, del plástico, etc.

33

6 Herramientas de la calidad aplicadas a la mejora de la calidad.

En 1968 Kaoru Ishikawa propone siete herramientas de la calidad, un conjunto de técnicas

estadísticas sencillas que no requieren de un conocimiento experto, para ser aplicadas en los

procesos de equipo, por los círculos de calidad. Según Ishikawa, con ellas es posible resolver el

95% de los problemas que presenta una organización, sobre todo en el área de producción

(Ishikawa, 1986).

Estas herramientas, que posteriormente fueron denominadas “las siete herramientas

básicas de la calidad”, pueden ser descritas genéricamente como métodos para la mejora

continua y la solución de problemas.

Las siete herramientas de la calidad son:

Diagrama Causa – Efecto (Diagrama de Ishikawa)

Hoja de Comprobación (Hojas de Verificación).

Gráficos de Control.

Histograma.

Diagrama de Pareto.

Diagrama de Dispersión.

Estratificación.

El éxito de estas técnicas radica en la capacidad que han demostrado para ser aplicadas en un

amplio rango de problemas, desde el control de calidad hasta las áreas de producción,

marketing y administración. Las organizaciones de servicios también son susceptibles de

aplicarlas, aunque su uso comenzara en el ámbito industrial.

Estas técnicas pueden ser manejadas por personas con una formación media, lo que ha

hecho que sean la base de las estrategias de resolución de problemas en los círculos de calidad

y, en general, en los equipos de trabajo conformados para acometer mejoras en actividades y

procesos.

En el año 1972, un comité de la JUSE (Union of Japanese Scientists and Engineers)

comenzó a trabajar sobre otras herramientas de la calidad para ser utilizadas por directivos y

especialistas, y susceptibles de ser aplicadas por el personal de base. Con ello se pretendió ir

más allá de un punto de vista centrado en el análisis de datos cuantitativos, adoptando para su

uso un enfoque de diseño para la solución de problemas.

34

En enero de 1977 el comité anunció los resultados de su investigación, seleccionando

un conjunto de siete herramientas denominadas las “siete nuevas herramientas del control de

calidad”.

Estas son herramientas gráficas muy útiles para la dirección (media y alta) que facilitan

la planificación, el establecimiento de metas y la resolución de problemas. De hecho se

conocen también como “las siete herramientas de gestión”.

Unas, ayudan al equipo a analizar y organizar la relación entre datos cualitativos. Otras

permiten clarificar interrelaciones, establecer prioridades y planificar tareas complejas para

alcanzar una meta. Son útiles para mejorar procesos, productos y sistemas. De naturaleza

cualitativa, ayudan a la resolución de problemas y a la gestión de ideas innovadoras.

Estas otras herramientas de la calidad, son:

Diagrama de Afinidad.

Diagrama de Relaciones.

Diagrama de Árbol o Diagrama Sistemático.

Diagrama de Matriz.

Matriz de Priorización.

Diagrama de Proceso de Decisión.

Diagrama de Flechas.

Existen además otras herramientas de la calidad y otros métodos de análisis, planificación y

acción (Diagrama de Flujo, Tormenta de Ideas, Técnica de Grupo Nominal,…) que facilitan el

trabajo de los equipos de mejora o de un equipo de proyecto en general.

6.1 Toma de datos, recopilación, ponderación, presentación numérica y

gráfica de datos. Histogramas.

Los valores observados se suelen registrar en una lista. Si el número de observaciones

no excede 20 o 30, por ejemplo, es posible darse una idea aproximada de la

distribución, simplemente mediante la ordenación de los valores observados,

escribiéndolos en una tabla, en orden creciente de magnitud. Con estos datos

podemos hacer representaciones gráficas y calcular determinadas características

numéricas.

35

Si el conjunto de datos es muy grande, resulta laborioso trabajar directamente

con los valores individuales observados y entonces se lleva a cabo algún tipo de

agrupación, como paso preliminar, antes de iniciar un nuevo tratamiento de los datos.

El procedimiento de agrupación es diferente según la variable aleatoria sea

discreta o continua.

La presentación de los datos en forma agrupada implica alguna pérdida de

información, pero permite apreciar mejor sus características.

Este agrupamiento se hace mediante las llamadas tablas de frecuencias.

En las tablas de frecuencias, en lugar de mostrar individualmente todos los

datos, se informa solamente cuántos de ellos están comprendidos entre determinados

valores, llamados límites de clase. Las clases son intervalos cuyos extremos son los

límites de clase. Generalmente las clases se escogen de igual longitud.

Una regla empírica que se suele aplicar consiste en escoger los intervalos de

clase de tal forma que no haya menos de 10 ni más de 20 clases diferentes.

Veamos cómo se lleva a cabo la agrupación en cada uno de los casos:

Caso Discreto:

En este caso resulta conveniente hacer una tabla cuya primera columna contenga

todos los valores observados y la segunda contenga la frecuencia con que han

aparecido dichos valores o frecuencias absolutas.

También se suele añadir una tercera columna que contiene la frecuencia

relativa de los datos observados, a saber, la razón entre la frecuencia absoluta y el

número total de observaciones.

Este tipo de agrupación se utiliza cuando el número total de valores

observados no es muy grande, en caso contrario, en lugar de asignar una clase a cada

valor observado, podemos considerar clases que contengan varias observaciones.

Ejemplo: se cuenta el número de glóbulos rojos en cada uno de los 169

compartimientos de un hemocitómetro. Cada uno de los compartimientos representa

una observación y el número de glóbulos rojos en cada una de ellos es el valor

36

observado correspondiente. De dicha observación se obtiene la siguiente tabla de

frecuencias:

Con esta información podemos hacer un gráfico por medio del llamado

Histograma, que en este caso se elabora levantando una línea o barra sobre

cada clase, de altura proporcional a la frecuencia correspondiente o a la frecuencia

relativa.

Caso Continuo:

En el caso en que la variable aleatoria investigada es continua, la agrupación es algo

más complicada, sin embargo, en general, se procede de la siguiente manera: se toma

un intervalo adecuado de la recta real que contenga los N valores observados y se

divide dicho intervalo en un cierto número de intervalos de clase.

Todas las observaciones que caen en una misma clase se agrupan y se cuentan,

el número resultante es la frecuencia de clase correspondiente a dicho intervalo y

después se procede a tabular. Para proceder a la elección de los límites de clase

debemos conocer la “exactitud” de los datos originales. Cuando la tabla de frecuencia

ya ha sido elaborada debe ir acompañada de la exactitud de los datos.

37

6.2 Diagramas de evolución o gestión, de Pareto, de afinidad, causa-efecto,

correlación, dispersión o distribución, etc.

El control de calidad, término tan usado hoy en día en todos los círculos académicos,

fue un planteamiento de Ishikawa, más de 50 años atrás, en el Japón de la post guerra.

El control de la calidad en pocas palabras fue definido por él como "Desarrollar,

Diseñar, Manufacturar y Mantener un producto de calidad". Es posible que la

contribución más importante de Ishikawa haya sido su rol en el desarrollo de una

estrategia de calidad japonesa. Él no quería que los directivos de las compañías se

enfocaran solamente en la calidad del producto, sino en la calidad de toda la

compañía, incluso después de la compra. También predicaba que la calidad debía ser

llevada más allá del mismo trabajo, a la vida diaria.

Fue fundador de la Unión de Científicos e Ingenieros Japoneses (Union of

Japanese Scientists and Engineers, UJSE ), entidad que se preocupaba de promover la

calidad dentro de Japón durante la época de la post-guerra.

Ishikawa hizo muchas aportaciones, entre las cuales se destacan:

Creación del diagrama causa-efecto, o espina de pescado de Hishikawa, o en

inglés "Fishbone Diagram"

Demostró la importancia de las 7 herramientas de calidad.

Trabajó en los círculos de calidad.

Su concepción conceptual al concebir su Diagrama Causa-Efecto (Espina de

Pescado de Ishikawa) se puede resumir en que cuando se realiza el análisis de un

problema de cualquier índole y no solamente referido a la salud, estos siempre tienen

diversas causas de distinta importancia, trascendencia o proporción. Algunas causas

pueden tener relación con la presentación u origen del problema y otras, con los

efectos que este produce.

El diagrama de Ishikawa ayuda a graficar las causas del problema que se

estudia y analizarlas. Es llamado “Espina de Pescado” por la forma en que se van

colocando cada una de las causas o razones que a entender originan un problema.

Tiene la ventaja que permite visualizar de una manera muy rápida y clara, la relación

que tiene cada una de las causas con las demás razones que inciden en el origen del

38

problema. En algunas oportunidades son causas independientes y en otras, existe una

íntima relación entre ellas, las que pueden estar actuando en cadena.

La mejor manera de identificar problemas es a través de la participación de

todos los miembros del equipo de trabajo en que se trabaja y lograr que todos los

participantes vayan enunciando sus sugerencias. Los conceptos que expresen las

personas, se irán colocando en diversos lugares. El resultado obtenido será un

Diagrama en forma de Espina de Ishikawa.

Ideado en 1953 se incluye en él los siguientes elementos:

El problema principal que se desea analizar, el cual se coloca en el extremo

derecho del diagrama. Se aconseja encerrarlo en un rectángulo para visualizarlo con

facilidad.

Las causas principales que a nuestro entender han originado el problema.

Gráficamente está constituida por un eje central horizontal que es conocida

como “línea principal o espina central”. Posee varias flechas inclinadas que se

extienden hasta el eje central, al cual llegan desde su parte inferior y superior, según el

lugar adonde se haya colocado el problema que se estuviera analizando o

descomponiendo en sus propias causas o razones. Cada una de ellas representa un

grupo de causas que inciden en la existencia del problema. Cada una de estas flechas a

su vez son tocadas por flechas de menor tamaño que representan las “causas

secundarias” de cada “causa” o “grupo de causas del problema”.

El Diagrama que se efectúe debe tener muy claramente escrito el nombre del

problema analizado, la fecha de ejecución, el área de la empresa a la cual pertenece el

problema y se puede inclusive colocar información complementaria como puede ser el

nombre de quienes lo hayan ejecutado, etc.

Elementos claves del pensamiento de Ishikawa:

La calidad empieza con la educación y termina con la educación.

El primer paso a la calidad es conocer lo que el cliente requiere.

El estado ideal de la calidad es cuando la inspección no es necesaria.

Hay que remover la raíz del problema, no los síntomas.

El control de la calidad es responsabilidad de todos los trabajadores.

No hay que confundir los medios con los objetivos.

39

Primero poner la calidad y después poner las ganancias a largo plazo.

El comercio es la entrada y salida de la calidad.

Los altos ejecutivos de las empresas no deben de tener envidia cuando un

obrero da una opinión valiosa.

Los problemas pueden ser resueltos con simples herramientas para el análisis.

Información sin información de dispersión es información falsa.

La teoría de Ishikawa era manufacturar todo a bajo costo. Postuló que algunos

efectos dentro de empresas que se logran implementando el control de calidad son la

reducción de precios, bajar los costos, establecer y mejorar la técnica, entre otros.

No es en vano que a Ishikawa se le deba mucha gratitud por sus ideas que

revolucionaron el mundo de la industria, la administración, el comercio y los servicios.

De su capacidad y sus teorías se nutrió el Japón y llegó a ser lo que todos vemos hoy

día.

¿Cómo interpretar un diagrama de causa-efecto?

El diagrama Causa-Efecto es un vehículo para ordenar, de forma muy

concentrada, todas las causas que supuestamente pueden contribuir a un

determinado efecto.

Permite, por tanto, lograr un conocimiento común de un problema complejo,

sin ser nunca sustitutivo de los datos. Es importante ser conscientes de que los

diagramas de causa-efecto presentan y organizan teorías. Sólo cuando estas teorías

son contrastadas con datos podemos probar las causas de los fenómenos observables.

Errores comunes son construir el diagrama antes de analizar globalmente los

síntomas, limitar las teorías propuestas enmascarando involuntariamente la causa raíz,

o cometer errores tanto en la relación causal como en el orden de las teorías,

suponiendo un gasto de tiempo importante.

A continuación veremos como el valor de una característica de calidad

depende de una combinación de variables y factores que condicionan el proceso

productivo (entre otros procesos).

El ejemplo se basa en el proceso de fabricación de mayonesa, para así explicar

los Diagramas de Causa-Efecto:

40

La variabilidad de las características de calidad es un efecto observado que tiene

múltiples causas. Cuando ocurre algún problema con la calidad del producto, se debe

investigar a fin de identificar las causas del mismo. Para hacer un Diagrama de Causa-

Efecto se siguen los siguientes pasos:

Se decide cuál va a ser la característica de calidad que se va a analizar. Por

ejemplo, en el caso de la mayonesa podría ser el peso del frasco lleno, la densidad del

producto, el porcentaje de aceite, etc.

Se traza una flecha gruesa que representa el proceso y a la derecha se escribe

la característica de calidad:

Se indican los factores causales más importantes y generales que puedan generar la

fluctuación de la característica de calidad, trazando flechas secundarias hacia la

principal. Por ejemplo: Materias Primas, Equipos, Operarios, Método de Medición,

etc.:

41

6.3 Matrices de prioridades, de criterio, de análisis, etc.

La matriz de priorización es una herramienta que permite la selección de opciones

sobre la base de la ponderación y aplicación de criterios.

Hace posible, determinar alternativas y los criterios a considerar para adoptar

una decisión, priorizar y clarificar problemas, oportunidades de mejora y proyectos y,

en general, establecer prioridades entre un conjunto de elementos para facilitar la

toma de decisiones.

La aplicación de la matriz de priorización conlleva un paso previo de

determinación de las opciones sobre las que decidir, así como de identificación de

criterios y de valoración del peso o ponderación que cada uno de ellos tendrá en la

toma de decisiones.

La matriz de priorización consiste en la especificación del valor de cada criterio

seleccionado para, posteriormente, analizar mediante el despliegue de distintas

matrices tipo-L, el grado en que cada opción cumple con los criterios establecidos.

Elaboración de la Matriz de Priorización

1. Definir el objetivo.

El planteamiento del objetivo ha de ser claro y explícito.

2. Identificar las opciones.

42

Es posible que las opciones estén ya presentes, es decir, se hayan definido

previamente. En caso contrario el equipo deberá generar las alternativas posibles para

alcanzar el objetivo.

3. Elaborar los criterios de decisión.

Si los criterios no están determinados, el equipo elabora una lista consensuada. Los

criterios deben definirse nítidamente para que su significado no ofrezca duda a los

miembros del equipo.

4. Ponderar los criterios.

Mediante una matriz tipo-L se ponderan los distintos criterios, confrontándolos con los

demás. Para ello, y partiendo del eje vertical, se compara el primer criterio con los

restantes, asignando el valor más apropiado según la tabla de valores existente al

efecto.

5. Comparar las opciones

Se comparan todas las opciones entre sí en función de cada uno de los criterios. Se

crean para ello tantas matrices tipo-L como criterios se han definido, estableciendo las

comparaciones de las opciones a analizar en cada uno de los criterios.

43

6.4 Análisis de modos de fallos y efectos (AMFE).

Un análisis modal de fallos y efectos (AMFE) es un procedimiento de análisis de fallos

potenciales en un sistema de clasificación determinado por la gravedad o por el efecto

de los fallos en el sistema.

Es utilizado habitualmente por empresas manufactureras en varias fases del

ciclo de vida del producto, y recientemente se está utilizando también en la industria

de servicios. Las causas de los fallos pueden ser cualquier error o defecto en los

procesos o diseño, especialmente aquellos que afectan a los consumidores, y pueden

ser potenciales o reales. El término análisis de efectos hace referencia al estudio de las

consecuencias de esos fallos.

AMFE puede ofrecer un enfoque analítico al gestionar los modos de fallos

potenciales y sus causas asociadas. Al tener en cuenta posibles fallos en el diseño de

seguridad, coste, rendimiento, calidad o resistencia, un ingeniero puede obtener una

gran cantidad de información sobre como alterar los procesos de fabricación para

evitar estos fallos.

AMFE otorga una herramienta sencilla para determinar que riesgo es el más

importante, y por lo tanto que acción es necesaria para prevenir el problema antes de

que ocurra. El desarrollo de estas especificaciones asegura que el producto cumplirá

los requisitos definidos.

44

El proceso para conducir un AMFE es lineal. Se desarrolla en tres fases

principales en las cuales las acciones adecuadas deben ser definidas. Pero antes de

comenzar con un AMFE es importante completar un trabajo previo que asegure qué

información sobre la resistencia y la historia del producto son incluidas en el análisis.

Un análisis de resistencia puede obtenerse mediante una interfaz de matrices,

diagramas de límites y diagramas de parámetros. Mucho de los fallos se deben a la

interacción con otros sistemas y partes, ya que los ingenieros suelen centrarse solo en

lo que controlan directamente.

Para comenzar, es necesario describir el sistema y su función, ya que un buen

entendimiento del mismo simplifica su análisis. De esta forma un ingeniero puede

comprobar que usos del sistema son adecuados y cuáles no. Es importante considerar

los usos tanto intencionados como no intencionados. Los usos no intencionados son un

tipo de entorno hostil.

A continuación debe crearse un diagrama de bloques del sistema. Este

diagrama ofrece una visión general de los principales componentes o pasos en el

proceso, y como estos están relacionados entre sí. Esto recibe el nombre de relaciones

lógicas, alrededor de las cuales puede desarrollarse un AMFE. La creación de un

sistema de codificación para identficar las diferentes partes o procesos es muy

recomendable y útil. El diagrama de bloques debe ser incluido siempre con el AMFE.

Antes de comenzar el AMFE debe crearse una hoja de trabajo con las

necesidades y que contenga la información importante sobre el sistema como fecha de

revisión o nombre de los componentes. En esta hoja de trabajo todos los ítems o

funciones o el título deben ser listados de una forma lógica, basada en diagramas de

bloques.

45

Paso 1: Severidad

Determinar todos los modos de fallos basados en los requerimientos funcionales y sus

efectos Ejemplos de modos de fallos son: cortocircuitos eléctricos, corrosiones o

deformaciones.

Es importante apuntar que un fallo en un componente puede llevar a un fallo

en otro como modo de fallos debe ser listado en términos técnicos y por función. Así,

el efecto final de cada modo de fallo debe tenerse en cuenta. Un efecto de fallo se

define como el resultado de un modo de fallo en la función del sistema percibida por el

usuario. Por lo tanto es necesario dejar constancia por escrito de estos efectos tal

como los verá o experimentará el usuario. Ejemplos de efectos de fallos son:

rendimiento bajo, ruido y daños a un usuario. Cada efecto recibe un número de

severidad (S) que van desde el 1 (sin peligro) a 10 (crítico). Estos números ayudarán a

los ingenieros a priorizar los modos de fallo y sus efectos. Si la severidad de un efecto

tiene un grado 9 o 10, se debe considerar cambiar el diseño eliminando el modo de

fallo o protegiendo al usuario de su efecto. Un grado 9 o 10 está reservado para

aquellos efectos que causarían daño al usuario.

Paso 2: Incidencia

En este paso es necesario observar la causa del fallo y determinar con qué frecuencia

ocurre. Esto puede lograrse mediante la observación de productos o procesos

similares y la documentación de sus fallos. La causa de un fallo está vista como un

punto débil del diseño. Todas las causas potenciales de modo de fallos deben ser

identificadas y documentadas utilizando terminología técnica. Ejemplos de causas son:

algoritmos erróneos, voltaje excesivo o condiciones de funcionamiento inadecuadas.

Un modo de fallos recibe un número de probabilidad (O) que puede ir del 1 al

10. Las acciones deben de desarrollarse si la incidencia es alta (>4 para fallos no

relacionados con la seguridad y >1 cuando el número de severidad del paso 1 es de 9 o

10). Este paso se conoce como el desarrollo detallado del proceso del AMFE. La

incidencia puede ser definida también como un porcentaje. Si un problema no

46

relacionado con la seguridad tiene una incidencia de menos del 1% se le puede dar una

cifra de 1; dependiendo del producto y las especificaciones de usuario.

Paso 3: Detección

Cuando las acciones adecuadas se han determinado, es necesario comprobar su

eficiencia y realizar una verificación del diseño. Debe seleccionarse el método de

inspección adecuado. En primer lugar un ingeniero debe observar los controles

actuales del sistema que impidan los modos de fallos o bien que lo detecten antes de

que alcance al consumidor.

Posteriormente deben identificarse técnicas de testeo, análisis y

monitorización que hayan sido utilizadas en sistemas similares para detectar fallos. De

estos controles, un ingeniero puede conocer qué posibilidad hay de que ocurran fallos

y como detectarlos. Cada combinación de los dos pasos anteriores recibe un número

de detección (D). Este número representa la capacidad de los tests planificados y las

inspecciones de eliminar los defectos y detectar modos de fallos.

Tras estos tres pasos básicos se calculan los números de prioridad del riesgo

conocido como (RPN).

Números de prioridad del riesgo

Los números de prioridad del riesgo no son una parte importante de los criterios de

selección de un plan de acción contra los modos de fallo. Es más bien un parámetro de

ayuda en la evaluación de estas acciones. Después de evaluar la severidad, incidencia y

defectibilidad los números de prioridad del riesgo se pueden calcular multiplicando

estos tres números: RPN = S x O x D Esto debe realizarse para todo el proceso o diseño.

Una vez está calculado, es fácil determinar las áreas que deben ser de mayor

preocupación. Los modos de fallo que tengan un mayor número de prioridad del riesgo

deben ser los que reciban la mayor prioridad para desarrollar acciones correctivas.

Esto significa que no son siempre los modos de fallo con los números de severidad más

altos los que deben ser solucionados primero. Pueden existir fallos menos graves, pero

que ocurran más a menudo y sean menos detectables. Tras asignar estos valores se

recomiendan una serie de acciones con un objetivo, se reparten responsabilidades y se

definen las fechas de implementación. Estas acciones pueden incluir inspecciones

específicas, testeo, pruebas de calidad, rediseño, etc. Tras implementar las acciones en

el diseño o proceso, debe comprobarse de nuevo el número de prioridad del riesgo

47

para confirmar las mejoras. Estas pruebas se representan normalmente de forma

gráfica para una fácil visualización. Siempre que se realicen cambios en un proceso o

diseño, debe actualizarse el AMFE Deben tenerse en cuenta algunos puntos obvios

pero importantes:

Intentar eliminar el modo de fallos (algunos fallos son más evitables

que otros)

Reducir la incidencia del modo de fallos

Mejorar la detección

Nota: No se puede "Minimizar la severidad del fallo" dado que la severidad mide la

gravedad del efecto (un hecho). Por ejemplo, si el efecto de un fallo es "posible muerte

de un usuario", la severidad es "10" - se minimice o no la frecuencia del fallo.

7 Documentación de la calidad.

La base de un Sistema de Calidad se compone de dos documentos, denominados Manuales de

Aseguramiento de la Calidad, que definen por un lado el conjunto de la estructura,

responsabilidades, actividades, recursos y procedimientos genéricos que una organización

establece para llevar a cabo la gestión de la calidad (Manual de Calidad), y por otro lado, la

definición específica de todos los procedimientos que aseguren la calidad del producto final

(Manual de Procedimientos). El Manual de Calidad nos dice ¿Qué? y ¿Quién?, y el Manual de

Procedimientos, ¿Cómo? y ¿Cuándo?. Dentro de la infraestructura del Sistema existe un tercer

pilar que es el de los Documentos Operativos, conjunto de documentos que reflejan la

actuación diaria de la empresa.

7.1 Estructura y contenidos que deben cumplir las pautas de control.

Especifica la política de calidad de la empresa y la organización necesaria para

conseguir los objetivos de aseguramiento de la calidad de una forma similar en toda la

empresa. En él se describen la política de calidad de la empresa, la estructura

48

organizacional, la misión de todo elemento involucrado en el logro de la Calidad, etc. El

fin del mismo se puede resumir en varios puntos:

Única referencia oficial.

Unifica comportamientos decisionales y operativos.

Clasifica la estructura de responsabilidades.

Independiza el resultado de las actividades de la habilidad.

Es un instrumento para la Formación y la Planificación de la Calidad.

Es la base de referencia para auditar el Sistema de Calidad.

7.2 Informes y partes de control. Normas a considerar en su elaboración y

presentación.

Objetivo: elaborar, revisar y aprobar todos los documentos a cada nivel.

Tareas:

1. En esta tarea se llevará a cabo la capacitación planificada en la etapa anterior.

2. Capacitar al personal implicado.

Para elaborar los procedimientos generales se sugiere utilizar la siguiente estructura:

Partes Carácter Contenido

Objetivo Obligatorio Definirá el objetivo del procedimiento

Alcance ObligatorioEspecificará el alcance de la aplicación del

procedimiento

Responsabilidades ObligatorioDesignará a los responsables de ejecutar y

supervisar el cumplimiento del procedimiento

Términos y definiciones Opcional

Aclarará de ser necesario el uso de términos o

definiciones no comunes aplicables

al procedimiento.

Procedimiento Obligatorio

Describirá en orden cronológico el conjunto

de operaciones necesarias para ejecutar el

procedimiento.

49

Requisitos de

documentaciónObligatorio

Relacionará todos los registros que deben ser

completados durante la ejecución del

procedimiento.

Referencias Obligatorio

Referirá todos aquellos documentos que hayan

sido consultados o se mencionen en el

procedimiento

Anexos Opcional

Incluirá el formato de los registros, planos,

tablas o algún otro material que facilite la

comprensión del procedimiento.

3. Elaborar los procedimientos generales.

El grupo seleccionado elaborará el Manual de acuerdo con el formato

establecido en la etapa de diseño teniendo en cuenta la necesaria

participación de todas las áreas involucradas.

4. Elaborar el Manual de Calidad.

Los otros documentos se elaborarán de acuerdo con el plan y siguiendo las

instrucciones confeccionadas para cada tipo de documento que deben haber

sido aprendidas durante la capacitación.

5. Elaborar otros documentos de acuerdo con el plan trazado en la etapa

anterior.

6. Revisar y aprobar todos los documentos por parte del personal competente

autorizado.

La revisión y aprobación de la documentación se realizará a medida que ésta

se vaya elaborando.

La revisión y aprobación de la documentación se realizará a medida que ésta se vaya

elaborando.

1. Al elaborar la guía se deben tener en cuenta las necesidades de

documentación determinadas en la etapa anterior así como los requisitos que

debe cumplir la documentación.

50

En este caso se elaboró un cuestionario organizado por requisito de la norma

ISO 9001:2000, teniendo en cuenta además los requisitos de la documentación

de calidad encontrados en la bibliografía consultada.

2. Elaborar la guía para el diagnóstico

3. Para la ejecución del diagnóstico se debe utilizar la guía y aplicar técnicas como

la observación, la entrevista y la revisión de documentos. Se debe determinar

la existencia o no de los documentos, en qué medida cumplen con los

requisitos establecidos para la documentación y si están siendo utilizados

adecuadamente.

4. Ejecutar el diagnóstico.

5. Elaborar y presentar el informe de diagnóstico.

7.3 Organización, gestión y actualización de la documentación generada.

Los Sistemas de gestión están sustentados generalmente en una importante base

documental, donde se recoge toda la información necesaria y generada por los mismos

que sirva para asegurar que se cumplen las especificaciones establecidas de cara a una

certificación por terceros. Los registros sirven para realizar esta función, pero a

menudo esta documentación se hace muy extensa, densa, de difícil manejo y

utilización, y acaba oprimiendo al Sistema y a la organización, y entorpeciendo su

normal funcionamiento. ¿Quién no se ha encontrado con que después de unos años

de funcionamiento de su Sistema de gestión necesitaría construir un súper archivo en

su organización porque ya no sabe dónde demonios meter la infinidad de carpetas que

se van generando con documentación?, documentación que en algunos casos solo

vuelve a ver la luz cuando es exigida por un auditor.

La documentación es necesaria, sí, y hay que conservarla, también, pero nadie

dice, ni siquiera la norma ISO 9001, que dicha documentación deba ser soportada en

papel. La manera de generar, utilizar, archivar y conservar la documentación generada

por un Sistema de gestión es decisión de la propia organización y debe ajustarse a las

características de la misma: a su tamaño, a su complejidad y al personal que la utiliza,

con la única condición de que cumpla los requisitos que la norma establece al

respecto, es decir, debe estar actualizada, perfectamente identificada y almacenada,

51

protegida, accesible a cualquier persona que la necesite, debe ser legible y recuperable

en el periodo de archivo establecido.

Las nuevas tecnologías nos facilitan mucho esta labor de gestión de la

documentación. Las enormes carpetas con papel en estanterías abarrotadas a punto

de suicidarse dan paso a archivos digitales. Hoy en día con la invasiva utilización de

ordenadores en la práctica totalidad de las organizaciones, hasta la más modesta

puede tener todo un archivo completo en un simple ordenador.

Un archivo del tipo pdf tiene la misma validez que su formato en papel. En vez

de registros en papel ocupando carpetas dispersas por departamentos y de difícil

localización para su posterior uso se pasa a registros digitales ocupando el espacio de

un disco de almacenamiento en un único puesto de trabajo y que generalmente son de

fácil manejo y consulta. Las ventajas van más allá. Si dicho puesto de trabajo está

conectado a la red, la documentación está al alcance de todo el personal, tanto para su

archivo como para su consulta, en la pantalla del ordenador o en su salida por

impresora, es decir, el Jefe de Producción puede estar consultando en su puesto de

trabajo una determinada Orden de Fabricación lanzada por la Oficina Técnica, o la

Dirección puede consultar una determinada No Conformidad aparecida en Producción.

Para llegar hasta este punto se necesita la colaboración de todas las personas

implicadas en el archivo de la documentación y siempre teniendo en cuenta las

sugerencias que pueden aportar las personas que utilizan esa información en su

trabajo diario. Así cualquiera puede pasar de archivar papeles en carpetas con el

tedioso trabajo de ordenar hojas, grapar o hacer agujeros a los mismos, a escanearlos

o generarlos directamente de programas informáticos en soporte digital.

Al igual que un archivo físico, y para cumplir las especificaciones de la norma

ISO 9001 debe estar actualizado, identificado, accesible, protegido y recuperable. Una

buena forma de llevar a cabo esta tarea es mediante la utilización de las carpetas de

Windows que permiten organizar la documentación. Un ejemplo puede ser organizarla

por clientes, donde en cada carpeta de cada cliente se vaya almacenando todo tipo de

registros relacionados con él, como puede ser los pedidos, las Ordenes de Fabricación,

los albaranes, las facturas, las reclamaciones y las No Conformidades si las hubiera, las

hojas de Revisión final en fábrica o cualquier otro tipo de registro que de otra manera

sería complicado reunir en un mismo archivo. Otras opciones pueden ser organizar la

52

documentación por fechas, o por Departamentos, o cualquier otra que sirva para cada

organización en concreto.

En resumen, no se trata de que la burocracia que genera la gestión de la

documentación nos dificulte el trabajo diario, sino que podemos buscar otras

alternativas con la misma validez para nuestra organización concreta de cara a una

futura certificación por terceros, pero para ello es importante y necesario la

colaboración de todo el personal implicado, no solo la del Responsable del Sistema de

gestión. Y que debemos ayudarnos de los avances tecnológicos para facilitarnos el

trabajo diario, pero también puede darse el caso de que cierta documentación deba

seguir manteniéndose en formato papel porque así lo prefieren las personas que

trabajan con ella.

53