lunes, 10 de mayo de 2010

VARIABLE

Es la cualidad que varía de una unidad a otra, ya que los cambios en un producto son pequeños, imperceptibles e inevitables y que además afecta al producto o proceso.

IMPORTANCIA DE LA VARIABILIDAD


En primer lugar afecta al producto, la variabilidad nos ayuda a detectar los errores y potenciales. Nos es útil para llegar a conclusiones correctas acerca de los procedimientos para resultado de las pruebas y así mejorar los problemas del producto o producción.
La calidad de los procesos determina inevitablemente la calidad de los productos que se obtienen, de ahí que la primera gran meta de todo proceso de mejora debe ser: controlar y reducir la variabilidad, de forma que los procesos sean estables, consistentes y predecibles.

PRINCIPIOS DE VARIABILIDAD DEL PROCESO


“NO HAY DOS ARTICULOS IGUALES”
En los procesos como todo en la vida está implícita la variación. Sería totalmente absurdo pensar en que todas las personas tuvieran la misma edad, o que en una aula todos los estudiantes tuvieran el mismo peso. Un grupo de participantes a un seminario tendrá variación en la experiencia, en los conocimientos y en la educación.
Dos productos generados de una misma máquina, de un mismo turno, con un mismo operario y la misma materia prima, tampoco son iguales. Es probable que aparenten ser iguales pero cuando se utilizan instrumentos más precisos se comprenderá la diferencia entre ambos.

TIPOS DE VARIABILIDAD

Identificable y aleatoria
Las causas de variabilidad de los procesos se clasifican en dos grandes grupos: las causas aleatorias. La variabilidad está originada por factores aleatorios (desgaste de piezas, mantenimiento, personas, equipos de medida, etc.); en este caso la variabilidad tiene un comportamiento estadístico y es predecible, y se puede ejercer un control estadístico sobre el mismo; y las causas identificables, la variabilidad está originada por factores que son identificables; esta variabilidad no presenta un comportamiento estadístico y, por tanto, no son previsibles las salidas. La organización debe identificar las estas causas y eliminarlas como paso previo a poner el proceso bajo control; ejemplos de estas causas son roturas de herramientas, averías de maquinas, errores humanos, cambios erróneos de material, fallos en los sistemas de control, etc. la imagen de esta variabilidad, no será una imagen “estadística”.
Un proceso sobre el que actúan causas identificables, está fuera de
control; será necesario eliminarlas para llevar el proceso al estado de
control. Por eso, cuando en un proceso se presentan causas de
variabilidad identificable, la empresa debe centrar sus esfuerzos para identificar y eliminar esas causas de variabilidad, como paso previo al control del proceso.
Un proceso sobre el que solo actúan causas aleatorias, se dice que está bajo control. Es decir, un proceso productivo que presenta una variabilidad de carácter exclusivamente aleatorio se caracteriza porque los valores de las mediciones se suelen distribuir alrededor de un valor central que permanece aproximadamente
constante a lo largo del tiempo {media constate) y porque la dispersión de esto valores también permanece aproximadamente constante en el tiempo.

CAUSAS DE VARIACIÓN

Las decisiones del diseño del proceso interactúan en cada una de las cuatro áreas de decisión de la función de operaciones. Las decisiones de capacidad afectan el tipo de proceso seleccionado. El tipo de diseño del proceso a su vez afecta los trabajos disponibles y el tipo de fuerza de trabajo empleada. El proceso también afecta la calidad del producto, debido a que algunos procesos se controlan más fácilmente que otros.
Las decisiones relacionadas con la selección del proceso determinan el tipo de proceso productivo que se utilizará. Los administradores también deben decidir si se organizara el flujo del proceso como una línea de alto volumen de producción o como un proceso de producción por lotes con bajo volumen.

TIPOS DE CAUSAS DE VARIACIÓN


Comunes y Especiales
Causas comunes de variación

Por causas comunes de variación se entienden aquellas fuentes de variación en un proceso que están bajo control estadístico. Esto significa que todas las mediciones se encuentran dentro de los límites de variación normal, los cuales se determinan sumando y restando tres desviaciones estándar al promedio de esas mediciones.

Las causas comunes de variación se comportan como un sistema constante de causas totalmente aleatorias. Aún cuando los valores individualmente medidos son todos diferentes, como grupo, ellos tienden a formar un patrón que puede describirse como una distribución.

Cuando en un sistema sólo existen causas comunes de variación, el proceso forma una distribución que es estable a través del tiempo y además predecible.

Conocer que un sistema solo está variando por causas comunes es normalmente simple a través de técnicas estadísticas. Sin embargo, identificar esas causas requiere un análisis más detallado por parte de quienes operan el sistema. La solución o eliminación de estas causas comunes normalmente requiere la intervención de la gerencia para tomar acciones sobre el sistema o proceso como un todo, ya que las variaciones comunes son propias o inherentes a cada proceso.
Causas especiales de variación

Las causas especiales de variación frecuentemente son llamadas causas asignables. Se refiere a cualquier factor o factores que causan variación en relación con una operación específica o en un momento particular en el tiempo.

Solo si todas las causas especiales de variación son identificadas y corregidas, ellas continuarán afectando la salida del proceso de una manera impredecible. Si hay causas especiales de variación, la salida del proceso no es estable a través del tiempo y por supuesto tampoco es predecible.

Cuando en el proceso existen causas especiales de variación, la distribución del proceso toma cualquier forma y es por lo tanto impredecible.

En general se acepta que el 85% de la variación es originada por causas comunes y el 15% por causas especiales. Un antídoto para reducir la variación es la normalización o documentación del proceso como requiere ISO 9000.

FACTORES COMUNES QUE AFECTAN LA VARIABILIDAD


Las 5 M
Conforme al presente método se procede a analizar el problema y a definir las posibles causas, generalmente este proceso se realiza con el grupo de trabajo encargado de la resolución del problema.
Para la aplicación de este método se sigue un orden para considerar las causas de los problemas, partiendo de la premisa que estas, están agrupadas según cinco criterios y por ello se denomina de las 5 M.
Las M corresponden a: • Máquinas • Mano de Obra • Métodos • Materiales • Medio Ambiente
Las 5 M suelen ser generalmente un punto de referencia que abarca casi todas las principales causas de un problema, por lo que constituyen los brazos principales del diagrama causa-efecto.

RELACIÓN ENTRE VARIABILIDAD Y CALIDAD


Un artículo con buena calidad realiza sus funciones intencionales sin variabilidad, y causa pequeñas pérdidas a través de los defectos de tipo dañinos, incluso el costo de usarlo. Si el control de costo se preocupa por reducir las diferentes pérdidas antes de que el producto sea enviado, el control de calidad se preocupa por reducir los dos tipos de pérdidas que puede causar a la sociedad después de que se envía.
La buena calidad incrementa la productividad, las utilidades y otras medidas de éxito.

USOS Y APLICACIONES DE LA VARIABILIDAD


Un proceso implica una secuencia relacionada de acciones, de pasos, y no tan solo un conjunto de ideas; "Mejora" significa que este conjunto de acciones incremente los resultados de rentabilidad de la empresa, basándose en variables que son apreciadas por el mercado (calidad, servicio, etc.) y que den una ventaja diferencial a la empresa en relación a sus competidores;
Un plan de mejora requiere que se desarrolle en la empresa un sistema que permita:
• Contar con empleados habilidosos, entrenados para hacer el trabajo bien, para controlar los defectos, errores y realizar diferentes tareas u operaciones.
• Contar con empleados motivados que pongan empeño en su trabajo, que busquen realizar las operaciones de manera optima y sugieran mejoras.
• Contar con empleados con disposición al cambio, capaces y dispuestos a adaptarse a nuevas situaciones en la organización.
. En este sentido existen diferentes procedimientos encaminados a centrar la atención en las exigencias que se imponen al proceso o función y lograr convertir los requerimientos en especificaciones técnicas, y estas en un proceso de trabajo definido.

SISTEMA IDEAL DE CONTROL DE VARIABILIDAD


Un sistema ideal de control de variabilidad pretende conocer con una cierta exactitud cómo cada variable del proceso afecta cada característica de calidad de un determinado producto o servicio, además de que le permite, tener la posibilidad de manipular o ajustar esas variables y ser capaces de predecir con exactitud los cambios en las características de calidad con motivo de los ajustes realizados en las variables del proceso.
Una vez que se sabe que el producto o servicio responde a las necesidades del cliente la preocupación básica es tener el proceso bajo control. En este punto, en realidad, lo que se busca es reducir la variabilidad que caracteriza al proceso en análisis. En ocasiones, es necesario usar los datos sobre la variabilidad del producto como una medida indirecta de la capacidad del proceso ya que en términos generales el producto habla del proceso.

martes, 13 de abril de 2010

INTERVALOS DE CONFIANZA

DEFINICIÓN

Es un conjunto de valores formado a partir de una muesta de datos de forma qu exista la posibilidad de que el parámetro poblacional ocurra dentro de dicho conjunto con una probabilidad específica.

OBJETIVOS:

-Definir un estimador puntual.
-Definir nivel de confianza.
-Construir un intervalo de confianza para la media poblacional cuando se conoce la desviación estándar de la población.
-Construir un intervalo de confianza para la media poblacional cuando no se conoce la desviación estándar de la población.
-Construir un intervalo de confianza para una proporción de la población.
-Determinar el tamañano de la muestra para un muestreo de tributos y variables.

EJEMPLOS:

1- Los tiempos de reacción, en mili segundos, de 17 sujetos frente a una matriz de 15
estímulos fueron los siguientes: 448, 460, 514, 488, 592, 490, 507, 513, 492, 534,
523, 452, 464, 562, 584, 507, 461

Suponiendo que el tiempo de reacción se distribuye Normalmente, determine un intervalo de
confianza para la media a un nivel de confianza del 95%.

Solución:
Mediante los cálculos básicos obtenemos que la media muestral vale 505,35 y la desviación
típica 42,54.
Buscando en las tablas de la t de Student con 16 grados de libertad, obtenemos que el valor
que deja por debajo una probabilidad de 0,975 es 2,12
Sustituyendo estos valores en la expresión del intervalo de confianza de la media tenemos:
(505,35 - 2,12 · 42,54 / 4 ,, 505,35 + 2,12 · 42,54 / 4)
operando
( 482,80 ,, 527,90 )


2- Con los datos del problema 1, calcule a un nivel de confianza del 90% un intervalo de
confianza para la varianza e indique cual sería el máximo error por exceso y por defecto que
podría cometerse utilizando el estimador insesgado de la varianza.

Solución:
Mediante cálculos básicos obtenemos que la varianza de la muestra vale 1809,29 y la
cuasivarianza 1922,37
En las tablas de la Ji-cuadrado encontramos que el valor que deja por debajo una
probabilidad de 0,05 es 7,96 y que 26,30 deja por debajo una probabilidad de 0,95.
Sustituyendo en la expresión del intervalo de confianza para la varianza tenemos:
( 17 · 1809,29 / 26,30 ,, 17 · 1809,29 / 7,96 )
operando
( 1169,50 ,, 3864,06 )
Por tanto el error por defecto sería 1922,37 - 3864,06 = -1941,69
y el error por exceso 1922,37 – 1169,50 = 752,87

TEOREMA DE LÍMITE CENTRAL

El Teorema del Límite Central o Teorema Central del Límite indica que, bajo condiciones muy generales, la distribución de la suma de variables aleatorias tiende a una distribución gaussiana cuando la cantidad de variables es muy grande.

Existen diferentes versiones del teorema, en función de las condiciones utilizadas para asegurar la convergencia. Una de las más simples establece que es suficiente que las variables que se suman sean independientes, idénticamente distribuidas, con valor esperado y varianza finitas.

La aproximación entre las dos distribuciones es en general mayor en el centro de las mismas que en sus extremos o colas, motivo por el cual se prefiere el nombre “Teorema del Límite Central” (“central” califica al límite, más que al teorema).

Esta relación entre la forma de la distribución de la población y la forma de la distribución de muestreo se denomina teorema del límite central, que es tal vez el más importante de toda la inferencia estadística. Nos asegura que la distribución de muestreo de la media se aproxima a la normal al incrementarse el tamaño de la muestra. Hay situaciones teóricas en las que el teorema del límite central no se cumple, pero casi nunca se encuentran en la toma de decisiones práctica. Una muestra no tiene que ser muy grande para que la distribución de muestreo de la media se acerque a la normal. Los estadísticos utilizan la distribución normal como una aproximación a la distribución de muestreo siempre que el tamaño de la muestra sea al menos de 30, pero la distribución de muestreo de la media puede ser casi normal con muestras incluso de la mitad de ese tamaño. La importancia del teorema del límite central es que nos permite usar estadísticas de muestra para hacer inferencias con respecto a los parámetros de población sin saber nada sobre la forma de la distribución de frecuencias de esa población más que lo que podamos obtener de la muestra.

MUESTREO

DefiniciónEs la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a tomar ciertos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad.

Muestreo simple
Este tipo de muestreo toma solamente una muestra de una población dada para el propósito de inferencia estadística. Puesto que solamente una muestra es tomada, el tamaño de muestra debe ser los suficientemente grande para extraer una conclusión. Una muestra grande muchas veces cuesta demasiado dinero y tiempo.

Muestreo doble
Bajo este tipo de muestreo, cuando el resultado dele estudio de la primera muestra no es decisivo, una segunda muestra es extraída de la misma población. Las dos muestras son combinadas para analizar los resultados. Este método permite a una persona principiar con una muestra relativamente pequeña para ahorrar costos y tiempo. Si la primera muestra arroja una resultado definitivo, la segunda muestra puede no necesitarse.
Por ejemplo, al probar la calidad de un lote de productos manufacturados, si la primera muestra arroja una calidad muy alta, el lote es aceptado; si arroja una calidad muy pobre, el lote es rechazado. Solamente si la primera muestra arroja una calidad intermedia, será requerirá la segunda muestra. Un plan típico de muestreo doble puede ser obtenido de la Military Standard Sampling Procedures and Tables for Inspection by Attributes, publicada por el Departamento de Defensa y también usado por muchas industrias privadas. Al probar la calidad de un lote consistente de 3,000 unidades manufacturadas, cuando el número de defectos encontrados en la primera muestra de 80 unidades es de 5 o menos, el lote es considerado bueno y es aceptado; si el número de defectos es 9 o más, el lote es considerado pobre y es rechazado; si el número está entre 5 y 9, no puede llegarse a una decisión y una segunda muestra de 80 unidades es extraída del lote. Si el número de defectos en las dos muestras combinadas (incluyendo 80 + 80 = 160 unidades) es 12 o menos, el lote es aceptado si el número combinado es 13 o más, el lote es rechazado.

Muestreo múltiple
El procedimiento bajo este método es similar al expuesto en el muestreo doble, excepto que el número de muestras sucesivas requerido para llegar a una decisión es más de dos muestras.
Métodos de muestreo clasificados de acuerdo con las maneras usadas en seleccionar los elementos de una muestra.
Los elementos de una muestra pueden ser seleccionados de dos maneras diferentes:
a. Basados en el juicio de una persona.
b. Selección aleatoria (al azar)

Muestreo de juicio
Una muestra es llamada muestra de juicio cuando sus elementos son seleccionados mediante juicio personal. La persona que selecciona los elementos de la muestra, usualmente es un experto en la medida dada. Una muestra de juicio es llamada una muestra probabilística, puesto que este método está basado en los puntos de vista subjetivos de una persona y la teoría de la probabilidad no puede ser empleada para medir el error de muestreo, Las principales ventajas de una muestra de juicio son la facilidad de obtenerla y que el costo usualmente es bajo.

Muestreo Aleatorio
Una muestra se dice que es extraída al azar cuando la manera de selección es tal, que cada elemento de la población tiene igual oportunidad de ser seleccionado. Una muestra aleatoria es también llamada una muestra probabilística son generalmente preferidas por los estadísticos porque la selección de las muestras es objetiva y el error muestral puede ser medido en términos de probabilidad bajo la curva normal. Los tipos comunes de muestreo aleatorio son el muestreo aleatorio simple, muestreo sistemático, muestreo estratificado y muestreo de conglomerados.

A. Muestreo aleatorio simple
Una muestra aleatoria simple es seleccionada de tal manera que cada muestra posible del mismo tamaño tiene igual probabilidad de ser seleccionada de la población. Para obtener una muestra aleatoria simple, cada elemento en la población tenga la misma probabilidad de ser seleccionado, el plan de muestreo puede no conducir a una muestra aleatoria simple. Por conveniencia, este método pude ser reemplazado por una tabla de números aleatorios. Cuando una población es infinita, es obvio que la tarea de numerar cada elemento de la población es infinita, es obvio que la tarea de numerar cada elemento de la población es imposible. Por lo tanto, ciertas modificaciones del muestreo aleatorio simple son necesarias. Los tipos más comunes de muestreo aleatorio modificado son sistemático, estratificado y de conglomerados.

B. Muestreo sistemático
Una muestra sistemática es obtenida cuando los elementos son seleccionados en una manera ordenada. La manera de la selección depende del número de elementos incluidos en la población y el tamaño de la muestra. El número de elementos en la población es, primero, dividido por el número deseado en la muestra. El cociente indicará si cada décimo, cada onceavo, o cada centésimo elemento en la población va a ser seleccionado.
El primer elemento de la muestra es seleccionado al azar. Por lo tanto, una muestra sistemática puede dar la misma precisión de estimación acerca de la población, que una muestra aleatoria simple cuando los elementos en la población están ordenados al azar.

C. Muestreo Estratificado
Para obtener una muestra aleatoria estratificada, primero se divide la población en grupos, llamados estratos, que son más homogéneos que la población como un todo. Los elementos de la muestra son entonces seleccionados al azar o por un método sistemático de cada estrato. Las estimaciones de la población, basadas en la muestra estratificada, usualmente tienen mayor precisión (o menor error muestral) que si la población entera muestreada mediante muestreo aleatorio simple. El número de elementos seleccionado de cada estrato puede ser proporcional o desproporcional al tamaño del estrato en relación con la población.

D. Muestreo de conglomerados.
Para obtener una muestra de conglomerados, primero dividir la población en grupos que son convenientes para el muestreo. En seguida, seleccionar una porción de los grupos al azar o por un método sistemático. Finalmente, tomar todos los elementos o parte de ellos al azar o por un método sistemático de los grupos seleccionados para obtener una muestra. Bajo este método, aunque no todos los grupos son muestreados, cada grupo tiene una igual probabilidad de ser seleccionado. Por lo tanto la muestra es aleatoria.
Una muestra de conglomerados, usualmente produce un mayor error muestral (por lo tanto, da menor precisión de las estimaciones acerca de la población) que una muestra aleatoria simple del mismo tamaño. Los elementos individuales dentro de cada "conglomerado" tienden usualmente a ser iguales. Por ejemplo la gente rica puede vivir en el mismo barrio, mientras que la gente pobre puede vivir en otra área. No todas las áreas son muestreadas en un muestreo de áreas. La variación entre los elementos obtenidos de las áreas seleccionadas es, por lo tanto, frecuentemente mayor que la obtenida si la población entera es muestreada mediante muestreo aleatorio simple. Esta debilidad puede reducida cuando se incrementa el tamaño de la muestra de área.
El incremento del tamaño de la muestra puede fácilmente ser hecho en muestra muestra de área. Los entrevistadores no tienen que caminar demasiado lejos en una pequeña área para entrevistar más familias. Por lo tanto, una muestra grande de área puede ser obtenida dentro de un corto período de tiempo y a bajo costo.
Por otra parte, una muestra de conglomerados puede producir la misma precisión en la estimación que una muestra aleatoria simple, si la variación de los elementos individuales dentro de cada conglomerado es tan grande como la de la población.