Bienbenidos!!!!

A continuacion se encontraran bases teoricas para el entendimiento de como aplicar la simulacion a procesos empresariales.

martes, 12 de abril de 2011

Métodos de Generación de Variables Aleatorias

MÉTODO DE LA TRANSFORMADA INVERSA

Utiliza la distribución acumulada F(x) de la distribución que se va a simular. Puesto que F(x) está definida en el intervalo (0;1) , se puede generar un numero aleatorios uniforme R y tratar de determinar el valor de la variable aleatoria para la cual su distribución acumulada es igual a R, es decir, el valor simulado de la variable aleatoria que sigue una distribución de probabilidad F(x), se determina al resolver la siguiente ecuación:

F(x)= R ó x = F-1(R)


La dificultad principal de este método descansa en el hecho de que en algunas ocasiones es difícil encontrar la transformada inversa. Sin embargo, si esta función ya ha sido establecida, generando número aleatorios uniformes se podrá obtener valores de la variable aleatoria que siga la distribución de probabilidad deseada.

MÉTODO DEL RECHAZO

Esta técnica se puede usar si existe otra función de densidad  g(x) tal que  cg(x)  supera la función de densidad f(x), es decir, cg(x) > f(x) para todos los valores de x. Si esta función existe, entonces se pueden  aplicar los siguientes pasos:

1. Genere x con la densidad g(x).
2. Genere y uniforme en [0, cg(x)].
3. Si y ≤ f (x), devuelva x y retorne. De lo contrario repita desde el paso 1.

El algoritmo permanece rechazando las variables x y y hasta que la condición y ≤ f (x) sea satisfecha.

Ejemplo:
Consideremos la función de densidad beta(2,4):
Esta función se muestra en la figura y puede ser limitada por el rectángulo de altura 2,11. Por lo tanto podemos usar  c = 2,11 y  g(x) = 1 para 0  ≤ x ≤ 1. La variables beta (2,4) pueden ser  generadas como sigue:

1. Genere x uniforme en [0, 1].
2. Genere y uniforme en [0, 2,11].
3. Si  y ≤ 20x(1-x)3  , devuelva x y retorne. De lo contrario vuelva al paso 1.

Los pasos 1 y 2 generan un punto (x, y) distribuido uniformemente en el rectángulo en la figura.
Si el punto cae sobre la densidad f (x), entonces el paso 3 rechaza x.
La eficiencia del método depende de que tan bien g(x) limita a f (x). Si hay una brecha muy grande entre cg(x) y   f  (x), entonces un gran número de puntos generados en los pasos 1 y 2 serán rechazados.  Similarmente, si la generación de variables aleatorias con  g(x) es compleja, entonces el método puede ser  ineficiente.


COMPOSICIÓN

Este método se puede usar si la FDA F(x) deseada se puede expresar como una suma ponderada de otras n FDA F1 (x), ..., Fn (x):

El número de funciones  n puede ser finito o infinito, y las n FDA son compuestas para formar la FDA deseada; de aquí el nombre de la técnica. Esto  también se puede ver como que la FDA deseada es descompuesta en otras n FDA; por esto la técnica a veces es llamada descomposición. La técnica también se puede usar si la función de densidad  f (x) puede ser descompuesta como una suma ponderada de otras n densidades:


En cualquier caso, los pasos a seguir son:
1. Genere un entero aleatorio  I tal que   P(I =  i ) =  pi
Esto puede ser hecho con el método de transformación inversa.
2. Genere x con la i-esima densidad fi  (x) y retorne.


MÉTODO DE CONVOLUCIÓN

Muchas variables aleatorias incluyendo la normal,  binomial,  poisson, gamma, erlang,  etc., se pueden expresar de forma exacta o aproximada mediante la suma lineal de otras variables aleatorias. El método de convolución se puede usar siempre y cuando la variable aleatoria  x se pueda expresar como una combinación lineal de k variables aleatorias:

x=b1x1+ b2x2 +…+bkxk

En este método se necesita generar k números  aleatorios (u1,u2,...,uk) para generar (x1,x2,...xk) variables aleatorias usando alguno de los métodos anteriores y así poder obtener un valor de la variable que se desea obtener por convolución.


Bibliografía:
·         COSS BU Raúl, SIMULACION: UN ENFOQUE PRÁCTICO, Noriega Editores.
·         HOEGER Herber, http: //webdelprofesor.ula.ve/ingenieria/hhoeger/simulacion/PARTE6.pdf





sábado, 12 de marzo de 2011

jueves, 10 de marzo de 2011

Historia de los Numeros Aleatorios

Aproximadamente alrededor del año 3500 a.C., los juegos de azar eran practicados con objetos de hueso, los cuales podrían ser considerados como los precursores de los dados, estos fueron ampliamente desarrollados en Egipto y otros lugares. En el siglo XVII, un noble francés, Antoine Gombauld (1607-1684), puso en tela de juicio el fundamento matemático del éxito y del fracaso en las mesas de juego y por esto le formuló la siguiente pregunta al matemático francés Blaise Pascal (1623-1662): ¿cuales son las probabilidades de que salgan dos de seises por lo menos una vez en veinticuatro lanzamientos de una par de dados?, pascal resolvió el problema, pues la teoría de probabilidad empezaba a interesarle tanto como a gombauld. Ambos compartieron sus ideas con el famoso matemático Pierre de Fermat (1601-1665), y las cartas escritas por los tres constituyen la primera revista académica dedicada a la probabilidad. Algunos de los problemas que ellos resolvieron habían permanecido sin solución durante unos 300 años. Sin embargo, ciertas probabilidades numéricas para ciertas combinaciones de dados ya habían sido calculadas por Giordamo Cardano (1501-1576) y por Galileo Galilei (1564-1642).

mas tarde, Jacob Bernoulli (1654-1705), Abraham de Moivre (1667-1754), el reverendo Thomas Bayes (1702-1761) y Joseph LaGrange (1736-1813) inventaron formulas y técnicas de probabilidad. En el siglo XIX,  Pierre Simón, Marques Delaplace (1749-1827), unifico esas primeras ideas y formulo la primera teoría general de la probabilidad, la cual fue aplicada inicialmente con buenos resultados a los juegos de azar; con el tiempo también se aplico en la búsqueda de soluciones analíticas a problemas de naturaleza no deterministica. La teoría de la probabilidad ha sido constantemente desarrollada desde el siglo XVII y ampliamente aplicada en diversos campos de estudio. Hoy es una herramienta importante en la mayoría de las áreas de ingeniería, ciencias y administración, y se constituye en la base para el estudio de fenómenos o procesos aleatorios mediante el método de Montecarlo, que es el estudio de las leyes de azar.

En cuanto a los números aleatorios, se puede afirmar que la historia formal comenzó en la década de los cuarenta con el nacimiento del método llamado simulación de Montecarlo, y Von Neumann, Metrópolis, Ulam y Lehmer son considerados y nombrados como los pioneros en este campo. John Von Neumann aparentemente conjeturo el potencial de los computadores para tratar problemas estocásticos en 1945 cuando escribió: “este (el computador) ciertamente abrirá un nuevo enfoque para la estadística matemática, el enfoque para el calculo de experimentos….”. Durante los cuarenta, la simulación de procesos estocásticos permaneció restringida al proyecto secreto del departamento de defensa de estados unidos. La publicación de The Monte Carlo Method por N. metrópolis y Stanislaw M. Ulam en 1949 denota el inicio de la historia oficial del método. Dos años más tarde, D.H.Lehmer propuso el generador lineal de congruencia, el cual, con pequeñas modificaciones propuestas por Thomson y Rotenberg, ha llegado a convertirse en el método para la generación de números aleatorios mas ampliamente usado en la actualidad. Aunque originalmente el método de Montecarlo fue implementado por John Neumann y Stanislaw Ulam, utilizando ruletas y dados en los problemas de difusión de los neutrones, en realidad su auge y crecimiento uso se debe a que hoy se emplean números aleatorios generados por computador.

Antes de la aparición de las computadoras, los números aleatorios eran generados por dispositivos físicos. En 1939, Kendall y Babington-Smith publicaron 100.000 dígitos aleatorios obtenidos con un disco giratorio iluminado con una lámpara relámpago. En 1955, la rand Corporation  publico un millón de dígitos producidos controlando una fuente de pulsos de frecuencia aleatoria (mecanismo electrónico); estos se encuentran disponibles en cintas magnéticas  de la rand.

BIBLIOGRAFÍA
PDF: Números aleatorios “historia, teoría y aplicaciones”. Alfonso Manuel Mancilla Herrera. Ingeniería & desarrollo. Universidad del norte. 10 de octubre del 2000.

miércoles, 9 de marzo de 2011

Metodos Congruenciales

Método del Cuadrado Medio

Consiste en los siguientes pasos:

1- definir el numero de dígitos que tendrán los valores aleatorios de la serie que se van a generar. A este número de dígitos se le denotara como n.
2- elegir al azar el valor de la semilla o número aleatorio inicial, el cual deberá ser de n dígitos.
3- se eleva al cuadrado la semilla, este resultado por lo general serán 2n dígitos. En caso de que el número de dígitos no contenga 2n valores, se le agregaran ceros a la izquierda hasta completar la cantidad antes mencionada.
4- del número obtenido en el paso anterior, se tomaran los n dígitos centrales, siendo este el nuevo número aleatorio.
5- con este número aleatorio se regresa al paso tercero para generar el siguiente valor de la serie. Los pasos se repetirás cuantas veces sea necesario para generar la cantidad suficiente de valores según lo requiera el caso.

Bibliografía: fundamentos de investigación de operaciones para la administración.


Método Congruencial Lineal

Este método fue ideado por D.H. Lehmer en 1949. La secuencia de números aleatorios se obtiene aplicando la siguiente relación de recurrencias:

Xn+1= (aXn + c ) mod M     n>0, donde

M   modulo                 M>0
a    multiplicador    0 ≤ a <M
c    incremento       0 ≤ c < M
X0  valor inicial      0 ≤ X0 < M

según el valor del parámetro c, este método se clasifica en :
1. si c>0 se denomina Congruencial mixto
2. si c=0 Congruencial multiplicativo


En el siguiente link podrás observar un vídeo con la explicación de estos métodos en excel:




Bibliografía: Schwer Ingrid, Cámara Viviana; matemática discreta; Universidad Nacional del Litoral.

domingo, 27 de febrero de 2011

La Simulación

La simulación es una técnica que consiste en realizar ensayos de muestreo sobre el modelo de un sistema. Un modelo no es más que un conjunto de variables junto con ecuaciones matemáticas que las relacionan y restricciones sobre dichas variables. La modelización es una etapa presente en la mayor parte de los trabajos de  investigación.

En muchas ocasiones, la realidad es bastante compleja como para ser estudiada directamente y es preferible la formulación de un modelo que contenga las variables más relevantes que aparecen en el  fenómeno en estudio y las relaciones más importantes entre ellas.

Frecuentemente, la resolución de los problemas que se pretenden abordar puede realizarse por procedimientos analíticos sobre el modelo construido, normalmente mediante el uso de herramientas matemáticas como las de resolución de ecuaciones ordinarias, ecuaciones diferenciales, cálculo de probabilidades, etc.  En otras ocasiones dicha resolución analítica no es posible o es tremendamente complicada o costosa y es preferible una aproximación de la solución mediante simulación.


Bibliografía: Abad Cao Ricardo; Introducción a la simulación y teoría de colas


TIPOS DE SIMULACIÓN:
simulacion proyectiva: este tipo de simulacion es muy usado en el ámbito empresarial y como su nombre lo indica esta ayuda a proyectar o visionar cosas que posible mente pueden pasar en el futuro, partiendo de una información presente; algo que se desee analizar, mirar comportamientos y tomar decisiones.


simulacion retrospectiva: este tipo de simulacion tiene en cuenta hechos del pasado para analizar posibles sucesos que han sucedido en en presente, para así poder tener una mayor visión de los hechos ocurridos y observar posible resultados. un ejemplo de usos de este tipo de simulacion, es el que usan los detectives para revivir las escenas de crimenes.


semi inversiva: este tipo de simulacion es usado muy a menudo en nuestra sociedad en mayor numero por los jovenes con los video juegos, en el cual no se hace parte o no se interactua directamente con los personjes que alli se representan.


inversiva:en esta las personas entran a ser parte de su desarrolo, utilizan principios de realidad virtual el cual es usado mas que todos en las consolas de ultima tecnologia como lo es el nintendo wii o los robots que manda la nasa al espacio los cuales son dirigidos desde la tierra.


realidad virtual: esta tecnologia es la tecnologia del futuro, grandes empresarios proclaman qu esta tecnologia segun el emprtesario bill gates esta está en "pañales".



Ventajas y Desventajas de la Simulación

El aumento de la aceptación de la simulación se debe probablemente a un número de factores diversos. 

Ventajas de la Simulación


1. Una ventaja que ha hecho que la simulación tenga amplia aceptación es que es directa y relativamente flexible.
2. Sirve para analizar sistemas grandes y complejos que no se representan fácilmente con modelos matemáticos.
3. Permite el estudio de los efectos interactivos de muchos componentes en un ambiente dinámico y estocástico, con la ventaja distintiva de dar al investigador un efecto visual claro.
4. Los conceptos básicos de la simulación son fáciles comprender, por tal razón es más fácil justificar un modelo de simulación que la mayor parte de modelos analíticos y matemáticos.

Desventajas de la Simulación  

1. La desventaja más grande de la simulación es que en el desarrollo de algunos modelos muy complejos podría resultar demasiado costoso y quizá requiera mucho tiempo, entonces tomaría años construir un modelo  de planeación corporativa o uno de una planta grande de manufactura con todos sus componentes, actividades y servicios. Por lo tanto, un analista recurriría a una estimación rápida, que tal vez no refleje todos los hechos esenciales.

2. Otra desventaja es que algunas simulaciones no generan soluciones optimas de los problemas y originan resultados solo con base en el modelo construido para el análisis.

Bibliografia: Meyers  Fred E., Stephens Matthew P.;  Diseño de instalaciones de manufactura y manejo de materiales; Ed. Pretice Hall.

Desventajas y Ventajas de la Experimentación


VENTAJAS 

1. Se requiere una estrecha colaboración entre los estadísticos y el investigador o científicos con las consiguientes ventajas en el análisis e interpretación de las etapas del programa. 
2. Se enfatiza respecto a las alternativas anticipadas y respecto a la pre-planeación sistemática, permitiendo aun la ejecución por etapas y la producción única de datos útiles para el análisis en combinaciones posteriores. 
3. Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación de fuentes de variabilidad en los resultados. 
4. El número de pruebas requerido puede determinarse con certeza y a menudo puede reducirse. 
5. La comparación de los efectos de los cambios es más precisa debido a la agrupación de resultados. 
6. La exactitud de las conclusiones se conoce con una precisión matemáticamente definida.


DESVENTAJAS 


Tales diseños y sus análisis, usualmente están acompañados de enunciados basados en el lenguaje técnico del estadístico. Sería significativos a la generalidad de la gente, además, el estadístico no debería subestimar el valor de presentarnos los resultados en forma gráfica. De hecho, siempre debería considerar a la representación gráfica como un paso preliminar de un procedimiento más analítico. 

Muchos diseños estadísticos, especialmente cuando fueron formulados por primera vez, se han criticado como demasiado caros, complicados y que requieren mucho tiempo. Tales críticas, cuando son válidas, deben aceptarse de buena fe y debe hacerse un intento honesto para mejorar la situación, siempre que no sea en detrimento de la solución del problema.


Bibliografía: Solis Reyna Norma Irene, Márquez Meléndez Jesús Daniel; Matemáticas Financieras. 

Medidas de Tendencia Central

La moda

La moda es una medida de tendencia central muy importante en el campo de la estadística ya que indica, en un conjunto en un conjunto de datos estadísticos, aquello que se presentan con más frecuencia
Se suelen representar así:  M0

Veamos un ejemplo para su mayor comprensión.

Supongamos que los siguientes números representan las calificaciones finales del curso de matemáticas de un grupo de alumnos del ciclo diversificado a distancia.
2.2.3.3.4.4.5.5.6.6.7.7.8.8.8.8.8.8.8.8.9.10

De este conjunto de datos se infiere que las notas obtenidas  por un mayor número de alumnos es 8, esto quiere decir que la moda es 8 (M0 =8) ya que el numero que mas se repite es 8.

Luego entonces  la mediana es la suma de todos los valores obtenidos en la muestra divididos entre el número de muestras totales que haya.

Características de la mediana:
1-                1.    Es fácil de calcular
2. No se afecta por los valores extremos
3.La mediana no necesariamente tiene que pertenecer la conjunto de datos como sucede con la moda
4. Antes e proceder a calcular la mediana, los datos deben ser ordenados de menor a mayor o viceversa.
5. El cálculo de la mediana depende del número (par o impar)de elementos del conjunto de datos.

La media aritmética

La media mejor conocida como media aritmética o promedio es quizás de las medidas estadísticas de mayor uso. El cálculo y empleo de esta medida es simple. Sin embargo esto no excluye el hecho de que su cálculo sea muy laborioso (no difícil) sobre todo en aquellos casos en que el número de elementos del conjunto de datos sea muy elevado.

Bibliografia: Corrales Mario, Obando Alvaro; Matemática Estadística.

Medidas de Dispersion

Varianza:

El análisis de varianza es la técnica estadística que nos posibilita el análisis de los datos en el contexto de las investigaciones de corte experimental, en sentido amplio, lo que da cabida a estudios de corte cuasiexperimental. En todos los casos, nos permitirá el adecuado contraste de hipótesis y la estimación de los correspondientes parámetros.
varianza:









Bibliografía: Tejedor Francisco; Análisis de varianza


Desviación Estándar:
La desviación estándar nos indica cuanto se alejan en promedio las observaciones de la media aritmética del conjunto. Es la medida de dispersión mas usada en estadísticas tanto en aspectos descriptivos como analíticos. También tiene mucha importancia su cuadrado, que recibe el nombre de variancia.
Desviacion estándar:







Bibliografía:  Gomez Barrante Miguel; elementos de estadística descriptiva; ed EUNED

En conclusión, la varianza y la desviación estándar son dos medidas de la variación muy utilizadas para tomar en cuenta como se distribuyen los datos. Estos estadísticas miden la dispersión promedio alrededor de la media, es decir, que tanto varían los valores más grandes que están por encima de ella y como se distribuyen los valores menores que están por debajo de ella



Kolmogorov-Smirnov

Existen diferentes formas de medir las discrepancias entre funciones de distribución (Darling 1957; Lindgren 1958). El test de Smirnov-Kolmogorov está basado en el  estadístico D definido de la siguiente forma:

Dmax(x) = Max | FX (x) - Sn (x) |

Donde FX y Sn son las funciones de distribución de las muestras, smirnov demuestra que para muestras de tamaño suficientemente elevado (n>80) la probabilidad de que se verifique la hipótesis nula PH0 , es decir, que los histogramas a realizar pertenezcan a la misma población.

Así, kolmogorov  establece así la verdad o falsedad de que dos o muestras provengan de la misma población.

bilbliografia: informacion tecmologica, vol 9 num 5; editor Valderrama Jose

Tabla de valores:

pasos para la realizacion de la distribucion de kolmogorov-smirnov:


1-sidentifica la muestra de la población y se plantean las hipotesis de  esa muestra, es decir, se plantean: Ho, hipótesis nula. y Ha, hipótesis alternativa



2- se extraen de la muestra las variables necesarias para realizar la prueba ( varia dependiendo al tipo de distribucion),  entre las cuales tenemos:media, desviación, rango (limsup – liminf), numero de datos que se tomaran de la muestra, numero de intervalos (raíz del numero de datos) y tamaño del intervalo (rango/ numero de intervalos).


3- se calcula la frecuencia observada de cada uno de los intervalos, al final la suma de las frecuencias observadas debe ser igual a 100.
4- calculamos la frecuencia observada relativa con la formula: frecuencia observada de cada intervalo/la sumatoria total de la frecuencia observada.

5- luego calgulamos la fora(frecuencia observada relativa acumulada) y fera (frecuencia esperada relativa acumulada), esta ultima varia de acuerdo al tipo de histograma que nos halla dado.

6- aplicamos la formula
D = (FOR Acum - FER Acum) el cual es el estadistico de prueba; donde la D que mayor valor de va a ser la mayor discrepancia o estimador de kolmogorov.
7- Se hallan también los grados de libertad de acuerdo a la distribución estadística utilizada.
8- se busca en la tabla de acuerdo al tamaño de la muestra y un  determinado valor de riesgo alfa (α),
9-  se busca en la tabla de smirnov colmogorov, si el estimador de la prueba (D) es menor que el valor que se encontró en la tabla entonces se acepta la hipótesis Ho (hipótesis nula) planteada antes de estudiar la muestra, de lo contrario se acepta la hipótesis alternativa Ha.


A continuacion se encuentra un ejercicio resuelto:


https://spreadsheets.google.com/ccc?hl=de&key=tDODpYJZ_4Ygity_qhOQjJQ&hl=de#gid=0

Chi Cuadrada

Una variable Chi cuadrado se define como la suma de n variables normales estandarizadas elevadas al cuadrado.

CARACTERISTICAS
  • La distribución es asimétrica positiva.
  • A medida que aumenta el tamaño de la muestra la curva es menos asimétrica, aproximándose a una curva normal.
  • Para cada tamaño muestral, se tendrá una distribución cuadrada diferente.
  • El parámetro que caracteriza a una distribución cuadrada son sus grados de libertad (n-1), originado una distribución para cada grado de libertad.


La siguiente formula podemos identificar la sumatoria de errores dadas en la distribución :

Procedimiento:

·         Arreglar las observaciones en una tabla de contingencias.
·         Determinar el valor teórico de las frecuencias para cada casilla.
·         Calcular las diferencias entre los valores observados con respecto a los teóricos de cada casilla.
·         Elevar al cuadrado las diferencias y dividirlas entre el valor teórico de la casilla correspondiente.
·         Obtener la sumatoria de los valores anteriores, que es el estadístico X2.
·         Calcular los grados de libertad (gl): gl = (Intervalos -1).
·         El valor de X2 se compara con los valores críticos de ji cuadrada de la tabla de valores de X2 y de acuerdo con los grados de libertad, y se determina la probabilidad.
·         Decidir si se acepta o rechaza la hipótesis.


A continuacion encontraras un ejercicio resuelto:
https://spreadsheets.google.com/ccc?hl=de&key=tcVAVTguIkPtCo-J9pR6brw&hl=de#gid=0



TABLA DE VALORES CHI CUADRADA


Probabilidad de un valor superior - Alfa (α)
Grados libertad
0,1
0,05
0,025
0,01
0,005
1
2,71
3,84
5,02
6,63
7,88
2
4,61
5,99
7,38
9,21
10,6
3
6,25
7,81
9,35
11,34
12,84
4
7,78
9,49
11,14
13,28
14,86
5
9,24
11,07
12,83
15,09
16,75
6
10,64
12,59
14,45
16,81
18,55
7
12,02
14,07
16,01
18,48
20,28
8
13,36
15,51
17,53
20,09
21,95
9
14,68
16,92
19,02
21,67
23,59
10
15,99
18,31
20,48
23,21
25,19
11
17,28
19,68
21,92
24,73
26,76
12
18,55
21,03
23,34
26,22
28,3
13
19,81
22,36
24,74
27,69
29,82
14
21,06
23,68
26,12
29,14
31,32
15
22,31
25
27,49
30,58
32,8
16
23,54
26,3
28,85
32
34,27
17
24,77
27,59
30,19
33,41
35,72
18
25,99
28,87
31,53
34,81
37,16
19
27,2
30,14
32,85
36,19
38,58
20
28,41
31,41
34,17
37,57
40
21
29,62
32,67
35,48
38,93
41,4
22
30,81
33,92
36,78
40,29
42,8
23
32,01
35,17
38,08
41,64
44,18
24
33,2
36,42
39,36
42,98
45,56
25
34,38
37,65
40,65
44,31
46,93
26
35,56
38,89
41,92
45,64
48,29
27
36,74
40,11
43,19
46,96
49,65
28
37,92
41,34
44,46
48,28
50,99
29
39,09
42,56
45,72
49,59
52,34
30
40,26
43,77
46,98
50,89
53,67
40
51,81
55,76
59,34
63,69
66,77
50
63,17
67,5
71,42
76,15
79,49
60
74,4
79,08
83,3
88,38
91,95
70
85,53
90,53
95,02
100,43
104,21
80
96,58
101,88
106,63
112,33
116,32
90
107,57
113,15
118,14
124,12
128,3
100
118,5
124,34
129,56
135,81
140,17