Bienbenidos!!!!

A continuacion se encontraran bases teoricas para el entendimiento de como aplicar la simulacion a procesos empresariales.

martes, 12 de abril de 2011

Métodos de Generación de Variables Aleatorias

MÉTODO DE LA TRANSFORMADA INVERSA

Utiliza la distribución acumulada F(x) de la distribución que se va a simular. Puesto que F(x) está definida en el intervalo (0;1) , se puede generar un numero aleatorios uniforme R y tratar de determinar el valor de la variable aleatoria para la cual su distribución acumulada es igual a R, es decir, el valor simulado de la variable aleatoria que sigue una distribución de probabilidad F(x), se determina al resolver la siguiente ecuación:

F(x)= R ó x = F-1(R)


La dificultad principal de este método descansa en el hecho de que en algunas ocasiones es difícil encontrar la transformada inversa. Sin embargo, si esta función ya ha sido establecida, generando número aleatorios uniformes se podrá obtener valores de la variable aleatoria que siga la distribución de probabilidad deseada.

MÉTODO DEL RECHAZO

Esta técnica se puede usar si existe otra función de densidad  g(x) tal que  cg(x)  supera la función de densidad f(x), es decir, cg(x) > f(x) para todos los valores de x. Si esta función existe, entonces se pueden  aplicar los siguientes pasos:

1. Genere x con la densidad g(x).
2. Genere y uniforme en [0, cg(x)].
3. Si y ≤ f (x), devuelva x y retorne. De lo contrario repita desde el paso 1.

El algoritmo permanece rechazando las variables x y y hasta que la condición y ≤ f (x) sea satisfecha.

Ejemplo:
Consideremos la función de densidad beta(2,4):
Esta función se muestra en la figura y puede ser limitada por el rectángulo de altura 2,11. Por lo tanto podemos usar  c = 2,11 y  g(x) = 1 para 0  ≤ x ≤ 1. La variables beta (2,4) pueden ser  generadas como sigue:

1. Genere x uniforme en [0, 1].
2. Genere y uniforme en [0, 2,11].
3. Si  y ≤ 20x(1-x)3  , devuelva x y retorne. De lo contrario vuelva al paso 1.

Los pasos 1 y 2 generan un punto (x, y) distribuido uniformemente en el rectángulo en la figura.
Si el punto cae sobre la densidad f (x), entonces el paso 3 rechaza x.
La eficiencia del método depende de que tan bien g(x) limita a f (x). Si hay una brecha muy grande entre cg(x) y   f  (x), entonces un gran número de puntos generados en los pasos 1 y 2 serán rechazados.  Similarmente, si la generación de variables aleatorias con  g(x) es compleja, entonces el método puede ser  ineficiente.


COMPOSICIÓN

Este método se puede usar si la FDA F(x) deseada se puede expresar como una suma ponderada de otras n FDA F1 (x), ..., Fn (x):

El número de funciones  n puede ser finito o infinito, y las n FDA son compuestas para formar la FDA deseada; de aquí el nombre de la técnica. Esto  también se puede ver como que la FDA deseada es descompuesta en otras n FDA; por esto la técnica a veces es llamada descomposición. La técnica también se puede usar si la función de densidad  f (x) puede ser descompuesta como una suma ponderada de otras n densidades:


En cualquier caso, los pasos a seguir son:
1. Genere un entero aleatorio  I tal que   P(I =  i ) =  pi
Esto puede ser hecho con el método de transformación inversa.
2. Genere x con la i-esima densidad fi  (x) y retorne.


MÉTODO DE CONVOLUCIÓN

Muchas variables aleatorias incluyendo la normal,  binomial,  poisson, gamma, erlang,  etc., se pueden expresar de forma exacta o aproximada mediante la suma lineal de otras variables aleatorias. El método de convolución se puede usar siempre y cuando la variable aleatoria  x se pueda expresar como una combinación lineal de k variables aleatorias:

x=b1x1+ b2x2 +…+bkxk

En este método se necesita generar k números  aleatorios (u1,u2,...,uk) para generar (x1,x2,...xk) variables aleatorias usando alguno de los métodos anteriores y así poder obtener un valor de la variable que se desea obtener por convolución.


Bibliografía:
·         COSS BU Raúl, SIMULACION: UN ENFOQUE PRÁCTICO, Noriega Editores.
·         HOEGER Herber, http: //webdelprofesor.ula.ve/ingenieria/hhoeger/simulacion/PARTE6.pdf





sábado, 12 de marzo de 2011

jueves, 10 de marzo de 2011

Historia de los Numeros Aleatorios

Aproximadamente alrededor del año 3500 a.C., los juegos de azar eran practicados con objetos de hueso, los cuales podrían ser considerados como los precursores de los dados, estos fueron ampliamente desarrollados en Egipto y otros lugares. En el siglo XVII, un noble francés, Antoine Gombauld (1607-1684), puso en tela de juicio el fundamento matemático del éxito y del fracaso en las mesas de juego y por esto le formuló la siguiente pregunta al matemático francés Blaise Pascal (1623-1662): ¿cuales son las probabilidades de que salgan dos de seises por lo menos una vez en veinticuatro lanzamientos de una par de dados?, pascal resolvió el problema, pues la teoría de probabilidad empezaba a interesarle tanto como a gombauld. Ambos compartieron sus ideas con el famoso matemático Pierre de Fermat (1601-1665), y las cartas escritas por los tres constituyen la primera revista académica dedicada a la probabilidad. Algunos de los problemas que ellos resolvieron habían permanecido sin solución durante unos 300 años. Sin embargo, ciertas probabilidades numéricas para ciertas combinaciones de dados ya habían sido calculadas por Giordamo Cardano (1501-1576) y por Galileo Galilei (1564-1642).

mas tarde, Jacob Bernoulli (1654-1705), Abraham de Moivre (1667-1754), el reverendo Thomas Bayes (1702-1761) y Joseph LaGrange (1736-1813) inventaron formulas y técnicas de probabilidad. En el siglo XIX,  Pierre Simón, Marques Delaplace (1749-1827), unifico esas primeras ideas y formulo la primera teoría general de la probabilidad, la cual fue aplicada inicialmente con buenos resultados a los juegos de azar; con el tiempo también se aplico en la búsqueda de soluciones analíticas a problemas de naturaleza no deterministica. La teoría de la probabilidad ha sido constantemente desarrollada desde el siglo XVII y ampliamente aplicada en diversos campos de estudio. Hoy es una herramienta importante en la mayoría de las áreas de ingeniería, ciencias y administración, y se constituye en la base para el estudio de fenómenos o procesos aleatorios mediante el método de Montecarlo, que es el estudio de las leyes de azar.

En cuanto a los números aleatorios, se puede afirmar que la historia formal comenzó en la década de los cuarenta con el nacimiento del método llamado simulación de Montecarlo, y Von Neumann, Metrópolis, Ulam y Lehmer son considerados y nombrados como los pioneros en este campo. John Von Neumann aparentemente conjeturo el potencial de los computadores para tratar problemas estocásticos en 1945 cuando escribió: “este (el computador) ciertamente abrirá un nuevo enfoque para la estadística matemática, el enfoque para el calculo de experimentos….”. Durante los cuarenta, la simulación de procesos estocásticos permaneció restringida al proyecto secreto del departamento de defensa de estados unidos. La publicación de The Monte Carlo Method por N. metrópolis y Stanislaw M. Ulam en 1949 denota el inicio de la historia oficial del método. Dos años más tarde, D.H.Lehmer propuso el generador lineal de congruencia, el cual, con pequeñas modificaciones propuestas por Thomson y Rotenberg, ha llegado a convertirse en el método para la generación de números aleatorios mas ampliamente usado en la actualidad. Aunque originalmente el método de Montecarlo fue implementado por John Neumann y Stanislaw Ulam, utilizando ruletas y dados en los problemas de difusión de los neutrones, en realidad su auge y crecimiento uso se debe a que hoy se emplean números aleatorios generados por computador.

Antes de la aparición de las computadoras, los números aleatorios eran generados por dispositivos físicos. En 1939, Kendall y Babington-Smith publicaron 100.000 dígitos aleatorios obtenidos con un disco giratorio iluminado con una lámpara relámpago. En 1955, la rand Corporation  publico un millón de dígitos producidos controlando una fuente de pulsos de frecuencia aleatoria (mecanismo electrónico); estos se encuentran disponibles en cintas magnéticas  de la rand.

BIBLIOGRAFÍA
PDF: Números aleatorios “historia, teoría y aplicaciones”. Alfonso Manuel Mancilla Herrera. Ingeniería & desarrollo. Universidad del norte. 10 de octubre del 2000.

miércoles, 9 de marzo de 2011

Metodos Congruenciales

Método del Cuadrado Medio

Consiste en los siguientes pasos:

1- definir el numero de dígitos que tendrán los valores aleatorios de la serie que se van a generar. A este número de dígitos se le denotara como n.
2- elegir al azar el valor de la semilla o número aleatorio inicial, el cual deberá ser de n dígitos.
3- se eleva al cuadrado la semilla, este resultado por lo general serán 2n dígitos. En caso de que el número de dígitos no contenga 2n valores, se le agregaran ceros a la izquierda hasta completar la cantidad antes mencionada.
4- del número obtenido en el paso anterior, se tomaran los n dígitos centrales, siendo este el nuevo número aleatorio.
5- con este número aleatorio se regresa al paso tercero para generar el siguiente valor de la serie. Los pasos se repetirás cuantas veces sea necesario para generar la cantidad suficiente de valores según lo requiera el caso.

Bibliografía: fundamentos de investigación de operaciones para la administración.


Método Congruencial Lineal

Este método fue ideado por D.H. Lehmer en 1949. La secuencia de números aleatorios se obtiene aplicando la siguiente relación de recurrencias:

Xn+1= (aXn + c ) mod M     n>0, donde

M   modulo                 M>0
a    multiplicador    0 ≤ a <M
c    incremento       0 ≤ c < M
X0  valor inicial      0 ≤ X0 < M

según el valor del parámetro c, este método se clasifica en :
1. si c>0 se denomina Congruencial mixto
2. si c=0 Congruencial multiplicativo


En el siguiente link podrás observar un vídeo con la explicación de estos métodos en excel:




Bibliografía: Schwer Ingrid, Cámara Viviana; matemática discreta; Universidad Nacional del Litoral.

domingo, 27 de febrero de 2011

La Simulación

La simulación es una técnica que consiste en realizar ensayos de muestreo sobre el modelo de un sistema. Un modelo no es más que un conjunto de variables junto con ecuaciones matemáticas que las relacionan y restricciones sobre dichas variables. La modelización es una etapa presente en la mayor parte de los trabajos de  investigación.

En muchas ocasiones, la realidad es bastante compleja como para ser estudiada directamente y es preferible la formulación de un modelo que contenga las variables más relevantes que aparecen en el  fenómeno en estudio y las relaciones más importantes entre ellas.

Frecuentemente, la resolución de los problemas que se pretenden abordar puede realizarse por procedimientos analíticos sobre el modelo construido, normalmente mediante el uso de herramientas matemáticas como las de resolución de ecuaciones ordinarias, ecuaciones diferenciales, cálculo de probabilidades, etc.  En otras ocasiones dicha resolución analítica no es posible o es tremendamente complicada o costosa y es preferible una aproximación de la solución mediante simulación.


Bibliografía: Abad Cao Ricardo; Introducción a la simulación y teoría de colas


TIPOS DE SIMULACIÓN:
simulacion proyectiva: este tipo de simulacion es muy usado en el ámbito empresarial y como su nombre lo indica esta ayuda a proyectar o visionar cosas que posible mente pueden pasar en el futuro, partiendo de una información presente; algo que se desee analizar, mirar comportamientos y tomar decisiones.


simulacion retrospectiva: este tipo de simulacion tiene en cuenta hechos del pasado para analizar posibles sucesos que han sucedido en en presente, para así poder tener una mayor visión de los hechos ocurridos y observar posible resultados. un ejemplo de usos de este tipo de simulacion, es el que usan los detectives para revivir las escenas de crimenes.


semi inversiva: este tipo de simulacion es usado muy a menudo en nuestra sociedad en mayor numero por los jovenes con los video juegos, en el cual no se hace parte o no se interactua directamente con los personjes que alli se representan.


inversiva:en esta las personas entran a ser parte de su desarrolo, utilizan principios de realidad virtual el cual es usado mas que todos en las consolas de ultima tecnologia como lo es el nintendo wii o los robots que manda la nasa al espacio los cuales son dirigidos desde la tierra.


realidad virtual: esta tecnologia es la tecnologia del futuro, grandes empresarios proclaman qu esta tecnologia segun el emprtesario bill gates esta está en "pañales".



Ventajas y Desventajas de la Simulación

El aumento de la aceptación de la simulación se debe probablemente a un número de factores diversos. 

Ventajas de la Simulación


1. Una ventaja que ha hecho que la simulación tenga amplia aceptación es que es directa y relativamente flexible.
2. Sirve para analizar sistemas grandes y complejos que no se representan fácilmente con modelos matemáticos.
3. Permite el estudio de los efectos interactivos de muchos componentes en un ambiente dinámico y estocástico, con la ventaja distintiva de dar al investigador un efecto visual claro.
4. Los conceptos básicos de la simulación son fáciles comprender, por tal razón es más fácil justificar un modelo de simulación que la mayor parte de modelos analíticos y matemáticos.

Desventajas de la Simulación  

1. La desventaja más grande de la simulación es que en el desarrollo de algunos modelos muy complejos podría resultar demasiado costoso y quizá requiera mucho tiempo, entonces tomaría años construir un modelo  de planeación corporativa o uno de una planta grande de manufactura con todos sus componentes, actividades y servicios. Por lo tanto, un analista recurriría a una estimación rápida, que tal vez no refleje todos los hechos esenciales.

2. Otra desventaja es que algunas simulaciones no generan soluciones optimas de los problemas y originan resultados solo con base en el modelo construido para el análisis.

Bibliografia: Meyers  Fred E., Stephens Matthew P.;  Diseño de instalaciones de manufactura y manejo de materiales; Ed. Pretice Hall.

Desventajas y Ventajas de la Experimentación


VENTAJAS 

1. Se requiere una estrecha colaboración entre los estadísticos y el investigador o científicos con las consiguientes ventajas en el análisis e interpretación de las etapas del programa. 
2. Se enfatiza respecto a las alternativas anticipadas y respecto a la pre-planeación sistemática, permitiendo aun la ejecución por etapas y la producción única de datos útiles para el análisis en combinaciones posteriores. 
3. Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación de fuentes de variabilidad en los resultados. 
4. El número de pruebas requerido puede determinarse con certeza y a menudo puede reducirse. 
5. La comparación de los efectos de los cambios es más precisa debido a la agrupación de resultados. 
6. La exactitud de las conclusiones se conoce con una precisión matemáticamente definida.


DESVENTAJAS 


Tales diseños y sus análisis, usualmente están acompañados de enunciados basados en el lenguaje técnico del estadístico. Sería significativos a la generalidad de la gente, además, el estadístico no debería subestimar el valor de presentarnos los resultados en forma gráfica. De hecho, siempre debería considerar a la representación gráfica como un paso preliminar de un procedimiento más analítico. 

Muchos diseños estadísticos, especialmente cuando fueron formulados por primera vez, se han criticado como demasiado caros, complicados y que requieren mucho tiempo. Tales críticas, cuando son válidas, deben aceptarse de buena fe y debe hacerse un intento honesto para mejorar la situación, siempre que no sea en detrimento de la solución del problema.


Bibliografía: Solis Reyna Norma Irene, Márquez Meléndez Jesús Daniel; Matemáticas Financieras.