Procesos Estocásticos

Description

Investigación de Operaciones
José Angel Marin
Mind Map by José Angel Marin, updated more than 1 year ago
José Angel Marin
Created by José Angel Marin almost 4 years ago
25
0

Resource summary

Procesos Estocásticos
  1. ¿Qué Es?
    1. Es un concepto matemático que se utiliza para manejar magnitudes aleatorias que varían con el tiempo o para caracterizar una sucesión de variables aleatorias llamada estocásticas, que evolucionan en función de otra variable.
    2. ¿Qué es una cadena de Markov?
      1. Es un concepto desarrollado dentro de la teoría de la probabilidad y la estadística que establece una fuerte dependencia entre un evento y otro suceso anterior. Su principal utilidad es el análisis del comportamiento de procesos estocásticos.
      2. Clasificación de los estados de la cadena de Markov
        1. Estado Accesible
          1. Este estado tiene la característica de que se puede alcanzar desde otro estado. Suponiendo que " i " y el estado " j " están en un sistema, el estado " i " es accesible si y sólo si puede se puede llegar a él por el " j ".
          2. Comunicación
            1. Se dice que un estado se comunica con otro si el estado " j " es accesible desde el estado " i " y el estado " j " es accesible desde el estado " j ". Para que exista comunicación entre estados se debe cumplir con algunas propiedades como: Si el estado " j " se comunica con el estado " i ", entonces " i " se comunica con el estado " j ". Si el estado " i " se comunica con el estado " j " y el estado " j " se comunica con el estado " k ", entonces " i " se comunica con el estado "k". Cualquier estado se comunica consigo mismo.
            2. Estado Transitorio
              1. Se dice que un estado es Transitorio cuando un proceso pasa por un estado y este, después de n pasos, ya no regresa a él. Esto quiere decir que un estado " j " es alcanzable desde un estado " i ", pero el estado " i " no es alcanzable desde el estado " j ".
              2. Estado Recurrente
                1. Un estado es Recurrente en la medida que comenzando en él se tenga la certeza de volver en algún momento del tiempo (una determinada cantidad de etapas) sobre si mismo. Si la cadena de Markov tiene una cantidad finita de estados y se identifica un estado Recurrente, este será Recurrente positivo. Si la cantidad de estados es infinito un estado Recurrente será Recurrente nulo.
                2. Estado Absorbente
                  1. Se dice que un estado es Absorbente si la posibilidad de hacer una transición fuera de este estado es cero. Por lo tanto, una vez que el sistema hace una transición hacia un estado Absorbente permanece en él, siempre.
                  2. Estado de Periodicidad
                    1. Un estado " i " es periódico con " k " > 1 si " k " es el menor número tal que todas las trayectorias que parten del estado " i " y regresan a él, tienen una longitud múltiplo de cambio.
                    2. Probabilidad de Estado Estable
                      1. Significa que la probabilidad de encontrar el proceso en cierto estado, digamos " i ", después de un número grande de transiciones tiene al valor " πj ", y es independiente de la distribución de probabilidad inicial definida por los estados.
                    3. Matriz de transición de Markov
                      1. Una matriz estocástica (también denominada matriz de probabilidad, matriz de transición, matriz de sustitución o matriz de Markov) es una matriz utilizada para describir las transiciones en una cadena de Markov.
                      2. Probabilidad de Transición
                        1. En la teoría de los procesos estocásticos y, en particular, en la teoría de las cadenas de Markov, se denomina probabilidad de transición, Py, a la probabilidad de que estando el sistema en el estado E¡ en el momento n pase al estado E¡ en el momento n + 1.
                        2. Probabilidad Condicional
                          1. Una probabilidad que depende de que alguna otra cosa ocurra o no ocurra.
                          2. Propiedades de Markov
                            1. La propiedad de las cadenas de Márkov es que las transiciones entre los estados, sólo puede producirse entre estados vecinos. Sólo se puede llegar al estado i desde el estado i-1 ó bien de i+1.
                            2. Variables de Estado
                              1. Son las variables que caracterizan la situación en la que se encuentra el sistema en un instante dado. Su valor depende de las variables de decisión y los parámetros.
                              Show full summary Hide full summary

                              Similar

                              Mapa Mental Planificación estratégica
                              Verny Fernandez
                              Mapa Conceptual
                              Julio Perez
                              Organizadores Gráficos
                              Eunice Sabaján
                              TEORIAS CONTEMPORANEAS
                              karen lorena miranda rojas
                              Mapa Conceptual
                              natalia forteza
                              Historia de la Música
                              Alicia Maqueira Atienza
                              Mapa Mental de Tics
                              erika.m.ortiz
                              Mapa Conceptual
                              Brisa Jimenez Robles
                              Cómo crear un Mapa Mental
                              Maria Camila Ospina Valoy
                              Países desarrollados y subdesarrollados
                              sara.garcia.2eso
                              "TRIADA ECOLOGICA"
                              Arely Reyes