Descubre millones de libros electrónicos, audiolibros y mucho más con una prueba gratuita

Solo $11.99/mes después de la prueba. Puedes cancelar en cualquier momento.

Campo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora
Campo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora
Campo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora
Libro electrónico108 páginas1 hora

Campo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora

Calificación: 0 de 5 estrellas

()

Leer la vista previa

Información de este libro electrónico

Qué es el campo aleatorio de Markov


En el dominio de la física y la probabilidad, un campo aleatorio de Markov (MRF), una red de Markov o un modelo gráfico no dirigido es un conjunto de variables aleatorias. teniendo una propiedad de Markov descrita por un gráfico no dirigido. En otras palabras, se dice que un campo aleatorio es un campo aleatorio de Markov si satisface las propiedades de Markov. El concepto se origina en el modelo de Sherrington?Kirkpatrick.


Cómo se beneficiará


(I) Insights y validaciones sobre los siguientes temas:


Capítulo 1: Campo aleatorio de Markov


Capítulo 2: Variable aleatoria multivariada


Capítulo 3: Modelo oculto de Markov


Capítulo 4: Red bayesiana


Capítulo 5: Modelo gráfico


Capítulo 6: Campo aleatorio


Capítulo 7: Propagación de creencias


Capítulo 8: Gráfico de factores


Capítulo 9: Campo aleatorio condicional


Capítulo 10: Teorema de Hammersley?Clifford


(II) Respondiendo a las principales preguntas del público sobre el campo aleatorio de Markov.


(III) Ejemplos del mundo real sobre el uso del campo aleatorio de Markov en muchos campos.


Para quién es este libro


Profesionales, estudiantes de pregrado y posgrado. entusiastas, aficionados y aquellos que quieran ir más allá del conocimiento o la información básica para cualquier tipo de campo aleatorio de Markov.


 


 

IdiomaEspañol
Fecha de lanzamiento12 may 2024
Campo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora

Lee más de Fouad Sabry

Relacionado con Campo aleatorio de Markov

Títulos en esta serie (100)

Ver más

Libros electrónicos relacionados

Inteligencia (IA) y semántica para usted

Ver más

Comentarios para Campo aleatorio de Markov

Calificación: 0 de 5 estrellas
0 calificaciones

0 clasificaciones0 comentarios

¿Qué te pareció?

Toca para calificar

Los comentarios deben tener al menos 10 palabras

    Vista previa del libro

    Campo aleatorio de Markov - Fouad Sabry

    Capítulo 1: Campo aleatorio de Markov

    Un campo aleatorio de Markov (MRF), una red de Markov o un modelo gráfico no dirigido es una colección de variables aleatorias con una propiedad de Markov que se puede representar mediante un grafo no dirigido en los campos de la física y la probabilidad. Para reformular, un campo aleatorio tiene propiedades de Markov si y solo si cumple con ciertas cualidades. La idea se desarrolló en el marco de Sherrington-Kirkpatrick.

    En términos de representación de dependencias, una red de Markov o un campo aleatorio de Markov (MRF) es comparable a una red bayesiana, con la distinción clave de que las redes bayesianas son dirigidas y acíclicas, mientras que las redes de Markov son no dirigidas y potencialmente cíclicas. Por esta razón, mientras que una red de Markov puede representar dependencias que una red bayesiana no puede (como las relaciones cíclicas), lo contrario no es cierto (como las dependencias inducidas). Un campo aleatorio de Markov puede tener un grafo subyacente finito o infinito.

    El teorema de Hammersley-Clifford establece que para una función de energía adecuada (especificada localmente), se puede usar una medida de Gibbs para representar un campo aleatorio si y solo si la densidad de probabilidad conjunta de las variables aleatorias es estrictamente positiva. El modelo de Ising sirve como ejemplo paradigmático de un campo aleatorio de Markov, y fue en este contexto que se presentó por primera vez el campo aleatorio de Markov.

    Dado un grafo no dirigido G=(V,E) , un conjunto de variables aleatorias {\displaystyle X=(X_{v})_{v\in V}} indexadas por V forman un campo aleatorio de Markov con respecto a G si satisfacen las propiedades locales de Markov:

    Todos los pares de variables no colineales son condicionalmente independientes con respecto a todas las demás variables, de acuerdo con la propiedad de Markov por pares:

    {\displaystyle X_{u}\perp \!\!\!\perp X_{v}\mid X_{V\setminus \{u,v\}}}

    La propiedad local de Markov establece que, dado su entorno inmediato, una variable dada es condicionalmente independiente de todas las demás variables:

    {\displaystyle X_{v}\perp \!\!\!\perp X_{V\setminus \operatorname {N} [v]}\mid X_{\operatorname {N} (v)}}

    donde {\textstyle \operatorname {N} (v)} es el conjunto de vecinos de v , y {\displaystyle \operatorname {N} [v]=v\cup \operatorname {N} (v)} es el barrio cerrado de v .

    La propiedad global de Markov establece que, dado un subconjunto de variables que se separa, dos subconjuntos cualesquiera de variables son condicionalmente independientes:

    X_A \perp\!\!\!\perp X_B \mid X_S

    donde cada ruta de acceso de un nodo de entrada A a un nodo de entrada B pasa a través  de S .

    La propiedad de Markov global supera a la propiedad de Markov local, que supera a la propiedad de Markov por pares. (que solo dan a las variables vinculadas probabilidades distintas de cero).

    La siguiente formulación hace que la conexión entre las tres características de Markov sea cristalina:

    Por pares: Para cualquier persona {\displaystyle i,j\in V} que no sea igual o adyacente, {\displaystyle X_{i}\perp \!\!\!\perp X_{j}|X_{V\setminus \{i,j\}}} .

    Local: Para cualquier {\displaystyle i\in V} y {\displaystyle J\subset V} que no contenga o sea adyacente a i , {\displaystyle X_{i}\perp \!\!\!\perp X_{J}|X_{V\setminus (\{i\}\cup J)}} .

    Global: Para cualquier cosa {\displaystyle I,J\subset V} que no se interseque o sea adyacente, {\displaystyle X_{I}\perp \!\!\!\perp X_{J}|X_{V\setminus (I\cup J)}} .

    A menudo se emplean campos aleatorios de Markov que pueden factorizarse de acuerdo con las camarillas de la red, ya que la propiedad de Markov de una distribución de probabilidad arbitraria puede ser difícil de establecer.

    Dado un conjunto de variables aleatorias {\displaystyle X=(X_{v})_{v\in V}} , sea P(X=x) la probabilidad de una configuración de campo particular x en X .

    Es decir, P(X=x) es la probabilidad de encontrar que las variables aleatorias X toman el valor particular x .

    Debido a que X es un conjunto, la probabilidad de x debe entenderse tomada con respecto a una distribución conjunta de . {\displaystyle X_{v}}

    Si esta densidad conjunta se puede factorizar sobre las camarillas de G :

    P(X=x) = \prod_{C \in \operatorname{cl}(G)} \phi_C (x_C)

    luego X forma un campo aleatorio de Markov con respecto a G .

    Aquí, {\displaystyle \operatorname {cl} (G)} está el conjunto de camarillas de G .

    Si sólo se consideran las camarillas máximas, el concepto permanece inalterado.

    A veces se hace referencia a {\displaystyle \phi _{C}} las funciones  como potenciales factoriales o potenciales de camarilla.

    Nótese, sin embargo, que se utiliza una terminología contradictoria: la palabra potencial se aplica a menudo al logaritmo de {\displaystyle \phi _{C}} .

    Teniendo en cuenta que, la mecánica del azar, {\displaystyle \log(\phi _{C})} tiene una interpretación directa como la energía potencial de una configuración {\displaystyle x_{C}} .

    Es posible diseñar un ejemplo simple de un MRF que no factorice en un ciclo de 4 nodos con ciertas energías infinitas, es decir,

    configuraciones probabilísticas de suma cero, el caso que, más apropiadamente, permite que las energías infinitas actúen sobre el grafo completo sobre V .

    Si se cumple alguna de las siguientes condiciones, se factorizan los MRF:

    De acuerdo con el teorema de Hammersley, la densidad de Clifford debe ser positiva.

    Un grafo de cuerdas (por equivalencia a una red bayesiana)

    Se puede construir un gráfico factorial de la red si se han factorizado sus vértices.

    Cualquier campo aleatorio de Markov positivo se puede escribir como familia exponencial en forma canónica con funciones de característica f_{k} tales que la distribución de articulaciones completas se puede escribir como

    P(X=x) = \frac{1}{Z} \exp \left( \sum_{k} w_k^{\top} f_k (x_{ \{ k \}}) \right)

    donde la notación

    w_k^{\top} f_k (x_{ \{ k \}}) = \sum_{i=1}^{N_k} w_{k,i} \cdot f_{k,i}(x_{\{k\}})

    partition, y Z es solo un producto de puntos a través de configuraciones de campo:

    Z = \sum_{x \in \mathcal{X}} \exp \left(\sum_{k} w_k^{\top} f_k(x_{ \{ k \} })\right).

    Aquí, {\mathcal {X}} denota el conjunto de todas las asignaciones posibles de valores a todas las variables aleatorias de la red.

    Por lo general, las funciones de características f_{k,i} se definen de tal manera que son indicadores de la configuración de la camarilla, es decir,

    f_{k,i}(x_{\{k\}}) = 1 if x_{\{k\}} corresponde a la i-ésima configuración posible de la k-ésima camarilla y 0 en caso contrario.

    El modelo de factorización de camarillas anterior es equivalente a este, si N_k=|\operatorname{dom}(C_k)| es la cardinalidad de la camarilla, y el peso de una característica f_{k,i} corresponde al logaritmo del factor de camarilla correspondiente, es decir,

    w_{k,i} = \log \phi(c_{k,i}) , donde c_{k,i} es la i-ésima configuración posible de la k-ésima camarilla, es decir,

    El i-ésimo valor en el dominio de la camarilla C_{k}

    ¿Disfrutas la vista previa?
    Página 1 de 1