Descubre millones de libros electrónicos, audiolibros y mucho más con una prueba gratuita

Solo $11.99/mes después de la prueba. Puedes cancelar en cualquier momento.

Filtro de partículas: Explorando los filtros de partículas en visión por computadora
Filtro de partículas: Explorando los filtros de partículas en visión por computadora
Filtro de partículas: Explorando los filtros de partículas en visión por computadora
Libro electrónico112 páginas51 minutos

Filtro de partículas: Explorando los filtros de partículas en visión por computadora

Calificación: 0 de 5 estrellas

()

Leer la vista previa

Información de este libro electrónico

Qué es el filtro de partículas


Los filtros de partículas, o métodos secuenciales de Monte Carlo, son un conjunto de algoritmos de Monte Carlo que se utilizan para encontrar soluciones aproximadas a problemas de filtrado para espacios de estados no lineales. sistemas, como el procesamiento de señales y la inferencia estadística bayesiana. El problema de filtrado consiste en estimar los estados internos en sistemas dinámicos cuando se realizan observaciones parciales y existen perturbaciones aleatorias tanto en los sensores como en el sistema dinámico. El objetivo es calcular las distribuciones posteriores de los estados de un proceso de Markov, dadas las observaciones parciales y ruidosas. El término "filtros de partículas" fue acuñado por primera vez en 1996 por Pierre Del Moral sobre los métodos de interacción de partículas de campo medio utilizados en mecánica de fluidos desde principios de los años 1960. El término "Monte Carlo secuencial" fue acuñado por Jun S. Liu y Rong Chen en 1998.


Cómo se beneficiará


(I) Insights, y validaciones sobre los siguientes temas:


Capítulo 1: Filtro de partículas


Capítulo 2: Muestreo de importancia


Capítulo 3: Proceso de puntos


Capítulo 4: Ecuación de Fokker?Planck


Capítulo 5: Lema de Wiener


Capítulo 6: Ecuación de Klein?Kramers


Capítulo 7: Métodos de partículas de campo medio


Capítulo 8: Kernel de Dirichlet


Capítulo 9: Distribución de Pareto generalizada


Capítulo 10: Superproceso


(II) Respondiendo a las principales preguntas del público sobre filtro de partículas.


(III) Ejemplos del mundo real sobre el uso de filtros de partículas en muchos campos.


Para quién es este libro


Profesionales, estudiantes de pregrado y posgrado, entusiastas, aficionados y aquellos que quieran ir más allá del conocimiento o información básica para cualquier tipo de Filtro de Partículas.


 


 

IdiomaEspañol
Fecha de lanzamiento13 may 2024
Filtro de partículas: Explorando los filtros de partículas en visión por computadora

Lee más de Fouad Sabry

Relacionado con Filtro de partículas

Títulos en esta serie (100)

Ver más

Libros electrónicos relacionados

Inteligencia (IA) y semántica para usted

Ver más

Artículos relacionados

Comentarios para Filtro de partículas

Calificación: 0 de 5 estrellas
0 calificaciones

0 clasificaciones0 comentarios

¿Qué te pareció?

Toca para calificar

Los comentarios deben tener al menos 10 palabras

    Vista previa del libro

    Filtro de partículas - Fouad Sabry

    Capítulo 2: Importancia del muestreo

    Para evaluar las características de una distribución de interés utilizando solo muestras extraídas de otra distribución, se emplea la técnica de muestreo de importancia de Monte Carlo. El muestreo de importancia es similar al muestreo general en física computacional, y su inicio en estadística se atribuye típicamente a un estudio realizado por Teun Kloek y Herman K. van Dijk en 1978. El muestreo de esta distribución alternativa, la realización de inferencias basadas en dichas muestras, o ambas, pueden denominarse con esta palabra, dependiendo del contexto.

    Sea {\displaystyle X\colon \Omega \to \mathbb {R} } una variable aleatoria en algún espacio de probabilidad (\Omega ,{\mathcal {F}},P) .

    Queremos calcular la distribución de probabilidad de X dado P, marcado con el EX; Símbolo P].

    Si tenemos muestras aleatorias estadísticamente independientes x_{1},\ldots ,x_{n} , producidas de acuerdo con P, Por lo tanto, un cálculo práctico de EX; P] es

    {\displaystyle {\widehat {\mathbf {E} }}_{n}[X;P]={\frac {1}{n}}\sum _{i=1}^{n}x_{i}\quad \mathrm {where} \;x_{i}\sim P(X)}

    y la exactitud de esta aproximación es proporcional a la dispersión de X:

    {\displaystyle \operatorname {var} [{\widehat {\mathbf {E} }}_{n};P]={\frac {\operatorname {var} [X;P]}{n}}.}

    La idea principal detrás del muestreo de importancia es reducir la incertidumbre en la estimación de EX; P] extrayendo muestras de una distribución separada para los estados, o cuando es difícil tomar muestras de P.

    Esto se logra eligiendo primero una variable aleatoria L\geq 0 tal que EL;P] = 1 y que P-casi en todas partes L(\omega )\neq 0 .

    Con la variable L definimos una probabilidad {\displaystyle P^{(L)}} que satisface

    {\mathbf {E}}[X;P]={\mathbf {E}}\left[{\frac {X}{L}};P^{{(L)}}\right].

    Por lo tanto, la variable X/L se muestreará bajo P(L) para estimar EX; P] como en el caso anterior y esta estimación mejora cuando

    \operatorname {var}\left[{\frac {X}{L}};P^{{(L)}}\right]<\operatorname {var}[X;P]

    .

    Cuando X es de signo constante sobre Ω, la mejor variable L sería claramente L^{*}={\frac {X}{{\mathbf {E}}[X;P]}}\geq 0 , de modo que X/L* es la constante buscada EX; P] y una sola muestra bajo P(L*) es suficiente para dar su

    ¿Disfrutas la vista previa?
    Página 1 de 1