Descubre millones de libros electrónicos, audiolibros y mucho más con una prueba gratuita

Solo $11.99/mes después de la prueba. Puedes cancelar en cualquier momento.

Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.
Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.
Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.
Libro electrónico187 páginas1 hora

Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.

Calificación: 0 de 5 estrellas

()

Leer la vista previa

Información de este libro electrónico

Qué es la transformación lineal directa


La transformación lineal directa, también conocida como DLT, es un algoritmo que resuelve un conjunto de variables utilizando un conjunto de relaciones de similitud como base de trabajo. colocar. En el campo de la geometría proyectiva, este tipo de relación se encuentra con bastante frecuencia. Los ejemplos que son aplicables a situaciones del mundo real incluyen homografías y la relación entre puntos tridimensionales en una escena y su proyección en el plano de la imagen de una cámara estenopeica.


Cómo se beneficiará


(I) Insights y validaciones sobre los siguientes temas:


Capítulo 1: Transformación lineal directa


Capítulo 2: Mapa lineal


Capítulo 3: Subespacio lineal


Capítulo 4: Descomposición de Cholesky


Capítulo 5: Matriz invertible


Capítulo 6: Forma cuadrática


Capítulo 7: Función homogénea


Capítulo 8: Kernel (álgebra lineal)


Capítulo 9: Coordenadas de Plücker


Capítulo 10: Transformación del modelo TP en teoría de control


(II) Respondiendo a las principales preguntas del público sobre la transformación lineal directa.


(III) Ejemplos del mundo real para el uso de la transformación lineal directa en muchos campos.


Para quién es este libro


Profesionales, estudiantes de pregrado y posgrado, entusiastas, aficionados y aquellos que quieran ir más allá del conocimiento o la información básica para cualquier tipo de Transformación Lineal Directa.


 


 

IdiomaEspañol
Fecha de lanzamiento30 abr 2024
Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.

Lee más de Fouad Sabry

Relacionado con Transformación lineal directa

Títulos en esta serie (100)

Ver más

Libros electrónicos relacionados

Inteligencia (IA) y semántica para usted

Ver más

Artículos relacionados

Comentarios para Transformación lineal directa

Calificación: 0 de 5 estrellas
0 calificaciones

0 clasificaciones0 comentarios

¿Qué te pareció?

Toca para calificar

Los comentarios deben tener al menos 10 palabras

    Vista previa del libro

    Transformación lineal directa - Fouad Sabry

    Capítulo 1: Transformación lineal directa

    Un conjunto de variables puede ser resuelto por un conjunto de relaciones de similitud utilizando una técnica llamada transformación lineal directa (DLT):

    {\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N

    donde {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} son vectores conocidos, \,\propto denota igualdad hasta una multiplicación escalar desconocida, y \mathbf {A} es una matriz (o transformación lineal) que contiene las incógnitas a resolver.

    En geometría proyectiva, este es un tipo común de relación. Los homógrafos y la relación entre los puntos de escena 3D y su proyección de cámara estenopeica son dos de esos ejemplos.

    En pocas palabras, un sistema de ecuaciones lineales

    {\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N

    se puede resolver, por ejemplo, reescribiéndolo como una ecuación matricial {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} donde las matrices {\mathbf {X}} y {\mathbf {Y}} contienen los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} en sus respectivas columnas.

    Dado que solo hay una respuesta a este problema, proporcionada por

    {\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.

    En el caso de que las ecuaciones estén por encima o por debajo de la determinación, también se pueden describir las soluciones.

    La diferencia entre el problema de transformación lineal directa y el ejemplo típico mencionado anteriormente es que el factor multiplicativo que separa los lados izquierdo y derecho de la ecuación definitoria depende del parámetro k.

    Por lo tanto, \mathbf {A} no se puede computar como en el caso estándar.

    En cambio, en este enfoque, las relaciones de similitud se transforman en ecuaciones homogéneas lineales ordinarias.

    Los algoritmos de transformación lineal directa (DLT) combinan la reescritura de ecuaciones de similitud como ecuaciones lineales homogéneas y su resolución utilizando métodos establecidos.

    A Ivan Sutherland se le atribuye el desarrollo de DLT.

    Supongamos que {\displaystyle k\in \{1,...,N\}} .

    Sea {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} y {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} sean dos vectores conocidos, y queremos hallar la 2\times 3 matriz \mathbf {A} tal que

    \alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}

    donde \alpha _{{k}}\neq 0 es el factor escalar desconocido relacionado con la ecuación k.

    Defina la matriz antisimétrica para eliminar los escalares libres y producir ecuaciones homogéneas.

    {\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}

    y multiplica ambos lados de la ecuación por {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} desde la izquierda

    {\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}

    Puesto {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, que las siguientes ecuaciones homogéneas, que ahora están desprovistas de los misteriosos escalares, están a la mano

    {\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}

    Para resolver a \mathbf {A} partir de este conjunto de ecuaciones, considere los elementos de los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} la matriz \mathbf {A} :

    {\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} y {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}

    En este caso, la ecuación homogénea anterior se simplifica a

    0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}

    para \,k=1,\ldots ,N.

    La forma matricial funciona igual de bien para esto:

    0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} para \,k=1,\ldots ,N

    donde {\mathbf {b}}_{{k}} y \mathbf{a} ambos son vectores de 6 dimensiones definidos como

    {\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} y {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.

    Tenemos una ecuación y seis variables en este punto. La forma matricial se puede utilizar para expresar un sistema de ecuaciones homogéneas.

    {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}

    donde \mathbf {B} es una N\times 6 matriz que contiene los vectores conocidos {\mathbf {b}}_{{k}} en sus filas.

    La incógnita \mathbf{a} puede determinarse, por ejemplo, mediante una descomposición de valor singular de \mathbf {B} ; \mathbf{a} es un vector singular derecho que \mathbf {B} corresponde a un valor singular igual a cero.

    Una vez \mathbf{a} que se ha determinado, los elementos de la matriz \mathbf {A} se pueden reorganizar a partir del vector \mathbf {a} .

    Tenga en cuenta que la escala de \mathbf{a} or \mathbf {A} no es importante (excepto que debe ser distinta de cero) ya que las ecuaciones de definición ya permiten una escala desconocida.

    En la práctica, los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} pueden contener ruido, lo que significa que las ecuaciones de similitud son solo válidas de forma aproximada.

    Por lo tanto, puede que no haya un vector \mathbf{a} que resuelva exactamente la ecuación homogénea {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .

    En tales situaciones, se puede usar una solución de mínimos cuadrados totales eligiendo \mathbf{a} como vector singular derecho correspondiente al valor singular más pequeño de {\mathbf {B}}.

    El ejemplo anterior tiene {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} , pero la estrategia general para reescribir las relaciones de similitud en ecuaciones lineales homogéneas se puede generalizar a dimensiones arbitrarias para ambas {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}}.

    Si {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} las expresiones anteriores aún pueden conducir a una ecuación

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N

    donde \mathbf {A} ahora es 2\times q. Cada k proporciona una ecuación en los 2q elementos desconocidos de \mathbf {A} y juntas estas ecuaciones se pueden escribir {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} para la N\times 2\,q matriz \mathbf {B} conocida y  el vector desconocido de 2q-dimensión {\mathbf {a}}. Este vector se puede encontrar de manera similar a como antes.

    En el caso más general, {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .

    La principal diferencia con respecto a antes es que la matriz \mathbf {H} ahora es p \times p antisimétrica.

    Cuando {\displaystyle p>2} el espacio de dichas matrices ya no es unidimensional, tiene un tamaño medible.

    M={\frac {p\,(p-1)}{2}}.

    Esto sugiere que hay M ecuaciones homogéneas de tipo para todos los valores de k.

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,m=1,\ldots ,M y para \,k=1,\ldots ,N

    donde {\mathbf {H}}_{{m}} es una base M-dimensional del espacio de p \times p matrices antisimétricas.

    En el caso de que p  = 3 se pueden elegir {\mathbf {H}}_{{m}} las tres matrices siguientes

    {\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.

    Las ecuaciones lineales homogéneas en esta situación se pueden expresar como

    {\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N

    donde [{\mathbf {x}}_{{k}}]_{{\times }} es la representación matricial del producto vectorial cruzado.

    Esta ecuación final es de la variedad de valores vectoriales; el lado izquierdo es el elemento cero en {\mathbb {R}}^{{3}} .

    Cada valor de k proporciona tres ecuaciones lineales homogéneas en los elementos desconocidos de \mathbf {A} .

    Sin embargo, dado que [{\mathbf {x}}_{{k}}]_{{\times }} tiene rango = 2, el número máximo de ecuaciones linealmente independientes es dos.

    En la práctica, por lo tanto, es común usar solo dos de las tres matrices {\mathbf {H}}_{{m}} , por ejemplo, para m = 1, 2.

    Sin embargo, la dependencia lineal entre las ecuaciones depende de {\mathbf {x}}_{{k}} , por lo que, en situaciones desfavorables, la selección habría sido una opción superior, por ejemplo, m = 2,3.

    Por lo tanto, si no importa cuántas ecuaciones haya, puede ser mejor usar las tres ecuaciones cuando se construye la matriz \mathbf {B} .

    La dependencia lineal entre las ecuaciones lineales homogéneas resultantes es una preocupación general para el caso p > 2 y debe abordarse reduciendo el conjunto de matrices antisimétricas {\mathbf {H}}_{{m}} o permitiendo que \mathbf {B} se hagan más grandes de lo necesario para determinar {\mathbf {a}}.

    {Fin del capítulo 1}

    Capítulo 2: Mapa lineal

    En matemáticas, y en álgebra lineal en particular, Un mapa lineal (o mapeo lineal) es un tipo de mapa que, transformación lineal, homomorfismo de espacios vectoriales, o en algunos contextos función lineal) es un mapeo V\to W entre dos espacios vectoriales que conserva las operaciones de suma de vectores y multiplicación escalar.

    El caso más general de los módulos sobre un anillo utiliza los mismos nombres y definiciones; Busque Homomorfismo de módulos.

    Un isomorfismo lineal es una biyección entre dos espacios vectoriales.

    En el caso de que {\displaystyle V=W} , Endomorfismo lineal es otro nombre para un mapa.

    Esta situación a veces se denomina operador lineal, Sin embargo, hay algunas tradiciones distintas que definen lo que se entiende por la frase operador lineal. Por ejemplo, se puede usar para enfatizar que V y W son espacios vectoriales reales (no necesariamente con {\displaystyle V=W} ), o se puede usar para enfatizar que V es un espacio de funciones,  Esta es una práctica estándar en el análisis funcional.

    La función lineal puede significar lo mismo que el mapa lineal en algunos contextos, el análisis muestra que no es así.

    Al asignar V a W linealmente, el punto de partida de V siempre se asigna al punto de partida de W. Además, transfiere subespacios lineales de V a W (potencialmente de menor dimensión), como mapear un plano a través del origen en V a un plano a través del origen en W, una línea a través del origen en W, o solo el origen en W. La rotación y la reflexión son dos ejemplos de transformaciones lineales que se pueden representar usando matrices.

    Los mapeos lineales son morfismos de espacios vectoriales en la jerga de la teoría de categorías.

    Sea V y W sean espacios vectoriales sobre el mismo campo K .

    Se dice que una función f:V\to W es una función lineal si para dos vectores cualesquiera {\textstyle \mathbf {u} ,\mathbf {v} \in V} y cualquier escalar {\displaystyle c\in K} se satisfacen las dos condiciones siguientes:

    Agregar, o la capacidad de agregar

    {\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}

    Homogeneidad de grado 1 / operación escalar del producto

    {\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}

    Como resultado, decimos que un mapa lineal conserva las operaciones. Para reformular, no hay diferencia si el mapa lineal se aplica antes (lados derecho de las instancias) o después (lados izquierdos de los ejemplos) las operaciones aritméticas y de multiplicación.

    Debido a la propiedad conmutativa del signo más (+), para cualquier vector {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} y escalar {\textstyle c_{1},\ldots ,c_{n}\in K,} se cumple la siguiente igualdad:

    {\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}

    Las combinaciones lineales se conservan en un mapa de este tipo, de ahí su nombre.

    Denotando los elementos cero de los espacios vectoriales V y W por {\textstyle \mathbf {0} _{V}} y {\textstyle \mathbf {0} _{W}} respectivamente, se deduce que {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Let c=0 y {\textstyle \mathbf {v} \in V} en la ecuación para homogeneidad de grado 1:

    {\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}

    Un mapa lineal {\displaystyle V\to K} visto K como un espacio vectorial unidimensional sobre sí mismo se denomina funcional lineal.

    Estas declaraciones se generalizan a cualquier módulo izquierdo {\textstyle {}_{R}M} sobre un anillo R sin modificaciones, e invirtiendo la multiplicación escalar, a cualquier módulo derecho.

    Un ejemplo prototípico que da nombre a los mapas lineales es una función {\displaystyle f:\mathbb {R} \to \mathbb {R} :x\mapsto cx} , que toma la forma de una línea que pasa por cero en un gráfico.

    De manera más general, cualquier homotecia {\textstyle \mathbf {v} \mapsto c\mathbf {v} }

    ¿Disfrutas la vista previa?
    Página 1 de 1