Transformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora.
Por Fouad Sabry
()
Información de este libro electrónico
Qué es la transformación lineal directa
La transformación lineal directa, también conocida como DLT, es un algoritmo que resuelve un conjunto de variables utilizando un conjunto de relaciones de similitud como base de trabajo. colocar. En el campo de la geometría proyectiva, este tipo de relación se encuentra con bastante frecuencia. Los ejemplos que son aplicables a situaciones del mundo real incluyen homografías y la relación entre puntos tridimensionales en una escena y su proyección en el plano de la imagen de una cámara estenopeica.
Cómo se beneficiará
(I) Insights y validaciones sobre los siguientes temas:
Capítulo 1: Transformación lineal directa
Capítulo 2: Mapa lineal
Capítulo 3: Subespacio lineal
Capítulo 4: Descomposición de Cholesky
Capítulo 5: Matriz invertible
Capítulo 6: Forma cuadrática
Capítulo 7: Función homogénea
Capítulo 8: Kernel (álgebra lineal)
Capítulo 9: Coordenadas de Plücker
Capítulo 10: Transformación del modelo TP en teoría de control
(II) Respondiendo a las principales preguntas del público sobre la transformación lineal directa.
(III) Ejemplos del mundo real para el uso de la transformación lineal directa en muchos campos.
Para quién es este libro
Profesionales, estudiantes de pregrado y posgrado, entusiastas, aficionados y aquellos que quieran ir más allá del conocimiento o la información básica para cualquier tipo de Transformación Lineal Directa.
Lee más de Fouad Sabry
Tecnologías Emergentes En El Transporte [Spanish]
Relacionado con Transformación lineal directa
Títulos en esta serie (100)
Transformacion afin: Desbloqueo de perspectivas visuales: exploración de la transformación afín en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesVisión por computador: Explorando las profundidades de la visión por computadora Calificación: 0 de 5 estrellas0 calificacionesCorrección gamma: Mejora de la claridad visual en la visión por computadora: la técnica de corrección gamma Calificación: 0 de 5 estrellas0 calificacionesHistograma de imagen: Revelando conocimientos visuales, explorando las profundidades de los histogramas de imágenes en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesTransformación dura: Revelando la magia de Hough Transform en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesRetinax: Revelando los secretos de la visión computacional con Retinex Calificación: 0 de 5 estrellas0 calificacionesBanco de filtros: Información sobre las técnicas del banco de filtros de Computer Vision Calificación: 0 de 5 estrellas0 calificacionesReducción de ruido: Mejora de la claridad, técnicas avanzadas para la reducción del ruido en la visión por computadora Calificación: 0 de 5 estrellas0 calificacionesVisión por computadora submarina: Explorando las profundidades de la visión por computadora debajo de las olas Calificación: 0 de 5 estrellas0 calificacionesJoint Photographic Experts Group: Liberando el poder de los datos visuales con el estándar JPEG Calificación: 0 de 5 estrellas0 calificacionesVisión estéreo por computadora: Explorando la percepción de profundidad en la visión por computadora Calificación: 0 de 5 estrellas0 calificacionesHomografía: Homografía: Transformaciones en Visión por Computador Calificación: 0 de 5 estrellas0 calificacionesEn Pintura: Cerrar brechas en la visión por computadora Calificación: 0 de 5 estrellas0 calificacionesDetector de bordes astuto: Revelando el arte de la percepción visual Calificación: 0 de 5 estrellas0 calificacionesEcualización de histograma: Mejora del contraste de la imagen para mejorar la percepción visual Calificación: 0 de 5 estrellas0 calificacionesTransformación lineal directa: Aplicaciones prácticas y técnicas en visión por computadora. Calificación: 0 de 5 estrellas0 calificacionesMapeo de tonos: Mapeo de tonos: perspectivas iluminadoras en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesFiltro adaptativo: Mejora de la visión por computadora mediante filtrado adaptativo Calificación: 0 de 5 estrellas0 calificacionesCompresión de imagen: Técnicas eficientes para la optimización de datos visuales Calificación: 0 de 5 estrellas0 calificacionesPercepción visual: Información sobre el procesamiento visual computacional Calificación: 0 de 5 estrellas0 calificacionesDifusión anisotrópica: Mejora del análisis de imágenes mediante difusión anisotrópica Calificación: 0 de 5 estrellas0 calificacionesModelo de color: Comprensión del espectro de la visión por computadora: exploración de modelos de color Calificación: 0 de 5 estrellas0 calificacionesTransformación de Hadamard: Revelando el poder de la transformación de Hadamard en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesContorno activo: Avances en la visión por computadora con técnicas de contorno activo Calificación: 0 de 5 estrellas0 calificacionesTransformación de radón: Revelando patrones ocultos en datos visuales Calificación: 0 de 5 estrellas0 calificacionesModelo de cámara estenopeica: Comprender la perspectiva a través de la óptica computacional Calificación: 0 de 5 estrellas0 calificacionesSistema de gestión de color: Optimización de la percepción visual en entornos digitales Calificación: 0 de 5 estrellas0 calificacionesDetección de contorno: Revelando el arte de la percepción visual en la visión por computadora Calificación: 0 de 5 estrellas0 calificacionesModelo de apariencia de color: Comprensión de la percepción y la representación en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesConsenso de muestra aleatoria: Estimación robusta en visión por computadora Calificación: 0 de 5 estrellas0 calificaciones
Libros electrónicos relacionados
Tensor trifocal: Explorando la profundidad, el movimiento y la estructura en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesMétodo de ajuste de nivel: Avances en la visión por computadora, exploración del método de conjunto de niveles Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Análisis Numérico Calificación: 0 de 5 estrellas0 calificacionesCorrelación cruzada: Desbloqueo de patrones en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesInterpolación bilineal: Mejora de la resolución y claridad de la imagen mediante interpolación bilineal Calificación: 0 de 5 estrellas0 calificacionesTransformacion afin: Desbloqueo de perspectivas visuales: exploración de la transformación afín en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesHomografía: Homografía: Transformaciones en Visión por Computador Calificación: 0 de 5 estrellas0 calificacionesCampo aleatorio de Markov: Explorando el poder de los campos aleatorios de Markov en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesGráficos por computadora bidimensionales: Explorando el ámbito visual: gráficos por computadora bidimensionales en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesCampo de movimiento: Explorando la dinámica de la visión por computadora: campo de movimiento revelado Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Números Complejos Calificación: 0 de 5 estrellas0 calificacionesTransformación de radón: Revelando patrones ocultos en datos visuales Calificación: 0 de 5 estrellas0 calificacionesEl Libro de Matemática: Volumen 2 Calificación: 0 de 5 estrellas0 calificacionesHashing geométrico: Algoritmos eficientes para el reconocimiento y la comparación de imágenes Calificación: 0 de 5 estrellas0 calificacionesAlgoritmo de la línea de Bresenham: Representación eficiente de líneas con píxeles perfectos para visión por computadora Calificación: 0 de 5 estrellas0 calificacionesIntroducción al análisis numérico Calificación: 0 de 5 estrellas0 calificacionesIntroducción a los números complejos Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Funciones de Variables Múltiples Calificación: 0 de 5 estrellas0 calificacionesModelo de cámara estenopeica: Comprender la perspectiva a través de la óptica computacional Calificación: 0 de 5 estrellas0 calificacionesAjuste del paquete: Optimización de datos visuales para una reconstrucción precisa Calificación: 0 de 5 estrellas0 calificacionesEl Libro de Matemática: Volumen 3 Calificación: 0 de 5 estrellas0 calificacionesIntroducción a la geometría analítica Calificación: 4 de 5 estrellas4/5Introducción a los logaritmos y exponenciales Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Logaritmos y Exponenciales Calificación: 0 de 5 estrellas0 calificacionesEspacio de escala: Explorando las dimensiones en visión por computadora Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Ecuaciones en Derivadas Parciales Calificación: 0 de 5 estrellas0 calificacionesEjercicios de estudio de funciones Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Límites Calificación: 0 de 5 estrellas0 calificacionesIntroducción al Análisis Matemático Avanzado Calificación: 0 de 5 estrellas0 calificacionesEjercicios de Cálculo Integral Calificación: 5 de 5 estrellas5/5
Inteligencia (IA) y semántica para usted
Fundamentos de Programación: Diagramas de flujo, Diagramas N-S, Pseudocódigo y Java Calificación: 0 de 5 estrellas0 calificacionesResumen CHAT GPT IA Revolución en 2023: Guía de la Tecnología CHAT GPT y su Impacto Social: Resumen Tecnológico, #1 Calificación: 0 de 5 estrellas0 calificacionesCómo Ganar Dinero por Internet con Inteligencia Artificial Emprende tu negocio digital con ChatGPT, Escríbelo.ia, Playground AI, You.com, Canva, Midjourney, Dall-E 2, Amazon... Calificación: 0 de 5 estrellas0 calificacionesIntroducción a la ingeniería Calificación: 0 de 5 estrellas0 calificacionesInteligencia Artificial Calificación: 4 de 5 estrellas4/5Dominando ChatGPT: Desbloquea el poder de la IA para mejorar la comunicación y las relaciones: Spanish Calificación: 3 de 5 estrellas3/5Máquinas predictivas: La sencilla economía de la inteligencia artificial Calificación: 5 de 5 estrellas5/5Metodología de la programación Calificación: 0 de 5 estrellas0 calificacionesEl mito de la inteligencia artificial: Por qué las máquinas no pueden pensar como nosotros lo hacemos Calificación: 5 de 5 estrellas5/5Klara y el Sol Calificación: 5 de 5 estrellas5/5GuíaBurros: Inteligencia Artificial: Su lado oscuro y el fin del principio Calificación: 0 de 5 estrellas0 calificacionesCómo usar Chatgpt para tu negocio Calificación: 0 de 5 estrellas0 calificacionesAprendizaje automático y profundo en python: Una mirada hacia la inteligencia artificial Calificación: 0 de 5 estrellas0 calificacionesInteligencia artificial: Una exploración filosófica sobre el futuro de la mente y la conciencia Calificación: 4 de 5 estrellas4/5Escritura Creativa en la Era de la IA: Dominando la Colaboración con ChatGPT para Crear Libros Impactantes Calificación: 4 de 5 estrellas4/5ANDROID: Aprende desde cero a crear aplicaciones Calificación: 0 de 5 estrellas0 calificacionesCalidad en el desarrollo de software Calificación: 0 de 5 estrellas0 calificacionesChat GPT-4 para Principiantes: Chat GPT, #1 Calificación: 0 de 5 estrellas0 calificacionesIntroducción a la Ingeniería Industrial Calificación: 0 de 5 estrellas0 calificacionesMecatrónica Calificación: 0 de 5 estrellas0 calificacionesMáquinas como yo Calificación: 4 de 5 estrellas4/5Sobreviviendo a la IA Calificación: 3 de 5 estrellas3/5Business Intelligence: Técnicas herramientas y aplicaciones Calificación: 0 de 5 estrellas0 calificacionesMonetización de ChatGPT: aproveche el poder de AI: Spanish Calificación: 1 de 5 estrellas1/5El poder de las imagenes, la palabra no tiene poder Calificación: 0 de 5 estrellas0 calificacionesCómo triunfar en Instagram usando ChatGPT: La guía definitiva para crear contenido impactante con ChatGPT Calificación: 0 de 5 estrellas0 calificacionesEl imperio de los algoritmos: IA inclusiva, ética y al servicio de la humanidad Calificación: 0 de 5 estrellas0 calificacionesCiencias de la Computación en la escuela: Guía para enseñar mucho más que a programar Calificación: 5 de 5 estrellas5/5
Comentarios para Transformación lineal directa
0 clasificaciones0 comentarios
Vista previa del libro
Transformación lineal directa - Fouad Sabry
Capítulo 1: Transformación lineal directa
Un conjunto de variables puede ser resuelto por un conjunto de relaciones de similitud utilizando una técnica llamada transformación lineal directa (DLT):
{\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N
donde {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} son vectores conocidos, \,\propto denota igualdad hasta una multiplicación escalar desconocida, y \mathbf {A} es una matriz (o transformación lineal) que contiene las incógnitas a resolver.
En geometría proyectiva, este es un tipo común de relación. Los homógrafos y la relación entre los puntos de escena 3D y su proyección de cámara estenopeica son dos de esos ejemplos.
En pocas palabras, un sistema de ecuaciones lineales
{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N
se puede resolver, por ejemplo, reescribiéndolo como una ecuación matricial {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} donde las matrices {\mathbf {X}} y {\mathbf {Y}} contienen los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} en sus respectivas columnas.
Dado que solo hay una respuesta a este problema, proporcionada por
{\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.En el caso de que las ecuaciones estén por encima o por debajo de la determinación, también se pueden describir las soluciones.
La diferencia entre el problema de transformación lineal directa y el ejemplo típico mencionado anteriormente es que el factor multiplicativo que separa los lados izquierdo y derecho de la ecuación definitoria depende del parámetro k.
Por lo tanto, \mathbf {A} no se puede computar como en el caso estándar.
En cambio, en este enfoque, las relaciones de similitud se transforman en ecuaciones homogéneas lineales ordinarias.
Los algoritmos de transformación lineal directa (DLT) combinan la reescritura de ecuaciones de similitud como ecuaciones lineales homogéneas y su resolución utilizando métodos establecidos.
A Ivan Sutherland se le atribuye el desarrollo de DLT.
Supongamos que {\displaystyle k\in \{1,...,N\}} .
Sea {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} y {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} sean dos vectores conocidos, y queremos hallar la 2\times 3 matriz \mathbf {A} tal que
\alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}donde \alpha _{{k}}\neq 0 es el factor escalar desconocido relacionado con la ecuación k.
Defina la matriz antisimétrica para eliminar los escalares libres y producir ecuaciones homogéneas.
{\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}y multiplica ambos lados de la ecuación por {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} desde la izquierda
{\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}Puesto {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, que las siguientes ecuaciones homogéneas, que ahora están desprovistas de los misteriosos escalares, están a la mano
{\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}Para resolver a \mathbf {A} partir de este conjunto de ecuaciones, considere los elementos de los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} la matriz \mathbf {A} :
{\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} y {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}
En este caso, la ecuación homogénea anterior se simplifica a
0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}para \,k=1,\ldots ,N.
La forma matricial funciona igual de bien para esto:
0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} para \,k=1,\ldots ,N
donde {\mathbf {b}}_{{k}} y \mathbf{a} ambos son vectores de 6 dimensiones definidos como
{\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} y {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.
Tenemos una ecuación y seis variables en este punto. La forma matricial se puede utilizar para expresar un sistema de ecuaciones homogéneas.
{\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}donde \mathbf {B} es una N\times 6 matriz que contiene los vectores conocidos {\mathbf {b}}_{{k}} en sus filas.
La incógnita \mathbf{a} puede determinarse, por ejemplo, mediante una descomposición de valor singular de \mathbf {B} ; \mathbf{a} es un vector singular derecho que \mathbf {B} corresponde a un valor singular igual a cero.
Una vez \mathbf{a} que se ha determinado, los elementos de la matriz \mathbf {A} se pueden reorganizar a partir del vector \mathbf {a} .
Tenga en cuenta que la escala de \mathbf{a} or \mathbf {A} no es importante (excepto que debe ser distinta de cero) ya que las ecuaciones de definición ya permiten una escala desconocida.
En la práctica, los vectores {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}} pueden contener ruido, lo que significa que las ecuaciones de similitud son solo válidas de forma aproximada.
Por lo tanto, puede que no haya un vector \mathbf{a} que resuelva exactamente la ecuación homogénea {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .
En tales situaciones, se puede usar una solución de mínimos cuadrados totales eligiendo \mathbf{a} como vector singular derecho correspondiente al valor singular más pequeño de {\mathbf {B}}.
El ejemplo anterior tiene {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} , pero la estrategia general para reescribir las relaciones de similitud en ecuaciones lineales homogéneas se puede generalizar a dimensiones arbitrarias para ambas {\mathbf {x}}_{{k}} y {\mathbf {y}}_{{k}}.
Si {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} las expresiones anteriores aún pueden conducir a una ecuación
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N
donde \mathbf {A} ahora es 2\times q. Cada k proporciona una ecuación en los 2q elementos desconocidos de \mathbf {A} y juntas estas ecuaciones se pueden escribir {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} para la N\times 2\,q matriz \mathbf {B} conocida y el vector desconocido de 2q-dimensión {\mathbf {a}}. Este vector se puede encontrar de manera similar a como antes.
En el caso más general, {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} y {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .
La principal diferencia con respecto a antes es que la matriz \mathbf {H} ahora es p \times p antisimétrica.
Cuando {\displaystyle p>2} el espacio de dichas matrices ya no es unidimensional, tiene un tamaño medible.
M={\frac {p\,(p-1)}{2}}.Esto sugiere que hay M ecuaciones homogéneas de tipo para todos los valores de k.
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,m=1,\ldots ,M y para \,k=1,\ldots ,N
donde {\mathbf {H}}_{{m}} es una base M-dimensional del espacio de p \times p matrices antisimétricas.
En el caso de que p = 3 se pueden elegir {\mathbf {H}}_{{m}} las tres matrices siguientes
{\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.
Las ecuaciones lineales homogéneas en esta situación se pueden expresar como
{\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} para \,k=1,\ldots ,N
donde [{\mathbf {x}}_{{k}}]_{{\times }} es la representación matricial del producto vectorial cruzado.
Esta ecuación final es de la variedad de valores vectoriales; el lado izquierdo es el elemento cero en {\mathbb {R}}^{{3}} .
Cada valor de k proporciona tres ecuaciones lineales homogéneas en los elementos desconocidos de \mathbf {A} .
Sin embargo, dado que [{\mathbf {x}}_{{k}}]_{{\times }} tiene rango = 2, el número máximo de ecuaciones linealmente independientes es dos.
En la práctica, por lo tanto, es común usar solo dos de las tres matrices {\mathbf {H}}_{{m}} , por ejemplo, para m = 1, 2.
Sin embargo, la dependencia lineal entre las ecuaciones depende de {\mathbf {x}}_{{k}} , por lo que, en situaciones desfavorables, la selección habría sido una opción superior, por ejemplo, m = 2,3.
Por lo tanto, si no importa cuántas ecuaciones haya, puede ser mejor usar las tres ecuaciones cuando se construye la matriz \mathbf {B} .
La dependencia lineal entre las ecuaciones lineales homogéneas resultantes es una preocupación general para el caso p > 2 y debe abordarse reduciendo el conjunto de matrices antisimétricas {\mathbf {H}}_{{m}} o permitiendo que \mathbf {B} se hagan más grandes de lo necesario para determinar {\mathbf {a}}.
{Fin del capítulo 1}
Capítulo 2: Mapa lineal
En matemáticas, y en álgebra lineal en particular, Un mapa lineal (o mapeo lineal) es un tipo de mapa que, transformación lineal, homomorfismo de espacios vectoriales, o en algunos contextos función lineal) es un mapeo V\to W entre dos espacios vectoriales que conserva las operaciones de suma de vectores y multiplicación escalar.
El caso más general de los módulos sobre un anillo utiliza los mismos nombres y definiciones; Busque Homomorfismo de módulos.
Un isomorfismo lineal es una biyección entre dos espacios vectoriales.
En el caso de que {\displaystyle V=W} , Endomorfismo lineal es otro nombre para un mapa.
Esta situación a veces se denomina operador lineal, Sin embargo, hay algunas tradiciones distintas que definen lo que se entiende por la frase operador lineal
. Por ejemplo, se puede usar para enfatizar que V y W son espacios vectoriales reales (no necesariamente con {\displaystyle V=W} ), o se puede usar para enfatizar que V es un espacio de funciones, Esta es una práctica estándar en el análisis funcional.
La función lineal puede significar lo mismo que el mapa lineal en algunos contextos, el análisis muestra que no es así.
Al asignar V a W linealmente, el punto de partida de V siempre se asigna al punto de partida de W. Además, transfiere subespacios lineales de V a W (potencialmente de menor dimensión), como mapear un plano a través del origen en V a un plano a través del origen en W, una línea a través del origen en W, o solo el origen en W. La rotación y la reflexión son dos ejemplos de transformaciones lineales que se pueden representar usando matrices.
Los mapeos lineales son morfismos de espacios vectoriales en la jerga de la teoría de categorías.
Sea V y W sean espacios vectoriales sobre el mismo campo K .
Se dice que una función f:V\to W es una función lineal si para dos vectores cualesquiera {\textstyle \mathbf {u} ,\mathbf {v} \in V} y cualquier escalar {\displaystyle c\in K} se satisfacen las dos condiciones siguientes:
Agregar, o la capacidad de agregar
{\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}Homogeneidad de grado 1 / operación escalar del producto
{\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}Como resultado, decimos que un mapa lineal conserva las operaciones. Para reformular, no hay diferencia si el mapa lineal se aplica antes (lados derecho de las instancias) o después (lados izquierdos de los ejemplos) las operaciones aritméticas y de multiplicación.
Debido a la propiedad conmutativa del signo más (+), para cualquier vector {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} y escalar {\textstyle c_{1},\ldots ,c_{n}\in K,} se cumple la siguiente igualdad:
{\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}Las combinaciones lineales se conservan en un mapa de este tipo, de ahí su nombre.
Denotando los elementos cero de los espacios vectoriales V y W por {\textstyle \mathbf {0} _{V}} y {\textstyle \mathbf {0} _{W}} respectivamente, se deduce que {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Let c=0 y {\textstyle \mathbf {v} \in V} en la ecuación para homogeneidad de grado 1:
{\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}Un mapa lineal {\displaystyle V\to K} visto K como un espacio vectorial unidimensional sobre sí mismo se denomina funcional lineal.
Estas declaraciones se generalizan a cualquier módulo izquierdo {\textstyle {}_{R}M} sobre un anillo R sin modificaciones, e invirtiendo la multiplicación escalar, a cualquier módulo derecho.
Un ejemplo prototípico que da nombre a los mapas lineales es una función {\displaystyle f:\mathbb {R} \to \mathbb {R} :x\mapsto cx} , que toma la forma de una línea que pasa por cero en un gráfico.
De manera más general, cualquier homotecia {\textstyle \mathbf {v} \mapsto c\mathbf {v} }