Contenido Checked

Álgebra lineal

Temas relacionados: Matemáticas

Antecedentes

SOS Children hizo esta selección Wikipedia junto a otros recursos de escuelas . Una rápida conexión para el apadrinamiento de niños es http://www.sponsor-a-child.org.uk/

El álgebra lineal es la rama de las matemáticas relacionadas con el estudio de vectores , espacios vectoriales (también llamados espacios lineales), mapas lineales (también llamados transformaciones lineales), y sistemas de ecuaciones lineales . Los espacios vectoriales son un tema central en las modernas matemáticas ; por lo tanto, lineal álgebra es ampliamente utilizado tanto en álgebra abstracta y análisis funcional. Álgebra lineal también tiene una representación concreta en la geometría analítica y se generaliza en teoría operador. Cuenta con amplias aplicaciones en el ciencias naturales y la ciencias sociales, ya que los modelos no lineales a menudo se puede aproximar por los lineales.

Historia

La historia moderna de álgebra lineal se remonta a la década de 1840. En 1843, William Rowan Hamilton introdujo cuaterniones, que describen la mecánica en el espacio tridimensional. En 1844, Hermann Grassmann publicó su libro Die Lineale Ausdehnungslehre (ver Referencias). Arthur Cayley introdujo matrices , una de las ideas algebraicas lineales más fundamentales, en 1857. A pesar de estos primeros desarrollos, álgebra lineal se ha desarrollado principalmente en el siglo XX.

Matrices se definieron-mal antes del desarrollo de la teoría de anillos dentro de álgebra abstracta . Con la llegada de la relatividad especial , muchos practicantes ganaron el aprecio de las sutilezas del álgebra lineal. Además, la aplicación rutinaria de La regla de Cramer para resolver ecuaciones diferenciales parciales llevó a la inclusión de álgebra lineal en los cursos estándar en las universidades. ET Copson escribió, por ejemplo,

" Cuando fui a Edimburgo como un joven profesor en 1922, me sorprendió encontrar lo diferente que era el plan de estudios de la de Oxford. Incluía temas como la integración de Lebesgue , teoría de matrices , análisis numérico, La geometría de Riemann, de los cuales yo no sabía nada ... "

-ET Copson, Prólogo a las ecuaciones diferenciales parciales, 1973

Francis Galton inició el uso de la correlación de coeficientes en 1888. A menudo, más de una variable aleatoria está en juego y puede ser correlacionado cruz. En el análisis estadístico de variables aleatorias multivariantes la matriz de correlación es una herramienta natural. Así, el estudio estadístico de dichos vectores aleatorios ayudó a establecer el uso de la matriz.

Introducción Primaria

Álgebra lineal tuvo sus inicios en el estudio de los vectores en cartesiana 2-espacio y espacio de 3 dimensiones. Un vector, aquí, se dirige un segmento de línea, que se caracteriza tanto por su magnitud, representada por la longitud, y su dirección. Los vectores pueden ser usados para representar entidades físicas, tales como fuerzas , y pueden ser añadidos el uno al otro y se multiplicaron con escalares, formando así el primer ejemplo de un verdadero espacio vectorial .

Álgebra lineal moderna se ha extendido a considerar espacios de dimensión arbitraria o infinito. Un espacio vectorial de dimensión n se llama n-espacio. La mayoría de los resultados útiles a partir de 2- y 3-espacio puede ampliarse a estos espacios de dimensiones superiores. Aunque la gente no puede visualizar fácilmente los vectores en n-espacio, tales vectores o n -tuplas son útiles en la representación de datos. Desde vectores, como n -tuplas, se ordenan las listas de n componentes, es posible resumir y manipular datos de manera eficiente en este marco. Por ejemplo, en la economía , se puede crear y utilizar, por ejemplo, vectores 8-dimensionales o 8-adas para representar a la Producto Nacional Bruto de 8 países. Uno puede decidir mostrar el PNB de 8 países para un año en particular, donde se especifica el fin de los países, por ejemplo, ( Estados Unidos , Reino Unido , Francia , Alemania , España , India , Japón , Australia ), mediante el uso de un vector (v 1, v 2, v 3, v 4, 5 v, v 6, 7 v, v 8) donde el PNB de cada país está en su posición respectiva.

Un espacio vectorial (o espacio lineal), como un concepto puramente abstracto sobre qué teoremas se demuestran, es parte del álgebra abstracta, y se integra muy bien en esta disciplina. Algunos ejemplos notables de esto son el grupo de mapas o lineales invertibles matrices , y la anillo de mapas lineales de un espacio vectorial. El álgebra lineal también juega una parte importante en el análisis, en particular, en la descripción de derivadas de orden superior en el análisis vectorial y el estudio de productos de tensores y mapas alternos.

En esta configuración abstracta, los escalares con la que un elemento de un espacio vectorial se puede multiplicar no necesitan ser números. El único requisito es que los escalares forman una estructura matemática, llamado campo. En las aplicaciones, este campo es generalmente el campo de los números reales o el campo de los números complejos . Mapas lineales toman elementos de un espacio lineal a otra (o a sí mismo), de una manera que es compatible con la adición y la multiplicación escalar dada en el espacio (s) vector. El conjunto de todas estas transformaciones es en sí mismo un espacio vectorial. Si una base para un espacio vectorial es fijo, cada transformación lineal puede ser representado por una tabla de números de llamada una matriz . El estudio detallado de las propiedades de las y los algoritmos que actúan sobre matrices, incluyendo determinantes y vectores propios , se considera que es parte de álgebra lineal.

Se puede decir, sencillamente, que el problemas lineales de las matemáticas - los que presentan linealidad en su comportamiento - son los más propensos a ser resuelto. Por ejemplo cálculo diferencial hace mucho con aproximación lineal de funciones. La diferencia de problemas no lineales es muy importante en la práctica.

El método general de encontrar una manera lineal para mirar un problema, expresando esto en términos de álgebra lineal, y resolverlo, si procede, de cálculos matriciales, es uno de los más aplicable en general en matemáticas.

Algunos teoremas útiles

  • Cada espacio vectorial tiene una base.
  • Cualquiera de las dos bases del mismo espacio vectorial tienen el mismo cardinalidad; equivalentemente, la dimensión de un espacio vectorial es bien definido.
  • Una matriz es invertible si y sólo si su determinante es distinto de cero.
  • Una matriz es invertible si y sólo si el mapa lineal representado por la matriz es una isomorfismo.
  • Si una matriz cuadrada tiene una inversa izquierda o una inversa derecha entonces es invertible (ver matriz invertible para otras declaraciones equivalentes).
  • Una matriz es semidefinida positiva si y sólo si cada uno de sus valores propios es mayor que o igual a cero.
  • Una matriz es definida positiva si y sólo si cada uno de sus valores propios es mayor que cero.
  • La teorema espectral (respecto matrices diagonalizable).

Generalizaciones y temas relacionados

Desde el álgebra lineal es una teoría exitosa, sus métodos se han desarrollado en otras partes de las matemáticas. En la teoría de un módulo sustituye a la campo de escalares por un anillo. En multilineal álgebra uno considera las transformaciones lineales multivariables, es decir, las asignaciones que son lineales en cada uno de una serie de diferentes variables. Esta línea de investigación nos lleva naturalmente a la idea de la producto de tensor. En la teoría espectral de operadores de control de matrices de dimensión infinita que se adquiera, mediante la aplicación de análisis matemático en la teoría de que no es puramente algebraica. En todos estos casos las dificultades técnicas son mucho mayores.

Nota

  1. ^ La existencia de una base es sencillo para finitamente generado espacios vectoriales, pero en generalidad es lógicamente equivalente a la axioma de elección.
Recuperado de " http://en.wikipedia.org/w/index.php?title=Linear_algebra&oldid=186372401 "