Teoría de Matrices
De Wikipedia, la enciclopedia libre
La teoría de matrices es un rama de las matemáticas que se centra en el estudio de matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo los temas relacionados con la teoría de grafos, el álgebra, la combinatoria, y la estadística también.
Las matrices ahora se utilizan para múltiples aplicaciones y sirven, en particular, para representar los coeficientes de los sistemas de ecuaciones lineales o para representar las aplicaciones lineales; en este último caso las matrices desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.
Tabla de contenidos |
[editar] Historia
El estudio de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se estudiaron desde hace mucho tiempo. Leibniz, uno de los dos fundadores del análisis, desarrolló la teoría de los determinantes en 1693 para facilitar la Resolución de las ecuaciones lineales. Gabriel Cramer tuvo que profundizar esta teoría, presentando el método de Cramer en 1750. En los años 1800, el método de eliminación de Gauss-Jordan se puso a punto. Fue James Joseph Sylvester quien utilizó por primera vez el término « matriz » en 1850. Cayley, Hamilton, Hermann Grassmann, Frobenius y John von Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las matrices.
En 1925, Werner Heisenberg redescubre el cálculo matricial fundando una primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le considera a este respecto como uno de los padres de la mecánica cuántica.
[editar] Descripción, introducción elemental
Una matriz es un cuadro rectangular de números. Una matriz puede identificarse a una aplicación lineal entre dos espacios vectoriales de dimensión finita. Así la teoría de las matrices habitualmente se considera como una rama del álgebra lineal. Las matrices cuadradas desempeñan un papel particular, porque el conjunto de matrices de orden n (n entero natural no nulo dado) posee propiedades de « estabilidad » de operaciones.
Los conceptos de matriz estocástica y matriz doblemente estocástica son herramientas importantes para estudiar los procesos estocásticos, en probabilidad y en estadística.
Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos de funciones a valores reales, y a varias variables.
Es también importante disponer de una teoría de matrices a coeficientes en un anillo. En particular, las matrices a coeficientes en el anillo de polinomios se utilizan en teoría de mandos.
En matemáticas puras, los anillos de matrices pueden proporcionar un rico campo de contraejemplos para conjeturas matemáticas.
[editar] Matriz y grafos
En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una matriz de permutación es una matriz que representa una permutación; matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en cada línea y cada columna. Estas matrices se utilizan en combinatorio.
En la teoría de grafos, se llama matriz de un grafo a la matriz que indica en la línea i y la columna j el número de aristas que enlazan el vértice i al vértice j. En un grafo no orientado, la matriz es simétrica. La suma de los elementos de una columna permite determinar el grado de un vértice. La matriz Mn indica en la línea i y la columna j el número de caminos a n aristas que adjuntan el vértice i al vértice j.
[editar] Algunos teoremas
[editar] Véase también
- Descomposición de Schur
- Descomposición en valores singulares
- Descomposición QR
- Eliminación de Gauss-Jordan
- Factorización LU
- Forma canónica de Jordan
- Lema de Schur
[editar] Referencias
- Beezer, Rob, Un primer curso en álgebra lineal, licencia bajo GFDL. (En inglés)
- Jim Hefferon: Álgebra lineal (Libros de texto en línea) (En inglés)