Matriz (matemática)
De Wikipedia, la enciclopedia libre
En matemáticas, una matriz es una ordenación rectangular de números, o más generalmente, una tabla consistente en cantidades abstractas que pueden sumarse y multiplicarse.
Tabla de contenidos |
[editar] Definiciones y notaciones
Una matriz es una tabla o arreglo rectangular de numeros. Los numeros en el arreglo se denominan elementos de la matriz.
Las líneas horizontales en una matriz se denominan filas y las líneas verticales se denominan columnas. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n), y m y n son sus dimensiones. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después.
La entrada de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le llama entrada i,j o entrada (i,j)-iésima de A. Esto se escribe como Ai,j o A[i,j].
Normalmente se escribe para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.
[editar] Ejemplo
La matriz
es una matriz 4×3. El elemento A[2,3] o a2,3 es 7.
La matriz
es una matriz 1×9, o un vector fila con 9 elementos.
[editar] Suma de matrices
Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elemetos homologos de las matrices a sumar. Por ejemplo:
[editar] Propiedades de la suma de matrices
- Asociativa
Dadas las matrices m-por-n A, B y C
- A + (B + C) = (A + B) + C
- Conmutativa
Dadas las matrices m-por-n A y B
- A + B = B + A
- Existencia de matriz cero o matriz nula
- A + 0 = 0 + A = A
- Existencia de matriz opuesta
con -A = [-aij]
- A + (-A) = 0
[editar] Producto de una matriz por un escalar
Dada una matriz A y un número c, el producto escalar cA se calcula multiplicando el escalar c por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ). Por ejemplo:
[editar] Propiedades del Producto Escalar
Sean A y B matrices y c y d escalares.
- Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
- Asociatividad: (cd)A = c(dA)
- Elemento Neutro: 1·A = A
- Distributividad:
- De escalar: c(A+B) = cA+cB
- De matriz: (c+d)A = cA+dA
[editar] Producto de matrices
El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m-por-n y B es una matriz n-por-p, entonces su producto matricial AB es la matriz m-por-p (m filas, p columnas) dada por:
para cada par i y j.
Por ejemplo:
El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.
[editar] División de matrices
Es el producto del numerador mutiplicado por la matriz inversa del denominador, es decir A / B = A * B^-1
[editar] Inversa de una matriz
La inversa de una matriz es 1 dividido por el determinante de dicha matriz mutiplicado por sus adjuntos transpuestos.
[editar] Clases de matrices
Algunas matrices presentan características particulares en la posición o en la naturaleza de sus elementos. Muchas de ellas son tan importantes en la teoría y en las aplicaciones, que han recibido denominaciones específicas.
- Matriz antisimétrica
- Matriz de adjuntos
- Matriz banda
- Matriz cuadrada
- Matriz definida positivamente
- Matriz de diagonal estrictamente dominante
- Matriz diagonal
- Matrices elementales
- Matriz hermítica
- Matriz idempotente
- Matriz identidad
- Matriz inversa
- Matriz invertible
- Matriz involutiva
- Matriz jacobiana
- Matriz nilpotente
- Matriz normal
- Matriz nula
- Matriz no singular
- Matriz ortogonal
- Matriz permutación
- Matriz simétrica
- Matriz singular
- Matriz traspuesta
- Matriz triangular (superior o inferior)
[editar] Las matrices en la Computación
Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para manipular información. En este contexto, son la mejor forma para representar grafos, y son muy utilizadas en el cálculo numérico.
[editar] Historia
El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.[1]
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas.[2] En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su publicación por el matemático japonés Seki Kowa en 1683 y el matemático alemán Gottfried Leibniz en 1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).[1]
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX.
El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas. Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que trabajaron sobre la teoría de matrices.
Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno de aeroelasticidad llamado fluttering.
[editar] Notas
- ↑ a b Swaney, Mark. History of Magic Squares.
- ↑ Shen Kangshen et al. (ed.) (1999). Nine Chapters of the Mathematical Art, Companion and Commentary. Oxford University Press. cited by Otto Bretscher (2005). Linear Algebra with Applications, 3rd ed., Prentice-Hall, p. 1.
[editar] Véase también