En matemáticas, en particular en álgebra lineal, una matriz cuadrada de orden se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden , llamada matriz inversa de y denotada por si , donde es la matriz identidad de orden y el producto utilizado es el producto de matrices usual.
Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es singular si y sólo si su determinante es nulo. La matriz singular se caracteriza porque su multiplicación por la matriz columna es igual a cero para algún no nulo.
La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.
Dada una matriz de tamaño con determinante no nulo entonces
y esta está definida siempre y cuando . Así por ejemplo la inversa de la matriz
ya que
Dada una matriz de tamaño con determinante no nulo:
Sea una matriz de rango máximo
donde es el determinante de y es la matriz de adjuntos de , entendida como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de entender el término adjunto en el artículo matriz de adjuntos).
Supongamos que y son inversas de
Multiplicando ambas relaciones por
De modo que y se prueba que la inversa es única.
Se probará la doble implicación.
Suponiendo que existe tal que . Entonces al aplicar la función determinante se obtiene
usando la propiedad
Por lo tanto, es distinto de cero.
Suponiendo que el determinante de es distinto de cero, sea es el elemento ij de la matriz y sea la matriz sin la fila y la columna (comúnmente conocida como -ésimo menor de A). Entonces
Sea , entonces
Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda de la relación es el determinante de la matriz con la columna igual a la columna y los demás términos iguales a los de . Entonces
donde cuando y cuando . Entonces
Es decir que tiene inversa izquierda
Como , entonces también tiene inversa izquierda que es
Entonces
luego, aplicando la transpuesta
Que es lo que se quería demostrar
Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:
Esto es posible siempre y cuando , es decir, el determinante de la matriz no es cero.
Ejemplo numérico:
Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:
Donde es el determinante de y es la matriz de adjuntos de .
Cuando la matriz tiene más de tres filas, esta fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.
El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.
El conjunto de todas las matrices que admiten inversa se denota es una representación lineal del grupo lineal de orden n, denotado como . Este grupo tiene importantes aplicaciones en álgebra y física. Además es un conjunto abierto (con la topología inducida de ).
Escribe un comentario o lo que quieras sobre Matriz invertible (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)