Cómo encontrar la inversa de un producto matricial. Cómo encontrar la inversa de una matriz

Una matriz A -1 se llama matriz inversa con respecto a una matriz A si A * A -1 = E, donde E es la matriz unitaria de n-ésimo orden. Una matriz inversa solo puede existir para matrices cuadradas.

Propósito del servicio... Con la ayuda de este servicio en línea, puede encontrar complementos algebraicos, matriz transpuesta A T, matriz adjunta y matriz inversa. La solución se realiza directamente en el sitio web (online) y es gratuita. Los resultados del cálculo se presentan en un informe en formato Word y en formato Excel (es decir, es posible verificar la solución). ver ejemplo de diseño.

Instrucción. Para obtener una solución, es necesario establecer la dimensión de la matriz. A continuación, en un nuevo cuadro de diálogo, complete la matriz A.

Véase también Matriz inversa utilizando el método de Jordan-Gauss.

Algoritmo para encontrar la matriz inversa

  1. Encontrar la matriz transpuesta A T.
  2. Definición de complementos algebraicos. Reemplaza cada elemento de la matriz con su complemento algebraico.
  3. Redacción matriz inversa a partir de adiciones algebraicas: cada elemento de la matriz resultante se divide por el determinante de la matriz original. La matriz resultante es la inversa de la matriz original.
próximo algoritmo de matriz inversa es similar al anterior, excepto por algunos pasos: primero se calculan los complementos algebraicos y luego se determina la matriz adjunta C.
  1. Determina si la matriz es cuadrada. Si no es así, entonces no existe una matriz inversa para ello.
  2. Cálculo del determinante de la matriz A. Si no es igual a cero, continuamos la solución; de lo contrario, la matriz inversa no existe.
  3. Definición de complementos algebraicos.
  4. Llenado de la matriz de unión (recíproca, adjunta) C.
  5. Composición de una matriz inversa a partir de complementos algebraicos: cada elemento de la matriz adjunta C se divide por el determinante de la matriz original. La matriz resultante es la inversa de la matriz original.
  6. Se realiza una comprobación: se multiplican las matrices original y resultante. El resultado debería ser la matriz de identidad.

Ejemplo 1. Escribamos la matriz de la siguiente manera:

Complementos algebraicos. ∆ 1,2 = - (2 4 - (- 2 (-2))) = -4 ∆ 2,1 = - (2 4-5 3) = 7 ∆ 2,3 = - (- 1 5 - (- 2 2)) = 1 ∆ 3,2 = - (- 1 (-2) -2 3) = 4
A -1 =
0,6 -0,4 0,8
0,7 0,2 0,1
-0,1 0,4 -0,3

Otro algoritmo para encontrar la matriz inversa.

Démosle otro esquema para encontrar la matriz inversa.
  1. Encuentre el determinante de la matriz cuadrada dada A.
  2. Encuentre los complementos algebraicos de todos los elementos de la matriz A.
  3. Escribimos los complementos algebraicos de los elementos de fila en columnas (transposición).
  4. Dividimos cada elemento de la matriz resultante por el determinante de la matriz A.
Como ves, la operación de transposición se puede aplicar tanto al inicio, sobre la matriz original, como al final, sobre los complementos algebraicos obtenidos.

Un caso especial: La inversa de la matriz identidad E es la matriz identidad E.

Sea una matriz cuadrada de enésimo orden

La matriz A -1 se llama matriz inversa con respecto a la matriz A, si A * A -1 = E, donde E es la matriz identidad de n-ésimo orden.

Matriz unitaria- una matriz cuadrada de este tipo, en la que todos los elementos de la diagonal principal que pasan de la esquina superior izquierda a la esquina inferior derecha son unos, y el resto son ceros, por ejemplo:

matriz inversa puede existir solo para matrices cuadradas aquellos. para aquellas matrices con el mismo número de filas y columnas.

El teorema sobre la condición de existencia de una matriz inversa

Para que una matriz tenga una matriz inversa, es necesario y suficiente que no sea degenerada.

La matriz A = (A1, A2, ... A n) se llama no degenerado si los vectores columna son linealmente independientes. El número de vectores columna linealmente independientes de una matriz se denomina rango de la matriz. Por tanto, podemos decir que para que exista una matriz inversa es necesario y suficiente que el rango de la matriz sea igual a su dimensión, es decir r = n.

Algoritmo para encontrar la matriz inversa

  1. Escriba la matriz A en la tabla para resolver sistemas de ecuaciones por el método de Gauss y a la derecha (en lugar de los lados derechos de las ecuaciones) asigne la matriz E.
  2. Usando la transformada de Jordan, reduzca la matriz A a una matriz que consta de columnas unitarias; en este caso, es necesario transformar simultáneamente la matriz E.
  3. Si es necesario, reorganice las filas (ecuaciones) de la última tabla para que debajo de la matriz A de la tabla original obtengamos la matriz unitaria E.
  4. Escribe la matriz inversa A -1, que está en la última tabla debajo de la matriz E de la tabla original.
Ejemplo 1

Para la matriz A, encuentre la matriz inversa A -1

Solución: Escribimos la matriz A ya la derecha asignamos la matriz identidad E. Usando las transformaciones de Jordan, reducimos la matriz A a la matriz identidad E. Los cálculos se muestran en la tabla 31.1.

Comprobemos la exactitud de los cálculos multiplicando la matriz A original y la matriz inversa A -1.

Como resultado de la multiplicación de matrices, se obtiene la matriz unitaria. Por tanto, los cálculos son correctos.

Respuesta:

Resolver ecuaciones matriciales

Las ecuaciones matriciales pueden tener la forma:

AX = B, XA = B, AXB = C,

donde A, B, C son las matrices especificadas, X es la matriz requerida.

Las ecuaciones matriciales se resuelven multiplicando la ecuación por sus matrices inversas.

Por ejemplo, para encontrar una matriz a partir de una ecuación, multiplica esa ecuación por la izquierda.

Por lo tanto, para encontrar una solución a la ecuación, necesitas encontrar la matriz inversa y multiplicarla por la matriz en el lado derecho de la ecuación.

Otras ecuaciones se resuelven de manera similar.

Ejemplo 2

Resuelve la ecuación AX = B si

Solución: Dado que la inversa de la matriz es (ver ejemplo 1)

Método matricial en análisis económico

Junto con otros, también encuentran aplicación en métodos de matriz... Estos métodos se basan en álgebra lineal y matricial vectorial. Estos métodos se utilizan para analizar fenómenos económicos complejos y multidimensionales. Muy a menudo, estos métodos se utilizan cuando es necesario realizar una evaluación comparativa del funcionamiento de las organizaciones y sus unidades estructurales.

En el proceso de aplicación de métodos de análisis matriciales, se pueden distinguir varias etapas.

En la primera etapa Se forma un sistema de indicadores económicos y sobre su base se compila una matriz de datos iniciales, que es una tabla en la que los números del sistema se muestran en sus líneas separadas. (i = 1,2, ...., n), y a lo largo de las columnas verticales - el número de indicadores (j = 1,2, ...., m).

En la segunda etapa para cada columna vertical, se revela el mayor de los valores disponibles de los indicadores, que se toma como una unidad.

Después de eso, todas las cantidades reflejadas en esta columna se dividen por mayor valor y se genera una matriz de coeficientes estandarizados.

En la tercera etapa todas las partes constituyentes de la matriz están al cuadrado. Si tienen un significado diferente, entonces a cada indicador de la matriz se le asigna un cierto factor de ponderación. k... El valor de este último se determina mediante juicio de expertos.

En el último, cuarta etapa valores encontrados calificaciones R j se agrupan en orden creciente o decreciente.

Los métodos de matriz anteriores deben usarse, por ejemplo, cuando análisis comparativo diversos proyectos de inversión, así como a la hora de evaluar otros indicadores económicos de las organizaciones.

Álgebra de matrices - Matriz inversa

matriz inversa

Matriz inversa se llama matriz que, cuando se multiplica tanto a la derecha como a la izquierda por una matriz dada, da la matriz identidad.
Denotemos la matriz inversa a la matriz A a través, entonces, de acuerdo con la definición, obtenemos:

dónde mi Es la matriz de identidad.
Matriz cuadrada llamado no singular (no degenerado) si su determinante no es cero. De lo contrario, se llama especial (degenerar) o singular.

Se cumple el siguiente teorema: toda matriz no singular tiene una inversa.

La operación de encontrar la matriz inversa se llama apelación matrices. Considere el algoritmo de inversión de matrices. Que se dé una matriz no singular norte-ésimo orden:

donde Δ = det A ≠ 0.

Complemento algebraico de un elemento matrices norte-ésimo orden A el determinante de la matriz ( norte–1) el orden obtenido al eliminar I-th línea y j a columna de la matriz A:

Compongamos el llamado adjunto matriz:

donde están los complementos algebraicos de los elementos correspondientes de la matriz A.
Tenga en cuenta que los complementos algebraicos de los elementos de las filas de la matriz A se colocan en las columnas correspondientes de la matriz à , es decir, la matriz se transpone al mismo tiempo.
Dividiendo todos los elementos de la matriz à por Δ - el valor del determinante de la matriz A, obtenemos la matriz inversa como resultado:

Observamos una serie de propiedades especiales de la matriz inversa:
1) para una matriz dada A su matriz inversa es el único;
2) si hay una matriz inversa, entonces reversa derecha y marcha atrás a la izquierda las matrices coinciden con él;
3) una matriz cuadrada especial (degenerada) no tiene una matriz inversa.

Las principales propiedades de la matriz inversa:
1) el determinante de la matriz inversa y el determinante de la matriz original son valores recíprocos;
2) la matriz inversa del producto de matrices cuadradas es igual al producto de matrices inversas de factores, tomado en orden inverso:

3) la inversa transpuesta de la matriz es igual a la inversa de la matriz transpuesta dada:

EJEMPLO Calcula la inversa de la matriz dada.

Este tema es uno de los más odiados entre los estudiantes. Probablemente sólo los determinantes sean peores.

El truco es que el concepto mismo de elemento inverso (y no estoy hablando solo de matrices ahora) nos remite a la operación de multiplicación. Incluso en currículum escolar la multiplicación se considera una operación compleja, y la multiplicación de matrices generalmente es un tema separado, al que tengo un párrafo completo y un video tutorial dedicado.

Hoy no entraremos en los detalles de los cálculos matriciales. Solo recuerda: cómo se denotan las matrices, cómo se multiplican y qué se sigue de esto.

Repetición: multiplicación de matrices

Primero que nada, pongámonos de acuerdo con la notación. Una matriz $ A $ de tamaño $ \ left [m \ times n \ right] $ es simplemente una tabla de números, en la que hay exactamente $ m $ filas y $ n $ columnas:

\ = \ underbrace (\ left [\ begin (matrix) ((a) _ (11)) & ((a) _ (12)) & ... & ((a) _ (1n)) \\ (( a) _ (21)) & ((a) _ (22)) & ... & ((a) _ (2n)) \\ ... & ... & ... & ... \\ ((a) _ (m1)) & ((a) _ (m2)) & ... & ((a) _ (mn)) \\\ end (matrix) \ right]) _ (n) \]

Para no confundir accidentalmente filas y columnas en algunos lugares (créame, puede mezclar un 1 con un 2 en el examen, ¿qué podemos decir sobre algunas líneas allí?), Solo eche un vistazo a la imagen:

Determinación de índices para celdas de matriz.

¿Qué esta pasando? Si colocamos el sistema de coordenadas estándar $ OXY $ en la esquina superior izquierda y dirigimos los ejes para que cubran toda la matriz, entonces cada celda de esta matriz se puede asociar de forma única con las coordenadas $ \ left (x; y \ right) $: este será el número de fila y el número de columna.

¿Por qué el sistema de coordenadas está ubicado en la esquina superior izquierda? Porque es a partir de ahí que comenzamos a leer los textos. Es muy fácil de recordar.

¿Por qué el eje $ x $ está dirigido hacia abajo y no hacia la derecha? Nuevamente, todo es simple: tome el sistema de coordenadas estándar (el eje $ x $ va hacia la derecha, el eje $ y $ sube) y gírelo para que encierre la matriz. Esta es una rotación de 90 grados en el sentido de las agujas del reloj; podemos ver su resultado en la imagen.

En general, descubrimos cómo determinar los índices de los elementos de la matriz. Ahora tratemos con la multiplicación.

Definición. Matrices $ A = \ left [m \ times n \ right] $ y $ B = \ left [n \ times k \ right] $, cuando el número de columnas en la primera es el mismo que el número de filas en la segunda , se llaman consistentes.

En ese orden. Puede dudar y decir, dicen, que las matrices $ A $ y $ B $ forman un par ordenado $ \ left (A; B \ right) $: si son consistentes en este orden, entonces es completamente innecesario que $ B $ y $ A $, esos. el par $ \ left (B; A \ right) $ también es consistente.

Solo se pueden multiplicar matrices emparejadas.

Definición. El producto de matrices emparejadas $ A = \ left [m \ times n \ right] $ y $ B = \ left [n \ times k \ right] $ es una nueva matriz $ C = \ left [m \ times k \ right ] $, ​​cuyos elementos $ ((c) _ (ij)) $ se calculan mediante la fórmula:

\ [((c) _ (ij)) = \ sum \ limits_ (k = 1) ^ (n) (((a) _ (ik))) \ cdot ((b) _ (kj)) \]

En otras palabras: para obtener el elemento $ ((c) _ (ij)) $ de la matriz $ C = A \ cdot B $, necesitas tomar la fila $ i $ de la primera matriz, la $ j $ -ésima columna de la segunda matriz, y luego multiplique en pares los elementos de esta fila y columna. Sume los resultados.

Sí, esa es una definición tan dura. Varios hechos se siguen inmediatamente de él:

  1. La multiplicación de matrices, en términos generales, no es conmutativa: $ A \ cdot B \ ne B \ cdot A $;
  2. Sin embargo, la multiplicación es asociativa: $ \ left (A \ cdot B \ right) \ cdot C = A \ cdot \ left (B \ cdot C \ right) $;
  3. E incluso distributivamente: $ \ left (A + B \ right) \ cdot C = A \ cdot C + B \ cdot C $;
  4. Y de nuevo distributivamente: $ A \ cdot \ left (B + C \ right) = A \ cdot B + A \ cdot C $.

La distributividad de la multiplicación tuvo que describirse por separado para la suma del multiplicador izquierda y derecha simplemente debido a la no conmutatividad de la operación de multiplicación.

Sin embargo, si resulta que $ A \ cdot B = B \ cdot A $, dichas matrices se denominan matrices de permutación.

Entre todas las matrices que se multiplican allí por algo, hay algunas especiales, aquellas que, cuando se multiplican por cualquier matriz $ A $, vuelven a dar $ A $:

Definición. La matriz $ E $ se llama identidad si $ A \ cdot E = A $ o $ E \ cdot A = A $. En el caso de una matriz cuadrada $ A $, podemos escribir:

La matriz unitaria es un invitado frecuente al resolver ecuaciones matriciales. Y, en general, un visitante frecuente del mundo de las matrices. :)

Y también debido a este $ E $, a alguien se le ocurrió todo el juego que se escribirá a continuación.

¿Qué es la matriz inversa?

Dado que la multiplicación de matrices es una operación que consume mucho tiempo (tienes que multiplicar un montón de filas y columnas), el concepto de matriz inversa tampoco es el más trivial. Y requiriendo alguna explicación.

Definición clave

Bueno, es hora de conocer la verdad.

Definición. La matriz $ B $ se llama inversa a la matriz $ A $ si

La matriz inversa se denota con $ ((A) ^ (- 1)) $ (¡no confundir con el grado!), Por lo que la definición se puede reescribir de la siguiente manera:

Parecería que todo es extremadamente simple y claro. Pero al analizar tal definición, surgen inmediatamente varias preguntas:

  1. ¿Existe siempre una matriz inversa? Y si no siempre, entonces cómo determinar: ¿cuándo existe y cuándo no?
  2. ¿Y quién dijo que existe exactamente una matriz de este tipo? ¿Qué pasa si para alguna matriz inicial $ A $ hay toda una multitud de matrices inversas?
  3. ¿Cómo se ven todos estos revés? ¿Y cómo, de hecho, deben contarse?

En cuanto a los algoritmos de cálculo, hablaremos de esto un poco más adelante. Pero responderemos el resto de preguntas ahora mismo. Formémoslos en forma de enunciados-lemas separados.

Propiedades básicas

Comencemos con el aspecto que debería tener la matriz $ A $, de modo que $ ((A) ^ (- 1)) $ exista para ella. Ahora nos aseguraremos de que ambas matrices sean cuadradas y del mismo tamaño: $ \ left [n \ times n \ right] $.

Lema 1. Dada una matriz $ A $ y su inversa $ ((A) ^ (- 1)) $. Entonces ambas matrices son cuadradas, con el mismo orden $ n $.

Prueba. Es simple. Sea la matriz $ A = \ left [m \ times n \ right] $, $ ((A) ^ (- 1)) = \ left [a \ times b \ right] $. Dado que el producto $ A \ cdot ((A) ^ (- 1)) = E $ existe por definición, las matrices $ A $ y $ ((A) ^ (- 1)) $ son consistentes en el orden indicado:

\ [\ begin (align) & \ left [m \ times n \ right] \ cdot \ left [a \ times b \ right] = \ left [m \ times b \ right] \\ & n = a \ end ( alinear) \]

Esta es una consecuencia directa del algoritmo de multiplicación de matrices: los coeficientes $ n $ y $ a $ son "transitorios" y deben ser iguales.

Al mismo tiempo, también se define la multiplicación inversa: $ ((A) ^ (- 1)) \ cdot A = E $, por lo que las matrices $ ((A) ^ (- 1)) $ y $ A $ son también coinciden en el orden indicado:

\ [\ begin (align) & \ left [a \ times b \ right] \ cdot \ left [m \ times n \ right] = \ left [a \ times n \ right] \\ & b = m \ end ( alinear) \]

Por lo tanto, sin pérdida de generalidad, podemos suponer que $ A = \ left [m \ times n \ right] $, $ ((A) ^ (- 1)) = \ left [n \ times m \ right] $. Sin embargo, de acuerdo con la definición, $ A \ cdot ((A) ^ (- 1)) = ((A) ^ (- 1)) \ cdot A $, por lo que los tamaños de las matrices son estrictamente los mismos:

\ [\ begin (align) & \ left [m \ times n \ right] = \ left [n \ times m \ right] \\ & m = n \ end (align) \]

Entonces resulta que las tres matrices - $ A $, $ ((A) ^ (- 1)) $ y $ E $ - son tamaños cuadrados $ \ left [n \ times n \ right] $. El lema está probado.

Bueno, eso ya no está mal. Vemos que solo las matrices cuadradas son reversibles. Ahora asegurémonos de que la inversa sea siempre la misma.

Lema 2. Dada una matriz $ A $ y su inversa $ ((A) ^ (- 1)) $. Entonces esta inversa es la única.

Prueba. Vayamos por el contrario: dejemos que la matriz $ A $ tenga al menos dos copias de la inversa - $ B $ y $ C $. Entonces, de acuerdo con la definición, las siguientes igualdades son verdaderas:

\ [\ begin (align) & A \ cdot B = B \ cdot A = E; \\ & A \ cdot C = C \ cdot A = E. \\ \ end (alinear) \]

Del Lema 1 concluimos que las cuatro matrices - $ A $, $ B $, $ C $ y $ E $ - son cuadrados del mismo orden: $ \ left [n \ times n \ right] $. Por tanto, el producto se define:

Dado que la multiplicación de matrices es asociativa (¡pero no conmutativa!), Podemos escribir:

\ [\ begin (align) & B \ cdot A \ cdot C = \ left (B \ cdot A \ right) \ cdot C = E \ cdot C = C; \\ & B \ cdot A \ cdot C = B \ cdot \ left (A \ cdot C \ right) = B \ cdot E = B; \\ & B \ cdot A \ cdot C = C = B \ Flecha derecha B = C. \\ \ end (alinear) \]

Tengo la única cosa posible variante: dos instancias de la matriz inversa son iguales. El lema está probado.

El razonamiento anterior repite casi palabra por palabra la prueba de la unicidad del inverso para todos los números reales $ b \ ne 0 $. La única adición esencial es tener en cuenta la dimensión de las matrices.

Sin embargo, todavía no sabemos nada sobre si alguna matriz cuadrada es invertible. Aquí el determinante viene en nuestra ayuda: esta es una característica clave para todas las matrices cuadradas.

Lema 3. Se le da una matriz $ A $. Si su matriz inversa $ ((A) ^ (- 1)) $ existe, entonces el determinante de la matriz original es distinto de cero:

\ [\ left | A \ right | \ ne 0 \]

Prueba. Ya sabemos que $ A $ y $ ((A) ^ (- 1)) $ son matrices cuadradas de tamaño $ \ left [n \ times n \ right] $. Por lo tanto, para cada uno de ellos, puede calcular el determinante: $ \ left | A \ right | $ y $ \ left | ((A) ^ (- 1)) \ derecha | $. Sin embargo, el determinante del producto es igual al producto de los determinantes:

\ [\ left | A \ cdot B \ right | = \ left | A \ derecha | \ cdot \ izquierda | B \ right | \ Rightarrow \ left | A \ cdot ((A) ^ (- 1)) \ right | = \ left | A \ derecha | \ cdot \ izquierda | ((A) ^ (- 1)) \ derecha | \]

Pero de acuerdo con la definición $ A \ cdot ((A) ^ (- 1)) = E $, y el determinante de $ E $ es siempre 1, por lo tanto

\ [\ begin (align) & A \ cdot ((A) ^ (- 1)) = E; \\ & \ left | A \ cdot ((A) ^ (- 1)) \ right | = \ left | E \ right |; \\ & \ left | A \ derecha | \ cdot \ izquierda | ((A) ^ (- 1)) \ derecha | = 1. \\ \ end (alinear) \]

El producto de dos números es igual a uno solo si cada uno de estos números es distinto de cero:

\ [\ left | A \ right | \ ne 0; \ quad \ left | ((A) ^ (- 1)) \ right | \ ne 0. \]

Entonces resulta que $ \ left | A \ right | \ ne 0 $. El lema está probado.

De hecho, este requisito es bastante lógico. Ahora analizaremos el algoritmo para encontrar la matriz inversa, y quedará bastante claro por qué, con un determinante cero, no puede existir una matriz inversa, en principio.

Pero primero, formulemos una definición "auxiliar":

Definición. Una matriz degenerada es una matriz cuadrada de tamaño $ \ left [n \ times n \ right] $, cuyo determinante es cero.

Por tanto, podemos afirmar que toda matriz invertible no es degenerada.

Cómo encontrar la inversa de una matriz

Ahora consideraremos un algoritmo universal para encontrar matrices inversas. En general, hay dos algoritmos generalmente aceptados, y hoy también consideraremos el segundo.

El que se discutirá ahora es muy eficiente para matrices de tamaño $ \ left [2 \ times 2 \ right] $ y - parcialmente - de tamaño $ \ left [3 \ times 3 \ right] $. Pero a partir del tamaño $ \ left [4 \ times 4 \ right] $ es mejor no usarlo. Por qué, ahora usted mismo comprenderá todo.

Complementos algebraicos

Prepararse. Habrá dolor ahora. No, no te preocupes: una hermosa enfermera con falda, medias con cordones y no te pondrá una inyección en el glúteo. Todo es mucho más prosaico: las adiciones algebraicas y Su Majestad "Union Matrix" están llegando a ustedes.

Empecemos por lo principal. Sea una matriz cuadrada de tamaño $ A = \ left [n \ times n \ right] $, cuyos elementos se denominan $ ((a) _ (ij)) $. Entonces, para cada uno de estos elementos, se puede definir un complemento algebraico:

Definición. Complemento algebraico $ ((A) _ (ij)) $ al elemento $ ((a) _ (ij)) $ ubicado en la $ i $ -ésima fila y $ j $ -ésima columna de la matriz $ A = \ left [n \ times n \ right] $ es una construcción de la forma

\ [((A) _ (ij)) = ((\ left (-1 \ right)) ^ (i + j)) \ cdot M_ (ij) ^ (*) \]

Donde $ M_ (ij) ^ (*) $ es el determinante de la matriz obtenida del $ A $ original al eliminar la misma fila $ i $ -ésima y $ j $ -ésima columna.

De nuevo. El complemento algebraico del elemento de la matriz con coordenadas $ \ left (i; j \ right) $ se denota como $ ((A) _ (ij)) $ y se calcula de acuerdo con el esquema:

  1. Primero, elimine la línea $ i $ y la columna $ j $ -ésima de la matriz original. Obtenemos una nueva matriz cuadrada y denotamos su determinante como $ M_ (ij) ^ (*) $.
  2. Luego multiplicamos este determinante por $ ((\ left (-1 \ right)) ^ (i + j)) $ - al principio esta expresión puede parecer aburrida, pero de hecho estamos descubriendo el signo delante de $ M_ (ij) ^ (*) $.
  3. Contamos, obtenemos un número específico. Aquellos. el complemento algebraico es exactamente un número, no una nueva matriz, etc.

La matriz $ M_ (ij) ^ (*) $ en sí misma se llama la complementaria menor del elemento $ ((a) _ (ij)) $. Y en este sentido, la definición anterior de un complemento algebraico es un caso especial de una definición más compleja, lo que consideramos en la lección sobre el determinante.

Nota IMPORTANTE. Generalmente, en matemáticas para "adultos", las adiciones algebraicas se definen de la siguiente manera:

  1. Tomamos $ k $ filas y $ k $ columnas en una matriz cuadrada. En su intersección, obtenemos una matriz de tamaño $ \ left [k \ times k \ right] $ - su determinante se llama menor de orden $ k $ y se denota por $ ((M) _ (k)) $.
  2. Luego tachamos estas líneas $ k $ "favoritas" y columnas $ k $. Nuevamente, obtenemos una matriz cuadrada: su determinante se llama complementario menor y se denota $ M_ (k) ^ (*) $.
  3. Multiplica $ M_ (k) ^ (*) $ por $ ((\ left (-1 \ right)) ^ (t)) $, donde $ t $ es (¡ahora atención!) La suma de los números de todas las líneas seleccionadas y columnas ... Esta será la suma algebraica.

Eche un vistazo al tercer paso: ¡en realidad existe la suma de términos de $ 2k $! Otra cosa es que para $ k = 1 $ obtenemos solo 2 términos - estos son los mismos $ i + j $ - "coordenadas" del elemento $ ((a) _ (ij)) $, que estamos buscando un complemento algebraico.

Por lo tanto, hoy usamos una definición ligeramente simplificada. Pero como veremos más adelante, será más que suficiente. Lo siguiente es mucho más importante:

Definición. La matriz adjunta $ S $ a la matriz cuadrada $ A = \ left [n \ times n \ right] $ es una nueva matriz de tamaño $ \ left [n \ times n \ right] $, que se obtiene de $ A $ reemplazando $ ((a) _ (ij)) $ con complementos algebraicos $ ((A) _ (ij)) $:

\\ Flecha derecha S = \ izquierda [\ begin (matriz) ((A) _ (11)) & ((A) _ (12)) & ... & ((A) _ (1n)) \\ (( A) _ (21)) & ((A) _ (22)) & ... & ((A) _ (2n)) \\ ... & ... & ... & ... \\ ((A) _ (n1)) & ((A) _ (n2)) & ... & ((A) _ (nn)) \\\ end (matriz) \ derecha] \]

El primer pensamiento que surge al momento de darse cuenta de esta definición es "¡esto es lo que tienes que contar!" Relájate: tendrás que contar, pero no tanto. :)

Bueno, todo esto está muy bien, pero ¿por qué es necesario? Este es el por qué.

El teorema principal

Retrocedamos un poco. Recuerde, en el Lema 3 se estableció que una matriz invertible $ A $ siempre es no degenerada (es decir, su determinante es distinto de cero: $ \ left | A \ right | \ ne 0 $).

Entonces, lo contrario también es cierto: si la matriz $ A $ no está degenerada, entonces siempre es invertible. E incluso hay un esquema de búsqueda $ ((A) ^ (- 1)) $. Echale un vistazo:

El teorema de la matriz inversa. Sea una matriz cuadrada $ A = \ left [n \ times n \ right] $, y su determinante es distinto de cero: $ \ left | A \ right | \ ne 0 $. Entonces, la matriz inversa $ ((A) ^ (- 1)) $ existe y se calcula mediante la fórmula:

\ [((A) ^ (- 1)) = \ frac (1) (\ izquierda | A \ derecha |) \ cdot ((S) ^ (T)) \]

Y ahora, todo es igual, pero con letra legible. Para encontrar la inversa de una matriz, necesita:

  1. Calcule el determinante $ \ left | A \ right | $ y asegúrese de que sea distinto de cero.
  2. Construya la matriz de unión $ S $, es decir cuente 100500 complementos algebraicos $ ((A) _ (ij)) $ y colóquelos en lugar de $ ((a) _ (ij)) $.
  3. Transponga esta matriz $ S $ y luego multiplíquela por algún número $ q = (1) / (\ left | A \ right |) \; $.

¡Y eso es! Se encuentra la matriz inversa $ ((A) ^ (- 1)) $. Echemos un vistazo a ejemplos:

\ [\ left [\ begin (matrix) 3 & 1 \\ 5 & 2 \\\ end (matrix) \ right] \]

Solución. Comprobemos la reversibilidad. Calculemos el determinante:

\ [\ left | A \ derecha | = \ izquierda | \ begin (matriz) 3 & 1 \\ 5 & 2 \\\ end (matriz) \ right | = 3 \ cdot 2-1 \ cdot 5 = 6-5 = 1 \]

El determinante es distinto de cero. Por tanto, la matriz es invertible. Compongamos la matriz de unión:

Contamos las adiciones algebraicas:

\ [\ begin (align) & ((A) _ (11)) = ((\ left (-1 \ right)) ^ (1 + 1)) \ cdot \ left | 2 \ right | = 2; \\ & ((A) _ (12)) = ((\ left (-1 \ right)) ^ (1 + 2)) \ cdot \ left | 5 \ right | = -5; \\ & ((A) _ (21)) = ((\ left (-1 \ right)) ^ (2 + 1)) \ cdot \ left | 1 \ right | = -1; \\ & ((A) _ (22)) = ((\ left (-1 \ right)) ^ (2 + 2)) \ cdot \ left | 3 \ derecha | = 3. \\ \ end (alinear) \]

Tenga en cuenta: determinantes | 2 |, | 5 |, | 1 | y | 3 | - estos son los determinantes de matrices de tamaño $ \ left [1 \ times 1 \ right] $, no módulos. Aquellos. si los calificadores incluyeron números negativos, no es necesario quitar el "menos".

En total, nuestra matriz de unión se ve así:

\ [((A) ^ (- 1)) = \ frac (1) (\ izquierda | A \ derecha |) \ cdot ((S) ^ (T)) = \ frac (1) (1) \ cdot ( (\ left [\ begin (array) (* (35) (r)) 2 & -5 \\ -1 & 3 \\\ end (array) \ right]) ^ (T)) = \ left [\ begin (matriz) (* (35) (r)) 2 y -1 \\ -5 y 3 \\\ end (matriz) \ derecha] \]

Así que eso es todo. El problema ha sido resuelto.

Respuesta. $ \ left [\ begin (array) (* (35) (r)) 2 & -1 \\ -5 & 3 \\\ end (array) \ right] $

Tarea. Encuentra la inversa de la matriz:

\ [\ left [\ begin (array) (* (35) (r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\ end (array) \ right] \]

Solución. Nuevamente consideramos el determinante:

\ [\ begin (align) & \ left | \ begin (matriz) (* (35) (r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\ end (matriz) \ right | = \ begin (matriz ) \ left (1 \ cdot 2 \ cdot 1+ \ left (-1 \ right) \ cdot \ left (-1 \ right) \ cdot 1 + 2 \ cdot 0 \ cdot 0 \ right) - \\ - \ left (2 \ cdot 2 \ cdot 1+ \ left (-1 \ right) \ cdot 0 \ cdot 1 + 1 \ cdot \ left (-1 \ right) \ cdot 0 \ right) \\\ end (matriz) = \ \ & = \ left (2 + 1 + 0 \ right) - \ left (4 + 0 + 0 \ right) = - 1 \ ne 0. \\ \ end (align) \]

El determinante es distinto de cero: la matriz es invertible. Pero ahora habrá lo más difícil: tienes que contar hasta 9 (¡nueve, su madre!) Sumas algebraicas. Y cada uno de ellos contendrá el calificador $ \ left [2 \ times 2 \ right] $. Voló:

\ [\ begin (matriz) ((A) _ (11)) = ((\ left (-1 \ right)) ^ (1 + 1)) \ cdot \ left | \ begin (matriz) 2 & -1 \\ 0 & 1 \\\ end (matriz) \ right | = 2; \\ ((A) _ (12)) = ((\ left (-1 \ right)) ^ (1 + 2)) \ cdot \ left | \ begin (matriz) 0 & -1 \\ 1 & 1 \\\ end (matriz) \ right | = -1; \\ ((A) _ (13)) = ((\ left (-1 \ right)) ^ (1 + 3)) \ cdot \ left | \ begin (matriz) 0 & 2 \\ 1 & 0 \\\ end (matriz) \ right | = -2; \\ ... \\ ((A) _ (33)) = ((\ left (-1 \ right)) ^ (3 + 3)) \ cdot \ left | \ begin (matriz) 1 & -1 \\ 0 & 2 \\\ end (matriz) \ right | = 2; \\ \ end (matriz) \]

En resumen, la matriz aliada se verá así:

Por tanto, la inversa de la matriz será así:

\ [((A) ^ (- 1)) = \ frac (1) (- 1) \ cdot \ left [\ begin (matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\ end (matriz) \ right] = \ left [\ begin (array) (* (35) (r)) - 2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\ end (matriz) \ right] \]

Bueno eso es todo. Esta es la respuesta.

Respuesta. $ \ left [\ begin (array) (* (35) (r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\ end (array) \ right PS

Como puede ver, al final de cada ejemplo, realizamos una verificación. En este sentido, una nota importante:

No seas perezoso para comprobarlo. Multiplique la matriz original por la inversa encontrada; debería obtener $ E $.

Es mucho más fácil y rápido realizar esta verificación que buscar un error en cálculos posteriores, cuando, por ejemplo, está resolviendo una ecuación matricial.

Manera alternativa

Como dije, el teorema de la matriz inversa funciona muy bien para los tamaños $ \ left [2 \ times 2 \ right] $ y $ \ left [3 \ times 3 \ right] $ (en el último caso- no es tan "fina"), pero para matrices grandes, comienza la tristeza.

Pero no se preocupe: existe un algoritmo alternativo, con el que puede encontrar tranquilamente la inversa incluso para la matriz $ \ left [10 \ times 10 \ right] $. Pero, como suele ser el caso, para considerar este algoritmo, necesitamos un poco de base teórica.

Transformaciones elementales

Entre las diversas transformaciones de la matriz, hay varias especiales: se llaman elementales. Hay exactamente tres transformaciones de este tipo:

  1. Multiplicación. Puede tomar la $ i $ ésima fila (columna) y multiplicarla por cualquier número $ k \ ne 0 $;
  2. Adición. Agregue a la $ i $ -ésima fila (columna) cualquier otra $ j $ -ésima fila (columna) multiplicada por cualquier número $ k \ ne 0 $ (puede, por supuesto, y $ k = 0 $, pero cuál es el punto? Sin embargo, nada cambiará).
  3. Permutación. Tome las filas (columnas) $ i $ th y $ j $ th e intercambielas.

Por qué estas transformaciones se llaman elementales (para matrices grandes no parecen tan elementales) y por qué solo hay tres de ellas, estas preguntas están más allá del alcance de la lección de hoy. Por tanto, no entraremos en detalles.

Otra cosa es importante: tenemos que realizar todas estas perversiones en la matriz adjunta. Sí, sí: escuchaste bien. Ahora habrá una definición más, la última en la lección de hoy.

Matriz adjunta

Seguro que en la escuela resolviste sistemas de ecuaciones usando el método de la suma. Bueno, reste otro de una cadena, multiplique alguna cadena por un número, eso es todo.

Entonces: ahora todo será igual, pero ya "de una manera adulta". ¿Listo?

Definición. Sea la matriz $ A = \ left [n \ times n \ right] $ y la matriz identidad $ E $ del mismo tamaño $ n $. Entonces la matriz adjunta $ \ left [A \ left | E \ a la derecha. \ right] $ es una nueva matriz $ \ left [n \ times 2n \ right] $ que se ve así:

\ [\ left [A \ left | E \ a la derecha. \ right] = \ left [\ begin (array) (rrrr | rrrr) ((a) _ (11)) & ((a) _ (12)) & ... & ((a) _ (1n)) & 1 & 0 & ... & 0 \\ ((a) _ (21)) & ((a) _ (22)) & ... & ((a) _ (2n)) & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... \\ ((a) _ (n1)) & ((a) _ (n2)) & ... & ((a) _ (nn)) & 0 & 0 & ... & 1 \\\ end (array) \ right] \]

En resumen, tomamos la matriz $ A $, a la derecha le asignamos la matriz de identidad $ E $ del tamaño requerido, las separamos con una barra vertical por belleza, aquí está la adjunta. :)

¿Cuál es el truco? Esto es lo que:

Teorema. Sea la matriz $ A $ invertible. Considere la matriz adjunta $ \ left [A \ left | E \ a la derecha. \ right] $. Si usa conversiones de cadenas elementales tráelo a la forma $ \ left [E \ left | Brillante. \ right] $, es decir al multiplicar, restar y reorganizar las filas para obtener de $ A $ la matriz $ E $ a la derecha, entonces la matriz $ B $ obtenida a la izquierda es la inversa de $ A $:

\ [\ left [A \ left | E \ a la derecha. \ derecha] \ a \ izquierda [E \ izquierda | Brillante. \ right] \ Rightarrow B = ((A) ^ (- 1)) \]

¡Es así de simple! En resumen, el algoritmo para encontrar la matriz inversa se ve así:

  1. Escribe la matriz agregada $ \ left [A \ left | E \ a la derecha. \ right] $;
  2. Realice conversiones de cadenas elementales hasta que aparezca $ E $ en lugar de $ A $;
  3. Por supuesto, algo también aparecerá a la izquierda: una matriz $ B $. Esto será lo contrario;
  4. ¡LUCRO! :)

Por supuesto, es mucho más fácil decirlo que hacerlo. Así que veamos un par de ejemplos: para los tamaños $ \ left [3 \ times 3 \ right] $ y $ \ left [4 \ times 4 \ right] $.

Tarea. Encuentra la inversa de la matriz:

\ [\ left [\ begin (array) (* (35) (r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\ end (array) \ right] \ ]

Solución. Componemos la matriz adjunta:

\ [\ left [\ begin (array) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\ end (matriz) \ right] \]

Dado que la última columna de la matriz original está llena de unos, restemos la primera fila del resto:

\ [\ begin (align) & \ left [\ begin (array) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\ end (matriz) \ right] \ begin (matrix) \ downarrow \\ -1 \\ -1 \\\ end (matrix) \ to \\ & \ to \ left [\ begin (matriz) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\ end (matriz) \ right] \\ \ end (align) \]

No hay más, excepto la primera línea. Pero no lo tocamos, de lo contrario en la tercera columna las unidades recién eliminadas comenzarán a “multiplicarse”.

Pero podemos restar la segunda línea dos veces de la última; obtenemos una en la esquina inferior izquierda:

\ [\ begin (align) & \ left [\ begin (array) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\ end (matriz) \ right] \ begin (matrix) \ \\ \ downarrow \\ -2 \\\ end (matrix) \ to \\ & \ left [\ begin (matriz) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\ end (matriz) \ right] \\ \ end (align) \]

Ahora podemos restar la última fila de la primera y dos veces de la segunda; de esta manera, "ponemos a cero" la primera columna:

\ [\ begin (align) & \ left [\ begin (array) (rrr | rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\ end (matriz) \ right] \ begin (matrix) -1 \\ -2 \\ \ uparrow \\\ end (matrix) \ to \\ & \ a \ left [\ begin (array) (rrr | rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\ end (matriz) \ right] \\ \ end (align) \]

Multiplica la segunda fila por −1, luego réstala 6 veces a la primera y súmale 1 vez a la última:

\ [\ begin (align) & \ left [\ begin (array) (rrr | rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\ end (matriz) \ right] \ begin (matriz) \ \\ \ left | \ cdot \ left (-1 \ right) \ right. \\ \\\ end (matriz) \ to \\ & \ to \ left [\ begin (array) (rrr | rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\ end (matriz) \ right] \ begin (matrix) -6 \\ \ updownarrow \\ +1 \\\ end ( matriz) \ a \\ & \ a \ izquierda [\ begin (matriz) (rrr | rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \ \ 1 & 0 & 0 & 4 & -7 & 3 \\\ end (array) \ right] \\ \ end (align) \]

Todo lo que queda es intercambiar las líneas 1 y 3:

\ [\ left [\ begin (array) (rrr | rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 y 32 y -13 \\\ end (matriz) \ derecha] \]

¡Listo! A la derecha está la matriz inversa deseada.

Respuesta. $ \ left [\ begin (array) (* (35) (r)) 4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\ end (array) \ right PS

Tarea. Encuentra la inversa de la matriz:

\ [\ left [\ begin (matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\ end (matriz) \ right] \]

Solución. Nuevamente, redactamos el adjunto:

\ [\ left [\ begin (array) (rrrr | rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\ end (array) \ right] \]

Vamos a tener un poco de sueño, lamentarnos por cuánto tenemos que contar ahora ... y empezar a contar. Primero, ponemos a cero la primera columna restando la fila 1 de las filas 2 y 3:

\ [\ begin (align) & \ left [\ begin (array) (rrrr | rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\ end (matriz) \ right] \ begin (matrix) \ downarrow \\ -1 \\ -1 \\ \ \\\ end (matrix) \ to \\ & \ to \ left [\ begin (array) (rrrr | rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\ end (array) \ right] \\ \ end (align) \]

Vemos demasiados "contras" en las líneas 2-4. Multiplica las tres filas por −1 y luego quema la tercera columna restando la fila 3 del resto:

\ [\ begin (align) & \ left [\ begin (array) (rrrr | rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \ end (matriz) \ right] \ begin (matriz) \ \\ \ left | \ cdot \ left (-1 \ right) \ right. \\ \ left | \ cdot \ left (-1 \ right) \ right. \\ \ left | \ cdot \ left (-1 \ right) \ right. \\\ end (matriz) \ to \\ & \ to \ left [\ begin (array) (rrrr | rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \ end (matriz) \ right] \ begin (matriz) -2 \\ -1 \\ \ updownarrow \\ -2 \\\ end (matriz) \ to \\ & \ to \ left [\ begin (matriz) ( rrrr | rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end (array) \ right] \\ \ end (align) \]

Ahora es el momento de "freír" la última columna de la matriz original: reste la fila 4 del resto:

\ [\ begin (align) & \ left [\ begin (array) (rrrr | rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end (array ) \ right] \ begin (matrix) +1 \\ -3 \\ -2 \\ \ uparrow \\\ end (matrix) \ to \\ & \ to \ left [\ begin (array) (rrrr | rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end (array) \ right] \\ \ end (align) \]

Rollo final: Queme la segunda columna restando la fila 2 de las filas 1 y 3:

\ [\ begin (align) & \ left [\ begin (array) (rrrr | rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end ( array) \ right] \ begin (matrix) 6 \\ \ updownarrow \\ -5 \\ \ \\\ end (matrix) \ to \\ & \ to \ left [\ begin (array) (rrrr | rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end (array) \ right] \\ \ end (align) \]

Y nuevamente a la izquierda está la matriz de identidad, lo que significa que la inversa está a la derecha. :)

Respuesta. $ \ left [\ begin (matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\ end (matriz) \ right] $

Así que eso es todo. Compruébelo usted mismo, deséchelo por mí. :)

Para cualquier matriz A no degenerada, existe y, además, una matriz única A -1 tal que

A * A -1 = A -1 * A = E,

donde E es la matriz identidad de los mismos órdenes que A. La matriz A -1 se llama inversa a la matriz A.

En caso de que alguien lo haya olvidado, en la matriz de identidad, a excepción de la diagonal llena de unos, todas las demás posiciones están llenas de ceros, un ejemplo de la matriz de identidad:

Encontrar la matriz inversa por el método de la matriz adjunta

La matriz inversa está definida por la fórmula:

donde A ij son elementos a ij.

Aquellos. para calcular la matriz inversa, debe calcular el determinante de esta matriz. Luego encuentre los complementos algebraicos para todos sus elementos y componga una nueva matriz a partir de ellos. A continuación, debe transportar esta matriz. Y divida cada elemento de la nueva matriz por el determinante de la matriz original.

Veamos algunos ejemplos.

Encuentre A -1 para Matriz

Solución Hallemos A -1 por el método de la matriz adjunta. Tenemos det A = 2. Encontremos los complementos algebraicos de los elementos de la matriz A. En este caso, los complementos algebraicos de los elementos de la matriz serán los elementos correspondientes de la propia matriz, tomados con un signo de acuerdo con la formula

Tenemos A 11 = 3, A 12 = -4, A 21 = -1, A 22 = 2. Formamos la matriz adjunta

Transportamos la matriz A *:

Encontramos la matriz inversa por la fórmula:

Obtenemos:

Encuentre A -1 usando el método de matriz adjunta si

Solución: En primer lugar, calculamos la definición de la matriz dada para asegurarnos de que existe la matriz inversa. Tenemos

Aquí hemos agregado a los elementos de la segunda fila los elementos de la tercera fila, multiplicados previamente por (-1), y luego expandimos el determinante en la segunda fila. Dado que se determina que la matriz dada es distinta de cero, existe la matriz inversa. Para construir la matriz adjunta, encontramos los complementos algebraicos de los elementos de la matriz dada. Tenemos

Según la fórmula

transportar la matriz A *:

Entonces por la fórmula

Encontrar la matriz inversa por el método de transformaciones elementales

Además del método para encontrar la matriz inversa, que se sigue de la fórmula (el método de la matriz adjunta), existe un método para encontrar la matriz inversa, llamado método de transformaciones elementales.

Transformaciones de matrices elementales

Las siguientes transformaciones se denominan transformaciones matriciales elementales:

1) permutación de filas (columnas);

2) multiplicar una fila (columna) por un número que no sea cero;

3) agregar a los elementos de una fila (columna) los elementos correspondientes de otra fila (columna), previamente multiplicados por algún número.

Para encontrar la matriz A -1, construimos matriz rectangular B = (A | E) de órdenes (n; 2n), asignando a la matriz A de la derecha la matriz identidad E a través de la barra separadora:

Veamos un ejemplo.

Usando el método de transformaciones elementales, encuentre A -1 si

Solución. Formemos la matriz B:

Denotemos las filas de la matriz B por α 1, α 2, α 3. Realicemos las siguientes transformaciones en las filas de la matriz B.

Comparta con sus amigos o guárdelo para usted mismo:

Cargando...