En matemáticas, y concretamente en álgebra lineal, una matriz es de diagonal estrictamente dominante, cuando lo es por filas o por columnas.

  • Lo es por filas cuando, para todas las filas, el valor absoluto del elemento de la diagonal de esa fila es estrictamente mayor que la norma del resto de elementos de esa fila.
  • Lo es por columnas cuando, para todas las columnas, el valor absoluto del elemento de la diagonal de esa columna es estrictamente mayor que la norma del resto de elementos de esa columna.

Formalmente, se dice que la matriz A de n x n es estrictamente diagonal dominante por filas cuando se satisface:

| a i , i | > j = 1 , j i n | a i , j | , i N : 1 i n {\displaystyle |a_{i,i}|>\sum _{j=1,j\neq i}^{n}|a_{i,j}|,\forall i\in \mathbb {N} :1\leq i\leq n}

Lema de Hadamard

Enunciado

Si A = ( ( a i , j ) i , j [ [ 1 , n ] ] ) {\displaystyle A=((a_{i,j})_{i,j\in [\![1,n]\!]})} es una matriz de diagonal estrictamente dominante, entonces A {\displaystyle A} es invertible.

Demostración

Por Contrarrecíproco. Supongamos que A {\displaystyle A} no es invertible, entonces su núcleo no se reduce a cero
existe entonces un vector : X = ( x 1 x 2 x n ) 0 {\displaystyle X={\begin{pmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{pmatrix}}\neq 0} tal que A X = 0 {\displaystyle AX=0} .
Entonces, se tiene que: i [ [ 1 , n ] ] ,   j = 1 n a i , j x j = 0. {\displaystyle \forall i\in [\![1,n]\!],\ \sum _{j=1}^{n}a_{i,j}x_{j}=0.}
Como X 0 {\displaystyle X\neq 0} , existe x i 0 0 {\displaystyle x_{i_{0}}\neq 0} tal que | x i 0 | = max { | x i | , i [ [ 1 , n ] ] } {\displaystyle |x_{i_{0}}|=\max \left\{{|x_{i}|,i\in [\![1,n]\!]}\right\}} .
Tenemos : a i 0 , i 0 x i 0 = j = 1 j i 0 n a i 0 , j x j {\displaystyle -a_{i_{0},i_{0}}x_{i_{0}}=\sum _{j=1 \atop j\neq i_{0}}^{n}a_{i_{0},j}x_{j}} , de donde | a i 0 , i 0 x i 0 | j = 1 j i 0 n | a i 0 , j x j | {\displaystyle |a_{i_{0},i_{0}}x_{i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}x_{j}|} ,
y como : j [ [ 1 , n ] ] ,   | x j | | x i 0 | 1 {\displaystyle \forall j\in [\![1,n]\!],\ {\frac {|x_{j}|}{|x_{i_{0}}|}}\leqslant 1} ,
se obtiene | a i 0 , i 0 | j = 1 j i 0 n | a i 0 , j | | x j | | x i 0 | j = 1 j i 0 n | a i 0 , j | {\displaystyle |a_{i_{0},i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|{\frac {|x_{j}|}{|x_{i_{0}}|}}\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|}
Finalmente, | a i 0 , i 0 | j = 1 j i 0 n | a i 0 , j | {\displaystyle |a_{i_{0},i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|} , con lo que culmina la demostración.


Podemos enunciar a partir de esta definición el siguiente teorema de convergencia aplicable a los procesos iterativos de Jacobi y Gauss Seidel:


Sistemas Lineales Diagonalmente Dominantes YouTube

Matriz diagonal dominante YouTube

Matrices Estrictamente Diagonal Dominantes YouTube

Diagonal Principal De Una Matriz

Si la matriz de coeficientes es estrictamente diagonal dominante