Sie sind auf Seite 1von 7

Matriz es un arreglo bidimensional de números, y en su mayor generalidad de elementos de un

anillo. Las matrices se usan generalmente para describir sistemas de ecuaciones lineales,
sistemas de ecuaciones diferenciales o representar una aplicación lineal (dada una base). Las
matrices se describen en el campo de la teoría de matrices.

Elementos es un tipo de materia constituida por átomos de la misma clase. En su forma más
simple posee un número determinado de protones en su núcleo, haciéndolo pertenecer a una
categoría única clasificada con el número atómico, aun cuando este pueda desplegar distintas
masas atómicas.

Orden de la matriz

Como has visto hasta aquí, las matrices se componen de filas y columnas a las que generalmente
se las representan con las letras m y n. La m para las filas y la n para las columnas.

El número de elementos de una matriz lo obtendremos de multiplicar el número de filas por el


de columnas: m x n

Al producto m x n llamamos orden de matriz

Cuando decimos que una matriz es de orden 4x5 ya podemos afirmar que se trata de una matriz
de 4 filas y 5 columnas.

Te darás cuenta que una matriz de 3x2 es más pequeña que otra matriz de 7x4. Esto quiere decir
que el orden, el tamaño, la dimensión significan lo mismo.

Tipos de matriz
Matriz fila

Una matriz fila está constituida por una sola fila.

Matriz columna

La matriz columna tiene una sola columna

Matriz rectangular

La matriz rectangular tiene distinto número de filas que de columnas, siendo su


dimensión mxn.
Matriz traspuesta

Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene


cambiando ordenadamente las filas por las columnas.

(At)t = A

(A + B)t = At + Bt

(α ·A)t = α· At

(A · B)t = Bt · At

Matriz nula

En una matriz nula todos los elementos son ceros.

Matriz cuadrada

La matriz cuadrada tiene el mismo número de filas que de columnas.

Los elementos de la forma aii constituyen la diagonal principal.

La diagonal secundaria la forman los elementos con i+j = n+1, siendo n el


orden de la matriz.

Tipos de matrices cuadradas


Matriz triangular superior

En una matriz triangular superior los elementos situados por debajo de la diagonal
principal son ceros.
Matriz triangular inferior

En una matriz triangular inferior los elementos situados por encima de la diagonal
principal son ceros.

Matriz diagonal

En una matriz diagonal todos los elementos que no están situados en la diagonal
principal son nulos.

Matriz escalar

Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal
principal son iguales.

Matriz identidad o unidad

Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal
principal son iguales a 1.

Matriz regular

Una matriz regular es una matriz cuadrada que tiene inversa.

Matriz singular
Una matriz singular no tiene matriz inversa.

Matriz idempotente

Una matriz, A, es idempotente si:

A2 = A.

Matriz involutiva

Una matriz, A, es involutiva si:

A2 = I.

Matriz simétrica

Una matriz simétrica es una matriz cuadrada que verifica:

A = At.

Matriz antisimétrica o hemisimétrica

Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:

A = −At.

Matriz ortogonal

Una matriz es ortogonal si verifica que:

A · At = I.

Operaciones de matrices

Suma de matrices

Dadas dos matrices de la misma dimensión, A = (aij) y B = (bij), se define la matriz


suma como:

A + B = (aij + bij)

La matriz suma se obtiene sumando los elementos de las dos matrices que ocupan la
misma posición.
Ejemplo

Suma de matrices

Propiedades de la suma de matrices

1. Interna

La suma de dos matrices de orden m x n es otra matriz dimensión m x n.

2. Asociativa

A + (B + C) = (A + B) + C

3. Elemento neutro

A+0=A

Donde O es la matriz nula de la misma dimensión que la matriz A.

4. Elemento opuesto

A + (−A) = O

La matriz opuesta es aquella en que todos los elementos están cambiados de signo.

5. Conmutativa

A+B=B+A

Determinante

es una forma multilineal alternada de un conjunto de vectores o de una matriz.

Ley de Sarrus

es un método fácil para memorizar y calcular el determinante de una matriz 3×3. Recibe su
nombre del matemático francés Pierre Frédéric Sarrus..

Considérese la matriz 3×3:


La ley de Cramer

es un teorema del álgebra lineal que da la solución de un sistema lineal de ecuaciones


en términos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 -
1752), quien publicó la regla en su Introduction à l'analyse des lignes courbes
algébriques de 1750, aunque Colin Maclaurin también publicó el método en su
Treatise of Geometry de 1748 (y probablemente sabía del método desde 1729).1

La regla de Cramer es de importancia teórica porque da una expresión explícita para


la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de
tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente
costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es
usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo,
como no es necesario pivotar matrices, es más eficiente que la eliminación gaussiana
para matrices pequeñas, particularmente cuando son usadas operaciones SIMD.

Si \mathbf{Ax} = \mathbf{b} es un sistema de ecuaciones. \mathbf{A} es la matriz


de coeficientes del sistema, \mathbf{x} = (x_1,\dots,x_n) es el vector columna de las
incógnitas y \mathbf{b} es el vector columna de los términos independientes.
Entonces la solución al sistema se presenta así:

x_j =

\cfrac {

\det(\mathbf{A}_j)

}{

\det(\mathbf{A})
}

donde \mathbf{A}_j es la matriz resultante de reemplazar la j-ésima columna de


\mathbf{A} por el vector columna \mathbf{b}. Hágase notar que para que el sistema
sea compatible determinado, el determinante de la matriz \mathbf{A} ha de ser no
nulo.