You are on page 1of 114

Capítulo 3

Sistemas Lineales
Los sistemas de ecuaciones lineales son una de las herramientas matemáticas de modelaje
más comunes en las aplicaciones. Una clasificación común de los sistemas lineales es por
su tamaño. Los sistemas con O(100) variables se consideran pequeños y usualmente se
utilizan los llamados métodos directos para su solución. Los sistemas de O(1000) ó más
variables se consideran grandes o de gran escala y los métodos de solución más eficientes
por lo general son los llamados métodos iterativos o indirectos. Otra clasificación
importante de los sistemas lineales es por la cantidad o densidad de ceros de la matriz de
coeficientes. Los sistemas con pocas entradas distintas de cero se llaman escasos. De lo
contrario decimos que el sistema es denso. El aprovechar la estructura de ceros de la matriz
de coeficientes nos lleva por lo general a algorítmos mucho más eficientes que los
convencionales.
La solución directa de sistemas de ecuaciones lineales conlleva esencialmente dos etapas:
transformación del sistema original a otro sistema equivalente más "simple" y luego la
solución del nuevo sistema equivalente. La transformación del sistema original a uno más
simple toma muchas formas la más común de ellas siendo el proceso de Eliminación
Gaussiana. En este método, en su forma básica, si ninguno de los pivotes se hace cero, se
producen como resultado matrices L y U triangulares inferior unitaria y superior
respectivamente tal que A=LU donde A es la matriz de coeficientes del sistema original. El
sistema Ax=b se puede resolver ahora en dos etapas adicionales.
Problema Básico y Notación
Un sistema lineal de n ecuaciones en n desconocidas se puede escribir de la forma

(3.1)

donde los son dados y x1,x2,…,xn son desconocidas. Si definimos la matriz A y


los vectores b, x por

(3.2)
Entonces podemos escribir el sistema (3.1) en forma matricial como Ax=b. La matriz A se
conoce como la matriz de coeficientes del sistema y b como el lado derecho. Si b=0, i.e.,
bi=0, 1 ≤ i ≤ n, entonces decimos que el sistema es homogeneo. De lo contrario se dice
que es nohomogeneo.
Ejemplo 1: Considere el sistema

Si definimos

Entonces podemos escribir el sistema en forma matricial como Ax=b.


Eliminación Gaussiana
Vamos ahora a estudiar el método más básico y a la ves más importante para la solución
directa de sistemas lineales. Primero ilustramos el método con un ejemplo y despúes lo
generalizamos.
Ejemplo 2: Considere el sistema de ecuaciones siguiente:

Podemos resolver esto mediante eliminación Gaussisana como sigue:

Con este último sistema equivalente podemos obtener la solución sustituyendo para atrás:
a.

b.

c.
Vamos a generalizar este ejemplo a un sistema 3× 3 general. Escribimos el sistema original
como

(3.3)

Paso 1: Suponemos que y definimos

se llama el pivote en este paso. El sistema (3.3) reduce ahora a:

(3.4)
donde

Paso 2: Suponemos ahora que y definimos

Ahora (3.4) reduce a:


donde

Paso 3: Hacemos ahora la sustitución para atrás para obtener la solución. Suponemos aqui

que :

Pasamos ahora al caso general del sistema:

Primero pasamos por la etapa de eliminación. Esto es, para k=1,2,…,n-1:

Paso k: Suponemos que (pivote). El sistema en este paso se reduce a uno de la


forma:
donde

(3.5)
En el último paso llegamos a un sistema triangular superior de la forma:

(3.6)
donde

(3.7)
Paso n: Calculamos finalmente la solución del sistema haciendo sustitución para atrás:

(3.8)
Las fórmulas (3.5), (3.7), (3.8) definen el Método de Eliminación Gaussiana en su forma
básica. Las formulas (3.5) definen la parte de eliminación del método mientras que (3.8)
nos da la sustitución para atrás.
Antes de entrar en las variantes de el método básico vamos a hacer un estudio de la
cantidad de operaciones envueltas en el método. Esto se conoce como un conteo

operacional. Examinando las fórmulas para los en (3.5) podemos construir la tabla
siguiente:

Paso Sumas Multiplicaciones Divisiones

1 (n-1)2 (n-1)2 n-1

2 (n-2)2 (n-2)2 n-2

n-1 1 1 1

TOTAL n(n-1)(2n- n(n-1)(2n-1)/6 n(n-1)/2


1)/6

donde usamos las fórmulas

Es costumbre contar las operaciones de multiplicación y división juntas. De modo que la


tabla de arriba la podemos resumir diciendo que en la parte de eliminación del método de
eliminación Gaussiana el total de:

Sumas y Restas =

Multiplicaciones y Divisiones =

Las fórmulas para los en (3.5) se conocen como la modificación del lado derecho.
Estas conllevan:
Sumas y Restas = n-1 + (n-2) + … + 1 =

Multiplicaciones y Divisiones = n-1 + (n-2) + … + 1 =


Las fórmulas (3.8) de la sustitución para atrás conllevan los siguientes totales de
operaciones:

Sumas y Restas = 1 + 2 + … + (n-1) =

Multiplicaciones y Divisiones = 1 + 2 + … + n =
Combinando todos los totales parciales hasta ahora obtenemos que el proceso completo de
eliminación Gaussiana conlleva un total de:

Sumas y Restas =

Multiplicaciones y Divisiones =
Note que para n "grande" ambos resultados son aproximadamente (1/3)n3. Asi que por
ejemplo doblar n equivale a aproximadamente ocho veces más tiempo computacional.
Observe también que la parte de eliminación es la que contribuye el termino proporcional a
n3. La modificación del lado derecho y la sustitución para atrás son ambas proporcionales a
n2. Note que estos tres procesos son independientes uno del otro. Por consiguiente si hay la
necesidad de resolver varios sistemas todos con la misma matriz de coeficientes, la parte de
eliminación debe hacerse una sola ves.

Al derivar las fórmulas (3.5), (3.7), (3.8) asumimos que los pivotes . Si por el

contrario algún , entonces podemos argumentar matemáticamente que algún

si la matriz de coeficientes del sistema original es nosingular. En tal caso


podemos intercambiar la fila "i" con la "k" y continuar el proceso. A pesar de esto un pivote
pequeño, aunque distinto de cero, puede causar que los efectos de redondeo debido a la
aritmética finita de la computadora se propagen rápidamente.
Ejemplo 3: Considere el sistema
El determinante de la matriz de coeficientes es -20/3 de modo que es nosingular. Vamos a
resolver el sistema pero usando solo cuatro cifras decimales. Representamos el sistema con
la matriz aumentada:

De donde obtenemos que z = 1, y = 0, x = 0.6667. ¡La solución exacta del sistema es x=½,
y=¾, z=1!
Para evitar el problema de pivotes distintos de cero pero pequeños usamos lo que se
denomina como pivoteo parcial. Esto es, definimos el indice i0 por:

(3.9)

Si i0≠ k, entonces intercambiaamos las filas i0 y k. Note que estamos haciendo el pivote
máximo en valor absoluto. De esta forma los multiplicadores mik satisfacen

lo cúal es lo que ayuda con la propagación de errores. Existe otra variante del pivoteo. En
este caso se determinan los indices i0 y j0 tal que:

(3.10)
y se intercambian las filas i0 y k y las columnas j0 y k si i0≠ k ó j0≠ k respectivamente. Esto
se conoce como pivoteo total y se puede demostrar que es más efectivo que el pivoteo
parcial en el control de la propagación de errores. Pero el cálculo del máximo en (3.10) es
mucho más costoso que en (3.9) por lo que en la practica se prefiere el pivoteo parcial.
Además se ha observado en pruebas usando matrices generadas aleatoriamente, que la
diferencia entre ambos métodos no es significativa en terminos de la propagación del error.
Cálculo de la Inversa de una Matriz
Suponga que A es una matriz nosingular y A-1 su inversa. Escribimos A-1 y la matriz
identidad I en forma particionada como
A-1 = (x1,x2,…,xn) , I = (e1,e2,…,en)

donde los ei's forman la base estandar de . Ahora como A A-1 = I, tenemos que
Axi = ei , 1 ≤ i ≤ n (3.11)
-1
Asi que para calcular A debemos resolver n sistemas distintos pero con la misma matriz
de coeficientes A. La eliminación de A la hacemos una ves lo cual requiere (1/3)n3
operaciones aproximadamente. La modificación del lado derecho y la sustitución para atrás
de cada uno de los sistemas en (3.11) conlleva aproximadamente n2 operaciones cada uno.
Asi que en total tenemos (1/3)n3+n(n2) = (4/3)n3 aproximadamente. (Este conteo se puede
mejorar a (5/6)n3). En muchas ocaciones las fórmulas que envuelven inversos de matrices
se pueden rescribir en terminos de sistemas lineales intermedios. Por el conteo operacional
de arriba, las fórmulas con los sistemas lineales son preferibles ya que la solución de cada
sistema envuelve aproximadamente (1/3)n3 operaciones mientras que calcular los inversos
toma (4/3)n3 operaciones. Como regla general tenemos pues que:
LOS INVERSOS DE MATRICES NO SE CALCULAN A MENOS QUE SE
NECESITEN EXPLICITAMENTE.
Veamos una aplicación de esta regla. Supongamos que desamos calcular la expresión

donde c, b son vectores en y A es n× n. Si calculamos A-1, luego


multiplicamos por b y finalmente el producto interior con c tenemos aproximadamente

Cálculo A-1 (4/3)n3

Multiplicación A- n2
1
por b

Producto interior n
con c

TOTAL (4/3)n3+n2+n

Si en lugar de esto calculamos α mediante:


• Halle la solución x del sistema Ax=b
• Calcule
un análisis similar al de arriba nos da aproximadamente (1/3)n3+n2+n lo cual es mucho
mejor que la fórmula directa.
Factorización LU de una Matriz
Para discutir la factorización LU de una matriz necesitamos priemro definir dos tipos
especiales de matrices. Una matriz A=(aij) se dice que es triangular superior si aij=0 para
toda i > j. A es triangular inferior si aij=0 para toda i < j. El adjetivo unitaria se añade en
ambos casos si en adición aii=1 para toda i. Una matriz que es ambas triangular superior e
inferior se llama diagonal. Note que una matriz diagonal satisface aij=0 para toda i ≠ j.
Ejemplo 4: Las matrices

son triangular superior, inferior y diagonal respectivamente.


La matriz de coeficientes del sistema (3.6) es triangular superior y la denotamos por
U=(uij). Usando los multiplicadores mik en (3.5) podemos definir la matriz triangular
inferior unitaria L por:

Teorema (3.2): Sea A una matriz n× n nosingular. Defina las matrices L y U como arriba.
Entonces si no se hace pivoteo en el proceso de eliminación Gaussiana, tenemos que
A=LU.
Demostración: El elemento (i,j) del producto LU consiste del producto interior de la fila i
de L con la columna j de U. Esto es

Si i ≤ j, tenemos que
Usando las fórmulas (3.5) y la definición de U podemos escribir esto como

donde para simplificar la segunda sumatoria usamos que esta es telescópica. Ahora si i > j

Como (LU)ij=aij para toda i,j tenemos que A=LU.


Ejemplo 5: Para la matriz

tenemos que mediante eliminición Gaussiana

Si definimos ahora

tenemos que A=LU.


Dado que A=LU, el sistema Ax=b se puede escribir como LUx=b. La solución del sistema
Ax=b se puede ver entonces en tres etapas:
1. (Eliminación) Calcular la factorización A=LU.
2. (Modificación del lado derecho) Resolver el sistema triangular inferior
Lg=b para el vector g.
3. (Sustitución para atras) Resolver el sistema triangular superior Ux=g
para el vector x.
Ejemplo 5: Resuelva el sistema

La matriz de coeficientes de este sistema coincide con la del ejemplo anterior de modo que

La solución de Lg=b con b=(1,-1,0)t esta dada por:

Ahora Ux=g nos da la solución del sistema original:

Variantes del Método de Eliminación Gaussiana


Vamos ahora a discutir dos métodos alternos para calcular la factorización LU de una
matriz pero que aprovechan alguna estructura particluar de la matriz. El primero de ellos es
la Factorización de Cholesky que se usa para matrices simétricasy positivas definidas. El
otro método aprovecha la estructura escasa de la matriz en el caso que esta sea tridiagonal.
Factorización de Cholesky
Una matriz A es simétrica si At=A. Decimos que A es positiva definida si xtAx>0 para todo
x≠ 0. Se puede demostrar que una matriz simétrica es positiva definida si y solo si todos sus
valores propios son positivos. También se puede demostrar que existe una matriz triangular
inferior L tal que
A = L Lt
lo cual se conoce como la factorización de Cholesky de A. De hecho las entradas de L=(lij)
de pueden calcular mediante las fórmulas:
1. Para i=1,2,…,n
a.
b. Para j=1,2,…,i-1 (3.12)

a.
Estas fórmulas se obtienen multiplicando las filas de L por las columnas de Lt e igualando a
las entradas correspondientes de A. Un conteo operacional de estas fórmulas muestra que el
total de operaciones es aproximadamente (1/6)n3, i.e., la mitad que en eliminación
Gaussiana básico. (Note sin embargo que hay que calcular n racies cuadradas). La ganacia
aqui se debe a que se utilizó la simetría de la matriz A. Note también que como A es
simétrica solo hay que almacenar en la computadora la mitad de la matriz al igual que para
L que es triangular inferior.
Sistemas Tridiagonales
Una matriz A se llama tridiagonal si aij=0 para toda i,j tal que i - j> 1. Esto es, todas las
entradas de A son cero excepto posiblemente en las diagonales inferior, superior y
principal. Podemos pues escribir A de la siguiente forma:

(3.13)
Para almacenar A en la computadora usamos tres vectores de tamaño n lo que da un total de
3n lugares de memoria en comparación con n2 para una matriz densa. Vamos ahora a
resolver el sistema Ax=b aprovechando la estructura de ceros de A. Primero buscamos la
factorización LU de A. Para esto buscamos L y U de la forma:

(3.14)
Multiplicando e igualando a las entradas correspondientes de A obtenemos:

• fila uno de L por columna uno de U:


• fila dos de L por columna uno de U:

• fila dos de L por columna dos de U:

• fila tres de L por columna dos de U:

• fila tres de L por columna tres de U: , etc.


De esta forma obtenemos las fórmulas:

1.
2. Para j=2,3,…n

a. (3.15)

b.
El total de multiplicaciones y divisiones en estas fórmulas es 2n-2 (compare con (1/3)n3
para eliminación Gaussiana básico). Para resolver Lg=b es fácil ver que las fórmulas son:

1.
2. Para j=2,3,…,n (3.16)

a.
El total de multiplicaciones y divisiones en este cálculo es de n-1. Finalmente la solución de
Ux=g se obtinene mediante las fórmulas:

1.
2. Para j=n-1,n-2,…,1 (3.17)

a.
El conteo aqui de multiplicaciones y divisiones es de 2n-1. Asi que en total para resolver el
sistema Ax=b donde A es tridiagonal se requieren de 5n-4 multiplicaciones y divisiones. En

todo este proceso necesitamos que los pivotes y es conveniente que los 's sean
menor de uno en valor absoluto. Esto se cumple si
(3.18)
Ejemplo 6: Considere la matriz tridiagonal

Aqui aj=1, j=2,3, bj=3, j=1,2,3, cj=1, j=1,2. Asi que

de donde obtenemos que

ESTUDIO DE SISTEMAS DE
ECUACIONES LINEALES (s.e.l.)
Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas
matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes.
Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y
elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) -
Teorema de Rouché-Fröbenius -.
Cuando estudiamos un s.e.l. debemos preguntarnos :
¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ?
Si tiene soluciones ¿ cuántas y cúales son ?
Visto esto, estudiar un sistema es :
DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no.
RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas.
ESTUDIAR = DISCUTIR + RESOLVER
Preliminares :
La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene
una solución.
La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son
pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a la otra.
La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son
ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a las otras dos.
En general, una ecuación lineal de "n" variables es del tipo :

• Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen
verdadera la igualdad [1]
• Si los coeficientes valen 0 y el término independiente no, la ecuación se
llama incompatible. No tiene solución y también se denomina ecuación
imposible, proposición falsa o igualdad absurda.
• Si los coeficientes y el término independiente son nulos, se dice que la
ecuación es una identidad.

Sistemas de Ecuaciones Lineales :


Muchos problemas de la vida real nos obligan a resolver simultáneamente varias
ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy
útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver
un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o
en el espacio).
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos
escribir de forma tradicional así :

un sistema así expresado tiene "m" ecuaciones y "n" incógnitas,


donde aij son números reales, llamados coeficientes del sistema,
los valores bm son números reales, llamados términos independientes del sistema,
las incógnitas xj son las variables del sistema,
y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que
al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez
las "m" ecuaciones del sistema.
Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma :

Dode :
• Llamamos matriz del sistema a la matriz de dimensión m×n formada por los
coeficientes del sistema, y la designamos por A.
• Designamos por X a la matriz columna formada por las incógnitas.
• Denotamos por B a la matriz columna formada por los términos independientes.
y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a
la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes,
y la denotamos por A*, es decir

Clasificación :
Atendiendo a sus soluciones :

Atendiendo a sus términos independientes :


Discusión de un s.e.l. :
Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius.
« Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango
de la matriz ampliada con la columna de los términos independientes. Si estos rangos son
distintos el sistema es incompatible. »
Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n
incógnitas tenga solución es que r(A) = r(A*),

• Si el número de incógnitas n es igual al rango h , la solución es única.


• Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas
soluciones.
• Si el sistema es compatible, el rango del sistema indica el número de ecuaciones
linealmente independientes.
Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas
principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar
cualquier valor ( grados de libertad ).
Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se
intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio
correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos
independientes que conviene no moverla. En general, es aconsejable realizar todas las
operaciones por filas.
Caso particular : Sist. Homogéneos
Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos,
podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen
al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la
práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee
solución sólo si esta es distinta de la trivial.
Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn)
entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1,
k·s2, ... , k·sn) , para todo número real k.

Ejemplo:
Métodos de Resolución de s.e.l. :
Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema
se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir
el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad.
Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las
incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en
otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas
soluciones ( = sistemas equivalentes ).
Generalmente las transformaciones más habituales son :
( criterios de equivalencia )
- Intercambiar dos ecuaciones entre sí.
- Suprimir una ecuación que tenga todos sus elementos nulos.
- Suprimir una ecuación que sea proporcional a otra.
- Suprimir una ecuación que sea combinación lineal de otra/s
- Multiplicar o dividir una ecuación por un número distinto de cero.
- Sustituir una ecuación i de este modo : Ei = Ei + a·Ej
Métodos directos :
• Método de Gauss (por reducción)
• Método de Cramer (por determinantes)
• Por inversión de la matriz
• Método de Gauss-Jordan (por eliminación)
• Por sustitución
Métodos iterativos :
• Método de Jacobi
• Método de Gauss-Seidel
Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor
sus diferencias
• Método de Gauss (por reducción)
Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema
equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así
sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto,
resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera.
Es decir, el método de Gauss consiste en triangular la matriz de coeficientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

Ejemplo:
Resolver el siguiente sistema compatible indeterminado

• Método de Cramer (por determinantes)


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de
Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución
única.
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el
determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se
obtiene al cambiar la columna i del determinante anterior por la columna de los términos
independientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

• Por inversión de la matriz


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas
compatibles determinados (no-homogéneos).

Ejemplo:
Resolver el siguiente sistema compatible determinado

• Método de Gauss-Jordan
Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que
no es preciso despejar las variables pues la solución se obtiene directamente.
Se basa en diagonalizar la matriz de coeficientes.
NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde
v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan.
Ejemplo:
ESTUDIO DE SISTEMAS DE
ECUACIONES LINEALES (s.e.l.)
Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas
matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes.
Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y
elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) -
Teorema de Rouché-Fröbenius -.
Cuando estudiamos un s.e.l. debemos preguntarnos :
¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ?
Si tiene soluciones ¿ cuántas y cúales son ?
Visto esto, estudiar un sistema es :
DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no.
RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas.
ESTUDIAR = DISCUTIR + RESOLVER
Preliminares :
La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene
una solución.
La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son
pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a la otra.
La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son
ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a las otras dos.
En general, una ecuación lineal de "n" variables es del tipo :

• Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen
verdadera la igualdad [1]
• Si los coeficientes valen 0 y el término independiente no, la ecuación se
llama incompatible. No tiene solución y también se denomina ecuación
imposible, proposición falsa o igualdad absurda.
• Si los coeficientes y el término independiente son nulos, se dice que la
ecuación es una identidad.

Sistemas de Ecuaciones Lineales :


Muchos problemas de la vida real nos obligan a resolver simultáneamente varias
ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy
útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver
un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o
en el espacio).
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos
escribir de forma tradicional así :

un sistema así expresado tiene "m" ecuaciones y "n" incógnitas,


donde aij son números reales, llamados coeficientes del sistema,
los valores bm son números reales, llamados términos independientes del sistema,
las incógnitas xj son las variables del sistema,
y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que
al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez
las "m" ecuaciones del sistema.
Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma :

Dode :
• Llamamos matriz del sistema a la matriz de dimensión m×n formada por los
coeficientes del sistema, y la designamos por A.
• Designamos por X a la matriz columna formada por las incógnitas.
• Denotamos por B a la matriz columna formada por los términos independientes.
y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a
la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes,
y la denotamos por A*, es decir
Clasificación :
Atendiendo a sus soluciones :

Atendiendo a sus términos independientes :

Discusión de un s.e.l. :
Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius.
« Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango
de la matriz ampliada con la columna de los términos independientes. Si estos rangos son
distintos el sistema es incompatible. »
Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n
incógnitas tenga solución es que r(A) = r(A*),

• Si el número de incógnitas n es igual al rango h , la solución es única.


• Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas
soluciones.
• Si el sistema es compatible, el rango del sistema indica el número de ecuaciones
linealmente independientes.
Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas
principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar
cualquier valor ( grados de libertad ).
Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se
intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio
correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos
independientes que conviene no moverla. En general, es aconsejable realizar todas las
operaciones por filas.
Caso particular : Sist. Homogéneos
Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos,
podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen
al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la
práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee
solución sólo si esta es distinta de la trivial.
Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn)
entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1,
k·s2, ... , k·sn) , para todo número real k.

Ejemplo:

Métodos de Resolución de s.e.l. :


Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema
se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir
el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad.
Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las
incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en
otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas
soluciones ( = sistemas equivalentes ).
Generalmente las transformaciones más habituales son :
( criterios de equivalencia )
- Intercambiar dos ecuaciones entre sí.
- Suprimir una ecuación que tenga todos sus elementos nulos.
- Suprimir una ecuación que sea proporcional a otra.
- Suprimir una ecuación que sea combinación lineal de otra/s
- Multiplicar o dividir una ecuación por un número distinto de cero.
- Sustituir una ecuación i de este modo : Ei = Ei + a·Ej

Métodos directos :
• Método de Gauss (por reducción)
• Método de Cramer (por determinantes)
• Por inversión de la matriz
• Método de Gauss-Jordan (por eliminación)
• Por sustitución
Métodos iterativos :
• Método de Jacobi
• Método de Gauss-Seidel
Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor
sus diferencias
• Método de Gauss (por reducción)
Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema
equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así
sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto,
resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera.
Es decir, el método de Gauss consiste en triangular la matriz de coeficientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

Ejemplo:
Resolver el siguiente sistema compatible indeterminado

• Método de Cramer (por determinantes)


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de
Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución
única.
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el
determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se
obtiene al cambiar la columna i del determinante anterior por la columna de los términos
independientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

• Por inversión de la matriz


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas
compatibles determinados (no-homogéneos).

Ejemplo:
Resolver el siguiente sistema compatible determinado

• Método de Gauss-Jordan
Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que
no es preciso despejar las variables pues la solución se obtiene directamente.
Se basa en diagonalizar la matriz de coeficientes.
NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde
v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan.
Ejemplo:
ESTUDIO DE SISTEMAS DE
ECUACIONES LINEALES (s.e.l.)
Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas
matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes.
Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y
elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) -
Teorema de Rouché-Fröbenius -.
Cuando estudiamos un s.e.l. debemos preguntarnos :
¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ?
Si tiene soluciones ¿ cuántas y cúales son ?
Visto esto, estudiar un sistema es :
DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no.
RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas.
ESTUDIAR = DISCUTIR + RESOLVER
Preliminares :
La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene
una solución.
La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son
pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a la otra.
La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son
ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una
variable y dando valores cualesquiera a las otras dos.
En general, una ecuación lineal de "n" variables es del tipo :

• Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen
verdadera la igualdad [1]
• Si los coeficientes valen 0 y el término independiente no, la ecuación se
llama incompatible. No tiene solución y también se denomina ecuación
imposible, proposición falsa o igualdad absurda.
• Si los coeficientes y el término independiente son nulos, se dice que la
ecuación es una identidad.

Sistemas de Ecuaciones Lineales :


Muchos problemas de la vida real nos obligan a resolver simultáneamente varias
ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy
útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver
un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o
en el espacio).
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos
escribir de forma tradicional así :

un sistema así expresado tiene "m" ecuaciones y "n" incógnitas,


donde aij son números reales, llamados coeficientes del sistema,
los valores bm son números reales, llamados términos independientes del sistema,
las incógnitas xj son las variables del sistema,
y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que
al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez
las "m" ecuaciones del sistema.
Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma :

Dode :
• Llamamos matriz del sistema a la matriz de dimensión m×n formada por los
coeficientes del sistema, y la designamos por A.
• Designamos por X a la matriz columna formada por las incógnitas.
• Denotamos por B a la matriz columna formada por los términos independientes.
y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a
la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes,
y la denotamos por A*, es decir
Clasificación :
Atendiendo a sus soluciones :

Atendiendo a sus términos independientes :

Discusión de un s.e.l. :
Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de Rouché-Fröbenius.
« Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango
de la matriz ampliada con la columna de los términos independientes. Si estos rangos son
distintos el sistema es incompatible. »
Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n
incógnitas tenga solución es que r(A) = r(A*),

• Si el número de incógnitas n es igual al rango h , la solución es única.


• Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas
soluciones.
• Si el sistema es compatible, el rango del sistema indica el número de ecuaciones
linealmente independientes.
Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas
principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar
cualquier valor ( grados de libertad ).
Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se
intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio
correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos
independientes que conviene no moverla. En general, es aconsejable realizar todas las
operaciones por filas.
Caso particular : Sist. Homogéneos
Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos,
podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen
al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la
práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee
solución sólo si esta es distinta de la trivial.
Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn)
entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1,
k·s2, ... , k·sn) , para todo número real k.

Ejemplo:

Métodos de Resolución de s.e.l. :


Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema
se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir
el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad.
Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las
incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en
otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas
soluciones ( = sistemas equivalentes ).
Generalmente las transformaciones más habituales son :
( criterios de equivalencia )
- Intercambiar dos ecuaciones entre sí.
- Suprimir una ecuación que tenga todos sus elementos nulos.
- Suprimir una ecuación que sea proporcional a otra.
- Suprimir una ecuación que sea combinación lineal de otra/s
- Multiplicar o dividir una ecuación por un número distinto de cero.
- Sustituir una ecuación i de este modo : Ei = Ei + a·Ej
Métodos directos :
• Método de Gauss (por reducción)
• Método de Cramer (por determinantes)
• Por inversión de la matriz
• Método de Gauss-Jordan (por eliminación)
• Por sustitución
Métodos iterativos :
• Método de Jacobi
• Método de Gauss-Seidel
Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor
sus diferencias
• Método de Gauss (por reducción)
Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema
equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así
sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto,
resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera.
Es decir, el método de Gauss consiste en triangular la matriz de coeficientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

Ejemplo:
Resolver el siguiente sistema compatible indeterminado

• Método de Cramer (por determinantes)


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de
Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución
única.
El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el
determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se
obtiene al cambiar la columna i del determinante anterior por la columna de los términos
independientes.
Ejemplo:
Resolver el siguiente sistema compatible determinado

• Por inversión de la matriz


Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el
determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas
compatibles determinados (no-homogéneos).

Ejemplo:
Resolver el siguiente sistema compatible determinado

• Método de Gauss-Jordan
Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que
no es preciso despejar las variables pues la solución se obtiene directamente.
Se basa en diagonalizar la matriz de coeficientes.
NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde
v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan.
Ejemplo:
Starmedia

Haz starMedia tu página de inicio

• Correo

• Chat

• Fotos

• Videos


• Autos
• Cine
• Clima
• Deportes
• Economía
• Entretenimiento
• Estudiantes
• Humor
• Juegos
• Mujer
• Noticias
• Viajes
• Vídeos
• Inicio

• Documentos

• Tests

• Aulas

• Chuletas

• Amor

• Foros

• Postales

• Envía tus apuntes

• Correo

• Ayuda

• Blog


publicidad
Métodos Numéricos
Matemáticas. Matriz Inversa. Regla de Crammer. Tipos de Errores.
Interpolación. Derivación Numérica
Matemáticas / Cálculo Numérico

publicidad
• Métodos Numéricos
Ficha resumen del documento
• Métodos Numéricos
Versión PDF
• Métodos Numéricos
Versión para descargar

TEMARIO
I.- INTRODUCCIÓN
Importancia de los métodos numéricos
Tipos de Errores
II.- SOLUCIONES DE ECUACIONES ALGEBRAICAS
Raíz de una ecuación
Métodos de intervalo: bisección, falsa posición
Métodos de punto fijo: aproximaciones sucesivas, secante, Newton-Raphson
III.- SOLUCION DE SISTEMAS DE ECUACIONES
Eliminación Gaussiana
Matriz Inversa
Gauss-Jordan
Regla de Crammer
Jacobi
Gauss-Seidel
IV.- AJUSTE DE FUNCIONES
Fundamentos de estadística
Interpolación
Regresión de mínimos cuadrados
V.- DIFERENCIACIÓN E INTEGRACIÓN NUMÉRICA
Derivación Numérica
Integración Numérica, trapecio, Simpson-Romberg
VI.- SOLUCIÓN DE ECUACIONES DIFERENCIALES
Métodos de 1 paso: Euler, Euler Mejorado, Runge-Kutta
Métodos de pasos múltiples
VII.- ECUACIONES DIFERENCIALES PARCIALES
Clasificación de las ecuaciones
Métodos de diferencias finitas.
MÉTODOS NUMÉRICOS
1.1 Problemas matemáticos y sus soluciones.
Un modelo matemático puede definirse como una formulación o una ecuación que expresa las
características, esenciales de un sistema físico o proceso en términos matemáticos.
Vd = f (vi, p , f ) (1)
Vd = variable dependiente que refleja el comportamiento o estado del sistema.
Vi = variables independientes como tiempo o espacio a través de las cuales el
comportamiento del sistema será determinado.
P = parámetros , son reflejos de las propiedades o la composición del sistema.
f = funciones de fuerza, son influencias externas sobre el sistema.
De la segunda Ley de Newton:
F = ma ; reordenando
f
a = ______ ( 2 )
m
Características de este modelo matemático.
1.- Describe un proceso o sistema natural en términos matemáticos.
2.- Representa una simplificación de la realidad.
3.- Conduce a resultados predecibles.
Otros modelos matemáticos de fenómenos físicos pueden ser mucho más complejos.
De nuevo si usamos la segunda Ley de Newton para determinar la velocidad final o terminal
de un cuerpo, tenemos un expresión de aceleración como la razón de cambio de la velocidad
con respecto al tiempo:
f
dv = _____ ( 3 )
dt m
Para un cuerpo que cae, la fuerza total es:
F = FD + Fu ( 4 )
FD = La atracción hacia abajo debido a la fuerza de la gravedad.
Fu = Fuerza hacia arriba debida a la resistencia del aire,
En donde:
FD = mg
Fu = -cu
c = coeficiente de resistencia o arrastre
Como la fuerza total , es la diferencia entre las fuerzas hacia abajo y las fuerzas hacia arriba,
tenemos:
dv = mg - cu ( 7 )
dt m
dv = g - c/m (v) ( 8 )
dt
Esta ecuación es un modelo matemático que relaciona la aceleración de un cuerpo que cae
con las fuerzas que actúan sobre él.
Se trata de una ecuación diferencial o ecuaciones diferenciales.
Si las ecuaciones son más complejas, se requiere de técnicas avanzadas para obtener una
solución analítica exacta o aproximada.
Si el objeto está en reposo, v = o y t = 0 , y usando las teorías de cálculo, obtenemos:
v(t) = gm/c ( 1 - e-(c/m)t ) ( 9 )
Que es la solución analítica o exacta,
v(t) = variable dependiente
t = es la variable independiente
c,m = parámetros
g = función de la fuerza
Ej. 1.1
Un paracaidista , con una masa de 68.1 kgs salta de un globo aerostático fijo. Con la ayuda de
la ecuación ( 9 ), calcule la velocidad antes de abrir el paracaídas, coeficiente de resistencia =
12 kg/seg.
Datos:
m = 68.1
c = 12.5
g = 9.8 m/s
v(t) = gm/c ( 1 - e-(c/m)t )

t,s v, m/s

0 0
2 16.42

4 27.76

6 35.63

8 41.05

10 44.87

12 47.48

53.39

53.39 1 - e -(0.1835)t

Cuando los métodos numéricos - modelos matemáticos - no pueden resolverse con exactitud,
se requiere de una solución numérica que se aproxima a la solución exacta.
Los métodos numéricos son aquellos en los que se formula el problema matemático para que
se pueda resolver mediante operaciones aritméticas.
Para la segunda Ley de Newton, al aproximar a la razón del cambio de la velocidad con
respecto al tiempo , tenemos:
dv = v = v ( ti + 1 ) - v ( ti ) ( 10 )
dt t ti + 1 - ti
Diferencias finitas divididas
v ( ti ) = es la velocidad en el tiempo inicial ti
v ( ti + 1 ) = es la velocidad después de un tiempo mas tarde:
ti + 1
sustituyendo la ec. ( 10 ) en la ec. ( 8 ):
v ( ti + 1 ) - v ( ti ) = g - c/m v ( ti )
ti + 1 - ti
Reordenando:
V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti ) ( 11 )
A cualquier tiempo
Nuevo valor = viejo valor + pendiente x tamaño del paso.
Ejemplo 1.2
Resolver el ejemplo anterior mediante una solución numérica para calcular la velocidad.
Emplear un tamaño del paso de 2 segundos.
Datos:
m = 68.1 kg
c = 12.5 kg/s
g = 9.8 m/s
V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti )
V1 = V0 + g - c/m V0 ( ti + 1 - ti ) ; t1 = 2 seg
V1 = 0 + 9.8 - 12.5/68.1 (0) (2-0) = 19.6 m/s
t2 = 4s, v2 = ?
V2 = 19.6 + 9.8 - 12.5/68.1 (19.6) (4-2) = 32 m/s
Sustituyendo:
V3 = V2 + g - c/m V2 (t3 - t2)
V3= 32 + 9 .8 - 12.5/68.1 (32) (2) = 39.85 m/s
Entonces V3= 39.85 m/s
Sustituyendo:
V4 = 39.85 + 9 .8 - 12.5/68.1 (39.85) (2) = 44.82 m/s
V5 = 44.82 + 9 .8 - 12.5/68.1 (44.82) (2) = 47.96 m/s
V6 = 47.96 + 9 .8 - 12.5/68.1 (47.96) (2) = 49.95 m/s

t,s SN SA

0 0 0

2 19.6 16.42

4 32 27.76

6 39.85 35.63

8 44.82 41.05

10 48.01 44.87

12 49.05 47.48

53.39 53.39

1.2. Importancia de los métodos numéricos


Los métodos numéricos son técnicas mediante las cuales es posible formular problemas
matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.
El análisis numérico trata de diseñar métodos para “ aproximar” de una manera eficiente las
soluciones de problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas
complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una
secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema
matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
• Cálculo de derivadas
• Integrales
• Ecuaciones diferenciales
• Operaciones con matrices
• Interpolaciones
• Ajuste de curvas
• Polinomios
Los métodos numéricos se aplican en áreas como:
Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica, Ingeniería
eléctrica, etc...
1.3 Tipos de errores
Exactitud.- Lo que está más cerca del valor verdadero.
Se refiere a que tan cercano está el valor medido o calculado con el valor verdadero.
Precisión.- Se refiere a que tan cercano esta un valor individual medido o calculado con
respecto a los otros.
Cifras significativas.- Es el conjunto de dígitos confiables o necesarios que representan el
valor de una magnitud independientemente de las unidades de medidas utilizadas.
Confiables.- Por que dependen del instrumento de medición empleado.
Necesarias.- Por que depende de leyes, reglamentos, normas o costumbres.
La longitud del pizarrón es:
En 4 mediciones, siendo en cada medición distintas personas, los resultaos fueron los
siguientes:
1.- 3.0 m
2.- 3.0 m
3.- 3.0 m
4.- 3.0 m
La longitud de la libreta :
1.- 28 cm ( flexómetro ) 3.- 28 cm
2.- 27.5 cm ( regla ) 4.- 28 cm
La longitud de un lápiz:
Regla: 14.3 cm Tornillo: 14.327 cm
Vernier: 14.32 cm
La velocidad de un automóvil:
Digital: 89.5 km/h
Carátula: 90 km/h
¿ Cuántas cifras significativas ( que tan preciso debe ser ) son necesarias ?
1.- El total de cifras significativas es independiente de la posición del punto decimal.
Ejemplo:
El medir una mujer se registró que su estatura es de 1.67 m = 16. 7 dm = 167 cm ,
(teniéndose 3 cifras significativas ).
2.- Los ceros a la izquierda de dígitos no nulos, nunca serán cifras significativas.
Ejemplo:
Un balero tiene un diámetro de 26 mm = 0.026 m = 0.000026 km ( 2 cifras significativas ).
3.- Los ceros intermedios de dígitos no nulos, siempre serán significativos:
Ejemplo:
• 40072 ( 5 c.s. )
• 3.001 ( 4 c.s. )
• 0.000203 ( 3. c.s. )
Los errores.- Es la discrepancia que existe entre la magnitud “ verdadera” y la magnitud
obtenida.
Error absoluto.- Es igual a la diferencia entre el valor verdadero y el valor aproximado:
EA = Vv - Va ( 12 )
Error Relativo.- Es el cociente del error absoluto respecto al valor verdadero:
ER = EA = Vv - Va
Vv Vv
Error Relativo Porcentual:
ERP = EA x 100 % ( 13 )
Vv
Ejercicios:
Ejemplo.- Supóngase que se tiene que medir la longitud de un puente y de un remache. La
longitud del puente obtenida es de 9999 cm y la del remache es de 9 cm.
Si los valores verdaderos son 10,000 y 10 cm, respectivamente, calcule :
 el error absoluto
 el error relativo %
para cada caso:
Puente Remache
Vv = 10000 cm 10 cm
Va = 9999 cm 9 cm
EA = 10000 - 9999 EA = 10 - 9
EA = 1 cm EA = 1 cm
Error Porcentual = 1 x 100 = 0.01 %
10,000
Error Porcentual = 1 x100 = 10 %
10
Ejemplo:
Suponga que el valor para un cálculo debería ser Vv = 0.10 x 102 pero se obtuvo el resultado
de Va = 0.08 x 102. Determine el error absoluto y el error relativo porcentual:
EA = 0.10 x 102 - 0.08 x 102
EA = 2 = 0.2 x 101
ERP = 0.2 x 101 x 100 = 20%
0.10 x 102
Ejemplo:
Vv = 0.24 x 10 - 4 Va = 0.12 x 10 - 4
EA = 0.24 x 10 - 4 - 0.12 x 10 - 4
EA = 1.2 x 10 - 5 , 0.12 x 10 - 4 , por lo tanto es pequeño
ERP = 0.12 x 10 - 4 x 100 = 50%, por lo tanto es grande.
0.24 x 10 - 4
Ejemplo :
Vv = 0.46826564 x 10 6
Va = 0.46830000 x 10 6
EA = 0.46826564 x 10 6 - 0.46830000 x 10 6
EA = 34.46 , por lo tanto es grande.
ERP = 34.36 x 100 =7.33771504 x 10 - 3, es pequeño
0.46826564 x 10 6
Concluyendo , cuando se manejen cantidades muy grandes o muy pequeñas el EA puede ser
engañoso, mientras que el error relativo es más significativo en estos casos.
Determinación del error en ausencia del valor verdadero
Cuando no se conoce la respuesta verdadera, es necesario estimar el valor en ausencia de
los valores verdaderos. Ciertos métodos numéricos usan un método iterativo para calcular
resultados, tales casos se hace una aproximación con base en la aproximación anterior. Es
decir, el error se calcula como la diferencia ente la aproximación actual y la aproximación
previa.
Ea = aproximación actual - aproximación anterior x 100 (14)
aproximación actual
Ea <
El siguiente criterio es útil para tener la seguridad que el resultado es correcto en al menos n
cifras significativas.
• = ( 0.5 x 10 2 - n ) = 0.5 x 10 -3 %, = 0.005 %
Ejemplo:
La función exponencial llamada expansión por serie de Mc Laurin, se puede calcular mediante
la ecuación:
ex = 1 + x + x2 + x3 + ........... + x n
2! 3! n!
Mientras más términos se le agreguen a la serie, la aproximación se acercará cada vez más al
valor de ex . Estímese el valor de e 0.5 , calculando los valores del ERP ( error relativo
porcentual y el valor de aproximación ) , si el valor real o verdadero es e 0.5 = 1.648721,
agréguese términos a la serie hasta que Ea < , cumpla 3 cifras significativas.
Solución:
E = ( 0.5 x 10 2 -3 ) % = 0.5 x 10 - 1
E = 0.005
Ea < 0.05 %
1er término
ex = 1
ERP = 1.648721 - 1 x 100 = 39.34 %
1.648721
2do término
ex = 1 + 0.5 = 1.5
ERP = 1.648721 - 1.5 x 100 = 9.02 %
1.648721
3er término
ex = 1 + x + x2
2!
ex = 1.5 + (0.5)2 = 1.625
2!
ERP = 1.648721 - 1.625 x 100 = 1.438 %
1.648721
Ea = 1.625 - 1.5 x 100 = 7.692%
1.625
4to término
e x = 1.625 + (0.5)3 = 1.645833
3!
ERP = 1.648721 - 1.645833 x 100 = 0.175 %
1.648721
Ea = 1.645833 - 1.625 x 100 = 1.265%
1.645833
5to término
e x = 1.645833 + (0.5)4 = 1.648437
4!
ERP = 1.648721 - 1.648437 x 100 = 0.0172 %
1.648721
Ea = 1.648437 - 1.645833 x 100 = 0.158%
1.648437
6to término
e x = 1.648437+ (0.5)5 = 1.648697
5!
ERP = 0.00142 %
Ea = 1.648697 - 1.648437 x 100 = 0.0158%
1.648697
Ea <
0.0158 < 0.05 %

Término ex ERP Ea

1 1

2 1.5

3 1.625

6 1.648697 0.00142 0.0158

Ea <
Errores de Truncamiento
Con 5 cifras significativas:
75.667891 75.667591 75.66453
75.668 75.668 75.665
Es el que ocurre al aumentar o disminuir artificialmente el valor de una magnitud.
Criterio de redondeo
D1 d2 d3 ..... d1 i +1 ..... dn ( i < n )
Di + 1 > 5 di = di +1
Di + 1 < 5 di = di
Di es par di = di
Di + 1 = 5
Di es impar di = di +1
Ejemplos:
Redondear a 4 cifras significativas:
 42.37834 = 42.38
 382.154 = 382.2
 545.21 = 545.2
Ejemplo:
Error de redondeo, al restar dos números iguales.
Considere las ecuaciones:
31.69 x + 14.31 y = 45.00
13.05 x + 5.89 y = 18.53
Determine los valores aproximados de x e y usando redondeo a dos cifras decimales, obtenga
el error absoluto y el error relativo porcentual para cada variable si sus valores verdaderos
son:
X = 1.25055 = 1.250547046
Y = 0.37527 = 0.375273523
EA = 1.25055 - 1.250547046
EA = 0.000002954
EA = 0.37527 - 0.375273523
EA = 0.000003523
ERP = 0.000002954 x100
1.25055
ERP = 0.00023 %
ERP = 0.000002954 x100
0.37527
ERP =0.00078 %
Resuelva la ecuación cuadrática:
100x2 -10011x + 10.011 = 0
Para encontrar las raíces reales ( x1,x2 ), redondeando a 5 dígitos significativos y a 5 dígitos
decimales.
10011 +- " (-10011)2 -4(100)(10.011)
2(100)
x1 = 80.088, 10041
x2 = 20.022, 9981.0
Errores de Truncamiento
Ej. 653. 45931
653. 45
Son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático.
Para estos casos las series de Taylor, en los métodos numéricos, expresan las funciones en
forma polinomial:
f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3 + .....fn(xi)hn
2! 3! n!
h(x1 +1- xi)
Ej. Use términos en la serie de Taylor de cero a 4to orden para aproximar la función f(x) =
-0.1x4 -0.15x3-0.5x2-0.25x +1.2, desde xi = 0 con h =1 para predecir el valor de la función en
x1 +1 = 1.
Solución:
n = 0 orden
f(x1 +1) = f(xi) = -0.1x4 -0.15x3-0.5x2-0.25x +1.2
f(x1 +1) = 1.2
n = 1er orden
f(x1 +1) + f(xi) +f´(xi)h
f(x1 +1) =1.2 + (-0.4 x3-0.45x2-x-0.25) (1)
f(x1 +1) =1.- 0.25
f(x1 +1) = 0.95
n= 2do orden
f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2
2!
f(x1 +1) = 1.2-0.25+(-1.2x2-0.90x-1) (1)2
2!
f(x1 +1) = 0.95 -0.5
f(x1 +1) = 0.45
n = 3er orden
f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3
2! 3!
f(x1 +1) = 0.45+ ( -2.4x-0.90 ) (1)3
6
f(x1 +1) = .45 - 0.15
f(x1 +1) = 0.3
n = 4to orden
f(x1 +1) = 0.3 + f4 (xi) h4
4!
f(x1 +1) = 0.3 + (-2.4) (1)4
24
f(x1 +1) = 0.2
Error numérico total
Es la suma de los errores de truncamiento y redondeo.
Para minimizar los errores de redondeo debe incrementarse el número de cifras significativas.
El error de truncamiento puede reducirse por un tamaño de paso más pequeño.

II. - Soluciones de Ecuaciones No Lineales.


2.1 Raíces de ecuaciones:
La fórmula cuadrática -b +- " b2 -4ac (2.1)
2a
Se usa para resolver ecuaciones del tipo Ax2+ bx + c
Ej. = f(x) = ax2 - bx + c ( 2.2 )
A los valores calculados en la ec. (2.1) se les llama raíces de la ecuación ( 2.2 ). Son valores
de x que hacen a la ecuación igual a cero.
Se puede definir a la raíz de una ecuación como el valor de x que hace a f(x) = 0.
Fundamentos Matemáticos
Las funciones algebraicas como los polinomios se representan generalmente como:
fn(x) = a0 + a1 + a2 x2 + .......... anxn
Ejemplos:
f2(x) = 1-2.37x+ 7.5x2
f6(x) = 5x2 -x3 + 7x6
f5(x) = 2 - 8x + x3 + 4x5
Las funciones “trascendentales” contienen términos trigonométricos , exponenciales o
logarítmicos.
Ejemplos:
f(x) = lnx2 -1
f(x) = ex sen x + ln 3x + x3
f(x) = e-0.2x sen(3x-0.5)
Las raíces de las ecuaciones pueden ser reales o complejas.
Si f(x) es un polinomio factorizable, como:
f(x) = ( x- x1 ) ( x - x2 ) ( x - x3 ) ....... ( x - xn )
Se tiene que xn es la n - ésima raíz de f (x) = 0
Ejemplo:
f(x)= x3 -7x2 -4x + 28 = 0
( x2 - 4 ) ( x - 7 ) = 0
x1 = 2, x2 = -2, x3 = 7
2.2 Métodos de intervalo
2.2.1 Método de Bisección
PASO 1.- Alija los valores iniciales inferior xi y superior xs.
PASO 2.- La primera aproximación a la raíz xr se determina como:
xr = xi + xs.
2
PASO 3.- Calcule f(xi), f(xr) para determinar en que subintervalo cae la raíz.
PASO 4.- a ) Si f(xi) f(xr) < o, la raíz se encuentra en este subintervalo entonces xs. = xr,
continúe el paso 2.
b)Si f(xi) f(xr) > 0, la raíz se encuentra en el subintervalo superior, entonces xi = xr, continúe el
paso 2.
PASO 5.- Cuando Ea < , el cálculo termina.
Ej. Determine el coeficiente de rozamiento c =? Necesario para que un paracaidista de masa =
68.1 kg tenga una velocidad de 40 m/s, después de una caída libre de t = 10 seg. La
aceleración de la gravedad es de 9.8 m/s2. La ecuación a utilizar es:
f(c) = gm/c ( 1 - e-(c/m) t ) - v = 0
Solución analítica:
Aproximación gráfica:
f(c) = 9.8 (68.1)/c ( 1- e -(c/68.1) ) -40
= 667.38/c ( 1-e(-0.146843) ) - 40

c f(c)

4 34.115

8 17.653

12 6.067

16 -2.269

20 -8.401
 bisección
xi = 12, xs = 16
xr = (12+16)/2 = 14, xr = xs
f(xi) = f(12) = 6.067
f(xr) = f(14) = 1.5687
f(xi) f(xr) = (6.067)( 1.5687) > 0, la raíz se encuentra en el subintervalo superior, xi = xr
n=2
xi = 14, xs = 16 , xr = 15
f(xi) = f(14) = 1.5687
f(xr) = f(15) = -0.4248
f(xi) f(xr) = (1.5687)( -0.4248) < 0, la raíz se encuentra en este subientervalo, xs = xr
Ea = {15-14/15} x 100 = 6.667 %
n=3
xi = 14, xs = 15 , , xr = 14.5
f(xi) = f(14) = 1.5687
f(xi) =f(14.5)= 0.5523
f(xi) f(xi) > 0, xi = xr
Ea = {14.5-15/14.5} x 100 = 3.448 %
n=4
xi = 14.5, xs = 15 , , xr = 14.75
f(xi) = f(14.5) = 0.5523
f(xi) =f(14.75)= 0.05896
f(xi) f(xi) > 0, xi = xr
Ea = {14.75-14.5/14.75} x 100 = 1.695 %
n=5
xi = 14.75, xs = 15 , , xr = 14.875
f(xi) = f(14.75) = 0.5896
f(xi) =f(14.87)= -0.1841
f(xi) f(xi) < 0, xs= xr
Ea = {14.875-14.75/14.875} x 100= 0.840 %
n=6
xi = 14.75, xs = 14.875 , , xr = 14.8125
Ea = {14.8125-14.875/14.8126} x 100= 0.4219 %
Ea <
0.422% < 0.5 %
xr = 14.8125

iteración Xi Xs Xr Ea %

1 12 16 14 6.667

2 14 16 12 3.448

3 14 15 14.5 1.695

4 14.5 15 14.75 0.480

5 14.75 15 14.875 0.422

6 14.75 14.875 14.8125

2.2.2 Método de la Falsa posición


Este , método utiliza una interpolación lineal ajustada a dos puntos extremos para encontrar
una aproximación a la raíz. De acuerdo a la siguiente figura:
La intersección de la línea recta con el eje de la x puede estimarse:
f(xi ) = f(xs) (2.4)
xr - xi xr - xs
Reagrupando términos y reordenando
f(xi) (xr - xs) = f(xs) (xr - xi)
xr { f(xi) - f(xs) } = xs f(xi) - xi f(xs)
dividiendo entre
f(xi) - xi f(xs) =
xr = xs f(xi) - xi f(xs) (2.5)
f(xi) - f(xs)
Separando términos:
xr = xs + xs f(xi) - xi f(xs)
f(xi) - f(xs) f(xi) - f(xs)
Sumando y restando xs en el lado derecho
xr = xs + xs f(xi) - xs xi f(xs)
f(xi) - f(xs) f(xi) - f(xs)
Agrupando términos se obtiene:
xr = xs + xs f(xs) - xi f(xs)
f(xi) - f(xs) f(xi) - f(xs)
xr = xs - f(xs) (xi -xs) (2.6)
f(xi) - f(xs)
El algoritmo es idéntico al de bisección, excepto que la ec. (2.6), se usa en el paso 2.
Ejemplo
Use el método de la falsa posición, para determinar la raíz de la ec. analizada en el ejemplo
2.1
f ( c ) = 667.38/c { (1-e-0.146843 c) } -40
n=1
xi = 12 f(xi) = 6.067
xs = 16 f(xs) = -2.2687
xr = 16 - (-2.2687) (12 -16) = 14.911
6.067 - (-2.2687)
f(xr) = -0.25426
f(xi) f(xr) = 6.067 (-0.25426 ) < 0, xs = xr
n=2
xi = 12 f(xi) = 6.067
xs = 14.9112 f(xs) = -0.25426
xr = 14.9113 - (-0.25426) (12 -14.9113) = 14.7942
6.067 - (-0.25426)
f(xr) = -0.0.2726
f(xi) f(xr) < 0, xs = xr
Ea = {(14.7942-14.9113)/14.7942} x 100% = 0.79 %
n=3
xi = 12 f(xi) = 6.067
xs = 14.7942 f(xs) = -0.02726
xr = 14.7942 - (-0.02726) (12 -14.7942) = 14.7816
6.067 - (-0.02726)
xr = 14.7816
Ea = {(14.7816-14.7942)/14.7816} x 100% = 0.087 %
Ea <
0.087 < 0.5 %
2.3 Métodos de Punto fijo
2.3.1 Método de aproximaciones sucesivas
Los métodos abiertos se basan en fórmulas que requieren de un solo valor para predecir la
raíz.
La ecuación f(x)= 0 se arregla de tal modo que x quede del lado izquierdo de la ecuación:
X = g (x ) (2.7)
Ejemplo:
f(x) = x2 -2x + 3 = 0
reordenando : x = x2 + 3
2
f(x) = sen x = o
reordenando: x = sen x + x
Requerimos de un valor inicial xi, que se puede usar para obtener una aproximación de xi + 1,
expresándolo por la forma iterativa:
xi + 1 = g (xi ) ( 2.8 )
El error de aproximación:
Ea = xi + 1 - xi x 100
xi + 1
Es quema gráfico de la convergencia de la iteración del punto fijo:
Use el método de aproximaciones sucesivas ( iteración del punto fijo para localizar la raíz de f
(x) = e-x - x, x0 = 0, Ea = 0.5% )
X = e-x = g ( x )
X1 + 1 = e-xi
X0 = 0, x1 = e-0 = 1 ; x1 = 1
X2 = e-x1 = e-1 = 0.367879
X3 = e-x2 = e-0.367879 = 0.692200
X4 = e-x3 = e-0.692200 = 0.500473
X5 = e-x4 = e-0.500473 = 0.606243
X6 = e-x5 = e-0.606243 = 0.545396
X7 = e-x6 = e-0.545396 = 0.579612
I xi Ea (%)

0 1 171.83

1 0.367879 46.9

2 0.692200 38.3

3 0.500473 17.4

4 0.606243 *

* 0.579612 *

12 0.566400 0.355

2.3.2 Método de Newton - Raphson


Este método se puede obtener mediante el siguiente gráfico:
Si el valor inicial de la raíz es xi , podemos trazar una tangente desde el punto { xi, f(xi) }.
El punto donde está tangente cruza el eje x, representa una aproximación de la raíz.
De la figura la primera derivada es x , es equivalente a la pendiente.
f´(x) = f(xi) - 0
xi - xi + 1
Reordenando:
Xi +1 = xi - f(xi) Fórmula de Newton-Raphson ( 2.9 )
f´( xi )
Esta ecuación también puede obtenerse mediante la serie de Taylor.
f(x1 +1) + f(xi) +f´(xi)h +f” (xi)h2+ f”'(xi)h3 + .....fn(xi)hn
2! 3! n!
Truncando la serie de Taylor hasta la primera derivada:
f(x1 +1) = f(xi) +f´(xi) (x1 +1 - xi)
en el que se intersecta con el eje x, f(x1 +1) = 0
0 = f(xi) +f´(xi) (x1 +1 - xi)
Xi +1 = xi - f(xi) que es la ec. ( 2.9 )
f´( xi )
Ejemplo 2.4
Encuentre la raíz de tgx-x = 0, en < x< 1.5 , = 0.01%
Solución:
3.1416 < x< 4.71
f(x) = tan x - 0.1 = 0
f´(x) = sec2 - 0.1
f´(x) = 1 - 0.1
cos2 x
x0 = 3.5
x1 = X0 - f(x0)
f´( x0 )
Sustituyendo:
3.5 - tan 3.5 - 0.1 (3.5)
1 - 0.1
cos2 3.5
x1 = 3.476422 = 3.468356
Ea = 3.476422 - 3.5 x 100 % = 0.678226
3.476422
x2 = x1 - f(x1)
f´( x1 )
Sustituyendo:
3.476422 - tan 3.476422 - 0.1 (3.476422)
1 - 0.1
cos2 3.476422
x2 = 3.476140
Ea = 3.476140 - 3.476422 x 100 % = 0.008%
3.476140
Ea <
0.008 % < 0.01 %
x = 3.476140
La siguiente fórmula atribuida a Francis se aplica a un vertedor con concentraciones:
Q = 3.33 ( B -0.2 +1) (H3)1/2
Donde:
Q = cantidad de agua que pasa por el vertedor (pie3/s)
B = ancho del vertedor en pies
H = carga sobre la cresta del vertedor
Si B = 3 y Q = 12 , calcule los valores con el método de Newton- Raphson.
Se requiere utilizar como valor inicial H0 =B/2
Solución :
f(x) = Q - 3.33(B-0.2+1)(H3)1/2 = 0
f´(x) =Q -10H3/2 + 0.666H5/2
= Q-3.33BH3/2+ 0.666H5/2
= -3.33(3/2)H1/2+ 0.666(5/2)H3/2
= -5BH1/2 + 1.66H3/2
= -15H1/2 + 1.665 H3/2
H0 = x0 = 3/2 = 1.5
x1 = X0 - f(x)
f´( x)
H1 = H0 - f(H)
f´(H)
f(H) = 12-10(1.5)3/2 + 0.666 (1.5)5/2 = -4.5359
f´(H) = -15(1.5)1/2 + 1.665 (1.5)3/2 = -15.3125
H1 = 1.5 - 4.5359 = 1.2037
15.3125
f(H) = 12-10(1.2037)3/2 + 0.6666 (1.2037)5/2
f´(H) = -15(1.2037)1/2 + 1.665(1.2037)3/2
H2 = 1.2037 - -10.14784
-14.2581
H2 = 1.1933
H3 = 1.1933
2.3.3 Método de la Secante
Consiste en aproximar la derivada f´(x1) , mediante una diferencia dividida finita regresiva,
como se muestra en la siguiente figura:

f´(x1) = f(x1) - f(x1 -1)


xi - x1 -1
Sustituyendo esta aproximación en la ecuación (2.9), obtenemos la siguiente ecuación
iterativa:
x1 +1 = xi - f(x1) - (x1 -1) ( 2.10 )
f(x1) - f(x1 -1)
Se requiere de dos valores iniciales, xo , x1
X2 = x1 - f(x1) - (x1 - xo)
f(x1)-f( xo)
X3 = x2 - f(x2) - (x2 - x1)
f(x2)-f( x1)
hasta que se cumpla la tolerancia Ea <
2.6 Un proyectil de m = 2 grs, ha sido lanzado verticalmente al aire y está descendiendo, a su
velocidad terminal, que se determina mediante mg = fD.
El modelo matemático que relaciona todas las variables y constantes es :
mg = 1.4 x 10-5 v1.5 + 1.15 x 10-5 v2
1000
donde:
v = velocidad terminal en m/s. El primer término del lado derecho. Representa la fuerza de
fricción y el segundo término representa la fuerza de presión. Determinar la velocidad terminal,
por el método de la secante, con valores iniciales de Vo = 30, V1 = 30.1 y = 0.1%.
Solución:
f(x) = f(x) = 2(9.81) = 1.4 x 10-5 v1.5 - 1.15 x 10-5 v2 = 0
1000
f(v) = 0.1962-1.4 x 10-5 v1.5 - 1.15 x 10-5 v2 = 0
1era iteración:
Vo = 30, V1 = 30.1
V2 = V1 - f(V1)( V1 - Vo )
f(V1)- f(V0)
f(V0) = 0.1962-1.4 x 10-5 (30)1.5 - 1.15 x 10-5 (30)2
= 6.9695 x10-3
f(V1) = 0.1962-1.4 x 10-5 (30.1)1.5 - 1.15 x 10-5 (30.1)2
= 6.8889 x10-3
V2 = 30.1 - 6.8889 x10-3 (30.1-30) = 38.6470
6.8889 x10-3 - 6.9695 x10-3
Ea = 38.6470 - 30.1 x 100 = 22.1%
38.6470
2da iteración
V1 = 30.1, V2 = 38.6470
f(V1)= 6.8889x10-3
f(V2)= -9.1702410-4
V3 = 37.64045
Ea = 2.67%
3era iteración
V2 = 38.6470 , V3 = 37.64045
f(V2)= -9.17024 x10-4
f(V3)= 9.372617 x10-5
V4 = 37.73353
Ea = 0.24%
4ta iteración
V3 = 37.64045, V4 = 37.73353
f(V3)= 9.372617 x10-5
f(V4) = 1.04766 x 10-6
V5 =37.7346 = V
Ea = 0.00278 %, <
Ejemplo 2.7
Para el diseño de tuberías, en el transporte de flujo de fluidos, uno de los parámetros
importantes a considerar, es el factor de fricción de Fanning, cantidad a dimensional que
depende de otro parámetro a dimensional , el número de Reynolds, Re. Una de las
ecuaciones para determinar el factor de fricción es la de Von Karman:
1 = 4 log10 (Re "f ) -0.4
"f
Los valores típicos del número de Reynolds va de 10,000 hasta 500,000: 10,000 < Re >
500,000 para flujo turbulento y valores típicos para el factor de fricción de Fanning; 0.01< f
>0.01. Determine f por el método de la secante.
Fo = 0.0049 , f1 = 0.0050, = 0.1%
Re = r

Solución:
1 = 4 log10 (105 x "f ) +0.4
"f
Re = 100,000
1er iteración
f(f0) = 1 - 4 log10 (105 x"0.0049 ) +0.4
"0.0049
f(f0) = -0.6946
f(f1) = 1 - 4 log10 (105 x"0.0050 ) +0.4
"0.0050
f(f1) = -0.8558
f2 = f1 - f(f1)( f1 - f0 )
f(f1)- (f0)
f2 = 0.0050 - (-0.8558)(0.0050-0.0049)
(-0.8558)+( 0.6946 )
f2 = 0.004469
Ea = 0.004469 - 0.0050 x 100 = 11.88%
0.004469
2da iteración
f(f2) = 1 - 4 log10 (105 x" 4.469x10-3) +0.4
"4.469x10-3
f(f2) = 0.05831
f(f3) = 1 - 4 log10 (105 x" 4.506x10-3) +0.4
"0.004506
f(f3) = -0.0103
3er iteración
f3 = f2 - f(f2) (f2 - f1)
f(f2) - f(f1)
f3 = 4.469x10-3 - (0.05831)( 4.469x10-3 - 0.0050)
0.0583 + 0.0050
f3 = 0.0049581
Ea = 0.004502 - 0.004469 x 100 = 0.73%
0.004502
III. Solución de sistemas de Ecuaciones lineales y no lienales
3.1 Métodos de soluciones de Ecuaciones lineales
3.1.1 Método gráfico
Las ecuaciones generales
a11 x1 + a12 x2 = b1
a12 x1 + a22 x2 = b2
Pueden resolverse para x2,
a11 b1
De ec. (1), x2 = - x1 +
a12 a12
a12 b2
De ec. (2), x2 = - x1 +
a22 a22
de donde x2 = ( pendiente ) x1 + intersección.
Es decir, las ecuaciones tienen la forma de líneas rectas que se puedan graficar y su
intersección representa la solución.
Ejemplos:
Ej. 3.1
Use el método gráfico para resolver las siguientes ecuaciones:
3x1 + 2x2 = 18 (A)
- x1 + 2x2 = 2 ( B)
Solución:
Despejar :
De ec. (A) : x2 = -3 x1 + 9
2
De ec. (B) : x2 = 1 x1 + 1
2

3.1.2 Método de Krammer


Un sistema de ecuaciones algebraicas lineales se representan como:
a11 x1 + a12 x2 + **** a1n xn = b1
a12 x2 + a21 x2 + **** a2n xn = b2
*
*
am1 x1 + am2 x2 + **** ann xn = bn
Donde: a = coeficientes
b = constantes
cuya matriz de coeficientes, para un sistema de 3 ecuaciones, es:
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
Y de donde el determinante D, de tercer es :
a11 a12 a13
D = a21 a22 a23
a31 a32 a33
que se resuelve como:
a22 a23 a21 a23 a21 a22
D = a11 - a12 + a13
a3 a33 a31 a33 a31 a32
donde los determinantes de 2 x 2 se les llama menores.
La regla de Krammer, se expresa como una fracción de dos determinantes con denominador
D y con el numerador obtenido a partir de D al reemplazar la columna de coeficientes de la
incógnita x1 por las constantes b1 ***** b2 ****** bn
b1 a12 a13
X1 = b2 a22 a23
b2 a32 a33
D
a11 a12 a13
X2 = a21 a22 a23
a31 a32 a33
D
a11 a12 a13
X3 = a21 a22 a23
a31 a22 a33
D
Ejemplo 3.2
Use la regla de Krammer para resolver:
0.3 X1+ 0.52 X2+ X3 = -0.01
0.5 X1+ X2+ 1.9X3 = 0.67
0.1 X1+ 0.3 X2+ 0.5X3 = -0.01
0.3 X1+ 0.52 X2+ X3 0.03 0.52
A = 0.5 X1+ X2+ 1.9X3 0.5 1
0.1 X1+ 0.3 X2+ 0.5X3 0.1 0.3
(0.15)+(0.0988)+(0.15)-(0.1)-(0171)-(0.13) = -0.0022
det A = -0.0022
-0.01 X1+0.52 X2+1 X3 -0.01 0.52
B = 0.67 X1+ 1 X2+ 1.9X3 0.67 1
-0.44 X1+0.3 X2+0.5X3 -0.44 0.3
-(0.005)-(0.43472)+(0.201)+(0.44)+(0.0057)-(0.1742)=
det B = 0.03278
det B = 0.03278 = -14.9
det A = -0.0022
0.03X1 -0.01 X2+1 X3 0.3 -0.01
C = 0.5 X1 + 0.67 X2+1.9X3 0.50 0.67
0.1 X1 -0.44 X2+0.5X3 0.1 -0.44
(0.1005)-(0.0019)-(0.22)-(0.67)+(0.2508)+(0.0025)=
det C = 0.0649
det C = 0.0649 = -29.5
det A = -0.0022
0.3 X1+ 0.52 X2 -0.01X3 0.03 0.52
D = 0.5 X1+ X2+0.67X3 0.5 1
0.1 X1+ 0.3 X2 - 0.44X3 0.1 0.3
-(0.132)+(0.03484)-(0.0015)+(0.001)-(0.0603)+(0.1144) = -0.04356
det D = -0.04356
det D = -0.04356 = 19.8
det A = -0.0022
x1 = -14.9, x2 = -29.5 , x3 = 19.8
3.3 Eliminación Gaussiana y sustitución hacia atrás
Para un sistema de ecuaciones algebraicas lineales
a11 x1 + a12 x2 + **** a1n xn = b1 E1
a12 x2 + a21 x2 + **** a2n xn = b2 E2
*
*
am1 x1 + am2 x2 + **** ann xn = bn En
La matriz aumentada A es :
a11 a12 ***** a1n b1
A = a21 a22 ***** a2n b2
a31 a32 ***** a3n bn
Para resolver este sistema lineal, se permiten tres operaciones en las ecuaciones.
1) La ecuación -Ei puede multiplicarse por cualquier constante diferente de cero y se puede
usar la ecuación resultante en lugar de Ei:
(Ei) Ei
2) La ecuación Ej, puede multiplicarse por cualquier constante
, sumarla a la ecuación Ei, y usar la ecación resultante en lugar de Ei:
(Ei + Ej) (Ei)
3.- Las ecuaciones Ei y Ej se pueden intercambiar
(Ei ) (Ei)
Ejemplo 3.3
Reducir el sistema de ecuaciones:
X1 +X2 +X3 +3X4 = 4
2 X1 +X2 -X3 +X4 = 1
3X1 -X2 -X3 +2X4 = -3
-X1 +2X2 +3X3 -X4 = 4
1 0 0 E1
0 1 0 E2
0 0 1 E3
0 0 0 E4
Para resolver las incógnitas: X1 ,X2,X3,X4 :
De esta manera el sistema se transforma en un sistema triangular o reducido, por lo tanto, por
sustitución hacia atrás:

El procedimiento involucrado en este proceso se llama eliminación Gaussiana, con sustitución


hacia atrás :
El procedimiento se realiza en dos pasos:
1.- Reducir el conjunto de ecuaciones a un sistema triangular superior por eliminación hacia
delante:
Matrices especiales:
Ejemplo 3.4. Use la eliminación de Gauss para resolver:

Efectuando los cálculos con 6 cifras significativas


Solución:
La matriz aumentada es:
Ej. 3.5, use la eliminación de Gauss para resolver :
3.1.4 Método de Gauss- Jordan
El método consiste en eliminar elementos arriba y debajo del elemento pivote, para generar
una matriz diagonal o unitaria en lugar de una triangular.
Ej. Use la técnica de Gauss- Jordan para resolver
Resolver por Gauss- Jordan:

Usando 4 cifras significativas:


3.1.5 Matriz Inversa
El producto de una matriz cuadrada , [A] y su inversa [A]-1 da como resultado la matriz
identidad [I]:
[A] [A]-1 = [A]-1[A] = [I]
La matriz inversa se puede calcular en forma numérica para resolver n sistemas lineales, de
donde la inversa es la solución del sistema lineal.
Ej. 3.8. resolver los tres sistemas lineales:

Por el cálculo de la inversa:


Solución:
La matriz de coeficientes es:

La matriz aumentada es :

Por eliminación Gaussina:


La matriz inversa [A]-1

La solución de los tres sistemas son:

 Métodos iterativos
Matrices bandeadas
Un gran número de sus componentes son cero:

El sistema de ecuaciones representados matricialmente para encontrar su solución es


Ax = b ( 3.5 )
Reordenando se tiene
Ax - b = 0
Una ecuación vectorial de f(x) = 0 (3.6)
Aplicando el método iterativo de punto fijo , la ec.(3.6) puede arreglarse de tal forma que:
X = g(x)
X = Bx + C
B = matriz (3.7)
C = vector de las constantes
Se requiere de un vector inicial x(0) como primera aproximación al vector solución x

Dado el sistema:

Con a11, a22, a22, diferentes de cero


Se despeja X1 de la Ec. 1
Se despeja X2 de la Ec. 2
Se despeja X3 de la Ec. 3
Que en notación matricial queda:

Para iterar existen dos métodos


 Jacobi

El vector aproximación a la solución x después de k iteraciones, entonces se tiene la siguiente


aproximación:
Resuelva el siguiente sistema por el método de Jacobi:

Se despeja X1 de la Ec. 1
Se despeja X2 de la Ec. 2
Se despeja X3 de la Ec. 3
Se despeja X4 de la Ec. 4
Valores iniciales , k = 0
X(0) = [ 0,0,0,0,],
Calcular xk+1 = x1

Calcular x2

Calcular x3

Los resultados de las iteraciones son:

K X1k X2k X3k X3k

0 0 0 0 0

1 0.2500 0.2500 0.2500 0.2500

2 0.3125 0.3750 0.3750 0.3125


3 0.3438 0.4219 0.4219 0.3438

4 0.3555 0.4414 0.4414 0.3555

5 0.3604 0.4492 0.4492 0.3604

6 0.3623 0.4524 0.4524 0.3623

7 0.3631 0.4537 0.4537 0.3631

8 0.3634 0.4542 0.4542 0.3634

9 0.3635 0.4544 0.4544 0.3635

10 0.3636 0.4545 0.4545 0.3636

Ejemplo 3.10
Resolver el siguiente sistema:

Despejando:

Con E = 0.001 %
Si x(0) [0,0.0]T

K X1k X2k X3k

0 0 0 0

1 -0.5000 0.1000 0.2000

2 -0.4900 0.2600 0.3300

3 -0.4550 0.2970 0.2950

4 -0.4404 0.2795 0.2771

5 -0.4439 0.2712 0.2762

6 -0.4463 0.2716 0.2789

7 -0.4464 0.2729 0.2796

8 -0.4461 0.2732 0.2793

 Gauss-Seidel
Es similar al método de Jacobi, los valores que se van calculando en la ( k + 1 ) - ésima
iteración se emplean para calcular los valores faltantes de esa misma iteración, es decir, con
x(k), se calcula x(k + 1) .
y para un sistema de n ecuaciones:

Ej. 3.11. Resuelva el sistema del ejemplo 3.9, por el método de Gauss-Seidel:

Con x(0) = [0,0,0,0]


K X1k X2k X3k X4k

0 0.0000 0.0000 0.0000 0.0000

1 0.2500 0.3125 0.3281 0.3320

2 0.3281 0.4141 0.4365 0.3591

3 0.3535 0.4475 0.4517 0.3629

4 0.3629 0.4534 0.4541 0.3635

5 0.3633 0.4544 0.4545 0.3636

6 0.3636 0.4545 0.4545 0.3636

Ej. 3.12 Use el sistema del ejemplo 3.6 por el método de Gauss- Seidel:

Solución:
Despejando:
Si con x(0) = [0,0,0]

Y así debemos seguir iterando hasta cumplir con el error estipulado.


Criterios de convergencia:

Ejemplo 3.14 aplicación en Ing. Eléctrica:


Un problema común dentro de la Ing. Eléctrica, involucra la determinación de corrientes y
voltajes en varios puntos en circuitos de resistores. Estos problemas se resuelven usando las
leyes para corrientes de voltajes de Kirchoff.
Considere el circuito mostrado en la figura siguiente:

Las corrientes asociadas con este circuito son desconocidas tanto en magnitudes como en
dirección.
Suponiendo las direcciones de las corrientes:

Determine las corrientes del circuito:


Solución:
La regla de la corriente de kirchoff aplicada a cada nodo es
i=0

La regla del voltaje en cada una de las mallas es :


v-iR = 0

Sustituyendo los valores de las R:


Por lo tanto el problema se reduce a la solución del siguiente conjunto de 6 ecuaciones con 6
incógnitas:

Por eliminación Gaussiana:

 Métodos de soluciones para Senl


Antes de intentar resolver un Senl deben tomarse las siguientes sugerencias:
Reducir analíticamente el número de ecuaciones é incógnitas.
Dividir las ecuaciones en subsistemas menores.
Estimar los valores iniciales en base a:
Consideraciones físicas.
Consideraciones geométricas.
3.2.1 Método de punto fijo multivariable
f(x) = 0
x = g(x)
x(0) = 0
1.-
2.-
3.-
Para un sistema de dos ecuaciones con dos incógnitas:
f1 = (x,y) (3.16)
f2 = (x,y)
resolviendo para las variables x, y
x = g1 = (x,y) (3.17)
y = g2 = (x,y)
Aplicando el método de punto fijo y los métodos de Jacobi y Gauss-Seidel, se obtendrá la
estimación ( k + 1 )-ésima a partir de la estimación k-ésima:
Xk+1 = g1 = (xk,yk) ( 3.18)
yk+1 = g2 = (xk,yk)
Se comienza con valores iniciales x0, y0, se calculan los nuevos valores de x1, y1 y se repite
el proceso hasta encontrar la raíz aproximada:
X = g1 = (x ,y)
Y = g2 = (x ,y)
Ejemplo 3.15. Encuentre una solución del sistema de ecuaciones no lineales:
f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1
f2 = (x,y) = xy2 + x -10y + 8 = 0 E2
mediante el método del punto fijo multivariable usando desplazamientos simultáneos ( Jacobi),
con valores iniciales x0 = 0, y0 = 0.
Solución :
Despejar x del término ( -10x) de E1
Despejar y del término ( -10y) de E2
X= 0.1x2 +0.1y2 + 0.8
Y= 0.1xy2 +0.1x + 0.8
Expresándolos iterativamente:
Xk+1 = 0.1x(xk)2+0.1(yk)2+0.8
Yk+1 = 0.1xk(yk)2 +0.1 xk +0.8
Con valores inciales x0 = 0, y0 = 0, se inicia el proceso iterativo:
1er iteración 2da iteración 3er iteración
x1= 0.8 x2 = 0.92800 x3= 0.9728
y1= 0.8 y2 = 0.9312 y3= 0.9733
Los resultados obtenidos del proceso iterativo son:

K Xk yk

0 0.0000 0.0000

1 0.8000 0.8000

2 0.9280 0.9312

3 0.9837 0.9894

4 * *

5 0.9957 0.9957

* * *

12 0.9999 0.9999

13 1.0000 1.0000

Criterios de convergencia:
Para aumentar la velocidad de convergencia puede usarse el proceso iterativo Gauss-Seidel:
Xk+1 = g1 = (xk,yk)
yk+1 = g2 = (xk+1,yk) (3.19)
Ejemplo 3.16, resuelva el sistema del ejemplo anterior utilizando el método del punto fijo
multivariable con desplazamientos sucesivos ( Gauss-seidel).
f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1
f2 = (x,y) = xy2 + x -10y + 8 = 0 E2
Solución:
Xk+1 = 0.1(xk)2+0.1(yk)2+0.8
Yk+1 = 0.1xk+1(yk)2 +0.1 xk+1 +0.8
Aplicando los criterios de convergencia se requiere derivar parcialmente:

Evaluando para x0 = 0, y0 = 0

1er iteración:
x1= 0.8
y1= 0.1(0.8)+0.8=0.88
2da iteración:
x2 = 0.1(0.8)2 +0.1(0.88)2 + 0.8 = 0.9414
y2 = 0.1(0.9414)(0.88)2+0.1(0.9414)+0.8 = 0.9670
3er iteración:
x3= 0.1(0.9414)2 +0.1(0.9670)2 + 0.8 =0.9821
y3= 0.1(0.9821)(0.9670)2+0.1(0.9821)+0.8 =0.9900
Los resultados del proceso iterativo son:

K Xk yk

0 0.0000 0.0000

1 0.8000 0.8800

2 0.9414 0.9670

3 0.9821 0.9900

4 0.9944 0.9969

* * *

11 1.0000 1.0000

3.2.2 Método Newton-Rapson multivariable


Supóngase que se está resolviendo el sistema:
f1 = (x,y)= 0
f2 = (x,y) =0
donde ambas funciones son contínuas y diferenciables, de modo que puedan expanderse en
serie de Taylor alrededor del punto (a,b):

Expandiendo fi alrededor de :

de manera similar puede expresarse f2 donde todas las derivadas parciales están evaluadas
en (xk,yk).
Considerando que la diferencia entre la aproximación actual y anterior es cero, obtenemos:

Si definimos que
Xk+1 - xk = h (3.22)
Yk+1 -yk = j
Reordenando
Xk+1 = xk+h
Yk+1 = yx+j (3.23)
Sustituyendo la ec.( 3.22) en la ec.(3.21)

Esto representa un sistema de ec. lineales con incógnitas h y j.


El sistema lineal tiene solución si el determinante de la matriz de coeficientes o matriz
Jacobiana J es diferente de cero.

Ej. 3.17 Use el método de Newton-Raphson para encontrar una solución aproximada al
sistema:
f1 = (x,y) = x2 -10x + y2 + 8 = 0 E1
f2 = (x,y) = xy2 + x -10y + 8 = 0 E2
con el vector inicial [x0 , y0], [0,0]r
Solución:
Primero se forma la matriz de derivadas parciales:

La matriz aumentada es :
1er iteración:
Evaluamos la matriz en x0,y0
Y nos queda:
-10 0 -8
1 -10 -8

de donde h = 0.8 y j = 0.88


Xk+1 = x0 + h = 0 + 0.8 = 0.8 = x1
Yk+1 = y0 + j = 0 + 0.88 = 0.88 = y1
2da iteración
2(0.8) -10 2(0.88)
(0-88)2 +1 2(0.8)(0.88)-10
con los valores x1, y1
-8.4 1.76 -1.4144
1.7744 -8.592 -0.6195
por eliminación Gaussiana:

de donde h= 0.19179 , j= 0.11171


Sustituyendo en ec. (3.23)
x2 = x1 + h = 0.8 + 0.19179 = 0.99179 x2
y2 = y1 + j = 0.88 + 0.11171 = 0.99171 y2

K Xk yk

0 0.0000 0.0000

1 0.8000 0.8800

2 0.9917 0.9917

3 0.9998 0.9999
4 1.0000 1.0000

IV.- Ajuste de funciones


4.1 Fundamentos de estadística
La media aritmética (y) de una muestra, se define como la suma de los datos individuales (yi)
dividida entre el número de puntos ( n ).

La desviación estándar ( s ) es una medida del espaciamiento de los datos individuales,


respecto, a la media:

St = = ( yi - y )2 = es la suma total de los cuadrados de los residuos entre los datos y la


media.
La varianza (S2 ) es la desviación estándar al cuadrado:
S2 = ( yi - y )2 = St (4.3)
n-1 n-1
otra manera de calcular la desviación estándar es:
S2 = yi - (yi)2 / n (4.4)
n -1
coeficiente de variación (c.v.) es la razón de la desviación estándar a la media:
c.v. = S/y (100)%
que es similar al ERP, es decir, es la razón del error de medición (s) , a un estimado del valor
real ( y ).
Ejemplo 4.1. Calcule la media, la desviación estándar y la varianza para los datos siguientes
que representan las mediciones del coeficiente de expansión térmica para acero estructural:
( x106 pulg/pulg °F )

6.495 6.595 6.615 6.635 6.485 6.555

6.665 6.505 6.435 6.625 6.715 6.655

6.775 6.625 6.715 6.575 6.655 6.605

6.565 6.515 6.555 6.395 6.775 6.685

y = 6.6008
S2 = 0.009316
S = 0.096519
Una manera de representar la distribución de datos alrededor de la media es mediante un
histograma, ya que éste proporciona una representación visual simple de la distribución.
Para los datos del ejemplo tenemos:

i yi (yi-y) frecuencia límite inferior límite superior

1 6.395 0.042025 1 6.36 6.4

2 6.435 0.027225 1 6.4 6.44

3 6.485 0.013225

4 6.495 0.010025 4 6.48 6.52

5 6.505 0.009025

6 6.515 0.007225

7 6.555 0.002025 2 6.52 6.56

8 6.555 0.002025

9 6.565 0.001225

10 6.757 0.000025 3 6.56 6.6

11 6.595 0.000225

12 6.605 0.000625

13 6.615 0.000625

14 6.625 0.001225 5 6.6 6.69

15 6.625 0.003025

16 6.635 0.003025

17 6.655 0.003025

18 6.655 0.007225 3 6.64 6.68

19 6.655 0.003025

20 6.685 0.013225 3 6.68 6.72

21 6.715 0.013225

22 6.715 0.013225

23 6.755 0.024025 1 6.72 6.76

24 6.775 0.003625 1 6.76 6.8


Método de
Jacobi

Capítulo 3
Sistemas Lineales
Los sistemas de ecuaciones lineales son una de las herramientas matemáticas de modelaje
más comunes en las aplicaciones. Una clasificación común de los sistemas lineales es por
su tamaño. Los sistemas con O(100) variables se consideran pequeños y usualmente se
utilizan los llamados métodos directos para su solución. Los sistemas de O(1000) ó más
variables se consideran grandes o de gran escala y los métodos de solución más eficientes
por lo general son los llamados métodos iterativos o indirectos. Otra clasificación
importante de los sistemas lineales es por la cantidad o densidad de ceros de la matriz de
coeficientes. Los sistemas con pocas entradas distintas de cero se llaman escasos. De lo
contrario decimos que el sistema es denso. El aprovechar la estructura de ceros de la matriz
de coeficientes nos lleva por lo general a algorítmos mucho más eficientes que los
convencionales.
La solución directa de sistemas de ecuaciones lineales conlleva esencialmente dos etapas:
transformación del sistema original a otro sistema equivalente más "simple" y luego la
solución del nuevo sistema equivalente. La transformación del sistema original a uno más
simple toma muchas formas la más común de ellas siendo el proceso de Eliminación
Gaussiana. En este método, en su forma básica, si ninguno de los pivotes se hace cero, se
producen como resultado matrices L y U triangulares inferior unitaria y superior
respectivamente tal que A=LU donde A es la matriz de coeficientes del sistema original. El
sistema Ax=b se puede resolver ahora en dos etapas adicionales.
Problema Básico y Notación
Un sistema lineal de n ecuaciones en n desconocidas se puede escribir de la forma

(3.1)

donde los son dados y x1,x2,…,xn son desconocidas. Si definimos la matriz A y


los vectores b, x por

(3.2)
Entonces podemos escribir el sistema (3.1) en forma matricial como Ax=b. La matriz A se
conoce como la matriz de coeficientes del sistema y b como el lado derecho. Si b=0, i.e.,
bi=0, 1 ≤ i ≤ n, entonces decimos que el sistema es homogeneo. De lo contrario se dice
que es nohomogeneo.
Ejemplo 1: Considere el sistema

Si definimos

Entonces podemos escribir el sistema en forma matricial como Ax=b.


¿Cúando tiene (3.1) solución y que esta sea única?
Teorema (3.1): Sea A una matriz n × n y b un vector. Las siguientes aseveraciones para el
sistema Ax=b son todas equivalentes:
a. El sistema tiene solución que es única para todo lado derecho b.
b. El sistema tiene por lo menos una solución para todo lado derecho b.
c. El sistema homogeneo asociado tiene x=0 como única solución.
d. det(A) ≠ 0
e. A es invertible
Eliminación Gaussiana
Vamos ahora a estudiar el método más básico y a la ves más importante para la solución
directa de sistemas lineales. Primero ilustramos el método con un ejemplo y despúes lo
generalizamos.
Ejemplo 2: Considere el sistema de ecuaciones siguiente:

Podemos resolver esto mediante eliminación Gaussisana como sigue:


Con este último sistema equivalente podemos obtener la solución sustituyendo para atrás:

a.

b.

c.
Vamos a generalizar este ejemplo a un sistema 3× 3 general. Escribimos el sistema original
como

(3.3)

Paso 1: Suponemos que y definimos

se llama el pivote en este paso. El sistema (3.3) reduce ahora a:

(3.4)
donde
Paso 2: Suponemos ahora que y definimos

Ahora (3.4) reduce a:

donde

Paso 3: Hacemos ahora la sustitución para atrás para obtener la solución. Suponemos aqui

que :

Pasamos ahora al caso general del sistema:

Primero pasamos por la etapa de eliminación. Esto es, para k=1,2,…,n-1:

Paso k: Suponemos que (pivote). El sistema en este paso se reduce a uno de la


forma:
donde

(3.5)
En el último paso llegamos a un sistema triangular superior de la forma:

(3.6)
donde

(3.7)
Paso n: Calculamos finalmente la solución del sistema haciendo sustitución para atrás:

(3.8)
Las fórmulas (3.5), (3.7), (3.8) definen el Método de Eliminación Gaussiana en su forma
básica. Las formulas (3.5) definen la parte de eliminación del método mientras que (3.8)
nos da la sustitución para atrás.
Antes de entrar en las variantes de el método básico vamos a hacer un estudio de la
cantidad de operaciones envueltas en el método. Esto se conoce como un conteo

operacional. Examinando las fórmulas para los en (3.5) podemos construir la tabla
siguiente:

Paso Sumas Multiplicaciones Divisiones

1 (n-1)2 (n-1)2 n-1

2 (n-2)2 (n-2)2 n-2

n-1 1 1 1

TOTAL n(n-1)(2n- n(n-1)(2n-1)/6 n(n-1)/2


1)/6

donde usamos las fórmulas

Es costumbre contar las operaciones de multiplicación y división juntas. De modo que la


tabla de arriba la podemos resumir diciendo que en la parte de eliminación del método de
eliminación Gaussiana el total de:

Sumas y Restas =

Multiplicaciones y Divisiones =

Las fórmulas para los en (3.5) se conocen como la modificación del lado derecho.
Estas conllevan:

Sumas y Restas = n-1 + (n-2) + … + 1 =


Multiplicaciones y Divisiones = n-1 + (n-2) + … + 1 =
Las fórmulas (3.8) de la sustitución para atrás conllevan los siguientes totales de
operaciones:

Sumas y Restas = 1 + 2 + … + (n-1) =

Multiplicaciones y Divisiones = 1 + 2 + … + n =
Combinando todos los totales parciales hasta ahora obtenemos que el proceso completo de
eliminación Gaussiana conlleva un total de:

Sumas y Restas =

Multiplicaciones y Divisiones =
Note que para n "grande" ambos resultados son aproximadamente (1/3)n3. Asi que por
ejemplo doblar n equivale a aproximadamente ocho veces más tiempo computacional.
Observe también que la parte de eliminación es la que contribuye el termino proporcional a
n3. La modificación del lado derecho y la sustitución para atrás son ambas proporcionales a
n2. Note que estos tres procesos son independientes uno del otro. Por consiguiente si hay la
necesidad de resolver varios sistemas todos con la misma matriz de coeficientes, la parte de
eliminación debe hacerse una sola ves.

Al derivar las fórmulas (3.5), (3.7), (3.8) asumimos que los pivotes . Si por el

contrario algún , entonces podemos argumentar matemáticamente que algún

si la matriz de coeficientes del sistema original es nosingular. En tal caso


podemos intercambiar la fila "i" con la "k" y continuar el proceso. A pesar de esto un pivote
pequeño, aunque distinto de cero, puede causar que los efectos de redondeo debido a la
aritmética finita de la computadora se propagen rápidamente.
Ejemplo 3: Considere el sistema
El determinante de la matriz de coeficientes es -20/3 de modo que es nosingular. Vamos a
resolver el sistema pero usando solo cuatro cifras decimales. Representamos el sistema con
la matriz aumentada:

De donde obtenemos que z = 1, y = 0, x = 0.6667. ¡La solución exacta del sistema es x=½,
y=¾, z=1!
Para evitar el problema de pivotes distintos de cero pero pequeños usamos lo que se
denomina como pivoteo parcial. Esto es, definimos el indice i0 por:

(3.9)

Si i0≠ k, entonces intercambiaamos las filas i0 y k. Note que estamos haciendo el pivote
máximo en valor absoluto. De esta forma los multiplicadores mik satisfacen

lo cúal es lo que ayuda con la propagación de errores. Existe otra variante del pivoteo. En
este caso se determinan los indices i0 y j0 tal que:

(3.10)
y se intercambian las filas i0 y k y las columnas j0 y k si i0≠ k ó j0≠ k respectivamente. Esto
se conoce como pivoteo total y se puede demostrar que es más efectivo que el pivoteo
parcial en el control de la propagación de errores. Pero el cálculo del máximo en (3.10) es
mucho más costoso que en (3.9) por lo que en la practica se prefiere el pivoteo parcial.
Además se ha observado en pruebas usando matrices generadas aleatoriamente, que la
diferencia entre ambos métodos no es significativa en terminos de la propagación del error.
Cálculo de la Inversa de una Matriz
Suponga que A es una matriz nosingular y A-1 su inversa. Escribimos A-1 y la matriz
identidad I en forma particionada como
A-1 = (x1,x2,…,xn) , I = (e1,e2,…,en)

donde los ei's forman la base estandar de . Ahora como A A-1 = I, tenemos que
Axi = ei , 1 ≤ i ≤ n (3.11)
-1
Asi que para calcular A debemos resolver n sistemas distintos pero con la misma matriz
de coeficientes A. La eliminación de A la hacemos una ves lo cual requiere (1/3)n3
operaciones aproximadamente. La modificación del lado derecho y la sustitución para atrás
de cada uno de los sistemas en (3.11) conlleva aproximadamente n2 operaciones cada uno.
Asi que en total tenemos (1/3)n3+n(n2) = (4/3)n3 aproximadamente. (Este conteo se puede
mejorar a (5/6)n3). En muchas ocaciones las fórmulas que envuelven inversos de matrices
se pueden rescribir en terminos de sistemas lineales intermedios. Por el conteo operacional
de arriba, las fórmulas con los sistemas lineales son preferibles ya que la solución de cada
sistema envuelve aproximadamente (1/3)n3 operaciones mientras que calcular los inversos
toma (4/3)n3 operaciones. Como regla general tenemos pues que:
LOS INVERSOS DE MATRICES NO SE CALCULAN A MENOS QUE SE
NECESITEN EXPLICITAMENTE.
Veamos una aplicación de esta regla. Supongamos que desamos calcular la expresión

donde c, b son vectores en y A es n× n. Si calculamos A-1, luego


multiplicamos por b y finalmente el producto interior con c tenemos aproximadamente

Cálculo A-1 (4/3)n3

Multiplicación A- n2
1
por b

Producto interior n
con c

TOTAL (4/3)n3+n2+n

Si en lugar de esto calculamos α mediante:


• Halle la solución x del sistema Ax=b

• Calcule
un análisis similar al de arriba nos da aproximadamente (1/3)n3+n2+n lo cual es mucho
mejor que la fórmula directa.
Factorización LU de una Matriz
Para discutir la factorización LU de una matriz necesitamos priemro definir dos tipos
especiales de matrices. Una matriz A=(aij) se dice que es triangular superior si aij=0 para
toda i > j. A es triangular inferior si aij=0 para toda i < j. El adjetivo unitaria se añade en
ambos casos si en adición aii=1 para toda i. Una matriz que es ambas triangular superior e
inferior se llama diagonal. Note que una matriz diagonal satisface aij=0 para toda i ≠ j.
Ejemplo 4: Las matrices

son triangular superior, inferior y diagonal respectivamente.


La matriz de coeficientes del sistema (3.6) es triangular superior y la denotamos por
U=(uij). Usando los multiplicadores mik en (3.5) podemos definir la matriz triangular
inferior unitaria L por:

Teorema (3.2): Sea A una matriz n× n nosingular. Defina las matrices L y U como arriba.
Entonces si no se hace pivoteo en el proceso de eliminación Gaussiana, tenemos que
A=LU.
Demostración: El elemento (i,j) del producto LU consiste del producto interior de la fila i
de L con la columna j de U. Esto es

Si i ≤ j, tenemos que

Usando las fórmulas (3.5) y la definición de U podemos escribir esto como


donde para simplificar la segunda sumatoria usamos que esta es telescópica. Ahora si i > j

Como (LU)ij=aij para toda i,j tenemos que A=LU.


Ejemplo 5: Para la matriz

tenemos que mediante eliminición Gaussiana

Si definimos ahora

tenemos que A=LU.


Dado que A=LU, el sistema Ax=b se puede escribir como LUx=b. La solución del sistema
Ax=b se puede ver entonces en tres etapas:
1. (Eliminación) Calcular la factorización A=LU.
2. (Modificación del lado derecho) Resolver el sistema triangular inferior
Lg=b para el vector g.
3. (Sustitución para atras) Resolver el sistema triangular superior Ux=g
para el vector x.
Ejemplo 5: Resuelva el sistema

La matriz de coeficientes de este sistema coincide con la del ejemplo anterior de modo que
La solución de Lg=b con b=(1,-1,0)t esta dada por:

Ahora Ux=g nos da la solución del sistema original:

Variantes del Método de Eliminación Gaussiana


Vamos ahora a discutir dos métodos alternos para calcular la factorización LU de una
matriz pero que aprovechan alguna estructura particluar de la matriz. El primero de ellos es
la Factorización de Cholesky que se usa para matrices simétricasy positivas definidas. El
otro método aprovecha la estructura escasa de la matriz en el caso que esta sea tridiagonal.
Factorización de Cholesky
Una matriz A es simétrica si At=A. Decimos que A es positiva definida si xtAx>0 para todo
x≠ 0. Se puede demostrar que una matriz simétrica es positiva definida si y solo si todos sus
valores propios son positivos. También se puede demostrar que existe una matriz triangular
inferior L tal que
A = L Lt
lo cual se conoce como la factorización de Cholesky de A. De hecho las entradas de L=(lij)
de pueden calcular mediante las fórmulas:
1. Para i=1,2,…,n

a.
b. Para j=1,2,…,i-1 (3.12)

a.
Estas fórmulas se obtienen multiplicando las filas de L por las columnas de Lt e igualando a
las entradas correspondientes de A. Un conteo operacional de estas fórmulas muestra que el
total de operaciones es aproximadamente (1/6)n3, i.e., la mitad que en eliminación
Gaussiana básico. (Note sin embargo que hay que calcular n racies cuadradas). La ganacia
aqui se debe a que se utilizó la simetría de la matriz A. Note también que como A es
simétrica solo hay que almacenar en la computadora la mitad de la matriz al igual que para
L que es triangular inferior.
Sistemas Tridiagonales
Una matriz A se llama tridiagonal si aij=0 para toda i,j tal que i - j> 1. Esto es, todas las
entradas de A son cero excepto posiblemente en las diagonales inferior, superior y
principal. Podemos pues escribir A de la siguiente forma:

(3.13)
Para almacenar A en la computadora usamos tres vectores de tamaño n lo que da un total de
3n lugares de memoria en comparación con n2 para una matriz densa. Vamos ahora a
resolver el sistema Ax=b aprovechando la estructura de ceros de A. Primero buscamos la
factorización LU de A. Para esto buscamos L y U de la forma:

(3.14)
Multiplicando e igualando a las entradas correspondientes de A obtenemos:

• fila uno de L por columna uno de U:

• fila dos de L por columna uno de U:

• fila dos de L por columna dos de U:

• fila tres de L por columna dos de U:

• fila tres de L por columna tres de U: , etc.


De esta forma obtenemos las fórmulas:

1.
2. Para j=2,3,…n

a. (3.15)

b.
El total de multiplicaciones y divisiones en estas fórmulas es 2n-2 (compare con (1/3)n3
para eliminación Gaussiana básico). Para resolver Lg=b es fácil ver que las fórmulas son:

1.
2. Para j=2,3,…,n (3.16)

a.
El total de multiplicaciones y divisiones en este cálculo es de n-1. Finalmente la solución de
Ux=g se obtinene mediante las fórmulas:

1.
2. Para j=n-1,n-2,…,1 (3.17)

a.
El conteo aqui de multiplicaciones y divisiones es de 2n-1. Asi que en total para resolver el
sistema Ax=b donde A es tridiagonal se requieren de 5n-4 multiplicaciones y divisiones. En

todo este proceso necesitamos que los pivotes y es conveniente que los 's sean
menor de uno en valor absoluto. Esto se cumple si

(3.18)
Ejemplo 6: Considere la matriz tridiagonal
Aqui aj=1, j=2,3, bj=3, j=1,2,3, cj=1, j=1,2. Asi que

de donde obtenemos que