You are on page 1of 19

ECUACIONES LINEALES

En la parte dos, determinamos el valor de x que satisface una única ecuación, f(x) = 0. Ahora, nos
ocuparemos de determinar los valores x1, x2, …, en que en forma simultánea satisfacen un sistema de
ecuaciones.

Tales sistemas pueden ser lineales o no lineales. En la parte tres, trataremos con ecuaciones algebraicas
lineales, que tienen la forma general.

donde las “a” son los coeficientes constantes, las b son los términos independientes constantes y n es el
número de ecuaciones. Todas las demás ecuaciones son no lineales.

Muchas de las ecuaciones fundamentales en ingeniería se basan en las leyes de conservación.


Entre algunas cantidades conocidas que se someten a tales leyes están la masa, la energía y el
momento. En términos matemáticos, estos principios nos conducen a ecuaciones de balance o de
continuidad que relacionan el comportamiento del sistema, al representarlo por los niveles o respuesta
de la cantidad sujeta a modelamiento con las propiedades o características del sistema, y por los
estímulos externos o funciones forzadas que actúan sobre el sistema. Por ejemplo, el principio de
conservación de la masa se utiliza para formular un modelo de una serie de reactores químicos (figura
PT3.1a). En este caso, la cantidad que habrá de modelarse es la masa de las sustancias químicas en
cada reactor. Las propiedades del sistema son la reacción característica de la sustancia química, los
tamaños de los reactores y las velocidades de flujo. Las funciones forzadas son las velocidades de
suministro de las sustancias químicas hacia el sistema.
MATRICES
Una matriz consiste en un arreglo rectangular de elementos representado por un solo símbolo.

Un conjunto horizontal de elementos se llama un renglón (o fila); y uno vertical, columna. El primer
subíndice i siempre designa el número del renglón en el cual está el elemento. El segundo subíndice j
designa la columna. Por ejemplo, el elemento a23 está en el renglón 2 y la columna 3. La matriz en la
figura PT3.2 tiene n renglones y m columnas, y se dice que tiene una dimensión (o tamaño) de n por m
(o n × m). Ésta se conoce como una matriz n por m. A las matrices con dimensión renglón n = 1, tales
como
[B] = [b1 b2 ··· bm]
se les conoce como vectores renglón.
Las matrices con dimensión columna m = 1, como

se conocen como vectores columna. Para simplificar, se elimina el segundo subíndice. Como en el caso
del vector renglón, en ocasiones se desea emplear una notación breve especial para distinguir una
matriz columna de otros tipos de matrices. Una forma para realizarlo consiste en emplear paréntesis de
llave, así {C}. A las matrices en las que n = m se les llama matrices cuadradas. Por ejemplo, una matriz
de 4 por 4 es

A la diagonal que contiene los elementos a11, a22, a33, a44 se le llama diagonal principal de la matriz.
REGLAS DE OPERACIONES CON MATRICES
Igualdad de matrices
Dos matrices n por m son iguales si, y sólo si, cada elemento en la primera matriz es igual a cada
elemento en la segunda matriz; es decir, [A] = [B] si aij = bij para todo i y j.
La suma de dos matrices, por ejemplo, [A] y [B], se obtiene al sumar los términos correspondientes de
cada matriz. Los elementos de la matriz resultante [C] son:
cij = aij + bij
para i = 1, 2, …, n y j = 1, 2, …, m. De manera similar, la resta de dos matrices, por ejemplo, [E]
menos [F], se obtiene al restar los términos correspondientes así:
dij = eij – fij
para i = 1, 2, …, n y j = 1, 2, …, m. De las definiciones anteriores se concluye directamente que la
suma y la resta sólo pueden realizarse entre matrices que tengan las mismas dimensiones.
La suma es conmutativa:
[A] + [B] = [B] + [A]
La suma también es asociativa; es decir,
([A] + [B]) + [C] = [A] + ([B] + [C])

REPRESENTACION DE ECUACIONES ALGEBRAICAS LINEALES EN FORMA


MATRICIAL.
Debe ser claro que las matrices proporcionan una notación concisa para representar ecuaciones lineales
simultáneas. La ecuación puede expresarse como
[A]{X} = {B}
donde [A] es la matriz cuadrada n por n de coeficientes.

{B} es el vector columna n por 1 de las constantes,


{B}T = ⎣b1 b2 ··· bn⎦
y {X} es el vector columna n por 1 de las incógnitas:
{X}T = ⎣x1 x2 ··· xn⎦
se ha encontrado la solución {X} de la ecuación.
ELIMINACION DE GAUSS

Se analizan las ecuaciones algebraicas lineales simultáneas que en general se representan como

Donde las a son los coeficientes constantes y las b son los términos independientes constantes. La
técnica que se describe en este capítulo se conoce como la eliminación de Gauss, ya que implica una
combinación de ecuaciones para eliminar las incógnitas. Aunque éste es uno de los métodos más
antiguos para resolver ecuaciones lineales simultáneas, continúa siendo uno de los algoritmos de mayor
importancia, y es la base para resolver ecuaciones lineales en muchos paquetes de software populares.
SOLUCIONES
Metodo Grafico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas cartesianas con
un eje que corresponda a x1 y el otro a x2. Debido a que, en estos sistemas lineales, cada
ecuación se relaciona con una línea recta, lo cual se ilustra fácilmente mediante las ecuaciones
generales

En ambas ecuaciones se puede despejar x2:

De esta manera, las ecuaciones ahora están en la forma de líneas rectas; es decir, x2 =
(pendiente) x1 + intersección. Tales líneas se grafican en coordenadas cartesianas con x2 como
la ordenada y x1 como la abscisa. Los valores de x1 y x2 en la intersección de las líneas
representa la solución.
Ejemplo Chapra Cannale:
DETERMINANTES Y REGLA DE CRAMER
La regla de Cramer es otra técnica de solución adecuada para un sistema pequeño de ecuaciones. Antes
de hacer una descripción de tal método, se mencionará en forma breve el concepto de determinante que
se utiliza en la regla de Cramer. Además, el determinante tiene relevancia en la evaluación del mal
condicionamiento de una matriz.
Determinantes. El determinante se puede ilustrar para un sistema de tres ecuaciones simultáneas:

donde [A] es la matriz de coeficientes:

El determinante D de este sistema se forma, a partir de los coeficientes del sistema, de la siguiente
manera:

Aunque el determinante D y la matriz de coeficientes [A] se componen de los mismos elementos, son
conceptos matemáticos completamente diferentes. Por esto, para distinguirlos visualmente se emplean
corchetes para encerrar la matriz y líneas rectas verticales para el determinante. En contraste con una
matriz, el determinante es un simple número. Por ejemplo, el valor del determinante de segundo orden

se calcula como
En el caso del determinante de tercer orden [ecuación (9.2)], el determinante, que es un simple valor
numérico, se calcula así

donde a los determinantes de 2 por 2 se les llama menores.

EJEMPLO DE CHAPRA CANNALE


ELMIMINACION DE INCOGNITAS
La eliminación de incógnitas mediante la combinación de ecuaciones es un método algebraico que se
ilustra con un sistema de dos ecuaciones simultáneas:

La estrategia básica consiste en multiplicar las ecuaciones por constantes, de tal forma que se elimine
una de las incógnitas cuando se combinen las dos ecuaciones. El resultado es una sola ecuación en la
que se puede despejar la incógnita restante. Este valor se sustituye en cualquiera de las ecuaciones
originales para calcular la otra variable.

Restando la ecuación (9.8) de la (9.9) se elimina el término x1 de las ecuaciones para obtener

Despejando x2

Sustituyendo (9.10) en (9.6) y despejando

Observe que las ecuaciones (9.10) y (9.11) se relacionan directamente con la regla de Cramer, que
establece
EJEMPLO DEL CHAPRA CANNALE
ELIMINACION DE GAUSS SIMPLE
Se utilizó la eliminación de incógnitas para resolver un par de ecuaciones simultáneas. El
procedimiento consistió en dos pasos:
1. Las ecuaciones se manipularon para eliminar una de las incógnitas de las ecuaciones. El resultado de
este paso de eliminación fue el de una sola ecuación con una incógnita.
2. En consecuencia, esta ecuación se pudo resolver directamente y el resultado sustituirse atrás en una
de las ecuaciones originales para encontrar la incógnita restante.
Esta técnica básica puede extenderse a sistemas grandes de ecuaciones desarrollando un esquema
sistemático o algorítmico para eliminar incógnitas y sustituir hacia atrás. La eliminación de Gauss es el
más básico de dichos esquemas. Esta sección presenta las técnicas sistemáticas para la eliminación
hacia adelante y la sustitución hacia atrás que la eliminación gaussiana comprende. Aunque tales
técnicas son muy adecuadas para utilizarlas en computadoras, se requiere de algunas modificaciones
para obtener un algoritmo confiable. En particular, el programa debe evitar la división entre cero. Al
método siguiente se le llama eliminación gaussiana “simple”, ya que no evita este problema.
El método está ideado para resolver un sistema general de n ecuaciones:

Como en el caso de dos ecuaciones, la técnica para resolver n ecuaciones consiste en dos fases: la
eliminación de las incógnitas y su solución mediante sustitución hacia atrás.
ELIMINACION HACIA DELANTE DE INCOGNITAS
La primera fase consiste en reducir el conjunto de ecuaciones a un sistema triangular superior
(figura 9.3). El paso inicial será eliminar la primera incógnita, x1, desde la segunda hasta la n-
ésima ecuación. Para ello, se multiplica la ecuación (9.12a) por a21/a11 para obtener
donde el superíndice prima indica que los elementos han cambiado sus valores originales.

El procedimiento se repite después con las ecuaciones restantes. Por ejemplo, la ecuación (9.12a) se
puede multiplicar por a31/a11 y el resultado se resta de la tercera ecuación. Se repite el procedimiento
con las ecuaciones restantes y da como resultado el siguiente sistema modificado:

En los pasos anteriores, la ecuación (9.12a) se llama la ecuación pivote, y a11 se denomina el
coeficiente o elemento pivote. Observe que el proceso de multiplicación del primer renglón por
a21/a11 es equivalente a dividirla entre a11 y multiplicarla por a21. Algunas veces la operación de
división es referida a la normalización. Se hace esta distinción porque un elemento pivote cero llega a
interferir con la normalización al causar una división entre cero. Más adelante se regresará a este punto
importante, una vez que se complete la descripción de la eliminación de Gauss simple. Ahora se repite
el procedimiento antes descrito para eliminar la segunda incógnita en las ecuaciones (9.14c) hasta
(9.14d). Para realizar esto, multiplique la ecuación (9.14b) por a′32/a′22 y reste el resultado de la
ecuación (9.14c). Se realiza la eliminación en forma similar en las ecuaciones restantes para obtener
GAUSS-JORDAN
El método de Gauss-Jordán es una variación de la eliminación de Gauss. La principal diferencia
consiste en que cuando una incógnita se elimina en el método de Gauss-Jordán, ésta es eliminada de
todas las otras ecuaciones, no sólo de las subsecuentes. Además, todos los renglones se normalizan al
dividirlos entre su elemento pivote. De esta forma, el paso de eliminación genera una matriz identidad
en vez de una triangular (figura 9.9). En consecuencia, no es necesario usar la sustitución hacia atrás
para obtener la solución.
Aunque la técnica de Gauss-Jordán y la eliminación de Gauss podrían parecer casi idénticas, la primera
requiere más trabajo. Con el empleo de un enfoque similar al de la sección 9.2.1, se determina que el
número de flas que se involucra en la técnica de Gauss-Jordán simple es

Así, la técnica de Gauss-Jordán involucra aproximadamente 50 por ciento más operaciones que la
eliminación de Gauss [compárese con la ecuación (9.23)]. Por tanto, la eliminación de Gauss es el
método de eliminación sencilla que se prefiere para obtener las soluciones de ecuaciones algebraicas
lineales. Sin embargo, una de las razones principales por las que se ha introducido la técnica de Gauss-
Jordán, es que aún se utiliza tanto en la ingeniería como en ciertos algoritmos numéricos.
MATRIZ INVERSA
En el estudio de las operaciones con matrices (sección PT3.2.2), vimos que si una matriz [A] es
cuadrada, existe otra matriz [A]–1, conocida como la inversa de [A], para la cual [ecuación (PT3.3)]

Ahora se enfocará el análisis hacia el modo en que la matriz inversa se calcula numéricamente.
Después se explorará cómo se utiliza para el diseño en ingeniería.
CALCULO DE LA INVERSA
La inversa se puede calcular en forma de columna por columna, generando soluciones con
vectores unitarios como las constantes del lado derecho. Por ejemplo, si las constantes del lado
derecho de la ecuación tienen un número 1 en la primera posición, y ceros en las otras,

la solución resultante será la primera columna de la matriz inversa. En forma similar, si se


emplea un vector unitario que tiene un número 1 en el segundo renglón

el resultado será la segunda columna de la matriz inversa.


La mejor forma de realizar un cálculo como éste es con el algoritmo de descomposición LU,
descrito al inicio de este capítulo. Recuerde que una de las ventajas más importantes de la
descomposición LU es que proporciona un medio eficiente para evaluar diversos vectores del
lado derecho. Por lo tanto, resulta ideal para evaluar los vectores unitarios requeridos en el
cálculo de la inversa.

GAUSS-SEIDEL
Los métodos iterativos constituyen una alternativa a los métodos de eliminación descritos hasta ahora,
para aproximar la solución. Tales métodos son similares a las técnicas que se desarrollaron en el
capítulo 6 para obtener las raíces de una sola ecuación. Aquellos métodos consistían en suponer un
valor y luego usar un método sistemático para obtener una aproximación mejorada de la raíz. Como
esta parte del libro trata con un problema similar (obtener los valores que simultáneamente satisfagan
un conjunto de ecuaciones). Entonces se esperaría que tales métodos aproximados fuesen útiles en este
contexto.
El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da un
sistema de n ecuaciones:
[A]{X} = {B}
Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no son
todos cero, la primera ecuación se puede resolver para x1, la segunda para x2 y la tercera para x3, para
obtener

se puede empezar el proceso de solución al escoger valores iniciales para las x. Una forma simple para
obtener los valores iniciales es suponer que todos son cero. Estos ceros se sustituyen en la ecuación
(11.5a), la cual se utiliza para calcular un nuevo valor x1 = b1/a11. Después, se sustituye este nuevo
valor de x1 junto con el valor previo cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de
x2. Este proceso se repite con la ecuación (11.5c) para calcular un nuevo valor de x3. Después se
regresa a la primera ecuación y se repite todo el procedimiento hasta que la solución converja suficiente
1 una matriz denuda positiva es aquella para la cual el producto {X}T[A]{X} es mayor que cero, para
todo vector {X} distinto de cero.
temente cerca a los valores verdaderos. La convergencia se verifica usando el criterio [recuerde la
ecuación (3.5)]

para todas las i, donde j y j – 1 son las iteraciones actuales y previas, respectivamente.
INTERLOPACION
Con frecuencia se encontrará con que tiene que estimar valores intermedios entre datos definidos por
puntos. El método más común que se usa para este propósito es la interpolación polinomial. Recuerde
que la formula general para un polinomio de n-eximo grado es
f(x)=a0+a1x+a2x2+…….anxn
Dados n+1 puntos, hay uno y solo un polinomio de grado n que pasa a través de todos los puntos. Por
ejemplo, hay solo una línea recta (es decir, un polinomio de primer grado) que une dos puntos. De
manera similar, únicamente una parábola une un conjunto de tres puntos. La interpolación polinimial
consiste en determiar el polinomio único de n-esimo grado que se ajuste a n+1 puntos. Este polinomio
entonces,proporciona una formula para calcular valores intermedios.

INTERPOLACION POLINOMIAL DE NEWTON EN DIFERENCOAS DIVIDIDAS

Interpolación lineal

La forma más simple de interpolación consiste en unir dos puntos con una línea recta. Dicha técnica,
llamada interpolación lineal, se ilustra de manera gráfica en la figura 18.2. Utilizando triángulos
semejantes,

reordenándose se tiene

que es una fórmula de interpolación lineal. La notación fl (x) designa que éste es un polinomio de
interpolación de primer grado. Observe que además de representar la pendiente de la línea que une los
puntos, el término (f(xl) — f(xO)l/(x1 — xO) es una aproximación en diferencia dividida finita a la
primer derivada.

Interpolación cuadrática

En el ejemplo el error resulta de nuestra aproximación a una curva mediante una línea recta. En
consecuencia, una estrategia para mejorar la estimación consiste en introducir alguna curvatura a la
línea que une los puntos. Si se tienen tres puntos como datos, éstos pueden ajustarse en un polinomio
de segundo grado (también conocido como polinomio cuadrático o parábola). Una forma
particularmente conveniente para ello es

f2(x) = bo + bl(x — ro) + b2(x XI)


Observe que aunque la ecuación (18.3) parece diferir del polinomio general [ecuación (18.1)], las dos
ecuaciones son equivalentes. Lo anterior se demuestra al multiplicar los términos de la ecuación (18.3):

f2(x)= ao + a1x + a2x2

Forma general de los polinomios de interpolación de Newton

El análisis anterior puede generalizarse para ajustar un polinomio de n-ésimo grado a n + 1 datos. El
polinomio de n-ésimo grado es

Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados con datos se
utilizan para evaluar los coeficientes bO, bl….bn polinomio de n-ésimo grado se requieren n + 1
puntos: [x0), f(xO)],[XI , f(x1)] Usamos estos datos y las siguientes ecuaciones para evaluar los
coeficientes:

donde las evaluaciones de la función colocadas entre paréntesis son diferencias divididas finitas. Por
ejemplo, la primera diferencia dividida finita en forma general se representa como
POLINOMIOS DE INTERPOLACIÓN DE LAGRANGE

El polinomio de interpolación de Lagrange es simplemente una reformulación del polinomio de


Newton que evita el cálculo de las diferencias divididas, y se representa de manera concisa como donde

donde n designa el "producto de". Por ejemplo, la versión lineal (n = 1) es

Observe que, como en el método de Newton, la forma de Lagrange tiene un error estimado de

De este modo, si se tiene un punto adicional en x = xn+l , se puede obtener un error estimado. Sin
embargo, como no se emplean las diferencias divididas finitas como parte del algoritmo de Lagrange,
esto se hace rara vez. Las ecuaciones (18.20) y (18.21) se programan de manera muy simple para
implementarse en una computadora. La figura 18.11 muestra el seudocódigo que sirve para tal
propósito.

En resumen, en los casos donde se desconoce el grado del polinomio, el método de Newton tiene
ventajas debido a la comprensión que proporciona respecto al comporta- miento de las fórmulas de
diferente grado. Además, el estimado del error representado por la ecuación se agrega usualmente en el
cálculo del polinomio de Newton debido a que el estimado emplea una diferencia finita. De esta
manera, para cálculos exploratorios, a menudo se prefiere el método de Newton.