Sie sind auf Seite 1von 16

METODOS NUMERICOS

UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

ESCUELA PROFESIONAL DE INGENIERÍA CIVIL

CURSO: METODOS NUMERICOS

DOCENTE: MARIA DEL PILAR VENEGAS

ESTUDIANTE:HUAYHUATA QUISPE,Romulo

CODIGO:122164

SEMETRE 2018-II

CUSCO -2018

CODIGO: 122164
METODOS NUMERICOS

1. ¿QUE SON MÉTODOS NUMÉRICOS?

Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre de manera


aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos
(operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de valores, cálculo
preposicional, etc.). Un tal procedimiento consiste de una lista finita de instrucciones precisas que
especifican una secuencia de operaciones algebraicas y lógicas (algoritmo), que producen o bien una
aproximación de la solución del problema (solución numérica) o bien un mensaje. La eficiencia en el
cálculo de dicha aproximación depende, en parte, de la facilidad de implementación del algoritmo y de
las características especiales y limitaciones de los instrumentos de cálculo (los computadores). En
general, al emplear estos instrumentos de cálculo se introducen errores llamados de redondeo.

Son una serie de herramientas que nos ayudaran a solucionar ciertos problemas de la matemática
aplicada en la ingeniería, estas herramientas se basan en hecho de aproximar las soluciones exactas,
cada herramienta nos soluciona un tipo de problema específico y tiene además las ventajas de ser
programable.

2. ERRORES, TRUNCAMIENTO Y REDONDEO

 Errores

Los métodos numéricos producen aproximaciones a la solución de los problemas, por esto siempre hay
que medir el error del resultado, para tener una idea de que tan aproximado está a la solución.

Precisión: es la cantidad de cifras que se utilizan para representar un número. Por ejemplo:

3.141592 Tiene una precisión de 7 dígitos (6 dígitos decimales)


3.141592654 Tiene una precisión de 10 dígitos (9 dígitos decimales)
3.1415 Tiene una precisión de 5 dígitos (4 dígitos decimales)

También se habla de la precisión de un aparato para indicar el número máximo de cifras que puede
manejar, por ejemplo, existen calculadoras con una precisión de 9 dígitos, otras de 10 dígitos, etc.

Exactitud: Es una medida de que tanto se acerca un resultado a la solución, por ejemplo, si una de las
raíces de una ecuación es 2.55, el resultado 2.479 es mas exacto que el resultado 2.7. sin embargo 2.479
es menos exacto que 2.6.

Existen diferentes tipos de errores, los que interesan en los métodos numéricos son los siguientes:

Error absoluto.- Si r* es una aproximación al resultado r, se define el error absoluto como el valor
absoluto de la diferencia:

EA = | r- r* |

Error relativo.-Se define como:

, con r diferente de cero.

Error relativo porcentual.-Se define como:

CODIGO: 122164
METODOS NUMERICOS

ó: Erp = Er x 100%

Por lo general, interesa el error absoluto y no el error relativo, pero cuando el valor exacto de una
cantidad es muy pequeño o muy grande, los errores relativos son una mejor medida del error, por
ejemplo:

Si : r= 0.24 x 10- 4 y r*= 0.12 x 10- 4

Entonces el error absoluto:

EA = | 0.24 x 10-4 - 0.12 x 10-4 | = 0.12 x 10-4

Como 0.12 x 10-4 es una cantidad pequeña, podría pensarse que ésta es una buena aproximación al
resultado, sin embargo al obtener el error relativo:

El error porcentual es:

Erp = Er x 100% = 0.5 x 100% = 50%

Con un error relativo porcentual de 50%, 0.12 x 10-4 esta muy lejos de ser una buena aproximación al
resultado.

Por otra parte, para cantidades muy grandes podemos observar en el siguiente ejemplo que:

Si : r= 0.46826564 x 106 y r*= 0.46830000 x 106

Entonces el error absoluto:

EA = | 0.46826564 x 106 - 0.46830000 x 106 | = 0.3436 x 102 = 34.36

Podría creerse que 34.36 es un error grande, y por lo tanto 0.46830000 x 106 una mala aproximación al
resultado, sin embargo al obtener el error relativo:

El error porcentual es:

Erp = Er x 100% = 0.73377154 x 10-4 x 100% = 0.0073355154 %

Donde puede advertirse que el error en realidad es muy pequeño.

CODIGO: 122164
METODOS NUMERICOS

 TRUNCAMIENTO

En el subcampo matemático del análisis numérico, truncamiento es el término usado para reducir el
número de dígitos a la derecha del separador decimal, descartando los menos significativos.

Por ejemplo dados los números reales:

3,14159265358979...
32,438191288
6,3444444444444

Para truncar estos números a 4 dígitos decimales, sólo consideramos los 4 dígitos a la derecha de la
coma decimal.

El resultado es:

3,1415
32,4381
6,3444

Nótese que en algunos casos, el truncamiento dará el mismo resultado que el redondeo, pero el
truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los corta en el dígito
especificado. El error de truncamiento puede ser hasta el doble del error máximo que se puede tener
usando redondeo.

 REDONDEO

Es el proceso mediante el cual se eliminan cifras significativas de un número a partir de su


representación decimal, para obtener un valor aproximado.

Reglas de redondeo

Si tenemos con seguridad una cantidad de cifras exactas de un número decimal, podemos dar una
aproximación de ese número de menos cifras de dos formas:

Truncamiento: Cortamos el número a partir de cierta cifra. Por ejemplo π = 3,141592:::, truncado a las
milésimas sería π = 3,141 y a las diezmilésimas π = 3,1415

Redondeo: Cortamos el número a partir de cierta cifra, pero sumamos uno a la última cifra que
aparezca, en el caso de que la primera que omitamos sea mayor o igual que 5. Por ejemplo,
redondeando el número π = 3,141592::: a las centésimas tenemos π = 3,14, a las milésimas π = 3,142 y a
las diezmilésimas π = 3; 1416. En general es preferible el redondeo al truncamiento, ya que cometemos
un error menor.

Estimación:

Algunas veces con el fin de facilitar los cálculos, se suelen redondear los números con los que se opera, y
los resultados que se obtienen no son verdaderos, sino que se consideran estimaciones.

Método común

Las reglas del redondeo se aplican al decimal situado en la siguiente posición al número de decimales
que se quiere transformar, es decir, si tenemos un número de 3 decimales y queremos redondear a 2, se
aplicará las reglas de redondeo:

CODIGO: 122164
METODOS NUMERICOS

Dígito menor que 5: Si el siguiente decimal es menor que 5, el anterior no se modifica.


Ejemplo: 12,612. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,612=
12,61.
Dígito mayor que 5: Si el siguiente decimal es mayor o igual que 5, el anterior se incrementa en una
unidad.
Ejemplo: 12,618. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,618=
12,62.
Ejemplo: 12,615. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,615=
12,62.

3. SERIE DE TAYLOR

Se emplea cuando una función es difícil de manejar, sustituyéndola por otra función mas sencilla
(polinomio).
En matemáticas, una serie de Taylor es una aproximación de funciones mediante
una serie de potencias o suma de potencias enteras de polinomios como (x-a)n llamados términos de la
serie, dicha suma se calcula a partir de las derivadas de la función para un determinado valor o
punto “a” suficientemente derivable sobre la función y un entorno sobre el cual converja la serie. A la
serie centrada sobre el punto cero, a=0}, se le denomina también serie de McLaurin.

Esta aproximación tiene tres ventajas importantes:

 la derivación e integración de una de estas series se puede realizar término a término, que resultan
operaciones triviales;
 se puede utilizar para calcular valores aproximados de funciones
 es posible calcular la optimidad de la aproximación.

Serie de Taylor de una función


4. MÉTODO DE BISECCIÓN

Este método consiste en obtener una mejor aproximación de la raíz a partir de un intervalo inicial (a,b)
en el cual hay un cambio de signo en la función, es decir: f(a)f(b)<0.
Se obtiene el punto medio:

xm es la nueva aproximación a la raíz, y se vuelve a tomar un intervalo, pero ahora más pequeño,
considerando que siga existiendo un cambio de signo en la función, es decir, el nuevo intervalo queda
determinado por:

CODIGO: 122164
METODOS NUMERICOS

El método termina cuando se cumple con alguna condición de paro, en este programa la condición es la
tolerancia:

Este es un método “de encierro”, para aplicarlo se debe contar con un intervalo inicial, en donde
f(a)*f(b) < 0. Este método requiere de menos pasos en un programa, sin embargo converge más
lentamente que el de Newton-Raphson.
Los pasos del método son los siguientes:
1.- Localizar un intervalo que contenga al menos una raíz.
2.- Dividir el intervalo en dos partes iguales reteniendo la mitad en donde f(x)
cambia de signo, para conservar al menos una raíz.
3.- Repetir el procesó varias veces hasta cumplir con la tolerancia deseada.

Si:
f(m) f(b)<0 entonces conservar (m,b) como el sem. Intervalo que contiene al menos
una raíz.
A cada paso se le llama “iteración” y reduce el intervalo a la mitad.
Después de cada iteración el intervalo re reduce a la mitad, después de n iteraciones, el intervalo
original se había reducido 2nveces, por lo tanto, si el intervalo original es de tamaño “a” y el criterio de
convergencia aplicado al valor absoluto de la diferencia de dos Xm consecutivas es “ ”, entonces se
requerían “n” iteraciones donde “n” se calcula con la igualdad de la expresión:

De donde: iteraciones que se requieren.

5. MÉTODO DE PUNTO FIJO

Es un método iterativo que permite resolver sistemas de ecuaciones que no necesariamente


son lineales. Se puede utilizar para determinar raíces de una función de la forma f(x), siempre
que se cumplan los criterios de convergencia.

Descripción del método

 El método de iteración de punto fijo, también denominado método de aproximación


sucesiva, requiere volver a escribir la ecuación f(x)=0 en la forma x= g(x).

CODIGO: 122164
METODOS NUMERICOS

 Se iguala a cero para que la x quede a la izquierda.


x=g(x) donde g(x) es el despeje de x en f(x)
 Existen dos maneras de hacerlo
• Despejando la variable x
• Sumando x a ambos lados de la ecuación

Despejando la variable x
Ejemplo: f(x)=3x²- 4x +5

 Primero se iguala a cero la función


3x²- 4x +5=0
 Luego se despeja la variable x
x=3x²+5 g(x)
4
Sumando x a ambos lados de la ecuación
Ejemplo: f(x)= cos(x)
 primero se iguala a cero la función
Cos(x)=0
 Luego se suma la variable x en ambos lados
x= cos(x)+x g(x)
Función convergente
 Es aquella función que se acerca a un punto fijo.
 Condición |g´(x)| < 1
 El método de punto fijo inicia con una aproximación inicial X₀ y X¡₊₁ = g(X¡) que genera una
sucesión de aproximaciones la cual converge a la solución de la ecuación f(x) = 0.
Teorema del punto fijo
 Si g es una función continua en [a,b] y g(x) Ɛ[a,b]para todo x Ɛ[a,b], entonces g tiene por lo
menos un punto fijo en [a,b]

6. MÉTODO DE LA REGLA FALSA O FALSA POSICIÓN

El método de la falsa posición pretende conjugar la seguridad del método de la bisección con la rapidez
del método de la secante. Este método, como en el método de la bisección, parte de dos puntos que
rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1tales que f(x0)f(x1) < 0. La siguiente aproximación, x2,
se calcula como la intersección con el eje X de la recta que une ambos puntos (empleando la ecuación
del método de la secante). La asignación del nuevo intervalo de búsqueda se realiza como en el método
de la bisección: entre ambos intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0. En la
figura) se representa geométricamente este método.

Figura: Representación geométrica del método de


la falsa posición.

CODIGO: 122164
METODOS NUMERICOS

La elección guiada del intervalo representa una ventaja respecto al método de la secante ya que inhibe
la posibilidad de una divergencia del método. Por otra parte y respecto al método de la bisección,
mejora notablemente la elección del intervalo (ya que no se limita a partir el intervalo por la mitad).

Figura: Modificación del método de la falsa


posición propuesta por Hamming. La aproximación
a la raíz se toma a partir del punto de intersección
con el eje X de la recta que une los puntos
( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el
intervalo (figura a) o bien a partir de la recta que
une los puntos (x0,f(x0)) y (x1, f(x1)/2) si la función
es cóncava en el intervalo (figura b).

Sin embargo, el método de la falsa posición tiene una convergencia muy lenta hacia la solución.
Efectivamente, una vez iniciado el proceso iterativo, uno de los extremos del intervalo tiende a no
modificarse.

7. MÉTODO DE NEWTON RAPHSON

Este método es uno de los mas utilizados para localizar raíces ya que en general es muy eficiente y
siempre converge para una función polinomial.
Se requiere que las funciones sean diferenciables, y por tanto, continuas, para poder aplicar este
método.
Se debe partir de un valor inicial para la raíz: xi , este puede ser cualquier valor, el método convergirá a
la raíz mas cercana.

Si se extiende una tangente desde el punto , el punto donde esta tangente cruza al eje x
representa una aproximación mejorada de la raíz.

CODIGO: 122164
METODOS NUMERICOS

La fórmula de Newton-Raphson se deduce a partir de la fórmula de la pendiente de una recta.

Pendiente de una recta:

Hay que determinar un número máximo de iteraciones

Normalmente esto se hace considerando una “tolerancia”, esto es:

CODIGO: 122164
METODOS NUMERICOS

El valor absoluto de la diferencia de la debe ser menor que la tolerancia o el resultado de


alguna fórmula de error debe ser menor que la tolerancia dada.

Una de las fórmulas de error mas útiles es la del error relativo porcentual aproximado:

100 %

El método de Newton-Raphson es convergente cuadráticamente, es decir, el error es aproximadamente


al cuadrado del error anterior.
Esto significa que el número de cifras decimales correctos se duplica aproximadamente en cada
interacción.

Cuando el método de Newton-Raphson converge, se obtienen resultados en relativamente pocas


interacciones, ya que para raíces no repetidas este método converge con orden 2 y el error E i+1 es
proporcional al cuadrado del resultado anterior Ei

Supóngase que el error en una iteración es 10-n el error en la siguiente, (que es proporcional al cuadrado
del error anterior) es entonces aproximadamente 10-2n, el que sigue será aproximadamente 10-4n etc.

De esto puede afirmarse que de cada iteración duplica aproximadamente el número de dígitos
correctos.

Sin embargo el método de Newton-Raphson algunas veces no converge, sino que oscila. Esto ocurre si
no hay raíz real, si la raíz es un punto de inflexión o si el valor inicial está muy alejado de la raíz
buscada y alguna otra parte de la función “atrapa” la iteración.

8. MÉTODO DE LA SECANTE

Este método se basa en la fórmula de Newton-Raphson, pero evita el cálculo de la derivada usando la
siguiente aproximación:

Sustituyendo en la fórmula de Newton-Raphson, obtenemos:

Que es la fórmula del método de la secante. Nótese que para poder calcular el valor de ,

necesitamos conocer los dos valores anteriores y .

CODIGO: 122164
METODOS NUMERICOS

Obsérvese tambien, el gran parecido con la fórmula del método de la regla falsa. La diferencia entre una
y otra es que mientras el método de la regla falsa trabaja sobre intervalos cerrados, el método de la
secante es un proceso iterativo y por lo mismo, encuentra la aproximación casi con la misma rapidez
que el método de Newton-Raphson. Claro, corre el mismo riesgo de éste último de no converger a la
raíz, mientras que el método de la regla falsa va a la segura.

9. MÉTODO ELIMINACIÓN GAUSSIANA CON SUSTITUCIÓN HACIA ATRÁS.

Para resolver el sistema lineal de n x n

E1 : a1,1 x1  a1, 2 x 2    a1,n x n  a1,n 1


E2 : a 2,1 x1  a 2, 2 x 2    a 2,n x n  a 2,n 1

E1 : a n ,1 x1  a n , 2 x 2    a n ,n x n  a n ,n 1

Entrada: Número de incógnitas y ecuaciones n; matriz aumentada A  ai , j donde


1  i  n y1  j  n 1

Salida: solución o mensaje de que el sistema no tiene solución única.

// Proceso de eliminación

Paso 1: Para i = 1,…,n-1 haga pasos 2-4

Paso 2: Sea p el entero mas pequeño con i  p  n y a p ,i  0 .

Si no puede encontrarse un entero p entonces

SALIDA (No existe sol. única).

Return

Paso 3: Si p  i entonces realice ( E p )  ( E i )

CODIGO: 122164
METODOS NUMERICOS

Paso 4: Para j = i+1, …, n haga pasos 5 y 6

Paso 5: Tome mi , j  a j ,i / ai ,i

Paso 6: Realice ( E j  m j ,i E i )  ( E j )

Paso 7: Si a n ,n  0 entonces SALIDA (NO existe sol. unica)

Return

// Sustitución hacia atras

Paso 8: Tome x n  a n ,n 1 / a n ,n

 n 
ai ,n 1  a i, j xj 
Paso 9: Para i = n-1, …,1 tome xi   
j i 1
a i ,i
Paso 10: Salida (sol)

10. MÉTODO DE GAUSS-JORDÁN

En matemáticas, la eliminación de Gauss Jordán, llamada así en honor de Carl Friedrich Gauss y Wilhelm
Jordán es un algoritmo del álgebra lineal que se usa para determinar las soluciones de un sistema de
ecuaciones lineales, para encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el
método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro
equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss
transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordán
continúa el proceso de transformación hasta obtener una matriz diagonal

Algoritmo de eliminación

1. Ir a la primera columna no cero de izquierda a derecha.


2. Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que no lo tenga.
3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del
renglón superior a los renglones debajo de él.
4. Cubrir el renglón superior y repetir el proceso anterior con la su matriz restante. Repetir con el
resto de los renglones (en este punto la matriz se encuentra en forma escalonada).
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener 1
delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los
renglones correspondientes.
Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordán,
(debido al mencionado Gauss y a Wilhelm Jordán), esta consiste en ir obteniendo los 1 delanteros

CODIGO: 122164
METODOS NUMERICOS

durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la
matriz en forma escalonada reducida.

11. MÉTODO PIVOTEO PARCIAL ESCALONADO

Esta técnica comienza analizando en cada fila cual es el mayor valor, luego se procede a dividir la
primera columna de la fila pivote, con el mayor valor de cada fila y según basándose en el resultado el
número mayor será intercambiado, para luego poner bajo la diagonal principal cero. Al hallar la
triangular superior se termina el proceso y se continúa despejando variables para encontrar los valores
del sistema de ecuaciones

12. MÉTODO DE FACTORIZACON (LOWER –UPPER)

La factorización LU de una matriz es una factorización que resume el proceso de eliminación gaussiana
aplicado a la matriz y que es conveniente en términos del número total de operaciones de punto
flotante cuando se desea calcular la inversa de una matriz o cuando se resolverá una serie de sistemas
de ecuaciones con una misma matriz de coeficientes. En la lectura, primeramente consideraremos la
factorización LU sin intercambio basada en matrices elementales y que es conocida como de Doolittle y
posteriormente veremos el algoritmo que da la factorización PA = LU.

Factorización LU

Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos matrices:
A=LU

Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces para
resolver el sistema: A x = b, escribimos A x = (L U) x = L (U x).

Una posible estrategia de solución consiste en tomar y = U x y resolver para y: L y = b.

Como la matriz L es triangular superior este sistema puede resolverse mediante sustitución hacia abajo,
lo cual se hace fácilmente en m2 FLOPS. Una vez con los valores encontrados de y, las incógnitas al
sistema inicial se resuelve despejando x de
U x = y.

Nuevamente, como U es escalonada, este sistema puede resolverse en caso de tener solución mediante
sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos dan la pauta para ver la conveniencia
de una factorización como la anterior, es decir factorizar A como el producto de una matriz L triangular
superior, por otra U la cual es escalonada. Esta factorización se llama usualmente Descomposición LU.

CODIGO: 122164
METODOS NUMERICOS

CODIGO: 122164
METODOS NUMERICOS

14. MÉTODO DE FACTORIZACIÓN CHOLESKY


En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-
Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta
como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La
matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado
de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas
de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz
triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin
embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la
transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la
descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas
de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente
que la descomposición LU.

En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como A=LL*
donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa
la conjugada traspuesta de L. Esta es la descomposición de Cholesky.
La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única
matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El

CODIGO: 122164
METODOS NUMERICOS

recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular
inferior o no, entonces A es Hermitiana y definida positiva.
El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso
de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz
cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva.
Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.
En el caso especial que A es una matriz simétrica definida positiva con entradas reales, L se puede
asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal
(valores propios de A), es factorizable como 𝐷 = √𝐷√𝐷 , donde √𝐷 es matriz cuya diagonal consiste
en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:
𝑡
𝐴 = 𝐿𝑈 = 𝐿𝐷𝑈0 = 𝐿𝐷𝑈 𝑡 = 𝐿(√𝐷√𝐷)𝑈 𝑡 = (𝐿√𝐷)(√𝐷𝑈 𝑡 ) = (𝐿√𝐷)(√𝐷𝑈) = 𝐾𝐾 𝑡
La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso
realizamos la factorización superior 𝐴 = 𝑈 𝑡 ∗ 𝑈:

para los elementos de la diagonal principal, y:

para el resto de los elementos. Donde 𝒰ij son los elementos de la matriz U.

15. MÉTODO DE CROUT

Este método busca hallar los valores de Lij (matriz triangular inferior) y Uij (matriz triangular superior), el
producto entre estas dos matrices dará como resultado la matriz A.

Para el método de Crout se tiene que Uii=1, esto quiere decir que los elementos de la diagonal para la
matriz U serán 1, teniendo como objetivo el cálculo de la columna K de L y la fila K de U por medio de
una simple multiplicación entre matrices y un posterior despeje.

Ya contando con la matriz L, se obtienen los valores de z, para después con estos valores, hallar los
valores de x, es decir la solución de un sistema de ecuaciones.

CODIGO: 122164

Das könnte Ihnen auch gefallen