Beruflich Dokumente
Kultur Dokumente
ESTUDIANTE:HUAYHUATA QUISPE,Romulo
CODIGO:122164
SEMETRE 2018-II
CUSCO -2018
CODIGO: 122164
METODOS NUMERICOS
Son una serie de herramientas que nos ayudaran a solucionar ciertos problemas de la matemática
aplicada en la ingeniería, estas herramientas se basan en hecho de aproximar las soluciones exactas,
cada herramienta nos soluciona un tipo de problema específico y tiene además las ventajas de ser
programable.
Errores
Los métodos numéricos producen aproximaciones a la solución de los problemas, por esto siempre hay
que medir el error del resultado, para tener una idea de que tan aproximado está a la solución.
Precisión: es la cantidad de cifras que se utilizan para representar un número. Por ejemplo:
También se habla de la precisión de un aparato para indicar el número máximo de cifras que puede
manejar, por ejemplo, existen calculadoras con una precisión de 9 dígitos, otras de 10 dígitos, etc.
Exactitud: Es una medida de que tanto se acerca un resultado a la solución, por ejemplo, si una de las
raíces de una ecuación es 2.55, el resultado 2.479 es mas exacto que el resultado 2.7. sin embargo 2.479
es menos exacto que 2.6.
Existen diferentes tipos de errores, los que interesan en los métodos numéricos son los siguientes:
Error absoluto.- Si r* es una aproximación al resultado r, se define el error absoluto como el valor
absoluto de la diferencia:
EA = | r- r* |
CODIGO: 122164
METODOS NUMERICOS
ó: Erp = Er x 100%
Por lo general, interesa el error absoluto y no el error relativo, pero cuando el valor exacto de una
cantidad es muy pequeño o muy grande, los errores relativos son una mejor medida del error, por
ejemplo:
Como 0.12 x 10-4 es una cantidad pequeña, podría pensarse que ésta es una buena aproximación al
resultado, sin embargo al obtener el error relativo:
Con un error relativo porcentual de 50%, 0.12 x 10-4 esta muy lejos de ser una buena aproximación al
resultado.
Por otra parte, para cantidades muy grandes podemos observar en el siguiente ejemplo que:
Podría creerse que 34.36 es un error grande, y por lo tanto 0.46830000 x 106 una mala aproximación al
resultado, sin embargo al obtener el error relativo:
CODIGO: 122164
METODOS NUMERICOS
TRUNCAMIENTO
En el subcampo matemático del análisis numérico, truncamiento es el término usado para reducir el
número de dígitos a la derecha del separador decimal, descartando los menos significativos.
3,14159265358979...
32,438191288
6,3444444444444
Para truncar estos números a 4 dígitos decimales, sólo consideramos los 4 dígitos a la derecha de la
coma decimal.
El resultado es:
3,1415
32,4381
6,3444
Nótese que en algunos casos, el truncamiento dará el mismo resultado que el redondeo, pero el
truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los corta en el dígito
especificado. El error de truncamiento puede ser hasta el doble del error máximo que se puede tener
usando redondeo.
REDONDEO
Reglas de redondeo
Si tenemos con seguridad una cantidad de cifras exactas de un número decimal, podemos dar una
aproximación de ese número de menos cifras de dos formas:
Truncamiento: Cortamos el número a partir de cierta cifra. Por ejemplo π = 3,141592:::, truncado a las
milésimas sería π = 3,141 y a las diezmilésimas π = 3,1415
Redondeo: Cortamos el número a partir de cierta cifra, pero sumamos uno a la última cifra que
aparezca, en el caso de que la primera que omitamos sea mayor o igual que 5. Por ejemplo,
redondeando el número π = 3,141592::: a las centésimas tenemos π = 3,14, a las milésimas π = 3,142 y a
las diezmilésimas π = 3; 1416. En general es preferible el redondeo al truncamiento, ya que cometemos
un error menor.
Estimación:
Algunas veces con el fin de facilitar los cálculos, se suelen redondear los números con los que se opera, y
los resultados que se obtienen no son verdaderos, sino que se consideran estimaciones.
Método común
Las reglas del redondeo se aplican al decimal situado en la siguiente posición al número de decimales
que se quiere transformar, es decir, si tenemos un número de 3 decimales y queremos redondear a 2, se
aplicará las reglas de redondeo:
CODIGO: 122164
METODOS NUMERICOS
3. SERIE DE TAYLOR
Se emplea cuando una función es difícil de manejar, sustituyéndola por otra función mas sencilla
(polinomio).
En matemáticas, una serie de Taylor es una aproximación de funciones mediante
una serie de potencias o suma de potencias enteras de polinomios como (x-a)n llamados términos de la
serie, dicha suma se calcula a partir de las derivadas de la función para un determinado valor o
punto “a” suficientemente derivable sobre la función y un entorno sobre el cual converja la serie. A la
serie centrada sobre el punto cero, a=0}, se le denomina también serie de McLaurin.
la derivación e integración de una de estas series se puede realizar término a término, que resultan
operaciones triviales;
se puede utilizar para calcular valores aproximados de funciones
es posible calcular la optimidad de la aproximación.
Este método consiste en obtener una mejor aproximación de la raíz a partir de un intervalo inicial (a,b)
en el cual hay un cambio de signo en la función, es decir: f(a)f(b)<0.
Se obtiene el punto medio:
xm es la nueva aproximación a la raíz, y se vuelve a tomar un intervalo, pero ahora más pequeño,
considerando que siga existiendo un cambio de signo en la función, es decir, el nuevo intervalo queda
determinado por:
CODIGO: 122164
METODOS NUMERICOS
El método termina cuando se cumple con alguna condición de paro, en este programa la condición es la
tolerancia:
Este es un método “de encierro”, para aplicarlo se debe contar con un intervalo inicial, en donde
f(a)*f(b) < 0. Este método requiere de menos pasos en un programa, sin embargo converge más
lentamente que el de Newton-Raphson.
Los pasos del método son los siguientes:
1.- Localizar un intervalo que contenga al menos una raíz.
2.- Dividir el intervalo en dos partes iguales reteniendo la mitad en donde f(x)
cambia de signo, para conservar al menos una raíz.
3.- Repetir el procesó varias veces hasta cumplir con la tolerancia deseada.
Si:
f(m) f(b)<0 entonces conservar (m,b) como el sem. Intervalo que contiene al menos
una raíz.
A cada paso se le llama “iteración” y reduce el intervalo a la mitad.
Después de cada iteración el intervalo re reduce a la mitad, después de n iteraciones, el intervalo
original se había reducido 2nveces, por lo tanto, si el intervalo original es de tamaño “a” y el criterio de
convergencia aplicado al valor absoluto de la diferencia de dos Xm consecutivas es “ ”, entonces se
requerían “n” iteraciones donde “n” se calcula con la igualdad de la expresión:
CODIGO: 122164
METODOS NUMERICOS
Despejando la variable x
Ejemplo: f(x)=3x²- 4x +5
El método de la falsa posición pretende conjugar la seguridad del método de la bisección con la rapidez
del método de la secante. Este método, como en el método de la bisección, parte de dos puntos que
rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1tales que f(x0)f(x1) < 0. La siguiente aproximación, x2,
se calcula como la intersección con el eje X de la recta que une ambos puntos (empleando la ecuación
del método de la secante). La asignación del nuevo intervalo de búsqueda se realiza como en el método
de la bisección: entre ambos intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0. En la
figura) se representa geométricamente este método.
CODIGO: 122164
METODOS NUMERICOS
La elección guiada del intervalo representa una ventaja respecto al método de la secante ya que inhibe
la posibilidad de una divergencia del método. Por otra parte y respecto al método de la bisección,
mejora notablemente la elección del intervalo (ya que no se limita a partir el intervalo por la mitad).
Sin embargo, el método de la falsa posición tiene una convergencia muy lenta hacia la solución.
Efectivamente, una vez iniciado el proceso iterativo, uno de los extremos del intervalo tiende a no
modificarse.
Este método es uno de los mas utilizados para localizar raíces ya que en general es muy eficiente y
siempre converge para una función polinomial.
Se requiere que las funciones sean diferenciables, y por tanto, continuas, para poder aplicar este
método.
Se debe partir de un valor inicial para la raíz: xi , este puede ser cualquier valor, el método convergirá a
la raíz mas cercana.
Si se extiende una tangente desde el punto , el punto donde esta tangente cruza al eje x
representa una aproximación mejorada de la raíz.
CODIGO: 122164
METODOS NUMERICOS
CODIGO: 122164
METODOS NUMERICOS
Una de las fórmulas de error mas útiles es la del error relativo porcentual aproximado:
100 %
Supóngase que el error en una iteración es 10-n el error en la siguiente, (que es proporcional al cuadrado
del error anterior) es entonces aproximadamente 10-2n, el que sigue será aproximadamente 10-4n etc.
De esto puede afirmarse que de cada iteración duplica aproximadamente el número de dígitos
correctos.
Sin embargo el método de Newton-Raphson algunas veces no converge, sino que oscila. Esto ocurre si
no hay raíz real, si la raíz es un punto de inflexión o si el valor inicial está muy alejado de la raíz
buscada y alguna otra parte de la función “atrapa” la iteración.
8. MÉTODO DE LA SECANTE
Este método se basa en la fórmula de Newton-Raphson, pero evita el cálculo de la derivada usando la
siguiente aproximación:
Que es la fórmula del método de la secante. Nótese que para poder calcular el valor de ,
CODIGO: 122164
METODOS NUMERICOS
Obsérvese tambien, el gran parecido con la fórmula del método de la regla falsa. La diferencia entre una
y otra es que mientras el método de la regla falsa trabaja sobre intervalos cerrados, el método de la
secante es un proceso iterativo y por lo mismo, encuentra la aproximación casi con la misma rapidez
que el método de Newton-Raphson. Claro, corre el mismo riesgo de éste último de no converger a la
raíz, mientras que el método de la regla falsa va a la segura.
// Proceso de eliminación
Return
CODIGO: 122164
METODOS NUMERICOS
Paso 5: Tome mi , j a j ,i / ai ,i
Paso 6: Realice ( E j m j ,i E i ) ( E j )
Return
Paso 8: Tome x n a n ,n 1 / a n ,n
n
ai ,n 1 a i, j xj
Paso 9: Para i = n-1, …,1 tome xi
j i 1
a i ,i
Paso 10: Salida (sol)
En matemáticas, la eliminación de Gauss Jordán, llamada así en honor de Carl Friedrich Gauss y Wilhelm
Jordán es un algoritmo del álgebra lineal que se usa para determinar las soluciones de un sistema de
ecuaciones lineales, para encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el
método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro
equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss
transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordán
continúa el proceso de transformación hasta obtener una matriz diagonal
Algoritmo de eliminación
CODIGO: 122164
METODOS NUMERICOS
durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la
matriz en forma escalonada reducida.
Esta técnica comienza analizando en cada fila cual es el mayor valor, luego se procede a dividir la
primera columna de la fila pivote, con el mayor valor de cada fila y según basándose en el resultado el
número mayor será intercambiado, para luego poner bajo la diagonal principal cero. Al hallar la
triangular superior se termina el proceso y se continúa despejando variables para encontrar los valores
del sistema de ecuaciones
La factorización LU de una matriz es una factorización que resume el proceso de eliminación gaussiana
aplicado a la matriz y que es conveniente en términos del número total de operaciones de punto
flotante cuando se desea calcular la inversa de una matriz o cuando se resolverá una serie de sistemas
de ecuaciones con una misma matriz de coeficientes. En la lectura, primeramente consideraremos la
factorización LU sin intercambio basada en matrices elementales y que es conocida como de Doolittle y
posteriormente veremos el algoritmo que da la factorización PA = LU.
Factorización LU
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos matrices:
A=LU
Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces para
resolver el sistema: A x = b, escribimos A x = (L U) x = L (U x).
Como la matriz L es triangular superior este sistema puede resolverse mediante sustitución hacia abajo,
lo cual se hace fácilmente en m2 FLOPS. Una vez con los valores encontrados de y, las incógnitas al
sistema inicial se resuelve despejando x de
U x = y.
Nuevamente, como U es escalonada, este sistema puede resolverse en caso de tener solución mediante
sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos dan la pauta para ver la conveniencia
de una factorización como la anterior, es decir factorizar A como el producto de una matriz L triangular
superior, por otra U la cual es escalonada. Esta factorización se llama usualmente Descomposición LU.
CODIGO: 122164
METODOS NUMERICOS
CODIGO: 122164
METODOS NUMERICOS
En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como A=LL*
donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa
la conjugada traspuesta de L. Esta es la descomposición de Cholesky.
La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única
matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El
CODIGO: 122164
METODOS NUMERICOS
recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular
inferior o no, entonces A es Hermitiana y definida positiva.
El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso
de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz
cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva.
Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.
En el caso especial que A es una matriz simétrica definida positiva con entradas reales, L se puede
asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal
(valores propios de A), es factorizable como 𝐷 = √𝐷√𝐷 , donde √𝐷 es matriz cuya diagonal consiste
en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:
𝑡
𝐴 = 𝐿𝑈 = 𝐿𝐷𝑈0 = 𝐿𝐷𝑈 𝑡 = 𝐿(√𝐷√𝐷)𝑈 𝑡 = (𝐿√𝐷)(√𝐷𝑈 𝑡 ) = (𝐿√𝐷)(√𝐷𝑈) = 𝐾𝐾 𝑡
La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso
realizamos la factorización superior 𝐴 = 𝑈 𝑡 ∗ 𝑈:
para el resto de los elementos. Donde 𝒰ij son los elementos de la matriz U.
Este método busca hallar los valores de Lij (matriz triangular inferior) y Uij (matriz triangular superior), el
producto entre estas dos matrices dará como resultado la matriz A.
Para el método de Crout se tiene que Uii=1, esto quiere decir que los elementos de la diagonal para la
matriz U serán 1, teniendo como objetivo el cálculo de la columna K de L y la fila K de U por medio de
una simple multiplicación entre matrices y un posterior despeje.
Ya contando con la matriz L, se obtienen los valores de z, para después con estos valores, hallar los
valores de x, es decir la solución de un sistema de ecuaciones.
CODIGO: 122164