Sie sind auf Seite 1von 14

Capı́tulo 1

Aproximación

1.1. Aproximación de funciones


Lo primero que necesitamos para decir cuán bien una función aproxima a otra es una forma de medir
“distancias” entre funciones (formalmente hablaremos de “normas”). Utilizaremos los conceptos de conjunto
de funciones:
{g1 , g2 , ..., gn } : gi ∈ {C [0, 1]}
Combinaciones lineales:
n
X
f= αi gi , gi ∈ {C [0, 1]}, αi ∈ R
i=1

y espacios vectoriales generados por un conjunto de funciones


n
( )
X
f :f = αi gi = span {g1 , g2 , ..., gn }
i=1

Las series de potencias (serie de Taylor) que se han visto previamente tienen convergencia uniforme,
pero sólo valen para funciones analı́ticas. En caso de tener que aproximar funciones con menor regularidad
necesitamos otros métodos.

1.1.1. Mejor aproximación


Sea {V, || · ||} un espacio vectorial normado, y T ⊂ V un subconjunto arbitrario de V . Dado v ∈ V ,
ũ ∈ T es la mejor aproximación de v en T si ||v − ũ|| ≤ ||v − u||, ∀u ∈ T . Por ejemplo:

Si V ≡ R2 (el plano) y || · || ≡ || · ||2 (la distancia euclı́dea) y T = {x ∈ V : ||x||2 ≤ 1} (el cı́rculo de


radio 1 centrado en el origen), entonces la mejor aproximación estará dada por:

Si v ∈ T ⇒ ũ = v
v
Si v ∈
/T ⇒ ũ =
||v||2

Y si definimos: T = {x ∈ V : ||x||2 < 1}, la mejor aproximación no existe cuando v ∈


/ T.

Si V ≡ {C [0, 1]} (el


 conjunto de las funciones continuas en el intervalo [0, 1]), y ||·|| ≡ ||·||∞ (norma del
máximo), y T = u ∈ V : u(x) = eβx , β > 0 (el conjunto de las exponenciales positivas). Tomando
v = 21 (la función constante 12 ), entonces debe ser mı́nima la expresión:

1 1
||u − v||∞ = máx eβx − = eβ −
0<x<1 2 2

1
2 CAPÍTULO 1. APROXIMACIÓN

1
esta expresión disminuye con β y tiende a 2 cuando β tiende a 0, pero como e0 = 1 ∈
/ T , la mejor
aproximación no existe.
e+1
Si, en cambio, v = 2 , entonces:

e+1
||v − u||∞ = máx eβx −
0<x<1 2

e+1 e−1
Siβ ≤ 1 ⇒ ||v − u||∞ = −1=
2 2
β e+1
Siβ > 1 ⇒ ||v − u||∞ =e −
2

y la mejor aproximación resulta ser cualquier exponencial eβx con β ≤ 1.

Cuando T es un conjunto arbitrario, se pueden aplicar las siguientes condiciones para determinar la
existencia y unicidad de la mejor aproximación:

Si T es compacto (toda sucesión de Cauchy converge a un elemento del conjunto) ⇒ ∃ al menos una
mejor aproximación de v en T .

Si además T es estrictamente convexo (T es convexo si u1 , u2 ∈ T ⇒ u = λu1 + (1 − λ)u2 con


λ ∈ R : 0 < λ < 1 también ∈ T . Y es estrictamente convexo cuando u calculado de esta manera es un
punto interior de T ) ⇒ la mejor aproximación es única.

1.1.2. Aproximación lineal


Si ahora T es un subespacio lineal de un espacio vectorial V y tenemos un conjunto de elementos ui que
son base de T :
T = span {u1 , u2 , ...un }
Entonces el problema de aproximación:
Dado v ∈ V , hallar ũ ∈ T : ||ũ − v|| ≤ ||u − v|| ∀u ∈ T .
Se reduce a hallar los coeficientes de la expansión lineal de ũ en las funciones de la base de T :
n
X
ũ = αi ui
i=1

El Teorema fundamental de aproximación en espacios vectoriales normados dice que:


Si U es un subespacio lineal de un espacio vectorial normado {V, || · ||} ⇒ ∀v ∈ V ∃ al menos una mejor
aproximación ũ de v en U . Si además V es estrictamente normado ⇒ la mejor aproximación de v en U es
única.
(Norma estricta: ||f + g|| = ||f || + ||g|| sii f y g son linealmente dependientes).
Por ejemplo: {Rn , || · ||2 } es estrictamente normado, mientras que {C [a, b], || · ||∞ } no lo es (ver: f (x) =
1, g(x) = x en [0, 1]).

1.1.3. Ecuaciones normales


p
Un caso particular de normas son aquellas que provienen de productos internos: ||f || = hf, f i.
p √
En Rn la norma euclı́dea se puede definir en base al producto escalar: ||x||2 = hx, xi = xT x =
qP
n
p √ qP
n
2 n×n ) es: ||x|| = hx, xiA = xT Ax =
i=1 xi y la norma “A” (cuando A ∈ R A i,j=1 aij xi xj .
1.1. APROXIMACIÓN DE FUNCIONES 3

También se pueden definir, para funciones integrables los siguientes productos internos, de los cuales se
pueden derivar sendas normas:
s
Z b Z b
hf, gi = f (x)g(x) dx → ||f ||L2 = f 2 (x) dx
a a
s
Z b Z b
hf, gi = w(x)f (x)g(x) dx → ||f ||w = w(x)f 2 (x) dx, con w(x) > 0
a a

Los espacios vectoriales con norma inducida por un producto interno se llaman “espacios pre-Hilbert”,
si además se trata de un espacio completo se llama “espacio de Hilbert”. En estos espacios se puede hallar
la mejor aproximación de un elemento desde un subespacio aplicando el teorema fundamental:
˜
Sea V un espacio vectorial con norma D inducida E por un producto interno, y U un subespacio ⇒ f es la
mejor aproximación de f ∈ V en U si f − f˜, g = 0 ∀g ∈ U . (La diferencia entre el elemento y su mejor
aproximación desde un subespacio, es ortogonal a todos los elementos del subespacio).
De este teorema fundamental se deducen las ecuaciones normales, que nos permitirán obtener un método
para calcular la mejor aproximación:
Si U = span {g1 , g2 , ...gn } y f ∈ V , escribimos la expansión de f˜ en la base de U : f˜ = ni=1 αi gi y
P
reemplazamos en el teorema fundamental:
n
* +
X
f− αi gi , gj = 0 j = 1, 2, ..., n
i=1

donde hemos utilizado la linealidad del producto interno (es suficiente que la diferencia f − f˜ sea ortogonal
a todos los elementos de la base de U para que sea ortogonal a todos los elementos de U ). Operando sobre
esta expresión, se llega a las ecuaciones normales:
n
X
αi hgi , gj i = hf, gj i j = 1, 2, ..., n (1.1)
i=1

Puede demostrarse que si el conjunto de las gi es linealmente independiente, la matriz resultante aij = hgi , gj i
es definida positiva, en particular es no-singular y por lo tanto el sistema de ecuaciones resultante tiene
solución única.
Un caso aún más favorable se da cuando la base es un conjunto ortonormal: hgi , gj i = δij , porque la
matriz del sistema resultante es la identidad, y los coeficientes se pueden obtener simplemente mediante:

αj = hf, gj i

1.1.4. Aproximación con polinomios


Supongamos que deseamos aproximar una función con polinomios, en un intervalo finito (por simplicidad
tomaremos el intervalo [−1, 1], un sencillo cambio de variables lineal permite mapear en él cualquier intervalo
finito [a, b]). Una base del conjunto de polinomios de grado menor o igual a n es el conjunto de monomios
{1, x, x2 , ...xn }. Para hallar la mejor aproximación se pueden usar las ecuaciones normales (1.1) o tratar de
encontrar una base ortonormal del conjunto de polinomios de grado ≤ n. Si utilizamos la norma L2 , esta
base ortonormal se puede construir fácilmente: llamemos L0 al elemento de la base deR polinomios de orden 0
1
(constantes). Si pretendemos que < L0 , L0 >= 1, el valor de esta constante debe ser: −1 L20 = 1 ⇒ L0 = √12 .
El siguiente elemento de la base debe ser un polinomio general de grado 1: L1 = a0 + a1 x. Planteando
R1 que
< L0 , L1 >= 0, resulta inmediato que a0 = 0, mientras que a1 surge de que < L1 , L1 >= −1 a21 x2 dx =
q
a21 23 = 1, entonces: L1 = 3
2 x. Se puede seguir con este método para hallar un conjunto de polinomios,
4 CAPÍTULO 1. APROXIMACIÓN

de grado creciente, ortonormales entre sı́. Este conjunto de polinomios es conocido como Polinomios
R1 de
Legendre, y son ortonormales en el intervalo [−1, 1] respecto al producto interno: < f, g >= −1 f g dx. La
mejor aproximación de una función f arbitraria en el intervalo [−1, 1] mediante polinomios de grado a lo
sumo n se puede expresar como:
Xn Z 1
˜
f (x) = f (x)Li (x) dx Li (x)
i=0 −1

Los polinomios de Legendre también se pueden obtener usando la fórmula:


r
1 2n + 1 dn (x2 − 1)n
Ln (x) = n
2 n! 2 dxn
Otro conjunto de polinomios ortogonales en el intervalo [−1, 1] son los Polinomios
R 1 de Chebishev, en este
caso se define el producto interno con una función de peso: < f (x), g(x) >= −1 f (x)g(x)w(x) dx, y en
1
particular los polinomios de Chebishev de tipo 1 (notación: Tn (x) usan w(x) = √1−x 2
, mientras que los

polinomios de Chebishev de tipo 2 (Un (x))se definen con w(x) = 1 − x2 . Existen relaciones de recurrencia
que permiten calcular fácilmente los polinomios de Chebishev:

T0 = 1, T1 = x, Tn+1 = 2xTn − Tn−1 (1.2)


U0 = 1, U1 = 2x, Un+1 = 2xUn − Un−1 (1.3)

Nótese que, definidos de esta manera, no se cumple la condición: < Ti , Ti >= 1, en particular: < T0 , T0 >= π,
< Ti , Ti >= π2 , i ≥ 1, < Ui , Ui >= π2 , de manera que la matriz resultante de las ecuaciones normales no
resulta la identidad, pero sı́ es diagonal.
CuandoR se tiene un intervalo semi-infinito, es posible mapearlo a [0, ∞), y utilizar el producto interno:

< f, g >= 0 f (x)g(x)e−x dx. En este caso se obtiene un conjunto ortogonal de polinomios, conocidos como
Polinomios de Laguerre, que también pueden obtenerse con la relación de recurrencia:
1
L0 = 1, L1 = −x + 1, Ln+1 = ((2n + 1 − x)Ln − nLn−1 ) (1.4)
n+1
Y análogamente,
R∞ para aproximar una función en todos los reales se suele utilizar el producto interno:
2
< f, g >= 0 f (x)g(x)e−x dx, resultando los Polinomios de Hermite.
Volviendo a intervalos finitos, también es posible mapearlos al intervalo [−π, π] y utilizar el siguiente
conjunto de funciones trigonométricas,
Rπ que resultan ortonormales en dicho intervalo usando el producto
interno “estándar”: < f, g >= −π f g dx:

1 1 1
g1 (x) = √ , g2j (x) = √ cos(jx), g2j+1 (x) = √ sin(jx), j = 1, 2, ...
2π π π

1.2. Cuadrados mı́nimos


Con frecuencia es necesario obtener la función que mejor aproxima a un conjunto de puntos obtenidos
experimentalmente. En este caso es necesario en principio definir una medida de esta aproximación, y luego,
en caso de ser posible, definir una metodologı́a para obtener la mejor aproximación.

1.2.1. Las ecuaciones normales


Supongamos entonces que tenemos como dato un conjunto de puntos {(xi , yi )} con i = 1, 2, ...N y un
conjunto de funciones definidas a partir de una base {g1 , g2 , ...gn }. Si u ∈ span {g1 , g2 , ...gn }, llamaremos u
al vector resultante de evaluar u en las abscisas, y y al vector de ordenadas. Diremos que ũ es la función
que mejor aproxima al conjunto de puntos {(xi , yi )}, si ||ũ − y|| ≤ ||u − y||∀u ∈ span {g1 , g2 , ...gn }.
1.2. CUADRADOS MÍNIMOS 5

Expresando ũ como combinación lineal de las gi el problema se reduce a encontrar los coeficientes αi que
minimizan:
Xn
|| αj gj (x) − y|| (1.5)
j=1

Podemos definir la matriz G ∈ RN xn : gij = gj (xi ), y la expresión anterior se reduce a:

||Gα − y||

donde α ∈ Rn es el vector de los coeficientes incógnita, que minimizan la norma del vector Gα − y(∈ RN . Si
particularizamos para la norma euclı́dea tenemos el problema de cuadrados mı́nimos. Se puede resolver, por
ejemplo, derivando la expresión de la norma e igualando a 0. O también: la mitad de la norma al cuadrado:
1 1 T
Φ(α) = ||Gα − y||22 =

Gα − y Gα − y
2 2

1 1  yT y
Φ(α) = αT GT Gα − (Gα)T y + y T Gα +
2 2 2
1 yT y
Φ(α) = αT GT Gα − αT GT y +
2 2
El gradiente de este funcional resulta:
∇Φ = GT Gα − GT y
Igualando a cero surgen las ecuaciones normales de cuadrados mı́nimos:

GT Gα = GT y (1.6)

que escritas en la forma:


GT Gα − y = 0

(1.7)
imponen que el vector Gα − y sea ortogonal (o normal) a todas las columnas de la matriz G (todas las filas
de GT ).
Nótese que en el caso general N > n y por lo tanto G y GT no son inversibles, sin embargo GT G ∈ Rn×n
es una matriz cuadrada, y es inversible cuando la matriz G es de rango completo (rank(G) = n). Para
ello es necesario que las funciones base gi sean linealmente independientes y que haya al menos n abscisas
distintas entre los N puntos dato. Además hace falta alguna condición sobre los ceros de las funciones base,
por ejemplo, es suficiente que tengan a lo sumo n − 1 ceros en el intervalo de interés. (De lo contrario, si
los puntos dato coinciden con los ceros de una función base, se tendrı́a una columna de ceros, y G serı́a de
rango deficiente).

1.2.2. Resolución mediante factorización QR


Es frecuente que la matriz GT G esté muy mal condicionada, resultando difı́cil su tratamiento numérico.
Una alternativa es resolver el problema de cuadrados mı́ımos realizando una factorización de la matriz G
como producto de una matriz ortogonal unitaria Q ∈ RN ×N y una matriz triangular superior R ∈ RN ×n .
Hay varios métodos para hallar la factorización QR de una matriz general (Rotaciones de Givens, reflexiones
de Householder, Ortogonalización de Gramm-Schmidt, etc.). Una vez que se tiene la factorización:

G = QR, QT G = QT QR = R

podemos plantear la norma a minimizar:

||Gα − y||22 = ||QT Gα − QT y||22 = ||Rα − QT y||22


6 CAPÍTULO 1. APROXIMACIÓN

Donde utilizamos que, al ser QT unitaria, no altera la norma de un vector. Ahora considerando que R es
triangular superior, y que n < N , el vector x = Rα tendrá necesariamente sus componentes de ı́ndice mayor
a n iguales a 0 (xi = 0∀i > n). Sean c ∈ Rn y d ∈ RN −n las componentes 1 a n y n + 1 a N del vector QT y,
y R1 ∈ Rn×n la submatriz de R de ı́ndices 1 − n, 1 − n, entonces se puede escribir:

||Gα − y||22 = ||R1 α − c||22 + ||d||22

resulta evidente que d es independiente de α, de modo que la norma cuadrática se minimiza cuando:

R1 α = c

y éste resulta un sistema de n ecuaciones con n incógnitas, con matriz triangular superior, fácilmente
resoluble por retro-sustitución.

1.3. Interpolación (con polinomios)


1.3.1. Ecuaciones normales
El problema de interpolación puede ser planteado como un caso particular de cuadrados mı́nimos, en el
cual el número de puntos coincide con la cantidad de funciones base (N = n). La condición para que GT G
sea inversible es equivalente a que la misma matriz G sea inversible, de tal manera que se pueden utilizar
las ecuaciones normales de cuadrados mı́nimos: (GT Gα = GT y), pero también se puede utilizar la expresión
simplificada: Gα = y. El caso frecuente de interpolación con polinomios, cuando se utiliza la base de los
monomios: gi = xi−1 , da origen a la conocida matriz de Vandermonde:

1 x1 x21 ... xn−1


 
1
 1 x2 x22 x2n−1 
n−1 
 
G= 1 x x 2 x
 3 3 3 
 ... ... 
1 xn x2n ... xnn−1

1.3.2. Fórmula de Lagrange


En el caso de interpolación no es posible simplificar la estructura de la matriz utilizando bases ortogonales
de funciones, ya que los coeficientes de la matriz dependen además de la ubicación de los puntos. Sin embargo
es posible construir un conjunto de polinomios que se anulan en todos los puntos, salvo en uno de ellos,
donde vale 1, formalmente: li (xj ) = δij . Estos polinomios se llaman polinomios de Lagrange, y la fórmula de
interpolación de Lagrange es simplemente:
n
X
p(x) = yi li
i=1

Los polinomios de Lagrange se construyen de la siguiente manera:


(x − x1 )(x − x2 )...(x − xi−1 )(x − xi+1 )...(x − xn )
li (x) =
(xi − x1 )(xi − x2 )...(xi − xi−1 )(xi − xi+1 )...(xi − xn )

1.3.3. Forma de Newton


Analicemos el costo computacional de los métodos propuestos, en sus dos etapas: el cálculo de coeficientes
y la evaluación propiamente dicha del polinomio en un punto arbitrario.
Los métodos de ecuaciones normales o de matriz de Vandermonde necesitan resolver un sistema lineal
de n ecuaciones con n incógnitas, en general con una matriz llena. Como hemos visto, los métodos más
1.3. INTERPOLACIÓN (CON POLINOMIOS) 7

sencillos son de costo O(n3 ). Una vez que se tienen los coeficientes de los monomios su evaluación se puede
hacer con O(n) operaciones:
n−1
X
p(x) = ai xi
i=0
= a0 + x(a1 + x(... + x(an−2 + xan−1 )...))

En la fórmula de Lagrange, se pueden calcular a priori los denominadores, que sólo dependen de los
puntos dato y representan O(n2 ) operaciones (n − 1 sumas y n − 2 productos para calcular cada uno de los
n denominadores). Para evaluar el polinomio nuevamente el costo es O(n2 ), ya que es necesario evaluar los
n numeradores (n − 1 sumas y n − 2 productos).
La forma de Newton de un polinomio interpolante permite realizar el cálculo de coeficientes con O(n2 )
operaciones, y su evaluación con O(n). Es la siguiente:

p(x) = c1 + c2 (x − x1 ) + c3 (x − x1 )(x − x2 ) + ... + cn (x − x1 )(x − x2 )...(x − xn−1 )

El cálculo de los coeficientes ci se realiza por sustitución, como p(x1 ) = y1 , reemplazando en la fórmula
−c1
resulta: c1 = y1 . Utilizando que p(x2 ) = y2 resulta: c2 = xy22−x1
. Continuando:
y3 −c1
x3 −x1 − c2
c3 =
x3 − x2
y4 −c1
x4 −x1
−c2
x4 −x2 − c3
c4 =
x4 − x3

Para calcular el coeficiente ci hacen falta i−1 divisiones y 2i−2 sumas, en total alrededor de 32 n2 operaciones.
La evaluación se puede hacer con O(n) operaciones, de la siguiente manera:

p(x) = c1 + (x − x1 )(c2 + (x − x2 )(c3 + ...(x − xn−2 )(cn−1 + (x − xn−1 )cn )...))

1.3.4. Errores - El problema de Runge


Dada una función analı́tica f (x), un conjunto de n + 1 puntos {xi }, y pn (x) el polinomio interpolante
de grado n de f en dichos puntos, el error puede expresarse como:

f (n+1) (ξ)
e(x) = (x − x1 )(x − x2 )...(x − xn+1 )
(n + 1)!
con mı́n xi ≤ ξ ≤ máx xi .
Si, por ejemplo, interpolamos una función usando dos puntos y una relación lineal, el error será:
f 00 (ξ)
e(x) = (x − x1 )(x − x2 )
2!
si conseguimos acotar la derivada segunda: |f 00 (x)| ≤ M, ∀x ∈ [x1 , x2 ], tendremos:
M
e(x) ≤ (x − x1 )(x − x2 )
2
Observaciones:
Obviamente e(xi ) = 0.

Atención con las extrapolaciones: por más que f (n+1) (ξ) esté acotada, el factor
Q
(x − xi ) crece muy
rápidamente.
8 CAPÍTULO 1. APROXIMACIÓN

Incluso en el interior del intervalo, no está garantizado que el error disminuya al aumentar el grado
del polinomio interpolante. Un simple f (x) = x1 , derivado a un orden alto, introduce en el numerador
un n!.

Un caso particular, muy ilustrativo de los problemas con interpolantes de alto orden es el ejemplo de
1
Runge: si se intenta interpolar con polinomios la función f (x) = 1+x 2 , y se utilizan puntos igualmente
espaciados en el intervalo [0, 1], se puede demostrar que el error, en norma del máximo, crece con el grado
de la interpolante, incluso:  
lı́m máx |f (x) − Pn (x)| = +∞
n→∞ −1≤x≤1

En este caso
 particular se puede demostrar que una elección adecuada de los puntos de interpolación (xi =
2i−1
cos 2n , los ceros del polinomio de Chebishev de orden n) hace que el error disminuya con el orden de la
interpolación. En el caso general se suele preferir trabajar con polinomios de bajo orden, por partes (a veces
llamados “splines”). Otra posibilidad es reducir el orden del polinomio, manteniendo el número de puntos,
es decir: realizar un ajuste por cuadrados mı́nimos.
Capı́tulo 2

Integración Numérica

La integración numérica es de utilidad tanto para el cálculo aproximado de áreas/volúmenes como para el
cómputo aproximado de antiderivadas. Además hay numerosos métodos numéricos para resolver ecuaciones
en derivadas parciales que involucran el cálculo de integrales en subdominios del dominio de cálculo.

2.1. Fórmulas de un punto


La integral definida de una función f (x) en el intervalo [a, b], puede calcularse como:
Z b n  
X i−1 b−a
f (x)dx = lı́m f a+ (b − a)
a n→∞ n n
i=1
n  
X i b−a
= lı́m f a + (b − a)
n→∞ n n
i=1
n  
X i − 0.5 b−a
= lı́m f a+ (b − a)
n→∞ n n
i=1

Si tomamos n = 1 tenemos las fórmulas de un punto: las reglas de un punto extremo:


Z b
f (x)dx ' f (a)(b − a)
a
Z b
f (x)dx ' f (b)(b − a)
a
y la regla del punto medio:
Z b  
a+b
f (x)dx ' f (b − a)
a 2
Suponiendo f (x) suficientemente derivable, podemos estimar el error cometido:

f (x) = f (a) + f 0 (a)(x − a) + O((x − a)2 )


b
(b − a)2
Z
f (x)dx = (b − a)f (a) + f 0 (a) + O((b − a)3 )
a 2
Mientras que, si desarrollamos en un entorno del punto medio m:
(x − m)2
f (x) = f (m) + f 0 (m)(x − m) + f 00 (m) + O((x − m)3 )
2
Z b b b
0 (x − m)2 00 (x − m)3
f (x)dx = (b − a)f (m) + f (m) + f (m) + ...
a 2 a 6 a

9
10 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA

b
(b − a)3
Z
f (x)dx = (b − a)f (m) + f 00 (m) + O((b − a)5 ) (2.1)
a 24

2.2. Fórmula del trapecio y de Simpson


Si hallamos f (a) y f (b) desarrollando f en un entorno del punto medio m y sumamos las expresiones,
se tiene:
b−a f 00 (m) (b − a)2
f (a) = f (m) − f 0 (m)( )+ + ...
2 2 4
b−a f 00 (m) (b − a)2
f (b) = f (m) + f 0 (m)( )+ − ...
2 2 4

f (a) + f (b) f 00 (m) (b − a)2


− f (m) = + O((b − a)4 )
2 2 4
y reemplazando en 2.1 se obtiene la regla:
b
(b − a)3
Z
f (a) + f (b)
f (x)dx = (b − a) − f 00 (m) + O((b − a)5 ) (2.2)
a 2 12

conocida como regla de los trapecios.


Tanto la fórmula del punto medio como la de trapecios tienen el término de mayor orden del error
proporcional a (b − a)3 . Si multiplicamos (2.1) por 13 y lo sumamos a (2.2) multiplicado por 23 , obtenemos
a la izquierda de la igualdad nuevamente la integral, mientras que a la derecha, el término de mayor orden
del error se anula, obteniéndose una fórmula con error O((b − a)5 :
b
b−a (b − a)5
Z
f (x)dx = [f (a) + 4f (m) + f (b)] + f (iv) (m) + O((b − a)7 ) (2.3)
a 6 2880

Esta fórmula, conocida como regla de Simpson también puede obtenerse interpolando un polinomio cuadrá-
tico en los puntos a, m y b e integrándolo.

2.3. Subdivisión en “n” intervalos


Si ahora utilizamos n > 1 (dividimos el intervalo de integración en sub-intervalos iguales), y aplicamos,
por ejemplo, la primera regla de un punto extremo, obtenemos:
n Z b0i n 
b
(b0 − a0i )2
Z X X 
f (x)dx = f (x)dx = f (a0i )(b0i − a0i ) 0
+ f (ξi ) i
a a0i 2
i=1 i=1

y aplicando que b0i − a0i = h es constante:

b n n
h2 X 0
Z X
f (x)dx = h f (a0i ) + f (ξi )
a 2
i=1 i=1

y si la derivada primera está acotada en el intervalo [a, b], i.e. |f 0 (x)| ≤ M, ∀x ∈ [a, b], entonces:
b
h2
Z X h
f (x)dx = h = 1n f (a + h(i − 1)) + e(h), |e(h)| ≤ nM = M (b − a)
a 2 2
i

donde se usó que h = (b − a)/n.


2.4. FÓRMULAS DE NEWTON-COTES 11

Lo mismo se puede aplicar a la fórmula del punto medio, resultando:


Z b n
X h2
f (x)dx = h f (a + h(i − 1/2)) + e(h), |e(h)| ≤ M (b − a)
a 24
i=1

donde M ahora es una cota sobre la derivada segunda.


En ambos casos la cantidad de evaluaciones requeridas de la función es n, pero en el segundo se obtiene un
método que aproxima a la solución con O(h2 ). Si aplicamos la regla de los trapecios en cada sub-intervalo el
número de evaluaciones no se duplica, ya que el extremo derecho de un intervalo es el izquierdo del siguiente
y no es necesario repetir el cálculo, en este caso la fórmula resulta:
Z b n
X h2
f (x)dx = h wi f (a + hi) + e(h), |e(h)| ≤ M (b − a)
a 12
i=0

donde M sigue siendo una cota sobre la derivada segunda y wi vale 21 para i = 0, i = n y vale 1 para
1 ≤ i < n.
Usando la fórmula de Simpson se llega a:
Z b n
X h4
f (x)dx = h wi f (a + hi) + e(h), |e(h)| ≤ M (b − a)
a 180
i=0

donde M es una cota de la derivada cuarta, n debe ser par, y los pesos son w0 = wn = 31 , wi = 4
3 si i es
impar, y wi = 23 si i es par.

2.4. Fórmulas de Newton-Cotes


Las fórmulas de Newton-Cotes generalizan estas cuadraturas mediante la evaluación en varios puntos
equiespaciados. Si se incluyen los extremos del sub-intervalo se llaman fórmulas cerradas de Newton-Cotes,
las primeras son la de trapecios y la de Simpson, sigue la de Simpson 38 :
Z
3
f (x)dx ' h(y0 + 3y1 + 3y2 + 2y3 + 3y4 + 3y5 + 2y6 + ... + 3yn−1 + yn ) + e(h)
8
h4
e(h) ≤ (b − a) máx f (4) (x)

80 x∈[a,b]

y luego la de Boole o Bode:


2 8 7 (6) 2 6 (6)
h(7y0 + 32y1 + 12y2 + 32y3 + 7y4 ) e(h) ≤ h f (ξ) = h f (ξ)(b − a)
45 945 945
La de 6 puntos resulta:
5 275 7 (6) 55 6 (6)
h(19y0 + 75y1 + 50y2 + 50y3 + 77y4 + 19y5 ) e(h) ≤ h f (ξ) = h f (ξ)(b − a)
288 12096 12096
Usando puntos equiespaciados sin los extremos tenemos las fórmulas abiertas de Newton-Cotes, la primera
de ellas coincide con la regla del punto medio, le siguen:

3h h3 00
(y1 + y2 ) e(h) ≤ f
2 4
4h 28h5 (4)
(2y1 − y2 + 2y3 ) e(h) ≤ f
3 90
5h 95 5 (4)
(11y1 + y2 + y3 + 11y4 ) e(h) ≤ h f
24 144
12 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA

Estos coeficientes se obtienen planteando la condición de integrar exactamente polinomios del mayor
grado posible:
Z 1 Xn
f (x)dx = wi f (xi )
−1 i=1
una vez dados las n abscisas xi , las incógnitas wi se pueden determinar con n condiciones que podrı́an ser
la integración exacta de los monomios xi−1 , i = 1, ...n:
Z 1 n
wi xji , j = 0, 1, ..., n − 1
X
j
x dx =
−1 i=1

Para j = 0 resulta:
n
X Z 1
wi = 1dx = 2
i=1 −1

para j = 1:
n
X Z 1
wi x i = xdx = 0
i=1 −1

para j = 2:
n
X Z 1
wi x2i = x2 dx = 2/3
i=1 −1

El sistema completo resulta:


 
2
  
1 1 1 ... 1 w1  0 
  2 
 
 x1 x 2 x 3 ... xn   w2
    3 
 x2 x 2 x 2 ... x2n   w3 = 0  (2.4)
 1 2 3    2 
 ... ...   ...   
 5 
xn−1
1 xn−1
2 xn−1
3
n−1
... xn wn  0 
...

2.5. Fórmulas de Chebyshev


Existen también las fórmulas de Chebyshev, que consisten en determinar la ubicación de los puntos, de
tal manera de integrar polinomios del mayor orden posible, con la utilización de idénticos pesos (wi = cte).

2.6. Elección simultánea de puntos y pesos, fórmulas de Gauss


Si ahora tenemos la libertad de elegir los puntos y los pesos, se tienen las fórmulas de Gauss.
Z 1 Xn
f (x)dx = wi f (xi ) + e(h)
−1 i=1

Con n puntos de integración tenemos 2n incógnitas, y podremos pedir la integración exacta de polinomios
de grado hasta 2n − 1. El sistema de ecuaciones resultante de plantear dicha integración exacta es no-lineal y
su resolución no es trivial. Afortunadamente se puede demostrar que tiene al menos una solución utilizando
polinomios ortogonales en el intervalo de interés. En efecto, si f2n−1 es un polinomio arbitrario de grado a
lo sumo 2n − 1, planteamos:
Z 1 Xn
f2n−1 (x)dx = wi f2n−1 (xi )
−1 i=1
2.7. INTEGRALES IMPROPIAS 13

Si dividimos a f2n−1 por el polinomio de Legendre Ln (x), resulta:

f2n−1 = q(x)Ln (x) + r(x)

donde q y r (cociente y resto) son polinomios de grado a lo sumo n − 1. Reemplazando, la integral resulta:
Z 1 Z 1 n
X n
X
q(x)Ln (x)dx + r(x)dx = wi q(xi )Ln (xi ) + wi r(xi )
−1 −1 i=1 i=1

Si expresamos q(x) en la base de los polinomios Li , i = 1, 2, ..., n − 1 queda claro que la primer integral se
anula. Si elegimos los xi coincidentes con los ceros de Li , el primer término del segundo miembro se anula,
resultando: Z 1 Xn
r(x)dx = wi r(xi )
−1 i=1

con r(x) un polinomio arbitrario de orden hasta n − 1. Llegamos, como antes al caso de determinación
de los pesos wi teniendo como dato a los puntos xi . Con esta metodologı́a se obtienen las cuadraturas de
Gauss-Legendre, la primera de ellas no es más que la regla del punto medio:
n xi wi
1 0 2
2 ± 0.57735 1
3 0, ± 0.774597 0.888889, 0.555556

2.7. Integrales impropias


Cuando uno o ambos lı́mites de la integral son ∞ se utilizan cuadraturas basadas en polinomios ortog-
onales con funciones peso apropiadas, por ejemplo las fórmulas de Gauss-Laguerre son:
Z +∞ n
X
e−x f (x)dx = wi f (xi ) + Rn
0 i=1

donde los xi son los ceros de los polinomios de Laguerre y los pesos se pueden obtener con:
xi
wi =
(n + 1)2 [Ln+1 (xi )]2

El error resulta:
(n!)2 (2n)
Rn = f (ξ), 0 < ξ < +∞
(2n)!
Las fórmulas de Gauss-Hermite permiten integrar en toda la recta real:
Z +∞ n
−x2
X
e f (x)dx = wi f (xi ) + Rn
−∞ i=1

utilizando los ceros del polinomio de Hermite Hn (x) los pesos resultan:

2n−1 n! π
wi =
n2 [Hn−1 (xi )]2

Y el error es: √
n! π (2n)
Rn = f (ξ)
2n (2n)!
14 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA

2.8. Otras cuadraturas


Para integrales en segmentos finitos, si se quiere utilizar necesariamente el extremo izquierdo, se puede
utilizar el producto interno: Z 1
hf, gi = (1 + x)f (x)g(x)dx
−1

que define una familia de polinomios ortogonales en [−1, 1], cuyos ceros se utilizan como puntos de evaluación
y con los pesos correspondientes. La fórmula obtenida se llama cuadratura de Gauss-Radau. Y si se usan
ambos extremos, con función de peso (1 + x)(1 − x), se obtienen las cuadraturas de Gauss-Lobato.

Das könnte Ihnen auch gefallen