Beruflich Dokumente
Kultur Dokumente
Aproximación
Las series de potencias (serie de Taylor) que se han visto previamente tienen convergencia uniforme,
pero sólo valen para funciones analı́ticas. En caso de tener que aproximar funciones con menor regularidad
necesitamos otros métodos.
Si v ∈ T ⇒ ũ = v
v
Si v ∈
/T ⇒ ũ =
||v||2
1 1
||u − v||∞ = máx eβx − = eβ −
0<x<1 2 2
1
2 CAPÍTULO 1. APROXIMACIÓN
1
esta expresión disminuye con β y tiende a 2 cuando β tiende a 0, pero como e0 = 1 ∈
/ T , la mejor
aproximación no existe.
e+1
Si, en cambio, v = 2 , entonces:
e+1
||v − u||∞ = máx eβx −
0<x<1 2
e+1 e−1
Siβ ≤ 1 ⇒ ||v − u||∞ = −1=
2 2
β e+1
Siβ > 1 ⇒ ||v − u||∞ =e −
2
Cuando T es un conjunto arbitrario, se pueden aplicar las siguientes condiciones para determinar la
existencia y unicidad de la mejor aproximación:
Si T es compacto (toda sucesión de Cauchy converge a un elemento del conjunto) ⇒ ∃ al menos una
mejor aproximación de v en T .
También se pueden definir, para funciones integrables los siguientes productos internos, de los cuales se
pueden derivar sendas normas:
s
Z b Z b
hf, gi = f (x)g(x) dx → ||f ||L2 = f 2 (x) dx
a a
s
Z b Z b
hf, gi = w(x)f (x)g(x) dx → ||f ||w = w(x)f 2 (x) dx, con w(x) > 0
a a
Los espacios vectoriales con norma inducida por un producto interno se llaman “espacios pre-Hilbert”,
si además se trata de un espacio completo se llama “espacio de Hilbert”. En estos espacios se puede hallar
la mejor aproximación de un elemento desde un subespacio aplicando el teorema fundamental:
˜
Sea V un espacio vectorial con norma D inducida E por un producto interno, y U un subespacio ⇒ f es la
mejor aproximación de f ∈ V en U si f − f˜, g = 0 ∀g ∈ U . (La diferencia entre el elemento y su mejor
aproximación desde un subespacio, es ortogonal a todos los elementos del subespacio).
De este teorema fundamental se deducen las ecuaciones normales, que nos permitirán obtener un método
para calcular la mejor aproximación:
Si U = span {g1 , g2 , ...gn } y f ∈ V , escribimos la expansión de f˜ en la base de U : f˜ = ni=1 αi gi y
P
reemplazamos en el teorema fundamental:
n
* +
X
f− αi gi , gj = 0 j = 1, 2, ..., n
i=1
donde hemos utilizado la linealidad del producto interno (es suficiente que la diferencia f − f˜ sea ortogonal
a todos los elementos de la base de U para que sea ortogonal a todos los elementos de U ). Operando sobre
esta expresión, se llega a las ecuaciones normales:
n
X
αi hgi , gj i = hf, gj i j = 1, 2, ..., n (1.1)
i=1
Puede demostrarse que si el conjunto de las gi es linealmente independiente, la matriz resultante aij = hgi , gj i
es definida positiva, en particular es no-singular y por lo tanto el sistema de ecuaciones resultante tiene
solución única.
Un caso aún más favorable se da cuando la base es un conjunto ortonormal: hgi , gj i = δij , porque la
matriz del sistema resultante es la identidad, y los coeficientes se pueden obtener simplemente mediante:
αj = hf, gj i
de grado creciente, ortonormales entre sı́. Este conjunto de polinomios es conocido como Polinomios
R1 de
Legendre, y son ortonormales en el intervalo [−1, 1] respecto al producto interno: < f, g >= −1 f g dx. La
mejor aproximación de una función f arbitraria en el intervalo [−1, 1] mediante polinomios de grado a lo
sumo n se puede expresar como:
Xn Z 1
˜
f (x) = f (x)Li (x) dx Li (x)
i=0 −1
Nótese que, definidos de esta manera, no se cumple la condición: < Ti , Ti >= 1, en particular: < T0 , T0 >= π,
< Ti , Ti >= π2 , i ≥ 1, < Ui , Ui >= π2 , de manera que la matriz resultante de las ecuaciones normales no
resulta la identidad, pero sı́ es diagonal.
CuandoR se tiene un intervalo semi-infinito, es posible mapearlo a [0, ∞), y utilizar el producto interno:
∞
< f, g >= 0 f (x)g(x)e−x dx. En este caso se obtiene un conjunto ortogonal de polinomios, conocidos como
Polinomios de Laguerre, que también pueden obtenerse con la relación de recurrencia:
1
L0 = 1, L1 = −x + 1, Ln+1 = ((2n + 1 − x)Ln − nLn−1 ) (1.4)
n+1
Y análogamente,
R∞ para aproximar una función en todos los reales se suele utilizar el producto interno:
2
< f, g >= 0 f (x)g(x)e−x dx, resultando los Polinomios de Hermite.
Volviendo a intervalos finitos, también es posible mapearlos al intervalo [−π, π] y utilizar el siguiente
conjunto de funciones trigonométricas,
Rπ que resultan ortonormales en dicho intervalo usando el producto
interno “estándar”: < f, g >= −π f g dx:
1 1 1
g1 (x) = √ , g2j (x) = √ cos(jx), g2j+1 (x) = √ sin(jx), j = 1, 2, ...
2π π π
Expresando ũ como combinación lineal de las gi el problema se reduce a encontrar los coeficientes αi que
minimizan:
Xn
|| αj gj (x) − y|| (1.5)
j=1
||Gα − y||
donde α ∈ Rn es el vector de los coeficientes incógnita, que minimizan la norma del vector Gα − y(∈ RN . Si
particularizamos para la norma euclı́dea tenemos el problema de cuadrados mı́nimos. Se puede resolver, por
ejemplo, derivando la expresión de la norma e igualando a 0. O también: la mitad de la norma al cuadrado:
1 1 T
Φ(α) = ||Gα − y||22 =
Gα − y Gα − y
2 2
1 1 yT y
Φ(α) = αT GT Gα − (Gα)T y + y T Gα +
2 2 2
1 yT y
Φ(α) = αT GT Gα − αT GT y +
2 2
El gradiente de este funcional resulta:
∇Φ = GT Gα − GT y
Igualando a cero surgen las ecuaciones normales de cuadrados mı́nimos:
GT Gα = GT y (1.6)
G = QR, QT G = QT QR = R
Donde utilizamos que, al ser QT unitaria, no altera la norma de un vector. Ahora considerando que R es
triangular superior, y que n < N , el vector x = Rα tendrá necesariamente sus componentes de ı́ndice mayor
a n iguales a 0 (xi = 0∀i > n). Sean c ∈ Rn y d ∈ RN −n las componentes 1 a n y n + 1 a N del vector QT y,
y R1 ∈ Rn×n la submatriz de R de ı́ndices 1 − n, 1 − n, entonces se puede escribir:
resulta evidente que d es independiente de α, de modo que la norma cuadrática se minimiza cuando:
R1 α = c
y éste resulta un sistema de n ecuaciones con n incógnitas, con matriz triangular superior, fácilmente
resoluble por retro-sustitución.
sencillos son de costo O(n3 ). Una vez que se tienen los coeficientes de los monomios su evaluación se puede
hacer con O(n) operaciones:
n−1
X
p(x) = ai xi
i=0
= a0 + x(a1 + x(... + x(an−2 + xan−1 )...))
En la fórmula de Lagrange, se pueden calcular a priori los denominadores, que sólo dependen de los
puntos dato y representan O(n2 ) operaciones (n − 1 sumas y n − 2 productos para calcular cada uno de los
n denominadores). Para evaluar el polinomio nuevamente el costo es O(n2 ), ya que es necesario evaluar los
n numeradores (n − 1 sumas y n − 2 productos).
La forma de Newton de un polinomio interpolante permite realizar el cálculo de coeficientes con O(n2 )
operaciones, y su evaluación con O(n). Es la siguiente:
El cálculo de los coeficientes ci se realiza por sustitución, como p(x1 ) = y1 , reemplazando en la fórmula
−c1
resulta: c1 = y1 . Utilizando que p(x2 ) = y2 resulta: c2 = xy22−x1
. Continuando:
y3 −c1
x3 −x1 − c2
c3 =
x3 − x2
y4 −c1
x4 −x1
−c2
x4 −x2 − c3
c4 =
x4 − x3
Para calcular el coeficiente ci hacen falta i−1 divisiones y 2i−2 sumas, en total alrededor de 32 n2 operaciones.
La evaluación se puede hacer con O(n) operaciones, de la siguiente manera:
f (n+1) (ξ)
e(x) = (x − x1 )(x − x2 )...(x − xn+1 )
(n + 1)!
con mı́n xi ≤ ξ ≤ máx xi .
Si, por ejemplo, interpolamos una función usando dos puntos y una relación lineal, el error será:
f 00 (ξ)
e(x) = (x − x1 )(x − x2 )
2!
si conseguimos acotar la derivada segunda: |f 00 (x)| ≤ M, ∀x ∈ [x1 , x2 ], tendremos:
M
e(x) ≤ (x − x1 )(x − x2 )
2
Observaciones:
Obviamente e(xi ) = 0.
Atención con las extrapolaciones: por más que f (n+1) (ξ) esté acotada, el factor
Q
(x − xi ) crece muy
rápidamente.
8 CAPÍTULO 1. APROXIMACIÓN
Incluso en el interior del intervalo, no está garantizado que el error disminuya al aumentar el grado
del polinomio interpolante. Un simple f (x) = x1 , derivado a un orden alto, introduce en el numerador
un n!.
Un caso particular, muy ilustrativo de los problemas con interpolantes de alto orden es el ejemplo de
1
Runge: si se intenta interpolar con polinomios la función f (x) = 1+x 2 , y se utilizan puntos igualmente
espaciados en el intervalo [0, 1], se puede demostrar que el error, en norma del máximo, crece con el grado
de la interpolante, incluso:
lı́m máx |f (x) − Pn (x)| = +∞
n→∞ −1≤x≤1
En este caso
particular se puede demostrar que una elección adecuada de los puntos de interpolación (xi =
2i−1
cos 2n , los ceros del polinomio de Chebishev de orden n) hace que el error disminuya con el orden de la
interpolación. En el caso general se suele preferir trabajar con polinomios de bajo orden, por partes (a veces
llamados “splines”). Otra posibilidad es reducir el orden del polinomio, manteniendo el número de puntos,
es decir: realizar un ajuste por cuadrados mı́nimos.
Capı́tulo 2
Integración Numérica
La integración numérica es de utilidad tanto para el cálculo aproximado de áreas/volúmenes como para el
cómputo aproximado de antiderivadas. Además hay numerosos métodos numéricos para resolver ecuaciones
en derivadas parciales que involucran el cálculo de integrales en subdominios del dominio de cálculo.
9
10 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA
b
(b − a)3
Z
f (x)dx = (b − a)f (m) + f 00 (m) + O((b − a)5 ) (2.1)
a 24
Esta fórmula, conocida como regla de Simpson también puede obtenerse interpolando un polinomio cuadrá-
tico en los puntos a, m y b e integrándolo.
b n n
h2 X 0
Z X
f (x)dx = h f (a0i ) + f (ξi )
a 2
i=1 i=1
y si la derivada primera está acotada en el intervalo [a, b], i.e. |f 0 (x)| ≤ M, ∀x ∈ [a, b], entonces:
b
h2
Z X h
f (x)dx = h = 1n f (a + h(i − 1)) + e(h), |e(h)| ≤ nM = M (b − a)
a 2 2
i
donde M sigue siendo una cota sobre la derivada segunda y wi vale 21 para i = 0, i = n y vale 1 para
1 ≤ i < n.
Usando la fórmula de Simpson se llega a:
Z b n
X h4
f (x)dx = h wi f (a + hi) + e(h), |e(h)| ≤ M (b − a)
a 180
i=0
donde M es una cota de la derivada cuarta, n debe ser par, y los pesos son w0 = wn = 31 , wi = 4
3 si i es
impar, y wi = 23 si i es par.
3h h3 00
(y1 + y2 ) e(h) ≤ f
2 4
4h 28h5 (4)
(2y1 − y2 + 2y3 ) e(h) ≤ f
3 90
5h 95 5 (4)
(11y1 + y2 + y3 + 11y4 ) e(h) ≤ h f
24 144
12 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA
Estos coeficientes se obtienen planteando la condición de integrar exactamente polinomios del mayor
grado posible:
Z 1 Xn
f (x)dx = wi f (xi )
−1 i=1
una vez dados las n abscisas xi , las incógnitas wi se pueden determinar con n condiciones que podrı́an ser
la integración exacta de los monomios xi−1 , i = 1, ...n:
Z 1 n
wi xji , j = 0, 1, ..., n − 1
X
j
x dx =
−1 i=1
Para j = 0 resulta:
n
X Z 1
wi = 1dx = 2
i=1 −1
para j = 1:
n
X Z 1
wi x i = xdx = 0
i=1 −1
para j = 2:
n
X Z 1
wi x2i = x2 dx = 2/3
i=1 −1
Con n puntos de integración tenemos 2n incógnitas, y podremos pedir la integración exacta de polinomios
de grado hasta 2n − 1. El sistema de ecuaciones resultante de plantear dicha integración exacta es no-lineal y
su resolución no es trivial. Afortunadamente se puede demostrar que tiene al menos una solución utilizando
polinomios ortogonales en el intervalo de interés. En efecto, si f2n−1 es un polinomio arbitrario de grado a
lo sumo 2n − 1, planteamos:
Z 1 Xn
f2n−1 (x)dx = wi f2n−1 (xi )
−1 i=1
2.7. INTEGRALES IMPROPIAS 13
donde q y r (cociente y resto) son polinomios de grado a lo sumo n − 1. Reemplazando, la integral resulta:
Z 1 Z 1 n
X n
X
q(x)Ln (x)dx + r(x)dx = wi q(xi )Ln (xi ) + wi r(xi )
−1 −1 i=1 i=1
Si expresamos q(x) en la base de los polinomios Li , i = 1, 2, ..., n − 1 queda claro que la primer integral se
anula. Si elegimos los xi coincidentes con los ceros de Li , el primer término del segundo miembro se anula,
resultando: Z 1 Xn
r(x)dx = wi r(xi )
−1 i=1
con r(x) un polinomio arbitrario de orden hasta n − 1. Llegamos, como antes al caso de determinación
de los pesos wi teniendo como dato a los puntos xi . Con esta metodologı́a se obtienen las cuadraturas de
Gauss-Legendre, la primera de ellas no es más que la regla del punto medio:
n xi wi
1 0 2
2 ± 0.57735 1
3 0, ± 0.774597 0.888889, 0.555556
donde los xi son los ceros de los polinomios de Laguerre y los pesos se pueden obtener con:
xi
wi =
(n + 1)2 [Ln+1 (xi )]2
El error resulta:
(n!)2 (2n)
Rn = f (ξ), 0 < ξ < +∞
(2n)!
Las fórmulas de Gauss-Hermite permiten integrar en toda la recta real:
Z +∞ n
−x2
X
e f (x)dx = wi f (xi ) + Rn
−∞ i=1
utilizando los ceros del polinomio de Hermite Hn (x) los pesos resultan:
√
2n−1 n! π
wi =
n2 [Hn−1 (xi )]2
Y el error es: √
n! π (2n)
Rn = f (ξ)
2n (2n)!
14 CAPÍTULO 2. INTEGRACIÓN NUMÉRICA
que define una familia de polinomios ortogonales en [−1, 1], cuyos ceros se utilizan como puntos de evaluación
y con los pesos correspondientes. La fórmula obtenida se llama cuadratura de Gauss-Radau. Y si se usan
ambos extremos, con función de peso (1 + x)(1 − x), se obtienen las cuadraturas de Gauss-Lobato.