Sie sind auf Seite 1von 75

 

1.1 Predicción Espacial  

{ }
Sea  el  campo  aleatorio  Z (s ) : s ∈ D ⊂ R d   donde  se  ha  observado  el  atributo  Z 
en  las  ubicaciones  s1 , s 2 , , s n   y  se  desear  predecir  dicho  atributo  en  una 
ubicación  no  observada,  basándose  en  los  valores  obtenidos  en  las  muestras 
hechas.  Las técnicas de predicción espacial son modalidades de una familia de 
métodos llamada Kriging.  El nombre se debe al Ingeniero minero D.G. Krige, 
quien  desarrolló  en  la  década  de  los  50,  métodos  empíricos  para  predecir 
características de una mina en alguna ubicación de interés donde no se conocían 
datos, usando las características conocidas en lugares cercanos donde si habían 
sido tomados.  Su método original es conocido como Kriging ordinario.     
 
El  Kriging  aparece  en  muchas  formas  de  acuerdo  a  si  se  conocen  la  media,  la 
distribución de probabilidad de Z(s), si las predicciones son hechas para puntos 
o áreas y así sucesivamente.   
 
Sin  embargo,  es  importante  recordar  que  el  Kriging  no  es  el  único  método  de 
predicción  espacial;  existen  métodos  determinísticos  como  distancia  inversa, 
interpolación  polinomial  global,  interpolación  polinomial  local,  triangulación 
lineal,  funciones  de  base  radial  entre  otros.    La  ventaja  del  kriging  sobre  los 
métodos determinísticos es la estimación de la varianza del error de predicción, 
lo  cual  permite  además  estimar  intervalos  de  confianza  para  dicha  predicción 
además  de  que  el  kriging  es  un  método  de  estimación  que  da  el  mejor 
estimador  lineal  insesgado  (cuando  se  cumplen  todos  los  supuestos).  
Inicialmente,  el  kriging  fue  desarrollado  para  aquellos  casos  donde  hay 
presencia de estacionariedad y posteriormente fue extendido para casos donde 
se cumple la hipótesis intrínseca.  
 

1.1.1 Generalidades sobre el kriging 
 
La  toma  de  muestras  da  la  información  de  lo  que  ocurre  en  cada  punto.  Sin 
embargo, no da información acerca de la relación que pueda existir entre dichos 
puntos.  Se  requiere  de  una  forma  precisa  de  estimar  valores  en  puntos 
intermedios o en el caso de bloques, por ejemplo, estimar el promedio sobre el 
bloque.  La precisión del estimador usado depende de varios factores: 
 
¾ El número de muestras tomadas 
¾ La calidad de la medición en cada punto 
¾ Las  ubicaciones  de  las  muestras  en  la  zona;  si  las  muestras  son  igualmente 
espaciadas  se  alcanza  una  mejor  cobertura,  dando  mayor  información 
acerca  de  la  zona  que  aquella  que  se  obtendría  de  muestras  muy 
agrupadas  en  unos  sectores  y  separadas  en  otros.  Sin  embargo,  en  la 
práctica,  debido  a  las  características  de  las  regiones  de  estudio,  muchas 
veces es preciso tomar muestras irregularmente espaciadas. 
¾ las distancias entre las muestras;  para la predicción es mas confiable usar 
muestras  vecinas  que  muestras  distantes,  esto  es,  la  precisión  mejora 
cuando la cercanía de las muestras aumenta, y se deteriora cuando esta 
disminuye.  La extrapolación no es aconsejable. 
¾ La  continuidad  espacial  de  la  variable  o  atributo  en  estudio;  es  más  fácil 
estimar el valor de una variable bastante regular en una región que una 
que presenta grandes fluctuaciones.  
 

1.1.2 Introducción a la teoría del kriging 
 
Ejemplo  
 
Supongamos  que  se  tienen  las  mediciones  Z(s1),  Z(s2),  Z(s3)  y  Z(s4),  en  los 
puntos  s1,  s2,  s3    y  s4  respectivamente,  y  se  requiere  predecir  el  valor  Z(s0).    El 
valor a predecir se ubica mas cerca de s2 que de cualquier otra ubicación donde 
se  tenga  medición;  por  lo  tanto,  es  lógico  pensar  que    Z(s0)  es  mas  parecido  a 
Z(s2)  que  a  cualquiera  de  los  otros  tres  valores  medidos.    De  acuerdo  a  lo 
anterior,  se  puede  optar  para  la  predicción,  por  una  media  ponderada  de  las 
cuatro mediciones, en la cual Z(s2) tiene mayor peso que cualquier otra, seguida 
en su orden por Z(s4), Z(s3) y por último Z(s1). 
 
*s1 *s2
+s0

*s3 *s4

 
 
Así,             Ẑ(s 0 )=λ1Z(s1 )+ λ2 Z(s 2 )+λ3 Z(s3 )+λ4 Z(s 4 )  
 
Donde  los  λi ,  i = 1,2,3, 4 son  los  factores  de  ponderación    o  pesos  tales  que 
4
λ2 > λ4 > λ3 > λ1   y   ∑ λi = 1 .   
i =1

 
En  general,  para  obtener  una  estimación  de  Z(s0),  se  realiza  una  combinación 
lineal de los valores Z(si),  i = 1… n : 
 
n
Zˆ ( s0 ) = ∑ λi Z ( si )  
i =1

 
Los parámetros  λi son los factores de ponderación o coeficientes de ponderación 
y son calculados de acuerdo a los siguientes criterios: 
 
¾ Zˆ ( s0 )  sea insesgado 
¾ Var ( Zˆ ( s ) − Z ( s )) sea mínima 
0 0

 
Note que  
 
Var ( Zˆ ( s 0 ) − Z ( s0 )) = E ( Zˆ ( s 0 ) − Z ( s0 )) 2 − E 2 ( Zˆ ( s 0 ) − Z ( s0 ))
2  
= E ( Zˆ ( s 0 ) − Z ( s0 )) 2 − ⎡⎣ E ( Zˆ ( s 0 ) − Z ( s0 )) ⎤⎦ = E ( Zˆ ( s 0 ) − Z ( s0 )) 2
           
Ahora 
⎡⎛ n ⎞⎛ n ⎞ n ⎤
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = E ⎢⎜ ∑ λi Z ( si ) ⎟ ⎜ ∑ λ j Z ( s j ) ⎟ − 2∑ λi Z ( si )Z ( s0 ) + Z 2 ( s0 ) ⎥
⎢⎣⎝ i =1 ⎠ ⎝ j =1 ⎠ i =1 ⎥⎦
 
n n n
= ∑∑ λi λ j E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [ Z ( si ) Z ( s0 ) ] + E ⎡⎣ Z 2 ( s0 ) ⎤⎦
i =1 j =1 i =1

 
Si ha estimado el semivariograma o bien se conoce la función de covarianza, 
también se tendrán los valores  
 
E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ , E [ Z ( si ) Z ( s0 ) ] y E ⎡⎣ Z 2 ( s0 ) ⎤⎦  
 
Por lo tanto, se encontrarán los  λi  minimizando esta varianza.  Del respectivo 
proceso  de  minimización  se  obtendrá  un  sistema  de  ecuaciones,  que  cambiará  
de  acuerdo  a  las  hipótesis  que  se  tengan  sobre  la  media  y  la  covarianza  del 
proceso,  y  la  distribución  de  la  variable  en  estudio.    En  la  próxima  sección  se 
mencionarán algunos de estos casos. 
 

1.1.3 Cálculo de los factores de ponderación para algunos casos 
   
Kriging Simple 
 
El  kriging  simple  asume  el  conocimiento  tanto  de  la  media  como  de  la 
covarianza del proceso.  Por supuesto, es poco práctico ya que en general  
 
estos  dos  parámetros  son  desconocidos  y  es  preciso  estimarlos  a  partir  de  los 
datos de la muestra.   
 
Definamos la variable   
Y (s) = Z (s) − µ  
 
donde  µ es la media de la variable en la región de estudio y por lo tanto  
 
E ⎡⎣Y ( s ) ⎤⎦ = 0 . 
 
Entonces si ahora encontramos la predicción de  Y ( s0 ) , tendremos  
 
n
Yˆ ( s0 ) = ∑ λiY ( si ) . 
i =1

 
Ahora  para  encontrar  los  factores  de  ponderación  vamos  a  minimizar  el  error 
( 0 0 )
de  predicción  Yˆ ( s ) − Y ( s ) .    Como  Y ( s )   es  desconocido,  se  minimizará  el 
0

error cuadrático medio de predicción; esto es, hay que minimizar 
 
E Yˆ ( s ) − Y ( s )   ( )
2
0 0

 
Que según vimos en la sección anterior, se puede escribir como  
 
n n n
E (Yˆ ( s 0 ) − Y ( s0 )) 2 = ∑∑ λi λ j E ⎡⎣Y ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [Y ( si ) Y ( s0 ) ] + E ⎡⎣Y 2 ( s0 ) ⎤⎦
i =1 j =1 i =1
n n n
 
= ∑∑ λi λ j Cov ⎣⎡ si − s j ⎦⎤ − 2∑ λiCov [ si − s0 ] + Cov(0)
i =1 j =1 i =1

 
Ahora,  se  aplica  el  proceso  clásico  de  minimización  derivando  parcialmente 
respecto  a  cada  uno  de  los  parámetros  λi   e  igualando  a  cero  estas  derivadas, 
con lo que las ecuaciones quedan: 
 
∂ n
E ⎡⎣Yˆ ( s0 ) − Y ( s0 ) ⎤⎦ = 2∑ λ j Cov ⎡⎣ si − s j ⎤⎦ − 2Cov ( si − s0 ) = 0
2
i = 1… n  
∂λi j =1

 
con lo cual queda definido un sistema de n ecuaciones con n incógnitas.  Para j  
( j = 1… n )  arbitraria la ecuación es: 
n
2∑ λ j Cov ⎣⎡ si − s j ⎦⎤ − 2Cov ( si − s0 ) = 0
j =1
n
 
∑ λ Cov ⎡⎣ s
j =1
j i − s j ⎤⎦ = Cov ( si − s0 )

Que es un sistema con única solución en virtud de la matriz de coeficientes la 
cual es definida positiva. 
 
Así para predecir la variable original Z 
 
n
Zˆ ( s0 ) = µ + ∑ λi ( Z i − µ )  
i =1

 
y la varianza del error de predicción queda 
 

( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = Var ( Z ( si ) ) − ∑ λi Cov ( si − s0 )  
i =1

De donde podemos concluir que la varianza del error de predicción es menor a 
la varianza de la variable en estudio, lo cual es consecuencia del conocimiento 
de los parámetros del proceso. 
 
 
  
Kriging Ordinario  
 
El  kriging  ordinario  se  usa  cuando  la  variable  es  estacionaria  con  covarianza 
conocida  y  media  desconocida.    Aunque  el  proceso  es  similar  al  del  kriging 
simple,  no  podemos  centrar  la  variable,  ya  que  no  conocemos  µ ,  así  que  es 
necesario  trabajar  directamente  con  la  variable  en  estudio  Z.    Nuevamente  la 
predicción es  
n
Zˆ ( s0 ) = ∑ λi Z ( si )  
i =1

 
Al no conocer la media es necesario garantizar la propiedad de insesgamiento: 
 
[ ]⎡ n ⎤
E Z * (s0 ) − Z (s0 ) = E ⎢∑ λi Z (si ) − Z (s0 )⎥ =
⎣ i =1 ⎦
n n

∑ λ E[Z (s )] − E[Z (s )] = ∑ λ µ −µ = 0
i =1
i i 0
i =1
i

 
⎡ n ⎤ ⎡ n ⎤
µ ⎢∑ λi − 1⎥ = 0 ⇔ ⎢∑ λi − 1⎥ = 0
⎣ i =1 ⎦ ⎣ i =1 ⎦
n
Cuando ∑λ
i =1
i =1

 
 
( )
E Zˆ = Z  
De esta forma, 
⎡ n ⎤
E ⎢ ∑ λi Z ( si ) ⎥ = E ( Z ) = µ  
⎣ i =1 ⎦
 
  lo cual es equivalente a  
n n

∑ λi E [ Z (si )] = ∑ λi µ = µ  
i =1 i =1

 
Por tanto, es indispensable que se cumpla la condición de que 
 
n

∑λ i =1
i = 1 

 
para obtener un estimador insesgado.  Se mantiene igual la segunda condición 
que  es  la  de  mínima  varianza;  partamos  de  la  expresión  ya  deducida  de  la 
varianza 
n n n
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = ∑∑ λi λ j E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ − 2∑ λi E [ Z ( si ) Z ( s0 ) ] + E ⎡⎣ Z 2 ( s0 ) ⎤⎦  
i =1 j =1 i =1

 
Donde bajo las nuevas condiciones se tiene: 
 
 
E ⎡⎣ Z ( si ) Z ( s j ) ⎤⎦ = Cov ( si − s j ) + µ 2
 
E ⎣⎡ Z 2 ( s0 ) ⎦⎤ = Cov(0) + µ 2 = σ 2 + µ 2
 
Sustituyendo en la varianza queda 
 
⎡ n n ⎤
E ( Zˆ ( s 0 ) − Z ( s0 )) 2 = ∑∑ λi λ j Cov ( si − s j ) − 2∑ λiCov ( si − s j ) + C ( 0 ) + µ 2 ⎢∑∑ λi λ j − 2∑ λi + 1⎥
n n n n

i =1 j =1 i =1 ⎣ i =1 j =1 i =1 ⎦
pero 
 
⎡ n n ⎤ ⎡ n
2
n

⎢ ∑∑ λi λ j − 2∑ λi + 1⎥ = ⎢ ∑ λi − 1⎥ = 0  
⎣ i =1 j =1 i =1 ⎦ ⎣ i =1 ⎦
 
 
por la propiedad de insesgamiento. 
 
Así que la expresión a minimizar es  
 

∑∑ λ λ Cov ( s − s ) − 2∑ λ Cov ( s − s ) + C ( 0 )  
n n n

i j i j i i j
i =1 j =1 i =1

 
bajo la restricción  
( )
E Zˆ = Z  
Se utiliza para estos casos el método de los multiplicadores de Lagrange: 
 
∂φ ( λi , µ ) n
¾ = ∑ λiCov ( si − s j ) − Cov ( si − s j ) − µ  
∂λi i =1

∂φ ( λi , µ ) n
¾ = ∑ λiCov ( si − s j ) − Cov ( si − s j ) − µ  
∂λi i =1

∑ λ Cov ( s − s ) − Cov ( s − s ) − µ = 0  
n
¾ i i j i j
i =1

∑ λ Cov ( s − s j ) − µ = Cov ( si − s j )  
n
¾ i i
i =1

∂φ ( λi , µ ) ⎡ n ⎤
¾ = ⎢ ∑ λi − 1⎥  
∂µ ⎣ i =1 ⎦
n
¾ ∑λ −1 = 0  
i =1
i

n
¾ ∑λ
i =1
i = 1 

 
Dando como resultado el sistema de  n + 1  ecuaciones del kriging ordinario: 
 

∑ λ Cov ( s − s j ) − µ = Cov ( si − s j )  
n

i i
i =1

 
n

∑λi =1
i = 1 

 
a  partir de las cuales  se encuentran  los valores de los factores de ponderación 
para llevar a cabo la predicción. 
 
Por último, la varianza del error de predicción para este caso es 
 

( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = Var ( Z ( si ) ) − ∑ λiCov ( si − s0 ) + µ  
i =1

 
que  tal  como  es  de  esperarse  es  mayor  que  la  del  kriging  simple,  debido  al 
desconocimiento de la media de la variable en estudio. 
 
 
Kriging Ordinario para variables intrínsecas 
 
Este  es  un  caso  más  general,  en  el  cual  la  varianza  no  existe  y  las  condiciones 
impuestas sobre la variable regionalizada son: 
 
¾ E ⎡⎣ Z ( s + h ) − Z ( s ) ⎤⎦ = 0  
1
¾ γ ( h ) = Var ⎡⎣ Z ( s + h ) − Z ( s ) ⎤⎦  
2
 
Nuevamente, hay que imponer las siguientes restricciones 
 
¾ Estimación lineal 
n
Zˆ ( s0 ) = ∑ λi Z ( si )  
i =1

¾ Insesgamiento 
( )
E Zˆ = Z  
¾ Mínima varianza 
 
Var ⎡⎣ Zˆ ( s0 ) − Z ( s0 ) ⎤⎦ = E ⎡⎣ Zˆ ( s0 ) − Z ( s0 ) ⎤⎦  es mínima 
2

 
Aplicando  nuevamente  el  método  de  los  multiplicadores  de  Lagrange,  se 
obtienen los factores de ponderación y la varianza del error de predicción es  

( )
n
Var Zˆ ( s0 ) − Z ( s0 ) = ∑ λiγ ( si − s0 ) + µ  
i =1

Este es  el caso  más general ya que  es válido tanto para variables  estacionarias 


como para variables intrínsecas. 
 
En general, el kriging es òptimo cuando la variable en estudio proviene de una 
población con distribución normal.  La alternativa con cual se debe trabajar es 
aplicarle a la variable una transformación que la lleve a una normal y a partir de 
la  nueva  variable  transformada  estimar  el  semivariograma  y  aplicarle  las 
ecuaciones del kriging. Al final, el análisis requiere llevar la variable a su escala 
original.  Un caso que surge bastante en casos prácticos es el de la distribución 
log‐normal.   
 
 

1. Análisis de normalidad 

 
1.1 ANÁLISIS GRÁFICO  
 
 
¾ GRÁFICOS GENERALES 
 
 
Características de la distribución de probabilidad normal tales como simetría y 
apuntamiento,  pueden  ser  ilustradas  por  los  gráficos  clásicos  de  la  estadística 
descriptiva, como el histograma, el diagrama de caja y bigotes, y el diagrama de 
tallo  y  hojas;  a  continuación  estos  gráficos  para  una  muestra  de  una  variable 
aleatoria con distribución de probabilidad normal: 
 
85
80
75
70
65
60
55

Histogram of x
150
100
Frequency

50
0

50 55 60 65 70 75 80 85

x
 
Gráfico 1. Diagrama de caja e histograma de una muestra aleatoria proveniente de una 
distribución de probabilidad normal 

 
 
Es  importante  recordar  que  el  histograma  no  es  único.    Por  lo  tanto,  para 
esperar  un  comportamiento  acampanado  del  histograma,  una  opción  es 
construir  los  intervalos  de  la  forma  x ± ks 1  con  k = 0,1,2,3 según  hasta  donde 
existan datos.  En algunas disciplinas se usa la construcción de los histogramas 
con  base  en  intervalos  “equiprobables”;  luego  en  este  caso  se  esperaría  un 
histograma con todos los rectángulos a la misma altura. 

1
El procedimiento de verificar que a 1, 2 y 3 desviaciones estándar de la media se encuentra
respectivamente, el 68.26%, el 95.44% y el 99.74% de las observaciones se conoce como regla empírica.
 
Gráfico 2. Diagrama de Tallo y hojas de una muestra aleatoria proveniente de una 
distribución de probabilidad normal 

 
En este diagrama de tallo y hojas se observa claramente la figura acampanada 
de forma horizontal. 
 
Sin  embargo,  existe  un  gráfico  diseñado  exclusivamente  para  el  análisis  de 
normalidad: 
 
¾ GRÁFICO QXQ 
 
El gráfico cuantil‐cuantil, consiste en la comparación de los cuantiles muestrales 
con los poblacionales, de tal forma que entre mas similares sean estas dos series 
de  datos,  mejor  será  el  ajuste  y  por  lo  tanto,  se  espera  que  el  diagrama  de 
dispersión entre ellos se aproxime bastante a una línea recta.  Los pasos para la 
construcción de este gráfico son los siguientes: 
 
1. Cuantiles  muestrales:  Se  ordenan  las  observaciones  x1 , x 2 ,…, x n de 
menor  a  mayor  x (1) , x ( 2 ) , … , x ( n ) .  El  dato  x(i )   corresponderá  al  cuantil 
i
(proporción)  .  Por ejemplo, si la muestra tuviera 200 observaciones, el 
n
10
dato  x(10 )   corresponderá  al  cuantil  (proporción)  = 0.05 = 5% ,  ya 
200
que  el  5%  de  las  observaciones  son  inferiores  al  dato  x(10) .  Se  suele 
(i − 1 / 2)
utilizar para corrección por continuidad   . 
n
2. Cuantiles poblacionales: Sean  q1 , q 2 , … , q n  los cuantiles poblaciones, es 
decir,  q i  es el valor por debajo del cual se encuentran, una proporción de 
(i − 1 / 2)
 de datos de la  población. estos se encuentran  aplicando a  cada 
n
proporciòn muestral la distribución normal inversa: 
 
qi = Φ −1 ( pi )  
 
( )
3. Se  ubican  en  el  plano  cartesiano  las  parejas  ordenadas  qi , x(i )   y  se 
analiza la cercanía a la linealidad de dicho gráfico. 

 
Gráfico 3.  Cuantil‐Cuantil en el caso en el que la distribución normal ajusta adecuadamente 
los datos de la muestra. 

 
En este caso, las observaciones se aproximan bastante a la recta y por lo tanto, 
se puede pensar en que el supuesto de normalidad es válido.  Todo el software 
estadístico lo tiene implementado. 
 
A  continuación  un  gráfico  cuyo  comportamiento  evidencia  que  la  muestra  no 
proviene de una distribución de probabilidad normal. 
 
 
 
 
120000
100000
80000
salario

60000
40000
20000

-3 -2 -1 0 1 2 3

norm quantiles
 
Gráfico 4.  Cuantil‐Cuantil en el caso en el que la distribución normal no representa un buen 
ajuste para los datos de la muestra. 

 
Si bien, el análisis gráfico, es muy importante e ilustrativo, continúa siendo una 
herramienta  de  estadística  descriptiva  y  por  tanto  no  es  concluyente.    Incluso 
cuando  se  tiene  prácticamente  la  certeza  sobre  el  comportamiento 
aproximadamente normal de los datos, es necesaria la aplicación de inferencia 
estadística,  ya  que  la  conclusión  es  acerca  de  la  distribución  de  la  variable  de 
donde  proviene la muestra.  
 
A continuación, se relacionan varias pruebas de normalidad.   
 
1.2 PRUEBAS DE HIPÓTESIS 
 
¾ PRUEBA DE SHAPIRO Y WILK 
 
Esta prueba se centra en determinar la bondad del ajuste de una recta al gráfico 
QQ.  Es exclusiva para probar normalidad. 
 

 
 
Donde 
 
   es la varianza muestral, 
 

 
 
 son los coeficientes tabulados para esta prueba y 
 
 es el j‐ésimo elemento de la muestra ordenada 
 
 
¾ PRUEBAS BASADAS EN ASIMETRÍA Y CURTOSIS 
 
 
9 ASIMETRÍA 
 
Si  n > 50 , el coeficiente de asimetría, tiene una distribución de probabilidad 
asintóticamente normal con parámetros 
 
6
E ( As ) = 0   y   Var ( As ) =  
n
As
Por lo tanto,      Z = ~ N(0,1)  
6
n
 
 
As n
Z= ~ N(0,1)  
6
 
 
9 CURTOSIS  
 
 
Si  n > 200 ,  el  coeficiente  de  curtosis,  tiene  una  distribución  de  probabilidad 
asintóticamente normal con parámetros 
 
24
E (k ) = 3   y  Var(k ) =  
n
 
k −3
Por lo tanto,      Z = ~ N(0,1)  
24
n
 
 

Z=
(k − 3) n
~ N(0,1)  
24
 
 
9 PRUEBA DE JARQUE Y BERA (JB) 
 
 
También  llamada  prueba  Ómnibus,  esta  involucra  simultáneamente  los 
coeficientes de asimetría y curtosis.  Se requiere que la muestra tenga al menos 
200 observaciones. 
 

 
 
 
¾ PRUEBA DE BONDAD DE AJUSTE CHI‐CUADRADO DE PEARSON 
 
Algoritmo 
 
1. Construir una tabla de frecuencias, la cual en lo posible no tenga menos 
de 5 intervalos y además, no haya menos de 5 datos en cada intervalo. 
2. Encontrar  las  frecuencias  “esperadas”  según      ,  esto  es,  encontrar  
, donde   es la probabilidad del intervalo i 
3. Calcular  el  estadístico  de  prueba  y  comparar  con  el  cuantil  teórico 
correspondiente  
 

 
 
 
¾ PRUEBA DE KOLMOGOROV SMIRNOV 
 
Esta prueba calcula la distancia entre la función de distribución muestral   
y la función de distribución teórica supuesta en la  ,   
 
Algoritmo 
 
1. Encontrar la distribución de frecuencias muestral 
 

 
 
Con base en la muestra ordenada   
 
2. Encontrar la correspondiente distribución teórica 
3. Calcular el estadístico de prueba 
 
 
 
Su distribución exacta se encuentra tanto en los programas estadísticos 
como en varios libros de estadística no paramétrica. 
 
Nota 1 

 
Cuando los parámetros de la función son estimados de la muestra, es necesario 
aplicar la corrección de Lilliefors a la distribución del  . 
 
¾ TRANSFORMACIÓN BOX COX
 
La  familia  de  transformaciones  Box  Cox,  es  de  mucha  utilidad  cuando  se  han 
detectado  problemas  de  heterocedasticidad,  falta  de  normalidad  o  falta  de 
linealidad,    y  se  buscan  métodos  para  realizar  las  respectivas  correcciones;  la 
muy  conocida  transformación  logarítmica  es  un  caso  particular  de  esta 
importante familia; incluso, en muchas ocasiones se utiliza de forma mecánica 
sin tener en cuenta otras posibilidades. 
 
La forma general de la familia de transformaciones Box Cox es la siguiente: 
 
Si  yi > 0  ; ∀i ,  i = 1,…, n .  Se define la nueva variable  y (λ )  como 
 
⎧ yλ −1

(λ ) para λ ≠ 0
y =⎨ λ  
⎪logy para λ = 0

 
En el caso en el cual no se cumpla  yi > 0 ;     ∀i , i = 1,…, n  se puede realizar una 
traslación de la variable y; en este caso quedaría 
 
⎧ ( y + m )λ − 1
⎪ para λ ≠ 0
( y + m)
(λ )
=⎨ λ  
⎪log( y + m ) para λ = 0

La justificación para que la transformación sea  logy para λ = 0 es el uso de la


regla de L’hospital:

 
 
 
El valor de   que logra la mejor transformación de la variable de interés, es el 
que  maximiza la cantidad 

 
 

 
 
 es la estimación máximo verosímil de la varianza de la variable  . 

 
Capítulo 3. Desarrollo del programa

12. INTERPOLACIÓN

12.1 Introducción

La interpolación de puntos es una herramienta importante a la hora de generar


puntos a partir de una muestra de puntos menor. Es necesario, por lo tanto, poseer un
algoritmo o fórmula para generar tales puntos que utilizaremos para la representación
gráfica de la superficie generada. Hay que tener en cuenta que los métodos de
interpolación intentan aproximar una función mediante un polinomio, llamado
polinomio algebraico. Una condición que debe cumplir la función a interpolar es que
sea continua en un intervalo cerrado y acotado.

A continuación hablaremos de la interpolación realizada en este programa


informático. El método de interpolación utilizado tiene que ser un método multivariante
ya que el paso o distancia entre los puntos puede ser variable. Este es el último paso que
se debe recorrer antes de la representación gráfica. Esta realizará la representación de
los puntos interpolados y se obtendrán resultados complementarios.

12.2 Interpolación

Toda interpolación cúbica parte de dos coordenadas, por ejemplo X e Y, y


genera la tercera coordenada Z. Dada la importancia del polinomio de Taylor, se podría
pensar en utilizar dicho polinomio como método de interpolación, pero no es así. Los
polinomios de Taylor coinciden en lo posible con determinada función en un punto
específico, pero concentran su exactitud cerca de él. Una buena interpolación debe
ofrecer una aproximación relativamente exacta en un intervalo entero, y los polinomio
de Taylor generalmente no lo hacen.

En el método de interpolación utilizado se definen las localizaciones de los


puntos problemas y se estima la altitud (en el caso de generar coordenada Z) de cada
uno de ellos en función de los datos del entorno existentes en el modelo. Los algoritmos
de interpolación deben tener en cuenta las diversas estructuras auxiliares para introducir
variantes en los mecanismos de cálculo.

Integración de máquinas medidoras por coordenadas en entornos CAD/CAM 109


Interpolación
_____________________________________________________________________________________

El planteamiento global del problema podría ser el siguiente:

· Dado un conjunto de puntos con coordenadas (x,y,z) distribuidos


irregularmente, generar un nuevo conjunto de puntos localizados en los nodos de
una red regular de forma que la superficie interpolada sea una representación de
la original con una pérdida mínima de información.

· El valor del punto problema se estima asignando pesos a los datos del entorno en
función inversa de la distancia que los separa del punto problema. El algoritmo
utilizado para la interpolación es el llamado algoritmo de interpolación
multivariante de la distancia inversa.

Se establece que los puntos más cercanos tienen un peso mayor en el cálculo,
aunque la relación no tiene porque ser lineal.

El método utiliza información de puntos que pueden tener dos posibles orígenes.
Por una parte, el algoritmo puede utilizar los puntos tomados directamente de la medida
sobre la superficie de la pieza o por el contrario, los datos pueden ser el resultado de la
compensación del radio sobre los puntos palpados directamente. Esto es debido a que
puede darse el caso de que mejorando la MMC o cambiando el tipo de sonda, se pueda
realizar la compensación de radio desde la propia máquina. En tal caso no se tendría que
compensar el radio de la punta de la herramienta con el programa creado. Se pasaría
directamente a la interpolación sin necesidad de realizar la compensación.

En ambos casos, los parámetros de interpolación pueden ser iguales, pero no lo


serán los resultados obtenidos. Supondremos que los puntos tomados no tienen en
cuenta el radio de la punta de la herramienta. Con esto, los resultados obtenidos de la
compensación del radio deberán de pasar por el proceso de interpolación para la
generación del mallado de la superficie, utilizando el método que se describe a
continuación.

12.3 El método de la distancia inversa

Este método se basa en la siguiente fórmula:


n
z j = å kij × zi
i =1

donde zj es el valor estimado para el punto j. El número de puntos usados en la


interpolación viene dado por n; zi es el valor en el punto i-ésimo y kij es el peso asociado
al dato i en el cálculo del nodo j. Los peso varían entre 0 y 1 para cada dato y la suma
total de ellos es la unidad.

110 Integración de máquinas medidoras por coordenadas en entornos CAD/CAM


Capítulo 3. Desarrollo del programa

Las diferencias entre los diversos métodos estriban en la forma de calcular los
pesos de cada dato. Los métodos de la distancia inversa calculan la distancia euclidiana
(definida como x = [å x ]
2
i
1
2
) entre cada dato y el punto problema, dij; se establece una
función de proporcionalidad entre el peso y la distancia, quedando la fórmula general
como:

åi zi dijb å wi ·zi
zj = = i (I)
åi dijb
1 å i
W i

donde b es un exponente de ponderación. Este parámetro controla la forma en la que el


peso disminuye con la distancia. En el caso de valer 0, el valor estimada será la media
aritmética de los datos; en el caso de valer 1, el peso disminuye linealmente con la
distancia; para valores superiores, la influencia de los puntos cercanos se hace mucho
mayor que la de los lejanos. Por ejemplo, cuando b=2, la interpolación se realiza en
función inversa del cuadrado de la distancia. En la fórmula anterior el parámetro wi es
proporcional a b y su valor viene dado por:
[
wi = (xi - xk ) + ( yi - yk )
2
]
2 -0.5· p
(II)
donde xi e yi son los valores de las coordenadas de los puntos tomados. El subíndice i se
refiere a puntos tomados y el subíndice k corresponde a puntos generados. Un ejemplo
de cómo se opera con la expresión (II) es el siguiente:

Dados los puntos iniciales tomados en la medición:

X Y Z
197.2007040 98.733669 38.106398
238.422929 112.378083 82.790646
232.958830 106.946191 85.159880
232.964040 117.686288 84.390633
230.859219 112.310212 84.383799

Claramente n=5 (número de puntos tomados) y también podemos saber los


valores máximos y mínimos en cada eje:

Xmin=197.200740 Ymin=98.733669 Zmin=38.106398


Xmax=238.422929 Ymax=117.686288 Zmax=85.159880

Supongamos que se quiere generar valores X y que los parámetros de


interpolación son IY=15, IZ=12 y p=3. Tenemos que
Y - Ymin Z - Z min
h y = max = 1.263508 , hz = max = 3.921124
IY IZ

Integración de máquinas medidoras por coordenadas en entornos CAD/CAM 111


Interpolación
_____________________________________________________________________________________

De esta forma se pueden generar los valores de los puntos Y y Z distanciados


según los valores de hy y hz. Los resultados obtenidos para cada eje son:

Eje X Eje Y Eje Z


233,9313 98,733669 38,106398 ;
233,941604 98,733669 42,027522 ;
233,953194 98,733669 45,948645 ;
233,966068 98,733669 49,869768 ;
233,979934 98,733669 53,790892 ;
233,993813 98,733669 57,712016 ;
234,005124 98,733669 61,633139 ;
234,007692 98,733669 65,554262 ;
233,98787 98,733669 69,475386 ;
233,919583 98,733669 73,39651 ;
233,770888 98,733669 77,317633 ;
233,559258 98,733669 81,238756 ;
233,933835 99,997177 38,106398 ;
233,944885 99,997177 42,027522 ;
233,957526 99,997177 45,948645 ;
233,971911 99,997177 49,869768 ;
233,987995 99,997177 53,790892 ;
234,005178 99,997177 57,712016 ;
.... .... ....
donde Ymin=98.733669, 42.027522=38.106398+hz , 45.027522=42.027522+hz ,...
81.238756=77.317633+hz.

Los valores de la primera columna se obtienen haciendo uso de la fórmula (II).


Para obtener el primer valor de la columna correspondiente al eje X, 233,9313, se opera
de la siguiente forma:

w1=((112.378083-98.733669)2+(82.790646-38.106398)2)-0.5·3=9.805·10-6
w2=((106.946191-98.733669)2+(85.15988-38.106398)2)-0.5·3=9.1765·10-6
w3=((117.686288-98.733669)2+(84.390633-38.106398)2)-0.5·3=7.9931·10-6
w4=((112.310212-98.733669)2+(84.383799-38.106398)2)-0.5·3=8.9147·10-6
w1+ w2+ w3+ w4=35.8894·10-6

Para obtener el primer valor de la coordenada X se utilizan las expresiones:

Ai=Ai-1+X·wi y Bi=Bi-1+wi, numéricamente:

A1=A0+238.422929·9.805·10-6=2.3377·10-3 con A0=0


B1=B0+9.805·10-6=9.805·10-6 con B0=0
A2=A1+232.958830·9.1765·10-6=4.475·10-3
B2=B1+9.1765·10-6=18.9815·10-6
A3=6.3371·10-3

112 Integración de máquinas medidoras por coordenadas en entornos CAD/CAM


Capítulo 3. Desarrollo del programa

B3=26.9746·10-6
A4=8.3951·10-3
B4=35.8894·10-6
A4 8.3951·10 -3
De modo que X 1 = = = 233,9313
B4 35.8894·10 -6
Para hallar el segundo valor de la columna X se procederá análogamente:

w1=((112.378083-98.733669)2+(82.790646-42.027522)2)-0.5·3=12.598·10-6
w2=((106.946191-98.733669)2+(85.15988-42.027522)2)-0.5·3=11.8139·10-6
w3=((117.686288-98.733669)2+(84.390633-42.027522)2)-0.5·3=10.0042·10-6
w4=((112.310212-98.733669)2+(84.383799-42.027522)2)-0.5·3=11.3641·10-6
A1=A0+238.422929·12.598·10-6=3.00365·10-3 con A0=0
B1=B0+12.598·10-6=12.598·10-6 con B0=0
A2=A1+232.958830·11.8139·10-6=5.75579·10-3
B2=B1+11.8139·10-6=24.411915·10-6
A3=8.0864·10-3
B3=344161·10-6
A4=10.7099·10-3
B4=45.7802·10-6
A
X 2 = 4 = 233,9416
B4
Cuando se aplican estos métodos aparece frecuentemente un problema derivado
del desigual reparto espacial de los puntos a lo largo de las líneas y entre ellas. Se trata
del “aterrazamiento” del terreno debido a la ausencia de datos entre curvas de nivel
sucesivas. Cuando la interpolación se realiza mediante funciones de ajuste más
complejas (polinomios de grado alto), pueden aparecer efectos aún más molestos que
producen fuertes fluctuaciones.

Integración de máquinas medidoras por coordenadas en entornos CAD/CAM 113


Interpolación
_____________________________________________________________________________________

Figura 12.1. Ejemplo de las curvas generadas para varios valores de b donde pueden observarse los
patrones de cambio de pesos (ordenadas) en función de las distancias (unidades arbitrarias, en abcisas).

De modo que esta familia de métodos permite la generación de mallas de una


forma rápida y simple. Sin embargo, se trata esencialmente de una media ponderada y
por tanto el resultado se encuentra siempre incluido dentro del rango de variación de los
datos. Por este motivo, el correcto tratamiento de las formas cóncavas y convexas
depende estrechamente de la distribución de los puntos originales.

12.4 Implementación en el programa

La materialización del método descrito en el programa se lleva a cabo mediante


la utilización de bucles del tipo Do...Loop Until..., quedando el código para el caso de
que se realizase la interpolación en los ejes X e Y de la siguiente forma:

i=0
Do
i=i+1
………….
Loop Until i = IX - 1
j=0
Do
j=j+1
……………
Loop Until j = IY – 1
...........
i = -1
j = -1
Do
i=i+1

114 Integración de máquinas medidoras por coordenadas en entornos CAD/CAM


Capítulo 3. Desarrollo del programa

j = -1
Do
j=j+1
AA = 0
BB = 0
k=0
Do
……………
Loop Until k = n - 1
ZP(i, j) = AA / BB
........
ZPS(i, j) = Str(ZP(i, j))
........
Loop Until j = IY – 1
........
Loop Until i = IX – 1
.........
End If

donde DX=hx y DY=hy. En esta ocasión se generan valores para la coordenada Z que se
llammará ZP(i,j) y será el resultado de aplicar la expresión (I). En el caso de querer
generar coordenadas X o Y, el código es similar al expuesto.

12.5 Errores de interpolación

Al igual que en caso de compensación, hay que realizar un análisis de los errores
cometidos al utilizar el algoritmo para la generación de una coordenada a partir de otras
dos. De forma más general, x=f(y,z), y=f(x,z) o z=f(x,y).

Supongamos que la coordenada que se desea generar es X a partir de valores de


Y y Z. Llamo MIXi, MIYj y MIZk a los valores obtenidos por interpolación de las
coordenadas X, Y y Z respectivamente. Partiendo de los parámetros antes mencionados
Y - Ymin Z - Z min
h y = max , hz = max , los distintos valores de MIYj y MIZk se obtienen:
IY IZ

MIY1=Ymin+hy MIZ1=Zmin+hz
MIY2=MIY1+hy MIZ2=MIZ1+hz
.... ....
.... ....
MIYn=MIYn-1+hy MIZn=MIZn-1+hz

De modo que MIYj=å(MIYj-1+hy) para j=1,....(IY-1) y MIZk=å(MIZk-1+hz) para


k=1,....,(IZ-1). La expresión (II) queda:

Integración de máquinas medidoras por coordenadas en entornos CAD/CAM 115


Interpolación
_____________________________________________________________________________________

[
wi = ( yi - ( MIY j -1 + h y ) ) + ( z i - ( MIZ k -1 + hz ) )
2
]
2 -0 . 5 · p

Ai Ai -1 + wi · X i
y la coordenada MIX i = = = f ( Ai-1 , Bi -1 , X i , wi ) con i=1,....,(n-1)
Bi Bi -1 + wi
Aplicando la ley de propagación de varianzas:

2 2 2 2
æ ¶f ö 2 æ ¶f ö 2 æ ¶f ö 2 æ ¶f ö 2
u 2
MIX i = çç ÷÷ ·u Ai -1 + çç ÷÷ ·u Bi -1 + çç ÷÷ ·u X i + çç ÷÷ ·u wi
è ¶Ai-1 ø è ¶Bi -1 ø è ¶X i ø è ¶wi ø

æ ¶f ö wi U 0.001 æ ¶f ö Ai -1 ·Bi -1
donde çç ÷÷ = y u Xi = X = ; çç ÷÷ = -
¶X
è iø Bi -1 + wi k 2 è ¶wi ø ( Bi -1 + wi ) 2
2 2 2 2 2
æ ¶w ö 2 æ ¶wi ö 2 æ ¶wi ö 2 æ ¶wi ö 2 æ ö 2
u = çç i
2
÷÷ ·u yi + çç ÷÷ ·u zi + çç ÷÷ ·u p + ç ÷ ·u MIY + ç ¶wi ÷ ·u MIZ +
wi ç ÷ ç ÷
è ¶yi è ¶z i ø è ¶p ø è ¶MIY j -1 ø è ¶MIZ k -1 ø
j -1 k -1
ø
2 2
æ ¶wi ö 2 æ ¶wi ö 2
ç ÷ ·u h + ç ÷ ·u
ç ¶h ÷ y ç ¶h ÷ hz
è y ø è z ø

donde los dos últimos términos son 0 debido a que:


2 2 2
æ ¶hy ö 2 æ ¶hy ö 2 æ ¶h ö
u = çç
2
hy
÷÷ ·uYmax + çç ÷÷ ·uYmin + çç y ÷÷ ·u IY2 = 0
è1¶Ymax ø è1¶Ymin ø è1¶4
IY ø
42 43 42 43 243
æ 1 ö
2
æ -1 ö
2 0
ç ÷ ç ÷
è IY ø è IY ø
2 2 2
æ ¶hz ö 2 æ ¶hz ö 2 æ ¶h ö
u = çç
2
hz
÷÷ ·u Zmax + çç ÷÷ ·u Z min + ç z ÷ ·u IZ2 = 0
è1¶Z max ø è1¶Z ø è1¶4
IZ2
ø 43
42 43 42min
43
2 2 0
æ 1 ö æ -1 ö
ç ÷ ç ÷
è IZ ø è IZ ø

Como up=0, ese término no se tiene en cuenta. Respecto a los otros términos:

·
[(
æ ¶w ö - 0.5· yi - ( MIY j -1 + h y ) 2 + (zi - ( MIZ k -1 + h z ) )2
ç i ÷=
) · p·( 2· yi + 2·MIY j -1 + 2·h y ) ]-0.5· p

ç ¶MIY ÷
è j -1 ø
2
(
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
2
)

·
[( )2
æ ¶wi ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
ç ÷=
]
2 -0.5· p
· p·( 2· z i + 2·MIZ j -1 + 2·h z )
ç ¶MIZ
è
÷
k -1 ø
2
( )
yi - ( MIY j -1 + h y ) + (z i - ( MIZ k -1 + h z ) )
2

116 Integración de máquinas medidoras por coordenadas en entornos CAD/CAM


Capítulo 3. Desarrollo del programa

·
[( )2
æ ¶wi ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
ç ÷=
]
2 -0.5· p
· p·( 2· yi - 2·MIY j -1 - 2·h y )
ç ¶y ÷
è iø ( 2
)
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) )
2

·
æ ¶wi
ç ÷=
[( )2
ö - 0.5· yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + h z ) ) ]
2 -0.5· p
· p·( 2· zi - 2·MIZ j -1 - 2·hz )
ç ¶z
è i
÷
ø ( )
yi - ( MIY j -1 + h y ) + (zi - ( MIZ k -1 + hz ) )
2 2

La implementación en el programa se hace de forma que no queden expresiones muy


largas. Por ello se realiza la operación por partes, definiendo primero unas variables que
luego se utilizan para formar la expresión final.

Figura 12.2.- Pantalla gráfica de errors de interpolación

Figura 12.3.- Datos numéricos de los errors de interpolación

Integración de máquinas medidoras por coordenadas en entornos CAD/CAM 117


Capítulo 3

Interpolación spline

Muy frecuentemente se dispone de una gran cantidad de datos relativos a


una función, conocida o no, que se desea aproximar. Las técnicas de interpo-
lación polinómica dan lugar en general a interpolantes que presentan grandes
oscilaciones. La interpolación spline desempeña un papel fundamental en el
tratamiento de este tipo de problemas. En lo que sigue, nos centraremos
principalmente en la interpolación spline cúbica, aunque trataremos primero
brevemente la lineal y la cuadrática.

3.1 Interpolación con splines de grado uno


Como hemos indicado, los polinomios de grado elevado pueden presentar
grandes oscilaciones. Ello hace que un polinomio pueda coincidir con una
función en muchos puntos y que, aunque dos de ellos estén muy próximos,
en puntos entre estos dos el valor del polinomio diste mucho del de la fun-
ción. Incluso es posible que la distancia tienda a infinito cuando el grado del
polinomio crece (el ejemplo de Runge es una buena ilustración).
Por el contrario para los polinomios de grado bajo no se dan tales oscila-
ciones; basta pensar en las gráficas de las rectas, las parábolas o las cúbicas,
por citar los de grado más bajo, que son los de mayor interés en la construcción
de las funciones spline polinómicas.
La idea de este tipo de funciones es hacer posible la construcción de es-
pacios de funciones suficientemente suaves fácilmente manejables. Los más
utilizados son los construidos, hablando en términos gráficos, a partir de fun-
ciones polinómicas a trozos de grado bajo que presentan cierta regularidad.
Un ejemplo sencillo es el de una función cuya gráfica la forman rectas a
40 Capítulo 3. Interpolación spline

trozos, es decir segmentos, sobre una partición

a = x1 < x2 < · · · < xn = b


del intervalo [a, b], de tal manera que el extremo final de un segmento coincide
con el principio del siguiente. La gráfica que resulta es lo que conocemos como
una poligonal. Obsérvese que se trata de una función continua en el intervalo
total [a, b], y que al restringirla al intervalo [xi , xi+1 ], 1 ≤ i ≤ n − 1, es un
polinomio de grado menor o igual que uno; además, estas dos propiedades se
mantienen cuando se suman poligonales o se multiplican por escalares. Por
tanto las funciones cuyas gráficas son las poligonales asociadas a la partición
anterior constituyen un espacio vectorial. Este espacio vectorial es el de las
funciones spline de grado uno y nodos x1 , ..., xn , y se nota por S1 (x1 , . . . , xn ) .
También se observa de inmediato que si en los nodos x1 , . . ., xn se cono-
cen los valores y1 , . . ., yn que toma cierta función y se desea construir una
poligonal, del tipo anterior, que pasa por ellos, el problema tiene solución y es
única: su gráfica la forman los segmentos que unen los puntos resultantes: el
punto (x1 , y1 ) con el punto (x2 , y2 ), el (x2 , y2 ) con (x3 , y3 ), etc., y su expresión
analítica, si (x), en el subintervalo [xi , xi+1 ), 1 ≤ i ≤ n − 1, es

yi+1 − yi
si (x) = yi + (x − xi ) , x ∈ [xi , xi+1 )
xi+1 − xi
(el último subintervalo se considera cerrado por la derecha, es decir, [xn−1 , b]).
Por tanto, el problema consistente en interpolar datos lagranianos referidos
a los nodos x1 , . . ., xn en el espacio S1 (x1 , . . . , xn ) es unisolvente (es decir,
tiene solución en ese espacio vectorial y es única). Este hecho también nos
indica que la dimensión de dicho espacio es n. La dimensión también se puede
deducir teniendo en cuenta que cada spline es un polinomio de grado menor
o igual que 1 en cada subintervalo, lo que deja dos parámetros libres para
su determinación; en total, como hemos de obtener n − 1 polinomios, serían
2 (n − 1) parámetros, a los que habría que restar n − 2 restricciones originadas
al exigir la continuidad en los n − 2 nodos interiores, obteniendo como valor de
la dimensión 2 (n − 1) − (n − 2) = n (este resultado, obtenido a partir de un
razonamiento de tipo heurístico, requiere una demostración rigurosa, pues no
hemos probado que las formas lineales asociadas al problema sean linealmente
independientes).
Una base del espacio S1 (x1 , . . . , xn ) la constituyen las n poligonales que
valen, respectivamente, 1 en un nodo y 0 en los n − 1 nodos restantes. Esta
base es muy útil en problemas de elementos finitos (ver figura 3.1).
§3.1 Interpolación con splines de grado uno 41

1
xi−1 xi xi+1
Figura 3.1: Gráfica de la función de de la base de S1 (x1 , . . . , xn ) correspondi-
ente al nodo xi .

Otra base se puede definir a partir de potencias truncadas. La función


potencia truncada de grado m en el punto c se nota por (x − c)m
+ y se define
por

0 si x < c
(x − c)m =
+ (x − c)m si x ≥ c

En la figura 3.2 se muestran las gráficas de dos de ellas.

-2 2 4 6

15
12.5
10
7.5
5
2.5

-2 2 4 6

Figura 3.2: Gráficas en [−3, 6] de las potencias truncadas de grados m = 1, 2


correspondientes a c = 2.

La base de S1 (x1 , . . . , xn ) mediante potencias truncadas es

 
1, x, (x − x2 )+ , (x − x3 )+ , . . . , (x − xn−1 )+ .
42 Capítulo 3. Interpolación spline

3.2 Interpolación con splines cuadráticos


Las funciones spline polinómicas de grado mayor que uno siguen una filosofía
idéntica a las de grado uno, sólo que al aumentar el grado se puede conseguir
mayor regularidad global, sin que cambie mucho la dimensión del espacio vec-
torial. Así, los splines cuadráticos con nodos x1 , . . ., xn están constituidos
por parábolas a trozos, unidas entre sí no sólo con continuidad sino también
con tangente continua, de tal forma que son funciones de clase uno en el in-
tervalo [a, b]. El espacio vectorial correspondiente se nota por S2 (x1 , . . . , xn ) .
Es evidente que si se desea calcular una parábola conociendo su valor en dos
puntos, por ejemplo en x1 y x2 , y el valor de su derivada en uno de ellos,
por ejemplo en x1 , el problema es unisolvente. Si queremos usar el spline
cuadrático para interpolar datos, la siguiente parábola tendría que volver a
interpolar el valor en el nodo x2 , puede interpolar un nuevo valor de función
en x3 , pero no podemos interpolar una derivada arbitraria en uno de estos ex-
tremos, pues, para que ambas parábolas enlacen con clase uno se necesita que
la nueva parábola tenga en x2 la misma derivada que la parábola construida en
el intervalo [x1 , x2 ] . Continuando la construcción hasta el último subintervalo,
observamos que el espacio S2 (x1 , . . . , xn ) permite resolver un problema de in-
terpolación con n + 1 datos (valores en los n nodos y el valor de la derivada en
uno de ellos). Nuevamente, la dimensión n + 1 es igual al número de parábolas
que hay que construir, n − 1, por el número de parámetros de cada una, tres,
menos el número de nodos interiores, n − 2, por las restricciones en cada nodo
interior, dos (coincidencia del valor y de la primera derivada).
Detallemos el problema de interpolación lagrangiana en S2 (x1 , x2 , . . . , xn ),
que describimos como sigue:

Encontrar s ∈ S2 (x1 , ..., xn )


(3.1)
tal que s (xi ) = yi , 1 ≤ i ≤ n

Si sk es el polinomio cuadrático que se obtiene al restringir s ∈ S2 (x1 , ..., xn )


al intervalo [xk , xk+1 ], k = 1, 2, . . . , n − 1, entonces sk (x) = αk + βk (x − xk ) +
γk (x − xk )2 , donde αk , βk y γk son constantes reales. La función s cumplirá las
condiciones de interpolación s (xi ) = yi , k = 1, 2, . . . , n, si y sólo si sk (xk ) = yk
y sk (xk+1 ) = yk+1 , k = 1, 2, . . . , n − 1, condiciones equivalentes a

yk = sk (xk ) = αk
yk+1 = sk (xk+1 ) = αk + βk hk + γk h2k
§3.3 Interpolación con splines cúbicos de clase dos 43

donde hk = xk+1 − xk . Entonces

αk = yk
∆k − βk
γk =
hk
yk+1 − yk
donde ∆k = . La determinación del interpolante spline s pasa por
hk
hallar los valores βk . Sólo resta imponer que s sea de clase C 1 ([a, b]). Pero
esto está garantizado si s es derivable en los nodos interiores x2 , . . . , xn−1 .
En definitiva, s es de clase C 1 ([a, b]) si y sólo si sk (xk+1 ) = sk+1 (xk+1 ),
k = 1, 2, . . . , n − 2, es decir, si y sólo si

βk + 2 (∆k − βk ) = βk+1 ,

igualdades que se simplifican dando lugar a

βk + βk+1 = 2∆k , k = 1, 2, . . . , n − 2. (3.2)

Se trata de un sistema de n−2 ecuaciones para las incógnitas β1 , . . . , βn−1 ,


por lo que el problema (3.1) no es unisolvente en S2 (x1 , x2 , . . . , xn ). Una
forma de conseguir un problema unisolvente consiste en especificar el valor de
la derivada de la función spline en uno de los nodos. Si es el inicial, equivale
a especificar el valor de β1 . En cualquiera de estos casos las igualdades (3.2)
permiten determinar recurrentemente los restantes valores de las incógnitas.
Otra forma de abordar el problema es elegir β0 de modo que alguna can-
tidad relacionada con el spline se minimice, por ejemplo la energía o alguna
aproximación de la curvatura (ver [Späth]).
El problema descrito también podría haberse expresado en términos de la
base de potencias truncadas de S2 (x1 , . . . , xn ), dada por
 
1, x, x2 , (x − x2 )2+ , (x − x3 )2+ , . . . , (x − xn−1 )2+ .

3.3 Interpolación con splines cúbicos de clase dos


De igual forma que en los casos anteriores, se puede construir un espacio for-
mado por funciones cúbicas a trozos de clase dos. Es el espacio vectorial de
los splines cúbicos, que se nota por S3 (x1 , . . . , xn ). Este espacio tiene dimen-
sión n + 2, como indica un razonamiento similar al de los casos precedentes.
44 Capítulo 3. Interpolación spline

De nuevo podemos escribir una base para el mismo en función de potencias


truncadas
 
1, x, x2 , x3 , (x − x2 )3+ , (x − x3 )3+ , . . . , (x − xn−1 )3+
Con el espacio S3 (x1 , . . . , xn ) podemos interpolar valores en los n nodos y
dos datos más. Cabría pensar que los dos datos restantes para la interpolación
son relativos a derivadas en los extremos de uno de los subintervalos. Efec-
tivamente esa es una posibilidad, pero no la más interesante. Los problemas
de interpolación en el espacio S3 (x1 , . . . , xn ) tienen sus dos datos restantes
referidos a los nodos extremos a y b; por tanto, su construcción no es tan
simple como en los casos anteriores.
El problema de interpolación lagrangiana en S3 (x1 , . . . , xn ) es el siguiente:
Encontrar s(x) ∈ S3 (x1 , ..., xn )
(3.3)
tal que s (xi ) = yi , 1 ≤ i ≤ n
Como hemos comentado, se requieren dos condiciones adicionales; tres
elecciones muy interesantes son las siguientes:
i) Caso cúbico natural
s (x1 ) = 0, s (xn ) = 0.
ii) Caso cúbico periódico
s (x1 ) = s (xn ) , s (x1 ) = s (xn ).
iii) Caso cúbico sujeto
s (x1 ) = y0 , s (xn ) = yn ,

Los problemas de Lagrange con las anteriores condiciones adicionales tienen


n datos de interpolación comunes.
Veamos cómo se podría determinar el primero de ellos, el spline cúbico nat-
ural de interpolación. Mantenemos la notación empleada en el caso cuadrático.
La restricción al subintervalo [xk, xk+1 ] del spline s se nota sk y es un poli-
nomio de grado menor o igual que tres, que debe tomar en los extremos los
valores yk e yk+1 , respectivamente. Si denominamos dk y dk+1 a los valores
(desconocidos) de la derivada primera de s en los extremos xk y xk+1 , entonces
sk satisface las igualdades
sk (xk ) = yk , sk (xk+1 ) = yk+1
sk (xk ) = dk , sk (xk+1 ) = dk+1
§3.3 Interpolación con splines cúbicos de clase dos 45

Se trata de un problema de interpolación polinómica de Hermite, por lo que sk


puede expresarse
 en términos de los polinomios de la
 correspondiente base de
2 2
Newton: 1, x − xk , (x − xk ) , (x − xk ) (x − xk+1 ) . Unos cálculos elemen-
tales muestran que
 
1 yk+1 − yk
sk (x) = yk + dk (x − xk ) + − dk (x − xk )2
hk hk
 
1 yk+1 − yk
+ 2 −2 + dk+1 + dk (x − xk )2 (x − xk+1 )
hk hk

La función s construida a partir de las restricciones sk , k = 1, 2, . . . , n − 1,


interpola los valores yk y es de clase C 1 ([a, b]). Sólo hay que imponer que sea de
clase C 2 ([a, b]), lo que se consigue si lo es en los nodos interiores x2 , . . . , xn−1 .
Pero esto equivale a que sk (xk+1 ) = sk+1 (xk+1 ) para k = 1, 2, . . . , n − 2. Pero

6 (yk − yk+1 ) + 2hk (dk + 2dk+1 )


sk (xk+1 ) =
h2k
y
3 (yk+1 − yk+2 ) + hk+1 (2dk+1 + dk+2 )
sk+1 (xk+1 ) = −2 .
h2k+1

En definitiva, igualando ambos valores y simplificando, se tiene clase C 2 ([a, b])


si y sólo si
  
1 1 1 1 yk+1 − yk yk+2 − yk+1
dk + 2 + dk+1 + dk+2 = 3 + ,
hk hk hk+1 hk+1 h2k h2k+1

para k = 1, 2, . . . , n − 2. Constituyen un sistema de n − 2 ecuaciones para n


incógnitas, por lo que el problema (3.3) no es unisolvente, como ya se anunció.
Son necesarias dos condiciones adicionales. En el caso cúbico natural, son
s (a) = s (b) = 0, o, equivalentemente, s1 (x1 ) = sn−1 (xn ) = 0. A partir de
las expresiones de s1 y sn−1 , se obtiene que la segunda derivada de s en a y b
será nula si y sólo si

y2 − y1
2d1 + d2 = 3
h1
yn − yn−1
dn−1 + 2dn = 3
hn−1
46 Capítulo 3. Interpolación spline

La matriz de coeficientes del sistema que determina los valores de la derivada


de s en los nodos de interpolación es
 
2 1
 1 1 1 1 
 h1 h1 + h2 h2 
 1 1
+ 1 1 
 h2 h2 h3 h3 
 .. .. .. 
 . . . 
 
 1 1
+ 1 1 
 hn−3 hn−3 hn−2 hn−2 
 1 1 1 1 
 hn−2 hn−2 + hn−1 hn−1 
1 2

Es una matriz diagonalmente dominante en sentido estricto, por lo que es


invertible. Así pues, existe un único spline natural de interpolación. El vector
de términos intependientes es
 T
y2 − y1 y2 − y1 y3 − y2 yn−1 − yn−2 yn − yn−1 yn − yn−1
3 , + ,..., + ,
h1 h21 h22 h2n−2 h2n−1 hn−1

En las figuras (3.3) y (3.4) se muestran las gráficas de la función f (x) =


sen x y de su spline cúbico natural de interpolación relativo a la partición uni-
forme del intervalo [0, π] con paso h = π4 , y el error de interpolación asociado,
respectivamente.
1

0.8

0.6

0.4

0.2

0.5 1 1.5 2 2.5 3

Figura 3.3: Gráficas de la función f (x) = sen x y de su spline cúbico natural


de interpolación relativo a la partición uniforme del intervalo [0, π] con paso
h = π4 .
§3.4 Interpolación con splines cúbicos de clase uno 47

0.001

0.0008

0.0006

0.0004

0.0002

0.5 1 1.5 2 2.5 3

Figura 3.4: Gráfica del error de interpolación correspondiente al ejemplo de la


figura (3.3).

El caso cúbico sujeto es más simple, pues las condiciones en los extremos
se traducen en valores concretos de d1 y dn , por lo que las ecuaciones primera
y última que relacionan los valores de las incógnitas se simplifican, obteniendo
un sistema de orden n − 2 en lugar de uno de orden n.
Conocidos los valores de las derivadas del spline en cada nodo es inmediato
obtener con Mathematica la expresión del spline en ese intervalo con la orden
InterpolatingPolynomial.
El caso periódico, que también es unisolvente, se trata de forma análoga,
aunque la matriz de coeficientes ya no es tridiagonal.

3.4 Interpolación con splines cúbicos de clase uno


Podríamos pensar en utilizar un espacio formado por cúbicas a trozos que
enlazaran con continuidad y también con tangente continua pero sin exigir co-
incidencia de las segundas derivadas en los nodos interiores. Lo notaremos por
S31 (x0 , ..., xn ), donde el superíndice indica la regularidad global y el subíndice
el grado de los polinomios. Es de nuevo un espacio vectorial, de mayor dimen-
sión que el anterior, que además contiene al espacio de los splines cúbicos de
clase dos.
Es inmediato que con este espacio podemos interpolar, con solución única,
el valor de una función y el de su derivada en cada uno de los nodos. Por tanto,
la dimensión del espacio S31 (x0 , ..., xn ) es 2n + 2. Además, la construcción de
cada uno de los trozos se puede hacer por separado con la orden Interpolat-
48 Capítulo 3. Interpolación spline

ingPolynomial..

3.5 Propiedades extremales de los splines cúbicos


Consideremos dos funciones s, g ∈ C 2 ([a, b]). Entonces, se tiene que
 b  b  b  b
2 2 2  
g  − s = g − s −2 s g  − s . (3.4)
a a a a
Si s es derivable en casi todos sus puntos, entonces se puede desarrollar por
partes la última integral de la expresión anterior y se obtiene
 b  b

  
 
  
 b
 
s g −s = s g −s a− s g  − s . (3.5)
a a

Teniendo en cuenta las relaciones anteriores, probaremos las siguientes propiedades


de tipo extremal para los splines cúbicos.

Teorema.- Supongamos que g interpola los valores yi en los nodos xi , para


i = 0, . . . , n, y que s es el spline cúbico natural que interpola dichos
datos. Entonces, se tiene que
 b  b
  2   2
g ≥ s ,
a a

y la igualdad se verifica si y sólo si s (x) = g (x), para todo x ∈ [a, b].

Demostración El primer miembro a la derecha del signo igual en (3.5) es


nulo, por ser s (a) = s (b) = 0 (spline cúbico natural), y resulta que
  
b   n−1
 xi+1   n−1
 xi+1   
s g  − s =

s g  − s =

αi g − s
a i=1 xi i=1 xi
n−1

= αi [g − s]xxi+1
i
= 0,
i=1
b
donde αi es el valor constante de s en (xi , xi+1 ). Por tanto, a s (g  − s ) =
0 y la igualdad (3.4) se reduce a
 b  b  b


 2  2
2
g −s = (g ) − s ,
a a a
§3.5 Propiedades extremales de los splines cúbicos 49

y, por tanto,  
b b 2
 2
(g ) ≥ s .
a a
De la continuidad de g y se deduce que la igualdad sólo se da si g −s =
s
0, es decir, si y sólo si g  (x) = s (x), para todo x ∈ [a, b], por lo que s y g
difieren únicamente en un polinomio de grado uno. Como coinciden en al
menos dos nodos, este polinomio se anula en, al menos, dos puntos y, por
consiguiente es idénticamente nulo. En definitiva,
 b  b
  2   2
g = s ⇔ s (x) = g (x) , ∀ x ∈ [a, b] ,
a a

con lo que concluye la demostración. 

Teorema.- Supongamos que g interpola los datos yi en los nodos xi , para


i = 1, . . . , n, y además los datos derivada en los extremos, ya e yb . Sea
s el spline cúbico sujeto asociado a los mismos datos. Entonces se tiene
que  b  b
  2   2
g ≥ s , (3.6)
a a
y la igualdad se da si y sólo si g (x) = s (x) para todo x ∈ [a, b].

Demostración La demostración es análoga a la del teorema precedente,


teniendo en cuenta que la condición s (a) = s (b) = 0 se debe sustituir por
s (a) = g (a) y s (b) = g  (b). 
Sean ahora u un spline cúbico cualquiera con nodos x1 , . . . , xn , x0 = a y
xn = b, y f una función de clase C 2 ([a, b]). Sean g = f − u y s = s − u, donde
s es el spline cúbico sujeto que interpola a f .
Notemos que s (xi ) = g (xi ), i = 1, . . . , n, s (a) = g (a) y s (b) = g (b).
Aplicando (3.6), se tiene que
 b  b
  
 2
  2
f −u ≥ f − s , (3.7)
a a

cumpliéndose la igualdad si y sólo si u (x) = s (x) + α + βx.


La propiedad (3.7) se puede interpretar como que, si medimos la distan-
b
cia entre f y cualquier spline cúbico u mediante la expresión a (f  − u )2 ,
entonces esta distancia se minimiza cuando u (x) = s (x) y para todos sus
trasladados mediante un polinomio de grado uno. Por tanto, podemos decir
que s es la mejor aproximación de f en este sentido.
50 Capítulo 3. Interpolación spline

3.6 Estudio del error


Sean [a, b] un intervalo cerrado real y a = x1 < x2 < · · · < xn = b una
partición del mismo. Sea h = max {xj+1 − xj }. Sean f ∈ C 2 ([a, b]) y s el
0≤j≤n−1
spline cúbico natural o sujeto que interpola a f en los nodos de la partición
considerada. Entonces, el error de interpolación
e (x) = f (x) − s (x) , x ∈ [a, b] ,
verifica, para cada intervalo [xj , xj+1 ], que e (xj ) = e (xj+1 ) = 0 y, por el
teorema de Rolle, existe al menos un valor cj ∈ [xj , xj+1 ] tal que e (cj ) = 0.
En consecuencia,
 x
e (t) dt = e (x) − e (cj ) = e (x) , ∀x ∈ [xj , xj+1 ] .
cj

Por la desigualdad de Cauchy-Schwartz, se tiene que


 2  
 x   x  x
   
|e (x)|2 =  e (t) · 1dt ≤  e (t)2 dt 12 dt
 cj   cj  cj
    (3.8)
 x   x 
   
≤  e (t)2 dt |x − cj | ≤ h  e (t)2 dt
 cj   cj 

Aplicando la propiedad extremal que verifica s, ya sea el spline cúbico


natural o el sujeto, se verifica que
 x  b  b  b  b  b
2 2
  
 2 2 2
e ≤ e = f −s = f − s ≤ f 2
c a a a a a

Teniendo en cuenta (3.8), y tomando raíz cuadrada se obtiene que


 b  12
    
e (x) = f  (x) − s (x) ≤ h 12 f 2 , ∀x ∈ [xj , xj+1 ] .
a
1
Luego la derivada del error está acotada por una expresión proporcional a h 2 .
Como  x
e (t) dt = e (x) − e (xj ) = e (x) − 0 = e (x) ,
xj
se tiene que
    b  12
 x  x      
       3
2
|e (x)| =  e (t) dt ≤ max e (z) dt ≤ h max e (z) ≤ h 2 f .
 xj  xj a≤z≤b a≤z≤b a
2 INTERPOLACIÓN EN DOS DIMENSIONES

2. Interpolación en dos dimensiones

2.1. Funciones Bivariadas

Los métodos para interpolar funciones de una variable por polinomios se extienden a
algunos casos de funciones de dos o más variables. Un caso importante se produce cuando
una función (x, y) → f (x, y) ha de aproximarse en un rectángulo. Esto nos lleva a lo que se
conoce como interpolación tensor-producto. Supongamos que el rectángulo es el producto
cartesiano de dos intervalos: [a, b] × [α, β] . Es decir, las variables x e y de ejecución en
los intervalos [a, b] , y [α, β] , respectivamente. Seleccione n nodos xi en [a, b] , y definir los
polinomios de Lagrange

n
Y x − xj
`i (x) = (1 ≤ i ≤ n)
j6=i
xi − xj
j=1

Del mismo modo, seleccionamos m nodos yi en [α, β] y definimos


m
Y y − yj
`¯i (y) = (1 ≤ i ≤ m)
j6=i
yi − yj
j=1

Entonces la función
n X
X m
P (x, y) = f (xi , yj ) `i (x) `j (y)
i=1 j=1

es un polinomio en dos variables que interpola f en los puntos de la cuadrı́cula (xi , yj ) .


Hay nm puntos de interpolación. La prueba de la propiedad de interpolación es bastante
simple porque `i (xq ) = δiq y `i (xp ) = δip . Consecuentemente,

n X
X m
P (xq , yp ) = f (xi , yj ) `i (xq ) `j (yp )
i=1 j=1

n X
X m
= f (xi , yj ) δiq δip = f (xq , yp )
i=1 j=1

9
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

El mismo procedimiento se puede utilizar con interpolantes spline (o de hecho cualquier


otro tipo de función).[2]

2.2. Método Vecino más Cercano

Interpolación del vecino más cercano (también conocido como interpolación proximal o,
en algunos contextos, el muestreo de punto) es un método sencillo de interpolación multi-
variante en una o más dimensiones.

El algoritmo del vecino más cercano selecciona el valor del punto más cercano y no tiene
en cuenta los valores de los puntos vecinos en absoluto, rindiendo un interpolador por
tramos constante. El algoritmo es muy sencillo de implementar y es de uso general (por lo
1
general junto con mipmapping ) en tiempo real 3D para seleccionar valores de color de
una textura de superficie.

Figura 2.1: Interpolación vecino más cercano en una rejilla uniforme

1
El mipmapping se utiliza para que la textura de la imagen no pixelen (se vean cuadraditos) y se
suavicen.

10
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

Búsqueda del Vecino más Cercano

2
La búsqueda del vecino más cercano (NNS ), también conocido como búsqueda de pro-
ximidad, búsqueda de similitud o la búsqueda del punto más cercano, es un problema de
optimización para encontrar el punto más cercano (o más similar) a una serie de puntos
dados. Formalmente, el problema de búsqueda del vecino más cercano se define como sigue:
dado un conjunto S de puntos en un espacio M y q un punto de consulta que pertenece a
M el problema consiste en encontrar el punto más cercano de S para q.

Se han propuesto diversas soluciones al problema NNS como por ejemplo: la búsqueda
lineal, el espacio de partición, búsqueda radial, por mencionar algunos. La calidad y la
utilidad de los algoritmos son determinados por la complejidad de tiempo de las consultas,
ası́ como la complejidad del espacio que se tiene. Para varias dimensiones el problema de
la búsqueda del vecino más cercano simplemente no es polinomial.

La búsqueda lineal

La solución más simple al problema NNS es calcular la distancia desde el punto de consulta
para todos los demás puntos en la base de datos, hacer el seguimiento de la “mejor hasta
ahora” (ver figura 2.2). Este algoritmo, a veces referido como el enfoque ingenuo, tiene un
tiempo de ejecución de O(dN ) donde N es la cardinalidad de S y d es la dimensionalidad
de M . La memoria que necesitamos para resolver este problema no es mucha, simplemente
necesitamos memoria para almacenar la base de datos de los puntos que se tienen; si se
necesitan otras variables, además de la base de datos, no ocuparán mucho espacio por lo
que no se considera como un problema en este caso.
2
Nearest neighbor search (NNS)

11
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

Figura 2.2: Devuelve el elemento más cercano a q en U .

La búsqueda ingenua en los espacios de dimensiones superiores puede superar otros enfo-
ques. Búsqueda ingenua puede, en promedio, superar a los enfoques de distribución de los
espacios en los espacios de dimensiones superiores.

La conexión al diagrama de Voronoi

Para un conjunto dado de puntos en el espacio, un diagrama de Voronoi es una descompo-


sición del espacio en celdas, una para cada punto dado, de manera que en cualquier lugar
en el espacio, el punto dado más cercano es el interior de la celda. Esto es equivalente a la
interpolación del vecino más cercano, asignando el valor de la función en el punto dado a
todos los puntos dentro de la celda. (Veáse figura 2.2)

Figura 2.3: Diagrama de Voronoi

12
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

El algoritmo de Fortune

El algoritmo de Fortune es un algoritmo de lı́nea de barrido para generar un diagrama


de Voronoi de un conjunto de puntos en un plano utilizando un tiempo O (n log n) y
espacio O (n). Fue publicado originalmente por Steven Fortune en 1986 en su artı́culo ”Un
algoritmo sweepline para los diagramas de Voronoi.”

Descripción del algoritmo de Fortune

El algoritmo mantiene tanto una lı́nea de barrido y una lı́nea de varado, la cual ambas se
mueven a través del plano a medida que el algoritmo avanza. La lı́nea de barrido es una
lı́nea recta, que es posible que, por convención, suponemos que es vertical y moviéndose
de izquierda a derecha a través del plano. En cualquier momento durante el algoritmo, los
puntos de entrada a la izquierda de la lı́nea de barrido se han incorporado en el diagrama de
Voronoi, mientras que los puntos a la derecha de la lı́nea de barrido no se han considerado
todavı́a. La lı́nea de varado no es una lı́nea, sino una curva a trozos complicada a la
izquierda de la lı́nea de barrido, compuesto por piezas de parábolas; se divide la porción
del plano en el que el diagrama de Voronoi puede ser conocido, independientemente de
lo que otros puntos pueden ser derecha de la lı́nea de barrido, del resto del plano. Para
cada punto de la izquierda de la lı́nea de barrido, se puede definir una parábola de puntos
equidistantes a partir de ese punto y de la lı́nea de barrido; la lı́nea de varado es el lı́mite
de la unión de estas parábolas. A medida que la lı́nea de barrido avanza, los vértices de
la lı́nea de varado, en el que se cruzan dos parábolas, trazan los bordes del diagrama de
Voronoi. La lı́nea de varado progresa manteniendo cada base de la parábola exactamente
a medio camino entre los puntos de barrido inicialmente sobre la lı́nea de barrido, y la
nueva posición de la lı́nea de barrido. (Veáse figura 2.3).

13
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

Linea
L de
barrido

Puntos
equidistantes
apyL

Linea
de
varado

Figura 2.4: Observe que sólo se calcula la parte del diagrama de Voronoi que se encuentra
por encima de la lı́nea de varado. La posición de la lı́nea de barrido mantiene la intersección
del diagrama de Voronoi con la lı́nea de varado.

El algoritmo mantiene como estructuras de datos un árbol de búsqueda binaria que des-
cribe la estructura combinatoria de la lı́nea de varado, y una cola de prioridad lista de
posibles eventos futuros que podrı́an cambiar la estructura de la lı́nea de varado. Estos
eventos incluyen la adición de otra parábola a la lı́nea de varado (cuando la lı́nea de barrido
cruza otro punto de entrada) y la eliminación de una curva de la lı́nea de varado (cuando
la lı́nea de barrido se hace tangente a un cı́rculo a través de unos tres puntos de entrada
cuyo parábolas forman segmentos consecutivos de la lı́nea de varado). Cada uno de estos
eventos puede ser priorizado por la coordenada x de la lı́nea de barrido en el punto que
se produce el evento. El propio algoritmo entonces consiste en retirar repetidamente el
próximo evento de la cola de prioridad, la búsqueda de los cambios que el evento provoca
en la lı́nea de varado, y la actualización de las estructuras de datos.

Como hay O (n) eventos en proceso (estando cada uno asociado con alguna caracterı́stica
del diagrama Voronoi) y O (log n) tiempo para procesar un evento (cada uno compuesto
de un número constante de operaciones árbol de búsqueda y cola de prioridad binarios) el
tiempo total es O (n log (n)) .

Código

A continuación se presenta una parte del código de la función interp2 de Octave, la cual

14
2.2 Método Vecino más Cercano 2 INTERPOLACIÓN EN DOS DIMENSIONES

nos da como resultado una interpolación utilizando el método del vecino más cercano.

elseif ( strcmp ( method , " nearest " ) )

ii = ( XI - X ( xidx ) >= X ( xidx + 1) - XI ) ;

jj = ( YI - Y ( yidx ) >= Y ( yidx + 1) - YI ) ;

idx = sub2ind ( size ( Z ) , yidx + jj , xidx + ii ) ;

ZI = Z ( idx ) ;

Ejemplo 1. Dada la función z(x, y) = sin(2x)(x2 − xy + y 2 ) se hará una interpolación uti-


lizando el método del vecino más cercano. Además obtendremos su representación gráfica.
(Veáse figura 2.4).

%ejemploInterp2 . m

%ejemplo usando interp2 de octave opción método del vecino más

cercano

%declarar la función multivariable

fun = @ (x , y ) ( sin (2* x ) .*( x .^2 - x .* y + y .^2) );

%parámetros

a =2; h1 =0.5; h2 =0.01;

%grafica de función interpolada

[ X0 , Y0 ]= meshgrid ( - a : h1 : a ) ;

Zexacto = fun ( X0 , Y0 ) ;

%valores a interpolar

[ X1 , Y1 ]= meshgrid ( - a : h2 : a ) ;

ZI = interp2 ( X0 , Y0 , Zexacto , X1 , Y1 ," nearest ") ;

%dibuja la función interpolada

surf ( ZI )

Representación gráfica.

15
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

Figura 2.5: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método del vecino
más cercano

2.3. Método Bilineal

En matemáticas, la interpolación bilineal es una extensión de la interpolación lineal para


interpolar funciones de dos variables (por ejemplo, x e y) sobre una rejilla rectilı́nea 2D.
(Veáse la figura 2.5)

Figura 2.6: Los cuatro puntos rojos muestran los puntos de datos y el punto P es el punto
en el que queremos interpolar.

La idea clave es realizar la interpolación lineal primero en una dirección, y luego de nuevo
en la otra dirección. Aunque cada paso es lineal en los valores de muestra y en la posición,
la interpolación en su conjunto no es lineal, sino más bien cuadrática en la ubicación de
la muestra.

16
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

Algoritmo

Supongamos que queremos encontrar el valor de la función desconocida f en el punto (x, y).
Se supone que conocemos el valor de f en los cuatro puntos Q11 = (x1 , y1 ) , Q12 = (x1 , y2 ) ,
Q21 = (x2 , y1 ) , y Q22 = (x2 , y2 ) .

Primero hacemos interpolación lineal en la dirección x. Esto produce


x2 −x x−x1
f (x, y1 ) ≈ x2 −x1
f (Q11 ) + x2 −x1
f (Q21 )

x2 −x x−x1
f (x, y2 ) ≈ x2 −x1
f (Q12 ) + x2 −x1
f (Q22 )

Procedemos interpolando en la dirección y para obtener la estimación deseada:


y2 −y y−y1
f (x, y) ≈ y2 −y1
f (x, y1 ) + y2 −y1
f (x, y2 )

   
y2 −y x2 −x x−x1 y−y1 x2 −x x−x1
≈ y2 −y1 x2 −x1
f (Q11 ) + x2 −x1
f (Q21 ) + y2 −y1 x2 −x1
f (Q12 ) + x2 −x1
f (Q22 )

1
= (x2 −x1 )(y2 −y1 )
[f (Q11 ) (x2 − x) (y2 − y) + f (Q21 ) (x − x1 ) (y2 − y)

+f (Q12 ) (x2 − x) (y − y1 ) + f (Q22 ) (x − x1 ) (y − y1 )]

  
f (Q11 ) f (Q12 ) y2 − y 
 
1
= (x2 −x1 )(y2 −y1 ) x2 − x x − x 1   
f (Q21 ) f (Q22 ) y − y1

Nótese que vamos a llegar al mismo resultado si la interpolación se realiza en primer lugar
a lo largo de la dirección y y luego a lo largo de la dirección x.

Algoritmo alternativo

Una forma alternativa de escribir la solución al problema de interpolación es

f (x, y) ≈ a0 + a1 x + a2 y + a3 xy

Dónde los coeficientes se encuentran resolviendo el sistema lineal

17
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

    
1 x 1 y1 x1 y1  a0  f (Q11 )
    
1 x1 y 2 x1 y 2 
 a1  f (Q12 )
   
  = 

 
1 x2 y 1 x2 y 1 
 a2  f (Q21 )
   

    
1 x2 y 2 x2 y 2 a3 f (Q22 )

Si se prefiere una solución en términos de f (Q), entonces podemos escribir

f (x, y) ≈ b11 f (Q11 ) + b12 f (Q12 ) + b21 f (Q21 ) + b22 f (Q22 ) .

Donde los coeficientes se encuentran resolviendo


   −1 T  
b11   1 x1 y1 x1 y1   1
       
b12   1 x1 y 2 x 1 y 2 
 x
   
 =
   
    
b  1 x y x y  
 y
 21   2 1 2 1 
  
      
b22 1 x2 y 2 x2 y 2 xy

Cuadrado unitario

Si elegimos un sistema de coordenadas en el que los cuatro puntos donde f es conocido


son (0, 0) , (0, 1) , (1, 0) y (1, 1) , entonces la fórmula de interpolación se simplifica a

f (x, y) ≈ f (0, 0) (1 − x) (1 − y) + f (1, 0) x (1 − y) + f (0, 1) (1 − x) y + f (1, 1) xy.

O de forma equivalente, en las operaciones de la matriz:


  
f (0, 0) f (0, 1) 1 − y 
 
f (x, y) ≈ 1 − x x   
f (1, 0) f (1, 1) y

No lineal

Al contrario de lo que sugiere su nombre, la interpolación bilineal no es lineal; pero es el


producto de dos funciones lineales.

Alternativamente, el interpolador puede ser escrito como


P1 P1
f (x, y) = i=0 j=0 aij xi y j = a00 + a10 x + a01 y + a11 xy

18
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

dónde

a00 = f (0, 0)

a10 = f (1, 0) − f (0, 0)

a01 = f (0, 1) − f (0, 0)

a11 = f (1, 1) + f (0, 0) − (f (1, 0) + f (0, 1))

En ambos casos, el número de constantes (cuatro) se corresponde con el número de puntos


de datos, donde se da f . El interpolador es lineal a lo largo de lı́neas paralelas a cualquiera
de los ejes x o y, lo que es equivalente, si x o y son constantes. A lo largo de cualquier
otra lı́nea recta, el interpolador es cuadrática. Sin embargo, incluso si la interpolación no
es lineal en la posición (x e y), que es lineal en la amplitud, como es evidente a partir de
las ecuaciones anteriores: todo coeficiente bj , j = 1..4, son proporcionales al valor de la
función f (, ) .

El resultado de la interpolación bilineal es independiente de qué eje se interpola primero


y cuál segundo. Si hubiéramos realizado primero la interpolación lineal en la dirección y y
luego en la dirección x, la aproximación resultante serı́a la misma. [7]

Aplicación en el procesamiento de imágenes

En visión por computadora y procesamiento de imágenes, la interpolación bilineal es una


de las técnicas básicas de remuestreo.

En el mapeo de texturas, que también se conoce como el filtrado bilineal o mapeo de textura
bilineal, y que puede ser utilizado para producir una imagen razonablemente realista. Un
3
promedio ponderado de los atributos (color, alfa, etc.) de los cuatro que rodean texels
se calcula y se aplica al pı́xel de la pantalla. Este proceso se repite para cada pı́xel que
constituye el objeto de ser texturizado.

Cuando una imagen necesita ser ampliado, cada pı́xel de la imagen original necesita ser
3
Un texel es la unidad mı́nima de una textura aplicada a una superficie, usada en gráficos por compu-
tador.

19
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

movido en una dirección determinada sobre la base de la constante de escala. Sin embargo,
cuando la ampliación de una imagen por un factor de escala no integral, hay pixeles (es
decir, huecos) que no se asignan valores de los pixeles correspondientes. En este caso, esos
agujeros deberı́an asignarse valores RGB o escala de grises adecuadas para que la imagen
de salida no tenga pixeles no valorados.

La interpolación bilineal se puede utilizar cuando la transformación de la imagen perfecta


con coincidencia pı́xel a pı́xel es imposible, por lo que uno puede calcular y asignar los
valores de intensidad correspondientes a los pixeles. A diferencia de otras técnicas de
interpolación, como la interpolación del vecino más cercano y la interpolación bicúbica, la
interpolación bilineal utiliza sólo los 4 valores del pı́xel más cercano que se encuentran en
direcciones diagonales de un pı́xel dado, con el fin de encontrar los valores de intensidad
de color correspondientes de ese pı́xel.

La interpolación bilineal considera la zona más cercana 2x2 de valores de pı́xel conocidos
al rededor de los pı́xeles desconocidos en la ubicación del ordenador. A continuación, toma
un promedio ponderado de estos 4 pı́xeles para llegar a su valor final, interpolado. El peso
de cada uno de los 4 valores de pı́xeles se basa en la distancia de pı́xeles del ordenador (en
el espacio 2D) de cada uno de los puntos conocidos.

Ejemplo 2. Calcular el valor de intensidad en el pixel que se encuentra en la fila 20.2,


columna 14.5.

Figura 2.7: Interpolación bilineal en los valores de escala de grises.

20
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

Solución: Como se observa en la figura el valor de intensidad se puede calcular interpolando


primero linealmente entre los valores en la columna 14 y 15 en cada una de filas 20 y 21,
dando
15−14.5 14.5−14
I20,14.5 = 15−14
(91) + 15−14
(210) = 150.5
15−14.5 14.5−14
I21,14.5 = 15−14
(162) + 15−14
(95) = 128.5

y luego interpolar linealmente entre estos valores, dando

21−20.2 20.2−20
I20.2,14.5 = 21−20
(150.5) + 21−20
(128.5) = 146.1

Este algoritmo reduce parte de la distorsión visual causado por el cambio de tamaño de
una imagen a un factor de zoom no integral, a diferencia de la interpolación del vecino
más cercano, lo que hará que algunos pı́xeles aparecen más grandes que otros en la imagen
redimensionada.

Código

Al igual que en el método anterior lo siguiente es una parte del código de la función interp2
de Octave, para la interpolación bilineal.

if ( strcmp ( method , " linear ") )

## each quad satisfies the equation

z (x , y ) = a + b * x + c * y + d * xy

##

## a - b

## | |

## c - d

a = Z (1:( zr - 1) , 1:( zc - 1) ) ;

b = Z (1:( zr - 1) , 2: zc ) - a ;

c = Z (2: zr , 1:( zc - 1) ) - a ;

d = Z (2: zr , 2: zc ) - a - b - c ;

## scale XI , YI values to a 1 - spaced grid

21
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

Xsc = ( XI - X ( xidx ) ) ./ ( diff ( X ) ( xidx ) ) ;

Ysc = ( YI - Y ( yidx ) ) ./ ( diff ( Y ) ( yidx ) ) ;

## Get 2 D index .

idx = sub2ind ( size ( a ) , yidx , xidx ) ;

## We can dispose of the 1 D indices at this point to save memory .

clear xidx yidx ;

## apply plane equation

ZI = a ( idx ) + b ( idx ) .* Xsc + c ( idx ) .* Ysc + d ( idx ) .* Xsc .* Ysc ;

Ejemplo 3. Tomando la función dada en el ejemplo 1 se hará la interpolación de dicha


función usando el método bilineal.

ZI = interp2 ( X0 , Y0 , Zexacto , X1 , Y1 ," linear ") ;

surf ( ZI )

Representación gráfica.

22
2.3 Método Bilineal 2 INTERPOLACIÓN EN DOS DIMENSIONES

Figura 2.8: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método bilinial

 4. Supongamos que queremos interpolar en [0, 1] × [0, 1]. Dada la matriz z =


Ejemplo

−3 5
 ; hallar la función f (x, y) que pasa por estos puntos.
−1 1

Solución: Dado que estamos interpolando en el cuadrado unitario se tiene que:


  
f (0, 0) f (0, 1) y2 − y 
 
f (x, y) = x2 − x x   
f (1, 0) f (1, 1) y

  
−1 −3 1 − y 
 
= 1−x x   
1 5 y

 
−2y − 1
 
= 1−x x  
4y + 1

== 2x − 2y + 6xy − 1

23
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES

2.4. Método Bi-cúbico

En matemáticas, la interpolación bicúbica es una extensión de la interpolación cúbica


para interpolar puntos de datos en una malla regular de dos dimensiones. La superficie
interpolada es más suave que las superficies correspondientes obtenidas por interpolación
bilineal o la interpolación del vecino más cercano. La interpolación bicúbica se puede lograr
utilizando polinomios de Lagrange, splines cúbicos, o algoritmo de convolución cúbica.

En el procesamiento de imágenes, la interpolación bicúbica se elige a menudo sobre la


interpolación bilineal o del vecino más cercano para el remuestreo de imagen, cuando
la velocidad no es importante. En contraste con la interpolación bilineal, que sólo toma
en cuenta 4 pı́xeles (2 × 2), la interpolación bicúbica considera 16 pı́xeles (4 × 4). Si se
utiliza interpolación bicúbica la interpolación es más suave y tienen menos artefactos de
interpolación.

Supongamos que los valores de la función f y las derivadas fx , fy y fxy son conocidas
en las cuatro esquinas (0, 0), (1, 0), (0, 1) y (1, 1) en el cuadrado unitario. La superficie
interpolada puede entonces ser escrita.
3 X
X 3
p (x, y) = aij xi y j
i=0 j=0

El problema de interpolación consiste en determinar los 16 coeficientes aij . Correspondiente


de p(x, y) con los valores de la función produce cuatro ecuaciones,

1. f (0, 0) = p (0, 0) = a00

2. f (1, 0) = p (1, 0) = a00 + a10 + a20 + a30

3. f (0, 1) = p (0, 1) = a00 + a01 + a02 + a03

P3 P3
4. f (1, 1) = p (1, 1) = i=0 j=0 aij

24
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES

Del mismo modo, ocho ecuaciones para las derivadas en la dirección de x y la dirección de
y

1. fx (0, 0) = px (0, 0) = a10

2. fx (1, 0) = px (1, 0) = a10 + 2a20 + 3a30

3. fx (0, 1) = px (0, 1) = a10 + a11 + a12 + a13


3 P
P 3
4. fx (1, 1) = px (1, 1) = aij i
i=1j=0

5. fy (0, 0) = py (0, 0) = a01

6. fy (1, 0) = py (1, 0) = a01 + a11 + a21 + a31

7. fy (0, 1) = py (0, 1) = a01 + 2a02 + 3a03


3 P
P 3
8. fy (1, 1) = py (1, 1) = aij j
i=0j=1

Y cuatro ecuaciones para la derivada cruzada xy .

1. fxy (0, 0) = pxy (0, 0) = a11

2. fxy (1, 0) = pxy (1, 0) = a11 + 2a21 + 3a31

3. fxy (0, 1) = pxy (0, 1) = a11 + 2a12 + 3a13


3 P
P 3
4. fxy (1, 1) = pxy (1, 1) = aij ij
i=1j=1

25
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES

donde en las expresiones anteriores se han utilizado las siguientes identidades,


3 P
3
aij ixi−1 y j
P
px (x, y) =
i=1j=0

3 P
3
aij xi jy j−1
P
py (x, y) =
i=0j=1

3 P
3
aij ixi−1 jy j−1 .
P
pxy (x, y) =
i=1j=1

Este procedimiento produce una superficie p (x, y) en el cuadrado unitario [0, 1] × [0, 1] la
cual es continua y con derivadas continuas. La interpolación bicúbica en una cuadrı́cula
de tamaño arbitrariamente regular se puede lograr mediante un conjunto de parches de
dichas superficies, asegurando que los instrumentos derivados corresponden en los lı́mites.

La agrupación de los parámetros desconocidos aij en un vector,

α = [a00 , a10 , a20 , a30 , a01 , a11 , a21 , a31 , a02 , a12 , a22 , a32 , a03 , a13 , a23 , a33 ]T

y dejar

x = [f (0, 0) , f (1, 0) , f (0, 1) , f (1, 1) , fx (0, 0) , fx (1, 0) , fx (0, 1) , fx (1, 1) , fy (0, 0) , fy (1, 0) ,

fy (0, 1) , fy (1, 1) , fxy (0, 0) , fxy (1, 0) , fxy (0, 1) , fxy (1, 1)]T

el sistema anterior de ecuaciones se puede reformular en una matriz para la ecuación lineal
Aα = x. La inversa de la matriz da la ecuación lineal más útil A−1 x = α permite que α
pueda calcularse rápida y fácilmente, donde:
 
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 
 

 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 

 

 −3 3 0 0 −2 −1 0 0 0 0 0 0 0 0 0 0 

 

 2 −2 0 0 1 1 0 0 0 0 0 0 0 0 0 0 

 
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
 
 
 
 
 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 
 
 

 0 0 0 0 0 0 0 0 −3 3 0 0 −2 −1 0 0 

 
−1
 0 0 0 0 0 0 0 0 2 −2 0 0 1 1 0 0 
A = .
 

 −3 0 3 0 0 0 0 0 −2 0 −1 0 0 0 0 0 

 
0 0 0 0 −3 0 3 0 0 0 0 0 −2 0 −1 0
 
 
 
 
 9
 −9 −9 9 6 3 −6 −3 6 −6 3 −3 4 2 2 1 

 
 −6 6 6 −6 −3 −3 3 3 −4 4 −2 2 −2 −2 −1 −1 
 
 
 2
 0 −2 0 0 0 0 0 1 0 1 0 0 0 0 0 

 
 0 0 0 0 2 0 −2 0 0 0 0 0 1 0 1 0 
 
 
 −6 6 6 −6 −4 −2 4 2 −3 3 −3 3 −2 −1 −2 −1 
 
 
4 −4 −4 4 2 2 −2 −2 2 −2 2 −2 1 1 1 1

26
2.4 Método Bi-cúbico 2 INTERPOLACIÓN EN DOS DIMENSIONES

No puede haber otra forma de matriz concisa de 16 coeficientes


    
f (0, 0) f (0, 1) fy (0, 0) fy (0, 1) 1 0 0 0 a00 a01 a02 a03 1 1 0 0
     
 f (1, 0) f (1, 1) fy (1, 0) fy (1, 1)  1 1 1 1 a10 a11 a12 a13  0 1 1 1
     
 =   ,
     
fx (0, 0) fx (0, 1) fxy (0, 0) fxy (0, 1) 0 1 0 0 a20 a21 a22 a23 
 0 1 0 2
 
   
fx (1, 0) fx (1, 1) fxy (1, 0) fxy (1, 1) 0 1 2 3 a30 a31 a32 a33 0 1 0 3

o
 
   
a00 a01 a02 a03 1 0 0 0 f (0, 0) f (0, 1) fy (0, 0) fy (0, 1) 1 0 −3 2
     
a10 a11 a12 a13   0 0 1 0   f (1, 0) f (1, 1) fy (1, 0) fy (1, 1)  0 0 3 −2
     
 =   ,
     
a20 a21 a22 a23  −3 3 −2 −1 −2
 fx (0, 0) fx (0, 1) fxy (0, 0) fxy (0, 1) 0 1 1 
 
   
a30 a31 a32 a33 2 −2 1 1 fx (1, 0) fx (1, 1) fxy (1, 0) fxy (1, 1) 0 0 −1 1

donde
  
a00 a01 a02 a03 1
  
a10
i a11 a12 a13   y 
h  
p (x, y) = 1 x x2 x3 

 
  2
a20 a21 a22 a23 
 y 
 

a30 a31 a32 a33 y3

Encontrar las derivadas de los valores de la función

Si las derivadas son desconocidas por lo general son aproximadas a partir de los valores
de la función en los puntos vecinos de las esquinas del cuadrado unitario, por ejemplo,
usando diferencias finitas.

Para encontrar cualquiera de las derivadas individuales, fx o fy , utilizando ese método,


encontrar la pendiente entre los dos puntos de alrededor en el eje apropiado. Por ejemplo,
para calcular fx para uno de los puntos, encontramos f (x, y) para los puntos de la izquierda
y derecha del punto de búsqueda y calculamos su pendiente, y lo mismo para fy .

Para calcular la derivada cruzada, fxy , tomamos la derivada en ambos ejes, uno a la vez.
Por ejemplo, se puede calcular primero fx (derivada de x) de los puntos encima y por
debajo del punto de búsqueda, luego, calculamos fy en esos valores para obtener el valor
de fxy (x, y) para el punto de destino. También se puede hacer en dirección opuesta, en
primer lugar calcular fy y luego fx , los dos resultados son equivalentes.

En los bordes de la base de datos, cuando falta algunos de los puntos circundantes, los

27
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES

puntos que faltan pueden aproximarse mediante uno de una serie de métodos. Un método
simple y común es asumir que la pendiente desde el punto hasta el punto de destino
existente continúa sin más cambios, y usando esto para calcular un valor hipotético para
el punto que falta.[7]

Ejemplo 5. Interpolación bicúbica utilizando la función interp2 de octave.

ZI = interp2 ( X0 , Y0 , Zexacto , X1 , Y1 ," cubic ") ;

surf ( ZI )

Representación gráfica.

Figura 2.9: Gráfica de la función sin (2x) (x2 − xy + y 2 ) utilizando el método bicúbico

2.5. Método de Barnes

Interpolación Barnes, el nombre de Stanley L. Barnes, es la interpolación de puntos de


datos no estructurados a partir de un conjunto de mediciones de una función desconocida

28
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES

en dos dimensiones en una función analı́tica de dos variables. Un ejemplo de una situación
en la que el esquema de Barnes es importante es en los pronósticos meteorológicos, donde
las mediciones se realizan allı́ donde las estaciones de monitoreo pueden estar situados,
las posiciones, los que se ven limitados por la topografı́a. Tal interpolación es esencial en
la visualización de datos, por ejemplo, en la construcción de gráficos de contorno u otras
representaciones de superficies analı́ticas.

Barnes propuso un esquema de objetivo para la interpolación de dos dimensiones de datos


usando un esquema de múltiples pasadas. Esto proporciona un método de interpolación de
presiones a nivel del mar a través de todos los Estados Unidos de América, produciendo
un cuadro sinóptico en todo el paı́s utilizando estaciones de monitoreo dispersas. Los
investigadores han mejorado posteriormente el método Barnes para reducir el número de
parámetros necesarios para el cálculo del resultado interpolado, aumentando la objetividad
del método.

El método construye una cuadrı́cula de tamaño determinado por la distribución de los


dos puntos de datos dimensionales. En el uso de esta red, los valores de la función se
calculan en cada punto de la cuadrı́cula. Para ello, el método utiliza una serie de funciones
gaussianas, dada una ponderación de la distancia con el fin de determinar la importancia
relativa de cualquier medida dada en la determinación de los valores de la función. Pasos
de corrección, entonces, se hacen para optimizar los valores de la función, por cuenta de
la respuesta espectral de los puntos interpolados.

Método

A continuación se describe el método de interpolación utilizado en un multi-pass Barnes


de interpolación.

Primero paso

Para un punto dado de la rejilla i, j la función de interpolacion g(xi , yi ) se aproxima por


primera vez a la ponderación inversa de los puntos de datos. Para hacer esto como valores

29
2.5 Método de Barnes 2 INTERPOLACIÓN EN DOS DIMENSIONES

de ponderación se asigna a cada uno de Gauss para cada punto de la rejilla, de tal manera
que
 2
r
wij = exp − m
κ

dónde κ es un parámetro de atenuación que controla la anchura de la función de Gauss.


Este parámetro se controla por la caracterı́stica de separación de datos, para un radio de
corte gausiano fijo wij = e−1 dando 4n tal que:
 2
24n
κ = 5.052 .
π

La interpolación inicial para la función de los valores medidos fk (x, y) entonces se convierte
en:
P
wij fk (x, y)
k
go (xi , yj ) = P
wij
k

Segundo paso.

La corrección para la siguiente pasada a continuación, utiliza la diferencia entre el campo


observado y los valores interpolados en los puntos de medición para optimizar el resultado:
 2
X r
g1 (xi , yj ) = g0 (xi , yj ) + (f (x, y) − g0 (x, y)) exp − m .
γκ

Vale la pena observar que los pasos de corrección sucesivos se pueden utilizar con el fin de
lograr un mejor acuerdo entre la función interpolada y los valores medidos en los puntos
experimentales.

Selección de parámetros

Aunque se describe como un método objetivo, hay muchos parámetros que controlan el
campo interpolado. La elección de 4n, la rejilla de separación 4x y γ influyen en el resul-
tado final. Directrices para la selección de estos parámetros se han sugerido, sin embargo,
los valores finales utilizados son libres de ser elegido dentro de estas directrices.

30
2.6 Remuestreo Lanczos. 2 INTERPOLACIÓN EN DOS DIMENSIONES

La separación de datos utilizado en el análisis, 4n se puede elegir ya sea mediante el cálculo


de la verdadera separación entre puntos espaciados de datos experimental, o por el uso
de una aleatoriedad espacial completa supuesto, dependiendo del grado de agrupamiento
en los datos observados. El parámetro de suavizado γ está restringido a ser de entre 0,2 y
1,0. Por razones de integridad de interpolación, 4x se sostiene para ser restringido entre
0,3 y 0,5. [8]

2.6. Remuestreo Lanczos.

Remuestreo Lanczos y filtrado Lanczos son dos aplicaciones de una fórmula matemática.
Puede ser utilizado como un filtro de paso bajo o se utiliza para interpolar suavemente el
valor de una señal digital entre sus muestras. Una muestra es un valor o un conjunto de
valores en un punto en el tiempo y / o espacio.

En el procesamiento de señales, el muestreo es la reducción de una señal continua a una


señal discreta. Una señal discreta o de tiempo discreto de la señal es una serie de tiempo
que consiste en una secuencia de cantidades. En otras palabras, una serie de tiempo es una
función sobre un dominio de números enteros. Un ejemplo común es la conversión de una
onda de sonido (una señal continua) a una secuencia de muestras (una señal de tiempo
discreto).

Remuestreo Lanczos se usa tı́picamente para aumentar la velocidad de muestreo de una


señal digital, o para cambiar por una fracción del intervalo de muestreo, por ejemplo, para
cambiar el tamaño o rotar una imagen .

Fórmula de interpolación.

Para definir la fórmula de interpolación de Remuestreo de Lanczos se utiliza el núcleo de


Lanczos definido por

31
2.6 Remuestreo Lanczos. 2 INTERPOLACIÓN EN DOS DIMENSIONES



1

 si x = 0



L (x) = a sin(πx) sin(πx/a)
 π 2 x2
si 0 <| x |< a .




0
 Otro caso.

El parámetro a es un número entero positivo, tı́picamente 2 o 3, que determina el tamaño


del núcleo. (Veáse figura 2.9).

Dada una señal unidimensional con muestras si , para valores enteros de i el valor interpo-
lado S(x) de un argumento arbitrario real x se obtiene por la convolución discreta de las
muestras con el núcleo de Lanczos.
bxc+a
X
S (x) = si L (x − i)
i=bxc−a+1

donde a es el parámetro de tamaño de filtro y xxy es la función mayor entero. Los lı́mites
de esta suma son tales que el núcleo es cero fuera de ellos.

Figura 2.10: Núcleos de Lanczos para los casos a = 2 y a = 3.

Propiedades.

Mientras que el parámetro a es un número entero positivo, el núcleo Lanczos es continuo en

32
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES

todas partes, y su derivada está definida y es continua en todas partes (incluso en x = ±a,
en donde ambas funciones sin van a cero). Por lo tanto, la señal S(x) será continua, con
derivada continua.

El núcleo de Lanczos es cero en todo argumento entero x, excepto en x = 0, donde tiene


el valor 1. Por lo tanto, la señal reconstruida exactamente interpola las muestras dadas:

tendremos S(x) = si para cada argumento entero x = i.

El núcleo de Lanczos en dos dimensiones es simplemente el producto de dos núcleos uni-


dimensionales:

L (x, y) = L (x) L (y)

Dada una señal bidimensional sij que se define en los puntos enteros (i, j) del plano (por
ejemplo, intensidades de los pı́xeles de una imagen digital), la función reconstruida es
bxc+a byc+a
X X
S (x, y) = sij L (x − i) L (y − j) .
i=bxc−a+1 i=byc−a+1

Cuando se remuestrea una señal de dos dimensiones en puntos regularmente espaciados


(x, y), se puede ahorrar algo de cálculo por remuestreo de toda la señal a lo largo de un
solo eje, a continuación, el remuestreo de la señal de dos dimensiones resultante a lo largo
del otro eje.[8]

2.7. Triangulación de Delaunay.

En las matemáticas y la geometrı́a computacional, una triangulación de Delaunay para


un conjunto P de puntos en un plano es una triangulación DT (P )4 , de tal manera que
ningún punto P está dentro de la circunferencia circunscrita de cualquier triángulo en DT
(P ).

En geometrı́a, una triangulación es una subdivisión de un objeto plano en forma de trián-


gulos. Triangulaciones de Delaunay maximizan el ángulo mı́nimo de todos los ángulos de
los triángulos en la triangulación; tienden a evitar los triángulos estrechos.
4
Delaunay triangulation (DT)

33
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES

Figura 2.11: Triangulación de Delaunay

Para un conjunto de puntos en la misma lı́nea no hay una triangulación de Delaunay


(la noción de triangulación es degenerado para este caso). Para cuatro o más puntos en
el mismo cı́rculo (por ejemplo, los vértices de un rectángulo) la triangulación de Delau-
nay no es único: cada uno de los dos posibles triangulaciones que dividen el cuadrilátero
en dos triángulos satisface la ”condición de Delaunay”, es decir, el requisito de que las
circunferencias circunscritas a los triángulos tienen interiores vacı́os.

Relación con el diagrama de Voronoi

La triangulación de Delaunay de un conjunto discreto de puntos P en la posición general


se corresponde con el grafo dual del diagrama de Voronoi de P . Casos especiales incluyen
la existencia de tres puntos en una lı́nea y cuatro puntos sobre el cı́rculo.

La triangulación de Delaunay Conexión de los centros de las

con todas las circunferencias circunferencias circunscritas produce

circunscritas y sus centros (en rojo). el diagrama de Voronoi (en rojo).

d-dimensiones Delaunay.

Para un conjunto P de puntos en el espacio euclidiano de dimensión d, una triangulación

34
2.7 Triangulación de Delaunay. 2 INTERPOLACIÓN EN DOS DIMENSIONES

de Delaunay es una triangulación DT(P ), de tal manera que ningún punto P está dentro
de la circu-hiperesfera de cualquier simplex en DT(P ). En geometrı́a, un simplex es una
generalización de la noción de un triángulo o tetraedro a arbitrarias dimensiones.

El problema de encontrar la triangulación de Delaunay de un conjunto de puntos en el


espacio euclidiano d-dimensional puede ser convertido en el problema de encontrar la
envolvente convexa de un conjunto de puntos (d + 1) en espacios de dimensión n, dando a
cada punto P una coordenada adicional igual a |p|2 teniendo el lado inferior de la envolvente
convexa, y el mapeo de vuelta al espacio d-dimensional mediante la eliminación de la última
coordenada. A medida que la envolvente convexa es única, también lo es la triangulación,
asumiendo que todas las facetas de la envolvente convexa son simplex. Facetas no simplex
sólo se producen cuando d + 2 de los puntos originales se encuentran en la misma d-
hiperesfera, es decir, los puntos no están en posición general.

Algoritmo.

Muchos algoritmos de computación de las triangulaciones de Delaunay se basan en ope-


raciones rápidas para detectar cuando un punto está dentro del cı́rculo circunscrito de un
triángulo y una estructura de datos eficiente para almacenar los triángulos y los bordes.
En dos dimensiones, una manera de detectar si el punto D está situado en la circunferencia
circunscrita de A, B, C es evaluar el determinante

Ax Ay A2x + A2y

1 

2 2 2 2
Ax − Dx Ay − Dy (Ax − Dx ) + Ay − Dy


Bx BY B 2 + B 2 y 1
x 
= Bx − Dx By − Dy (Bx2 − Dx2 ) + By2 − Dy2 > 0


C C
x y Cx2 + Cy2 1 
Cx − Dx Cy − Dy (C 2 − D2 ) + C 2 − D2
x x y y
Dx Dy Dx2 + Dy2

1

Cuando A, B y C están ordenados en un sentido antihorario, este determinante es positivo


si y sólo si D se encuentra dentro de la circunferencia circunscrita.

35
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES

Aplicaciones.

Para el modelado del terreno u otros objetos, dado un conjunto de puntos de muestra, la
triangulación de Delaunay da un buen conjunto de triángulos para su uso como polı́gonos
en el modelo. En particular, la triangulación de Delaunay evita triángulos estrechos (ya
que tienen grandes circunferencias circunscritas en comparación con su área).

Triangulaciones de Delaunay se pueden utilizar para determinar la densidad o la intensidad


5
de los puntos de muestreos por medio de la DTFE (El estimador de campo teselación
Delaunay).

Triangulaciones de Delaunay a menudo se utilizan para construir mallas para el espacio-


discreto como solucionadores del método de elementos finitos y el método de volumen
finito de simulación fı́sica, debido a la garantı́a del ángulo y porque los algoritmos de
triangulación rápida han sido desarrollados.[8]

2.8. Método de Bezier

Superficies de Bézier son un tipo especial de spline matemático utilizado en gráficos por
computadora, diseño aislado por computadoras y modelaje en elementos finitos. Como una
curva de Bézier, una superficie de Bézier se define por un conjunto de puntos de control.

Similar a la interpolación en muchos aspectos, una diferencia clave es que una superficie,
en general no pasa a través de los puntos centrales de control; más bien, se ”alarga” hacia
ellos, como si cada una fuera una fuerza de atracción. Son visualmente intuitivos, y para
muchas aplicaciones, matemáticamente conveniente.

Dada una superficie de Bézier de grado (n, m) se define por un conjunto de (n + 1) (m + 1)


puntos de control ki,j . Al trazar el cuadrado unidad en una superficie lisa, continua incrus-
tado dentro de un espacio de la misma dimensionalidad como {ki,j }. Por ejemplo, si k son
todos los puntos en un espacio de cuatro dimensiones, a continuación, la superficie estará
dentro de un espacio de cuatro dimensiones.
5
Delaunay tessellation field estimator (DTFE)

36
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES

Una superficie de Bézier de dos dimensiones se puede definir como una superficie paramé-
trica donde la posición de un punto P como una función de coordenadas paramétricas u, v
es dada por:
n X
X m
P (u, v) = Bin (u) Bjm (v) ki,j
i=0 j=0

evaluado sobre el cuadrado unidad, donde


 
n i
n
Bi (u) = u (1 − u)n−i
i

es un polinomio de Bernstein.

Algunas propiedades de las superficies de Bézier:

◦ Una superficie de Bézier se transformará en la misma forma que sus puntos de control
bajo todas las transformaciones lineales y traslaciones.

◦ Todos los u = v = constantes y lı́neas constantes en el espacio (u, v), y, en particular,


en los cuatro bordes del cuadrado unitario deformado (u, v) son curvas de Bézier.

◦ Una superficie de Bézier estará completamente dentro de la envolvente convexa de


sus puntos de control, y por lo tanto también completamente adentro de su cuadro
acotado de los puntos de control en cualquier sistema coordenado cartesiano.

◦ Los puntos en la parte correspondientes a las esquinas del cuadrado unitario defor-
mado coinciden con cuatro de los puntos de control.

◦ Sin embargo, una superficie de Bézier generalmente no pasa a través de sus otros
puntos de control.

Generalmente, el uso más común de las superficies de Bézier son unas redes de parches
bicúbicos (donde m = n = 3). La geometrı́a de una de estas partes bicúbicas es por lo tanto

37
2.8 Método de Bezier 2 INTERPOLACIÓN EN DOS DIMENSIONES

definida completamente por un conjunto de 16 puntos de control. Éstos son tı́picamente


unidos para formar una superficie B-spline de una manera similar a las curvas de Bézier
se interconectan para formar un curva B-spline 6 .

Superficies de Bézier más simples son formadas como esas partes bicuadráticas (m = n = 2),
o triángulos de Bézier .

Superficies de Bézier en gráficos por computadora

Una cuadrı́cula de una parte de Bézier son superiores a las cuadrı́culas de los triángulos
como representación de superficies lisas, ya que son mucho más compactas, más fácil
de manipular, y tienen propiedades de continuidad mejores. Además, otras superficies
paramétricas comunes, tales como esferas y cilindros pueden ser bien aproximadas por un
número relativamente pequeño de parches de Bézier cúbicos.

Sin embargo, la cuadrı́cula de parches de Bézier son más difı́ciles de generar directamente.
Un problema con los parches de Bézier es que el cálcular sus intersecciones con las lı́neas
es difı́cil, haciéndolos un poco extraños para el trazado de rayos u otras técnicas geomé-
tricas directas las cuales no utilizan tecnicas de subdivisión o aproximaciones sucesivas.
Ellos también son difı́ciles de combinar directamente con algoritmos de perspectiva de
proyección.

Por esta razón, la cuadrı́cula de parches Bézier son, en general, eventualmente descompues-
tas en cuadrı́culas de triángulos lisos por generadores 3D. En generación de alta calidad,
la subdivisión se ajusta para que sea tan fina que las lineas fronteras de las triángulacio-
nes individuales no se pueden ver. Para evitar una apariencia poligonal o distorcionada,
detalles finos son aplicados a superficies de Bézier en ese momento utilizando mapas de
texturas, mapas de bultos y otras técnicas de sombreado a pı́xeliado.

Un parche de Bézier de grado (m, n)puede ser construido de dos triángulos de Bézier de
6
B-spline es una función spline que tiene el mı́nimo soporte con respecto a un determinado grado,
suavidad y partición del dominio.
Se denomina soporte de una función al conjunto de puntos donde la función no es cero, o a la cerradura
de ese conjunto.

38
2.9 Método IDW 2 INTERPOLACIÓN EN DOS DIMENSIONES

grado m + n, o de una triangulación única de Bézier de grado m + n, con dominio de


entrada que es un cuadrado en lugar de como un triángulo .

Un triángulo de Bézier de grado m podria también ser construido a partir de una superficie
de Bézier de grado (m, m), con los puntos de control de tal forma que uno de los bordes
también es aplastado en un punto, o con el dominio de entrada que es un triángulo en
lugar de un cuadrado. [8]

7
2.9. Método IDW

Ponderación de Distancia Inversa

Es un método matemático de interpolación que usa una función inversa de la distancia,


parte del supuesto que las cosas que están más cerca son más parecidas, por lo tanto tiene
más peso e influencia sobre el punto a estimar. Matemáticamente se expresa como:
N
X
Z (S0 ) = λi Z (Si )
i=1

En el cual Z (S0 ) es el valor a predecir, N es el número de muestras alrededor del punto a


predecir, λi son los pesos asignados a cada punto vecino y Z (Si ) son los valores medidos.
Los pesos de los puntos vecinos están dados por:
d−p
i0
λi = PN
i=1 d−p
i0

En el cual d es la distancia entre el lugar de predicción (S0 ) y el lugar muestral (Si ); P es


un factor de reducción de pesos, cuyo valor se encuentra minimizando el error cuadrático
medio o error de predicción. [5]

Ejemplo 6. Dado los siguientes valores se desea estimar Z (0.5, 0.5) utilizando el método
de ponderación de distancia inversa con P = 2.
7
Inverse Distance Weighting (IDW)

39
2.9 Método IDW 2 INTERPOLACIÓN EN DOS DIMENSIONES

i (Si ) Z (Si )

1 (0, 0) -2

2 (1, 0) 5

3 (0, 2) 3

4 (1, 1) -1

Sol: Primero calculamos las distancias entre (S0 ) y los (Si ) para i = 1, 2, 3, 4

2
d10 =
2

2
d20 =
2

10
d30 =
2

2
d40 =
2

con
N
X 32
d−p
i0 =
i=1
5

por lo que
4
X
Z (0.5, 0.5) = λi Z (Si )
i=1

5 −2
d10 (−2) + d−2 −2 −2

= 20 (5) + d30 (3) + d40 (−1)
32
 
5 6
= −4 + 10 + − 2
32 5
 
5 26
=
32 5
13
= ' 0.81
16

Por lo que la estimación de Z (0.5, 0.5) es aproximadamente 0.81.

40
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES

2.10. Método Kriging

Kirging es una colección de técnicas generadas de regresión lineal para minimizar una va-
rianza de estimación definida en un modelo a priori de covarianza. Es considerado el mejor
estimador lineal insesgado: lineal porque es una combinación lineal ponderada de los datos;
y es insesgado porque el error de estimación tendrá una media igual a cero; es el mejor en
el sentido de error de varianza mı́nima para un modelo dado de covarianza/variograma.

Clasificación de los diferentes tipos de Kriging

1. Según la forma del estimador

Lineales:

◦ Simple

◦ Ordinario

◦ Universal

◦ Residual

No lineales:

◦ Disyuntivo

◦ Indicador

◦ Probabilı́stico

2. Según el soporte de la medición de los datos

Puntual

En bloques

3. Kriging paramétrico y no paramétrico

Paramétrico:

41
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES

◦ Multigaussiano

◦ Disyuntivo

◦ Lognormal

No paramétrico:

◦ Simple

◦ Ordinario

◦ Universal

◦ Residual

◦ Indicador

◦ Probabilı́stico

Ecuaciones del Estimador de Kriging

Supóngase que se dispone de valores muestrados Z (xi ) , i = 1, . . . , n y deseamos esti-


mar un valor de la caracterı́stica observada en el panel Z (v) , la cual está dada por una
combinación lineal Z (xi ) , es decir.

Z ∗ (v) = λi Z (xi )
n
X
λi = 1
i=1

donde Z ∗ (v) es el valor estimado y λi son los pesos de kriging, de modo que los λi sean
obtenidos de tal forma que proporcione un estimador insesgado E [Z ∗ (v) − Z (v)] = 0 y
de varianza mı́nima Var [Z ∗ (v) − Z (v)] .

42
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES

Método Kriging Simple

Supóngase que hay una variable regionalizada estacionaria con media m, y covarianza
conocida y sea Z (x) la variable de interés medida en el sitio x, donde m está dado por

m = E [Z (x)] .

El estimador y el sistema a resolver para encontrar los pesos λi y los valores estimados
para Z ∗ (xi ) está dada por

Estimador :
n n
!
X X
Z ∗ (v) = λi Z (xi ) + m 1 − λi .
i=1 i=1

Sistema:
n
X
λi C (xi , xj ) = C (xj , v) j = 1, . . . , n
i=1

Varianza de Kriging:
n
X
σ 2 = C (v, v) − λi C (xi , xj )
i=1

Método Kriging Ordinario

Suponga que se hacen mediciones de la variable de interés Z en los puntos xi , i = 1, 2, . . . , n


de la región de estudio, es decir se tienen realizaciones de las variables Z (x1 ) , . . . , Z (xn )
y se desea predecir Z (v) , en el punto v donde no hubo medición. En esta circunstancia, el
método Kriging ordinario propone que el valor de la variable puede predecirse como una
combinación lineal de las n variables aleatorias ası́:

Z ∗ (v) = λ1 Z (x1 ) + λ2 Z (x2 ) + λ3 Z (x3 ) + . . . + λn Z (xn )

es decir

43
2.10 Método Kriging 2 INTERPOLACIÓN EN DOS DIMENSIONES

n
X

Z (v) = λi Z (xi ) .
i=1

A continuación se muestra el estimador y el sistema a resolver para encontrar los pesos λi


y Z ∗ (v)

En términos de la covarianza

Estimador:
n
X

Z (v) = λi Z (xi )
i=1

Sistema: 
 ni=1 λi C (xi , xj ) − µ = C (xi , v)
 P
 i, j = 1, . . . , n

 ni=1 λi = 1

 P

Varianza de Kriging:
n
X
2
σ = C (v, v) − λi C (xi , v) + µ
i=1

Ecuación del Kriging ordinario en forma matricial

De forma análoga al sistema de ecuación de Kriging ordinario podemos representar el


sistema de ecuaciones del Kriging en forma matricial como sigue:

    
σ σ12 . . . σ1n 1 λ σ
 11     k1 
    
 σ21 σ22 . . . σ2n 1    λ   σk2 
   

  .   . 
 .   . 
 .  =  . 
. . . . . . . . . . . . . . .

    
σn1 σn2 . . . σnn 1   λ  σkn 
    
    
1 1 ... 1 0 −µ 1

donde σk1 = σxi v = C (xi , v) .

Este sistema de ecuaciones tiene solución única sı́ y solo sı́ la matriz es no singular, lo
cual se cumple cuando la matriz de covarianza es estrictamente definida positiva, esto se
puede garantizar si se usan modelos de función de covarianzas definidas positivas y no

44
3 COMPARACIÓN ENTRE MÉTODOS

se incluyen puntos duplicados. Es decir, no se puede usar una muestra donde la función
aleatoria tome dos valores distintos en un mismo punto.

Al sistema Kriging es necesario hacerle algunas observaciones:

◦ El Kriging, el cual es un estimador imparcial, es también un interpolador, es decir,


para iguales soportes de observación vα (α = 1, . . . , n) y de estimación v, y los valores
real Zα y estimado Z ∗ son iguales, además de que la varianza de Kriging σk2 es cero.

◦ Las expresiones del sistema Kriging y de la varianza de Kriging son completamente


generales, es decir, son aplicables a cualquiera que sean los soportes de observación
y estimación y el modelo estructural empleado. [6]

Das könnte Ihnen auch gefallen