You are on page 1of 43

I.

INTRODUCCION
La simulación es el proceso de duplicar el comportamiento de una propuesta existente
o propuesta sistema. De esta manera los proyectos pueden ser evaluados para juzgar si
su desempeño sería adecuado o no antes de realizar las inversiones. De forma similar,
las políticas operativas se pueden probar antes de que se implementen con control real
situaciones Se cree que la simulación es la herramienta más poderosa para estudiar
sistemas complejos.

II. Simulación del Monte Carlo


La simulación es el proceso de duplicar el comportamiento de una propuesta existente
o propuesta sistema. Consiste en diseñar un modelo del sistema y realizar experimentos
con este modelo, ya sea para una mejor comprensión del funcionamiento del sistema o
para evaluar diversas estrategias para su gestión. La esencia de la simulación es
reproducir el comportamiento del sistema en todos los aspectos importantes para
aprender cómo el sistema responderá a las condiciones que se le pueden imponer o eso
puede ocurrir en el futuro. Tenga en cuenta que el modelo tiene que reproducirse
correctamente aquellos aspectos de la respuesta del sistema que son de interés.
Además, el modelo debe producir resultados correctos por razones correctas.
Muchos problemas requieren la determinación de las propiedades de la salida de un
sistema dado la función de entrada y transferencia. Cuando esta función de
transferencia es simple, las propiedades de la salida se pueden obtener analíticamente.
Pero cuando la transferencia función es compleja, la derivación de las propiedades de
salida puede ser difícil. Para tales sistemas, una salida posible es preparar un modelo del
sistema, repetidamente someterlo a la entrada, observar la salida y analizar la salida a
inferir sus propiedades.
La principal ventaja de los modelos de simulación radica en su capacidad para describe
la realidad. Si se puede desarrollar un modelo de simulación y se muestra para
representar el sistema prototipo de forma realista, puede proporcionar una idea de
cómo el verdadero sistema podría funcionar con el tiempo en diversas condiciones.

2.1. Conceptos básicos de la simulación de Monte Carlo


El diseño de sistemas del mundo real generalmente se basa en datos históricos
observados. Por ejemplo, los datos de flujo observados se usan para dimensionar un
depósito, histórico datos de tráfico se utilizan en el diseño de carreteras, los datos
observados se utilizan en el diseño de servicios al cliente, etc. Sin embargo, con
frecuencia se encuentra que los registros históricos no son lo suficientemente largos y
es probable que el patrón de datos observado no se repita exactamente. Además, el
rendimiento de un sistema depende críticamente del extremo los valores de las
variables de entrada y los datos históricos pueden no contener todo el rango de
variables de entrada. Una implicación importante de la no disponibilidad de datos de
La duración es que uno puede no obtener una imagen completa del rendimiento del
sistema y riesgos involucrados cuando los datos históricos se utilizan en el análisis. Por
lo tanto, para ejemplo, el planificador no puede determinar los riesgos de un sistema de
suministro de agua que falla para satisfacer la demanda durante su vida económica
porque esto requiere una gran muestra de datos, que no están comúnmente
disponibles.
Para muchos sistemas, algunas o todas las entradas son aleatorias, los parámetros del
sistema son las condiciones iniciales aleatorias pueden ser aleatorias, y las condiciones
de frontera también pueden ser ser al azar en la naturaleza. Las propiedades
probabilísticas de estos son conocidas. Para analizar de tales sistemas, los experimentos
de simulación pueden realizarse con un conjunto de entradas que se generan
sintéticamente (artificialmente). Las entradas se generan de manera como preservar las
propiedades estadísticas de las variables aleatorias. Cada simulación experimentar con
un conjunto particular de entradas da una respuesta. Cuando muchos de esos los
experimentos se llevan a cabo con diferentes conjuntos de entradas, un conjunto de
respuestas es adquirido. Estas respuestas se analizan estadísticamente para
comprender o predecir el comportamiento del sistema. Este enfoque se conoce como
simulación Monte Carlo
(MCS). Por lo tanto, es una técnica para obtener propiedades estadísticas de la salida de
un sistema dado las propiedades de las entradas y el sistema. Al usarlo, los
planificadores obtienen una mejor comprensión del funcionamiento del sistema y
puede determinar el riesgo de falla (por ejemplo, posibilidades de que un depósito se
seque, la contaminación en una cuenca excede los límites prescritos, o un centro de
servicio al cliente que no brinda servicios dentro del tiempo prometido). A veces, MCS
se define como cualquier simulación que implica el uso de números aleatorios.

En la simulación de Monte Carlo, las entradas al sistema se transforman en salidas por


medio de un modelo matemático del sistema. Este modelo está desarrollado de modo
que las características importantes del sistema estén representadas en suficiente
detalle. Los pasos principales en la simulación de Monte Carlo son el ensamblaje de
insumos, la preparación un modelo del sistema, realizando experimentos usando las
entradas y el modelo, y analizar la salida. A veces, un parámetro del sistema es
sistemáticamente cambiado y la salida se supervisa en las circunstancias cambiadas para
determinar qué tan sensible es a los cambios en las propiedades del sistema. Las
principales ventajas de la simulación Monte Carlo son que permite detalles descripción
del sistema, sus entradas, salidas y parámetros. Todo el crítico los parámetros del
sistema se pueden incluir en su descripción. Las otras ventajas incluir ahorros en tiempo
y gastos. Es importante recordar que los datos generados sintéticamente no son un
sustituto de los datos observados, pero este es un herramienta pragmática útil que
permite al analista extraer información detallada de los datos disponibles. Sin embargo,
al usar la simulación de Monte Carlo en la práctica análisis de riesgo y confiabilidad,
puede ser necesaria una gran cantidad de cálculos para generar variables aleatorias y
estas variables pueden estar correlacionadas. Porque, en estos días, el poder de cálculo
no suele ser una limitación, esta consideración no es una seria limitación La generación
de números aleatorios forma una parte importante de Monte Carlo simulación. En los
primeros días, ruedas de ruleta similares a las utilizadas en Monte Carlo se utilizaron
para generar números aleatorios, dando lugar al nombre de la técnica. Durante los días
iniciales de la simulación matemática, mecánica Se emplearon medios para generar
números aleatorios. Las técnicas que fueron utilizado para generar números aleatorios
eran las tarjetas de un paquete, dibujo bolas numeradas de un barco, lectura de
números de un directorio telefónico, etc. Las tablas impresas de números aleatorios
también estuvieron en uso durante bastante tiempo. La corriente enfoque es usar una
rutina basada en computadora para generar números aleatorios. Este enfoque se
discute a continuación.

2.2. Generación de números aleatorios


Varias técnicas aritméticas están disponibles para generar números aleatorios (por
ejemplo, el método de la midsquare, el método de congruencia y los generadores
compuestos).
Para ilustrar el método de la midsquare, se cuadra un entero de cuatro dígitos (digamos
9603) obtenga un número entero de ocho dígitos (en este caso, 92217609). Si es
necesario, los ceros son anexado a la izquierda para hacer un número de ocho dígitos.
Los cuatro dígitos centrales son elegido como el siguiente número de cuatro dígitos y el
número aleatorio se obtiene poniendo un decimal antes de estos dígitos. Por lo tanto,
el primer número aleatorio es 0.2176. Ahora, el número 2176 está cuadrado para
continuar el proceso. Los números son secuenciales porque cada nuevo número es una
función de su (s) predecesor (es). Diferentes procedimientos
Usa diferentes tipos de ecuaciones recursivas para generar números.
Casi todos los compiladores modernos tienen rutinas incorporadas para generar de
manera uniforme números aleatorios distribuidos entre 0 y 1. El número aleatorio más
popular el método de generación es el método de congruencia. Para comenzar el
proceso, un número conocida como la "semilla" se ingresa a la ecuación, que da un
número aleatorio.
Este número es nuevamente ingresado a la ecuación para generar otro número y así
en. Cuando este proceso se repite n veces, se obtienen n números aleatorios. Los
ecuación recursiva utilizada comúnmente para generar números aleatorios en el lineal
generador congruente (LCG) es

Donde Ri son variables enteras y a, b y d son constantes enteras positivas que depende
de las propiedades de la computadora. La palabra "módulo" denota que la variable a la
izquierda de esta palabra se divide por la variable a la derecha (en este caso d) y al resto
se le asigna el valor Ri. El deseado distribuido uniformemente número aleatorio se
obtiene como Ri/re. El valor inicial de la variable (R0) en Eq anterior se llama la semilla.
Las propiedades de los números generados dependen de los valores de las constantes
a, b y d, sus relaciones y la computadora utilizada.
El valor de la constante a debe ser lo suficientemente alto; los valores bajos no pueden
ceder Buenos resultados. Las constantes byd no deberían tener ningún factor común. Lo
positivo los enteros R0, a, b y d se eligen de manera que d> 0, a <d, y b <d.
En la generación de computadora, la secuencia de números aleatorios se repite después
de una cierto retraso y se desea que la duración de este ciclo sea lo más larga posible.
Este retraso aumenta a medida que aumenta d y, por lo tanto, un gran valor de d debe
ser elegido. Normalmente, d se establece igual a la longitud de la palabra (la cantidad
de bits retenidos) como una unidad) de la computadora; un valor típico es 231 - 1. Es
importante asegurarse de que la duración del ciclo es más que los números que se
necesitan para el estudio.

Ejemplo 11.1 Genere 10 números aleatorios distribuidos uniformemente usando Eq.


11.1 con a = 5, b = 3 yd = 7. A la semilla R0 se le puede asignar un valor de 2. La ecuación
de solución 11.1 se reescribe como Ri = (5 × Ri-1 + 3) (módulo 7) Los resultados se dan
en la Tabla E11-1. Cabe señalar aquí que los números se repiten después de un ciclo de
7. La duración de este ciclo se denomina como el período del generador, que está aquí.
Un inconveniente de usar Eq. 11.1 es que implica división, lo que requiere más tiempo
de computadora que la suma o la resta. Esto se puede evitar haciendo uso del
desbordamiento de enteros El desbordamiento de enteros tiene lugar cuando se realiza
un intento para almacenar un número entero que es más grande que su tamaño de
palabra. Si la cantidad de bits en una palabra de la computadora es b, entonces el entero
más grande que puede almacenar es 2b - 1 (un bit es para firmar). Si se proporciona un
entero más grande que tiene dígitos y, solo se almacenan b dígitos y el los dígitos y - b
más a la izquierda están perdidos. Pero cómo se implementa el desbordamiento de
enteros en un la computadora depende de su arquitectura y software. Versiones
mejoradas de LCGs,

Conocido como LCG multiplicativo de módulo principal, son ampliamente utilizados en


estos días para generar números aleatorios. Dado que estos algoritmos de generación
de números aleatorios son deterministas, el los números generados se pueden duplicar
nuevamente. Por lo tanto, estos números no son aleatorio en un sentido estricto y se
llaman números pseudoaleatorios. Un buen al azar generador de números debe
producir números distribuidos uniformemente que no tener alguna correlación entre sí,
debe ser rápido, no debe requerir una gran memoria, y debería ser capaz de reproducir
exactamente una corriente dada de azar números. También se requiere que el algoritmo
sea capaz de generar varios flujos separados de números aleatorios. Después de la
generación, los números aleatorios deben probarse para garantizar que posee las
propiedades estadísticas deseadas (es decir, los números no están correlacionados en
serie). La prueba de chi-cuadrado es una de esas pruebas que se puede usar para
confirmar que los números están distribuidos uniformemente Law y Kelton (1991) han
discutido generación de números aleatorios y pruebas con mayor detalle.

2.2.1. Transformación de números aleatorios


En la sección anterior, hemos discutido un método para generar uniformemente
distribuido números al azar. La entrada al sistema prototipo tendrá ciertas propiedades
estadísticas y una cierta distribución de probabilidad. Esta distribución para cada
variable de entrada puede obtenerse del análisis de datos históricos y proceso físico
subyacente. Las variables aleatorias de entrada en la simulación Monte Carlo deben
exhibir las mismas propiedades estadísticas y seguir la misma probabilidad distribución.
Por lo tanto, los números aleatorios distribuidos uniformemente deben ser convertidos
para seguir la distribución de probabilidad deseada. La variable involucrada puede ser
variables aleatorias continuas o discretas.

2.3. Variaciones aleatorias continuas


Los métodos para generar variables aleatorias que siguen una distribución dada son
descritos a continuación. Si la forma inversa de una distribución puede expresarse
fácilmente analíticamente, la transformación inversa es el método más simple. Si una
expresión analítica para el inverso de la distribución en cuestión no se conoce,
algoritmos especiales se emplean para generar números de manera eficiente con tal
distribución.

2.3.1. Método de transformación inversa


En el método de transformación inversa, primero una distribución aleatoria uniforme
número ri en el rango [0, 1] se genera. Ahora, deje que FQ (q) sea el acumulativo
deseado función de distribución (CDF) de la variable aleatoria Q,. Por lo tanto se puede
definir para cualquier valor de r entre 0 y 1. Tenga en cuenta que es el lo más pequeño
q sea satisfactorio. Entonces Q se puede generar como

Donde FQ -1 es el inverso de la función de distribución acumulada de la variable


aleatoria Q. Este método se conoce como la transformación inversa o CDF inversa
método. El método se ilustra gráficamente en la figura 11-1. Es útil cuando la inversa de
la CDF de la variable aleatoria puede expresarse analíticamente. Esto es un método
simple y computacionalmente eficiente. Sin embargo, puede usarse solo aquellas
distribuciones cuya forma inversa se puede expresar fácilmente.
Figura 1 Determinación del número aleatorio x con la distribución deseada de número aleatorio distribuido
uniformemente r.

El método de transformación inversa tiene un atractivo intuitivo. En la figura 11-2, la


función de distribución de probabilidad de X, F (x), se traza. La densidad de probabilidad
la función no es más que la pendiente de esta curva de distribución. Cuando las variables
son generadas, debería haber relativamente más variables en la zona donde el pico de
la función de densidad se encuentra o donde la pendiente de la función de
distribución es más.
Las variables aleatorias uniformemente distribuidas estarán espaciadas uniformemente
en el eje y (es decir, un intervalo ΔF (x) tendrá aproximadamente el mismo número de
variables, independientemente de su ubicación). En consecuencia, los intervalos
correspondientes en el eje x, Δx1 y
Δx2, también tendrá aproximadamente el mismo número de variables. Pero Δx1 es más
pequeño que Δx2. Por lo tanto, la densidad de variables en Δx1 será mayor que en Δx2.
El siguiente ejemplo demuestra el uso de este método para generar números aleatorios
distribuidos exponencialmente

Ejemplo 11.2 Generar variables aleatorias que siguen una distribución exponencial con
el parámetro λ = 2.3.
Solución La función de distribución acumulativa de una distribución exponencial es
FX (x) = 1 - e-λx
Su inversa se puede escribir como
x = FX-1 [r] = -ln (1 - r) / λ (11.3)
Como (1 - r) está distribuido uniformemente, este puede ser reemplazado por r, que
también es distribuido uniformemente. Por lo tanto, variables aleatorias distribuidas
exponencialmente con la propiedad deseada puede ser generada por
x = -ln (r) /2.3
Si el primer número aleatorio distribuido uniformemente r1 = 0.89, el correspondiente
número aleatorio r1 = 0.89
variate x1 será
x1 = -ln (0.89) /2.3 = 0.05067

2.3.2. Método de composición


Si una variable aleatoria tiene una función de distribución de probabilidad compuesta,
esta la propiedad se puede usar para generar variables aleatorias siguiendo la
composición método. Deje que la probabilidad de la variable FX (x) sea
Donde wi son los pesos y FXi (x) son las funciones de distribución acumuladas.
Los pesos deben sumar a la unidad. El número aleatorio requerido se genera en dos
etapas. Primero, dos números aleatorios distribuidos uniformemente (u1 y u2) en el
rango [0, 1] se generan. El primer número u1 se usa para seleccionar el apropiado CDF
para la generación del número aleatorio. Se usa el segundo número u2 para
determinar la variante aleatoria de acuerdo con la distribución seleccionada.

Figura 2. Forma de la función de distribución de probabilidad y densidad de las variables generadas

Ejemplo 11.3 Generar variables aleatorias que siguen la siguiente probabilidad función
de densidad: fX (x) = 3/5 + x3 , 0 ≤ x ≤ 1
Solución La función de densidad dada se puede descomponer como
fX (x) = 3/5 f1 (x) + 2/5 f2 (x)
dónde
f1 (x) = 1 y F1 (x) = x, 0 ≤ x ≤ 1
f2 (x) = (5/2) x3 y F2 (x) = (5/8) x4 , 0 ≤ x ≤ 1
Para la primera función, F1 (x) = x = u2 o variate x = F1 -1 (u2) = u2. Para el segundo
función, F2 (x) = (5/8) x4 = u2 o variable x = F2 -1 (u2) = (8u2 / 5) 0.25. Tenga en cuenta
que aquí los pesos son 3/5 y 2/5 y suman a la unidad. Ahora dos uniformemente
números distribuidos son generados. Deje que estos números sean 0.538 y 0.181. Como
u1 = 0.538 es menor que 3/5, u2 se usa para generar la variable siguiendo F1 (x). Por lo
tanto, Variable aleatoria x1 = F1 -1 (u2) = 0,181 En el segundo intento, permita que los
números distribuidos uniformemente sean 0.722 y 0.361. Como u1 es mayor que 3/5,
u2 se usa para generar la variable siguiendo F2 (x). Por lo tanto, Variable aleatoria x2 =
F2 -1 (u2) = (8 × 0.361 / 5) 0.25 = 0.87
2.3.3. Método basado en funciones
Para algunas distribuciones, las variables aleatorias se pueden expresar como funciones
de otras variables aleatorias que se pueden generar fácilmente. Esta propiedad puede
ser explotada para la generación de variables aleatorias. Por ejemplo, la distribución
gamma es nada más que la suma de las distribuciones exponenciales. Por lo tanto, si una
variable Z sigue una distribución gamma con parámetros (k, λ), entonces uno puede
escribir

Donde X1i, X2i, ... + Xki son k variables aleatorias independientes distribuidas de forma
independiente con el parámetro λ. El procedimiento para generar una distribución
aleatoria gamma Variable siguiendo este método consiste en generar variables
aleatorias que siguen distribuciones exponenciales que tienen el parámetro λ. Ahora, k
tales variantes son agregado para obtener una variante distribuida gamma.

Ejemplo 11.4 Generar variables aleatorias distribuidas por gamma con parámetros
(4, 0.8) usando el método basado en función.
Solución El método de transformación inversa se puede utilizar para generar
exponencialmente varianzas aleatorias distribuidas. Primero generamos un aleatorio
distribuido uniformemente número u en el rango [0, 1]. Utilizándolo, una variable
aleatoria que sigue al la distribución exponencial con el parámetro λ puede obtenerse
x = -ln (u) / λ (11.7)
Deje que los primeros cuatro números aleatorios uniformemente distribuidos u1, ..., u4
sean 0.5371,
0.1814, 0.6193 y 0.1319. La distribución aleatoria exponencial correspondiente las
variables con el parámetro 0.8 (vea el Ejemplo 11.2) serán 0.777, 2.134, 0.599 y
2.532. Por lo tanto, la variable distribuida gamma con el parámetro (4, 0.8) será
(11.8)
Recuerde que la suma de dos variables independientes distribuidas por gamma con
parámetros (λ, k1) y (λ, k2) es una variante distribuida gamma con parámetros (λ, k1 +
k2).

Ejemplo 11.5 Generar números aleatorios distribuidos normalmente con parámetros


(3.9, 1.6) utilizando el método basado en funciones. Solución Si u1 y u2 son dos números
aleatorios distribuidos uniformemente de forma independiente en el rango [0, 1],
entonces un par de aleatorios distribuidos de forma independiente Variables (mx, σx 2)
puede obtenerse por x1 = mx + σx × cos (2πu2) (11.9) x2 = mx + σx × sin (2πu2) (11.10)
Este método fue desarrollado por Box y Muller (1958).
Deje que dos números aleatorios distribuidos uniformemente sean 0.3465 y 0.8552. Por
lo tanto,
Además, también se pueden generar variables aleatorias distribuidas de forma
logarítmica la transformación

La media de estas variables distribuidas de forma logarítmica normal será mx (ln) = exp
(mx + σx2/2) y la varianza será σ 2x (ln) = exp (2mx + σ 2x) [exp (σ2x) - 1]. Si el objetivo
es generar variables aleatorias distribuidas de forma logarítmica normal con media mx
(ln) y varianza σ2x (ln) luego estos se pueden obtener de la siguiente manera. Primero,
genere variables aleatorias distribuidas normalmente con media y varianza como

y luego los transforma en el dominio log-normal.Un método común para generar


variables aleatorias distribuidas normalmente basado en el teorema del límite central
es usar

Donde u es una variable aleatoria distribuida uniformemente en [0,1]; comúnmente n =


12 es adoptado. Por supuesto, el método da números aproximados y, por lo tanto, su
uso es desanimado. Otro método simple para generar distribución aleatoria normal
Variados con media cero y unidad de desviación estándar hace uso de la aproximación
de la distribución lambda:

La precisión de esta aproximación es 0.0032 para | x | <2 y 0.0038 para 2 <| x | <3, y la
probabilidad de que x esté fuera | x | > 4.91 es menor que 10-6 (Salas 1993). Otra
aproximación (Salas 1993) para la distribución normal basada en ecuaciones
polinómicas es

Donde t = [-2 ln (1 - u)] 0.5, y los coeficientes son p0 = -0.322232431088, p1 = -1, p2 = -


0.342242088547, p3 = -0.0204231210245, p4 = -0.0000453642210148, q0 =
0.099348462606, q1 = 0.588581570495, q2 = 0.531103462366, q3 = 0.103537752285, y
q4 = 0.0038560700634. La ecuación 11.14 también se puede usar para generar
normalmente números distribuidos de los Estados Unidos.
III. CONCLUSIONES

La simulación Montecarlo (MCS) es una técnica para obtener propiedades estadísticas


de la salida de un sistema dado las propiedades de las entradas y el sistema. Al usarlo,
los planificadores obtienen una mejor comprensión del funcionamiento del sistema y
puede determinar el riesgo de falla (por ejemplo, posibilidades de que un depósito se
seque, la contaminación en una cuenca excede los límites prescritos, o un centro de
servicio al cliente que no brinda servicios dentro del tiempo prometido).
11.4. Variantes aleatorias discretas

El problema de generar variables discretas aleatorias es transformar un número aleatorio


distribuido uniformemente en la función de masa discreta deseada. Si u es el número
aleatorio distribuido uniformemente, entonces una forma de obtener la variable aleatoria
correspondiente xj que sigue el CDF deseado es

Se puede ver que este proceso es básicamente un método de transformación inversa, pero
también requiere una búsqueda numérica para llegar a la variante deseada. Sin embargo,
este método puede no ser el enfoque más eficiente para generar una variable aleatoria
discreta.

Ejemplo 11.6 Genere variables aleatorias que siguen una distribución binomial con
parámetros (5.0, 0.4).

Solución La CDF de la distribución binomial viene dada por

El CDF se tabula de la siguiente manera.

Ahora se genera un número aleatorio distribuido uniformemente. Déjalo ser u = 0.5. Dado
que FX(1) < u ≤ FX(2), la variante requerida x = 2. Bajo ciertas circunstancias, la
distribución binomial se puede aproximar por la distribución normal y esta propiedad se
puede usar en la generación de datos (ver Capítulo 5).

Ejemplo 11.7 Genere variables aleatorias que siguen una distribución de Poisson con el
parámetro λ = 4.

Solución La CDF de la distribución de Poisson está dada por

Para i = 0,

El CDF se tabula de la siguiente manera:

Ahora se genera un número aleatorio distribuido uniformemente. Déjalo ser u = 0.6. Dado
que FX(3) < u ≤ FX(4), el número requerido x = 3. Para la distribución de Poisson, cuando
el parámetro λ es grande (λ> 10), la distribución puede ser aproximada por la distribución
normal, N (λ - 0.5, √λ) (Rubinstein 1981). Esta propiedad se puede utilizar para generar
números aleatorios distribuidos por Poisson cuando λ es grande. Un método general que
se puede usar para generar cualquier variable aleatoria discreta que tenga un rango finito
de valores es el método de alias. Aunque es algo complejo, este es un método general y
eficiente. El método ha sido descrito por Kronmal y Peterson (1979).

11.5 Variaciones Aleatorias Distribuidas Conjuntamente

Considere un conjunto de n variables aleatorias X1, X2, ..., Xn. Estas variables pueden ser
independientes o dependientes. Si las variables aleatorias son independientes, la
distribución de probabilidad conjunta se puede obtener multiplicando sus funciones de
distribución de probabilidad marginal:

Aquí fxi (xi) es la función de distribución de probabilidad marginal de Xi. Si las variables
aleatorias son dependientes, entonces su función de distribución de probabilidad conjunta
se convierte

Donde fxi (xi | x1, …, xn) es la condicional PDF de Xi, dado X1 =x1, X2=x2, …, Xi-1=xi-1.
La distribución acumulativa conjunta es

La ecuación 11.20 proporciona una base para generar variables aleatorias distribuidas
conjuntamente. Suponga que se han generado números aleatorios distribuidos
uniformemente. Ahora, un valor de la variable X1 puede ser generado por la
transformación inversa usando Eq. 11.2. Con este valor de X1 y la forma inversa de la
función de distribución acumulativa condicional FX2 (x2 | x1), el valor de la variable
aleatoria X2 puede obtenerse a partir de

Procediendo de esta manera, uno puede obtener los valores de Xn como

Ejemplo 11.8 Genere números que sigan una distribución normal bivariada con
parámetros (3.9, 1.6) y (4.5, 2.2). El coeficiente de correlación (ρ) entre los números es
0.65.
Solución Deje que los medios de las dos distribuciones sean dados por mx y my y las
desviaciones estándar por σx y σy. Su función de densidad de probabilidad conjunta se
puede escribir como

Primero generamos un número distribuido normalmente x. Para este propósito, se genera


un número u distribuido uniformemente. Que esto sea 0.791. Tratando esto como la
probabilidad, podemos leer el valor correspondiente de la variable normal estándar (z) de
la tabla de distribución normal y resulta ser 0,81. Por lo tanto, el número correspondiente
distribuido normalmente es

Sabiendo x, podemos calcular la media condicional del segundo número Y por

La desviación estándar condicional está dada por

Generamos otro número uniformemente distribuido, que resulta ser 0.43. Tratar esto
como probabilidad da el valor de z como -0,18. Por lo tanto, el valor de Y será

Por lo tanto, el primer par de números generados es (5.196, 4.3573).

Abramowitz y Stegun (1965) han dado una fórmula aproximada para calcular las
variables normales estándar dada la probabilidad de excedencia sin uso de una tabla, con
un error de aproximación menor a 4.5×10-4. Deje que P represente la probabilidad de no
coincidencia y Q la probabilidad de excedencia: Q = 1 - P. Calcule W por

La variante normal estándar correspondiente z es

Por ejemplo, si P = 0.791, Q = 1-0.791 = 0.209 y W = 1.7694 de la ecuación. 11.26.


De la ecuación 11.27, z = 0.8097. Si P es 0.43, Q = 0.57 y W = 1.0603 de la ecuación.
11.26.
De la ecuación 11.27, z = -0.176.
11.6 Simulación de sistemas con entradas aleatorias

Durante las últimas décadas, las técnicas de Monte Carlo se han aplicado a una amplia
gama de problemas en recursos hídricos, como la estimación de la precipitación media
areal (Shih y Hamrick 1975), hidrología del agua superficial (p. Ej., Labadie et al., 1987)
y problemas de aguas subterráneas (p. ej., Jones 1990). En esta sección, se presentan
varios ejemplos de la vida real para ilustrar la técnica de simulación Monte Carlo y sus
puntos fuertes.

11.6.1 Simulación Monte Carlo del diseño del reservorio

La simulación de Monte Carlo le permite al analista estudiar y cuantificar la influencia


de la variabilidad en la entrada y demanda del sistema. La influencia de la variabilidad de
entrada en el diseño del sistema se demuestra a través del siguiente ejemplo.

Ejemplo 11.9 El propósito de este ejemplo es ilustrar la fuerza de la simulación de Monte


Carlo para el dimensionamiento de un depósito de almacenamiento. Supongamos que, en
el sitio de interés, se conocen las características estadísticas de los caudales anuales, que
se distribuyen en forma log-normal. Las entradas tienen una media=660×106 m3, una
desviación estándar=175×106m3, un coeficiente de autocorrelación lag-1 ρ = 0.2 y un
sesgo γ = 0.99. Los flujos generados, naturalmente, deberían preservar estas propiedades
estadísticas. Aquí, adoptamos una distribución log-normal de tres parámetros para
modelar los flujos x.

Deje a a ser el límite inferior de los flujos. En consecuencia, (x - a) se distribuirá


lognormalmente, o y = ln (x - a) se distribuirá normalmente. Para la variable aleatoria x,
la media μx, la desviación estándar σx, el coeficiente de correlación lag-1 ρx y la asimetría
γx están relacionadas con las propiedades estadísticas de y (Matalas 1967) por

Conociendo los valores de μx, σx, ρx y γx para los datos históricos, podemos encontrar los
valores de a, μy, σy y ρy para y. Primero, usando Eq. 11.30 tenemos

La solución de cuál es
Ahora, de la ecuación 11.29, obtenemos

La solución de esta ecuación da μy = 6.26. A continuación, tenemos de Eq. 11.31

Esto da ρy = 0.2079. Finalmente, de la Eq. 11.28 obtenemos

Que da a=111×106m3.

Ahora, al usar estas propiedades, los flujos en el dominio de registro son generados por

Donde ti son variables aleatorias distribuidas normalmente con media cero y desviación
estándar de la unidad. Los flujos sintéticos en el dominio real se obtienen mediante la
transformación

Este procedimiento se utilizó para generar 500 trazas de entradas, cada una de 100 años,
que es la vida útil de un depósito de almacenamiento típico. Un procedimiento simple
para determinar la capacidad de almacenamiento requerida es el algoritmo de picos
secuencial (ver Jain y Singh 2003). En el presente caso, la capacidad de almacenamiento
se obtuvo para un calado igual a 0,7 veces las entradas medias. Estas estimaciones se
muestran en la figura 11-3. El almacenamiento promedio fue de 125×106m3, y la
desviación estándar de los valores de almacenamiento fue de 46×106m3. Es interesante
observar que los valores máximos y mínimos de almacenamiento fueron 363x106 y
13×106m3. Claramente, la decisión sobre el tamaño del reservorio después de dicho
análisis será una decisión mucho mejor que solo el uso de los datos disponibles (y
generalmente de muestra pequeña).

11.6.2 Simulación de Monte Carlo de la operación del depósito

Las políticas de operación para un depósito se desarrollan comúnmente mediante el uso


de técnicas de optimización o simulación. A veces, también se utiliza una combinación
de estas dos técnicas. Una pregunta importante que estas técnicas no pueden responder es
la influencia de la variabilidad de las entradas y demandas en la planificación, el diseño
y el rendimiento del sistema. Se ha señalado que los modelos deterministas son optimistas
porque sobrestiman los beneficios y subestiman los costos (Loucks et al., 1981). La
simulación de Monte Carlo permite al analista estudiar y cuantificar la influencia de las
variabilidades en las demandas y la entrada del sistema.

Ejemplo 11.10 Considere un depósito multipropósito que se está planificando para


atender el riego y las demandas de suministro municipal de agua. Las demandas para
estos fines son conocidas. El depósito se opera siguiendo la política de operación lineal
que se muestra en la figura 11-4. De acuerdo con esta política, si, en un período particular,
la cantidad de agua disponible en almacenamiento es menor que la demanda objetivo, se
libera toda el agua disponible. Si el agua disponible es superior a la demanda objetivo
pero inferior a la demanda objetivo más la capacidad de almacenamiento disponible, se
realiza una liberación igual a la demanda objetivo y el exceso de agua se almacena en el
depósito. Si, incluso después de hacer lanzamientos iguales a las demandas del objetivo,
no hay espacio para almacenar el exceso de agua, se libera toda el agua que excede la
capacidad máxima de almacenamiento.
Deje que Aw represente el agua disponible y T la demanda objetivo. Matemáticamente,
la norma se puede expresar como

El depósito estará vacío en el primer caso y lleno en el tercero.

Figura 11-3 Variación de los valores de almacenamiento para las diversas ejecuciones
de simulación.

Figura 11-4 Política de operación para el depósito en el Ejemplo 11.10.

En este ejemplo, se estudiará la influencia de la variabilidad en la entrada. Como en la


mayoría de los estudios de planificación, se usarán datos anuales. Las entradas al
yacimiento bajo examen se distribuyen normalmente con una media=660×106m3 y una
desviación estándar=350×106m3. Las entradas anuales tienen una pequeña
autocorrelación positiva ρ = 0.3.

La capacidad de almacenamiento máxima posible del depósito en el sitio de interés es de


750×106m3. La profundidad del agua evaporada del depósito cada año depende del clima
y la cantidad de agua disponible en el almacenamiento. Aquí, por simplicidad, se supone
que el 4% del agua disponible se pierde por evaporación. La demanda anual de agua del
embalse es de 700×106m3.

Solución Se necesitan entradas al depósito para simular su funcionamiento. En la


simulación de Monte Carlo, se utilizan flujos generados sintéticamente. Se encuentran
disponibles varias técnicas para la generación de datos de entrada. En el presente caso, se
utilizó el siguiente modelo (ASCE 1996) para generar flujos anuales cuyas propiedades
estadísticas son las mismas que las de los flujos observados:

Donde xj es el flujo para el año j, 𝑥̅ es la media de las entradas, r es el coeficiente de


correlación, y s es la desviación estándar. Además, los Njs son desviaciones normales
estándar que se pueden generar utilizando las técnicas explicadas anteriormente. La
ecuación 11.35 puede emplearse para generar una secuencia de flujo anual. Una
desventaja del modelo para la generación de entrada utilizada aquí es que ignora el sesgo
de las entradas. Para preservar la asimetría de los datos históricos, los números Nj en Eq.
11.35 debe transformarse de la siguiente manera (ASCE 1996)

Donde g representa el coeficiente de asimetría de los datos históricos. Naturalmente, los


flujos generados serán diferentes si la transformación dada por Eq. 11.36 es seguido.

Al usar este modelo, se generaron los datos de entrada durante 1,000 años. La operación
fue simulada por 1,000 años siguiendo la política de operación lineal estándar dada por
la ecuación. 11.34 y suponiendo un contenido de yacimiento inicial de 500×106m3. Como
resultado, se producen las liberaciones del yacimiento y el almacenamiento de fin de año
para estos 1,000 años. A partir de esta información, se puede calcular la probabilidad de
diferentes rangos de liberación, como se muestra en la Tabla E11-10a.

Tabla E11-10a Probabilidad de diferentes rangos de liberación y beneficios asociados.

Deje que los beneficios anuales de la publicación en diferentes rangos (bi) sean los que
figuran en la segunda fila de esta tabla. Por lo tanto, el beneficio anual esperado (B) del
embalse se puede calcular como
Donde Ri es la probabilidad de liberación en el rango i. Por lo tanto,

Una vez que se ha formulado un modelo para la generación de datos y la operación del
sistema, se puede aprovechar su poder para evaluar la sensibilidad de varios parámetros
del sistema, como las propiedades de entrada o el nivel de demandas. Uno puede tomar
tiradas repetidas del sistema para analizar cómo cambiarán los beneficios esperados si la
correlación de las entradas fue diferente o si la magnitud de las demandas objetivo cambia
(suponiendo que el beneficio de los diferentes flujos permanezca constante, aunque esto
también se puede estudiar si es suficiente datos estaban disponibles). La Tabla E11-10b
proporciona los resultados de algunas ejecuciones de sensibilidad. En esta tabla, el
término ejecución base se refiere a la ejecución con los parámetros del sistema dados. En
las ejecuciones de sensibilidad, un parámetro se cambia a la vez y se calculan la
probabilidad de liberación y los beneficios esperados.

Varias inferencias pueden derivarse de la Tabla E11-10b comparando los resultados de la


ejecución de la base con otras ejecuciones. Por lo tanto, uno ve que, a medida que aumenta
la correlación de las entradas, los beneficios de la operación aumentan (la correlación
para la ejecución básica es 0.3). Además, cuando se conserva la asimetría de los flujos
históricos, los beneficios son menores. La Tabla E11-10b también muestra que, a medida
que aumenta la demanda objetivo, los beneficios disminuyen porque el reservorio ya no
puede suministrar suficiente agua debido al almacenamiento limitado y las entradas.
Tenga en cuenta que la media de las entradas es de 660×106m3, mientras que el volumen
de demandas se incrementó de 700×106 a 900×106m3. Cuando la demanda objetivo era
de 700×106m3, la probabilidad de que la liberación estuviera en el rango de 600-800 era
de 0,899, pero cuando la demanda aumentaba a 900×106m3, la probabilidad de que el
lanzamiento estuviera en el rango 800-1000 era solo de 0,827, lo que indica la frecuencia
de fallas había aumentado. Observe también que cuando la capacidad de almacenamiento
del yacimiento se redujo de 750×106 a 600×106m3, los beneficios se redujeron de 9.627 a
9.302 unidades. En este caso también, la probabilidad de que la liberación esté en el rango
600-800 disminuyó de 0.899 a 0.808, lo que indica un mayor número de fallas.

Tabla E11-10b Resultados de las series de sensibilidad: ejemplo de operación del


depósito.

Realizar un análisis de sensibilidad es una forma de utilizar la potencia de la simulación


Monte Carlo. Una vez que se ha desarrollado el modelo, es fácil cambiar los parámetros
clave y estudiar el impacto del cambio. Sin embargo, para hacer un uso completo de este
poder, es esencial que las carreras se planifiquen cuidadosamente y que el realismo físico
no se pierda.

11.6.3 Estimación de parámetros de una distribución de probabilidad

Como ejemplo, considere la distribución generalizada de Pareto (GP), que se ha aplicado


a varias áreas, abarcando procesos socioeconómicos, fenómenos físicos y biológicos,
análisis de confiabilidad y análisis de extremos ambientales. Esta distribución se ha
discutido en el Capítulo 5; Singh (1998b) proporciona una descripción detallada de esta
distribución. La distribución de Pareto generalizada de tres parámetros (GPD3) es una
distribución flexible y, por lo tanto, es más adecuada para modelar los procesos
ambientales e hidrológicos que tienen distribuciones de cola gruesa.
La distribución GPD3 tiene el CDF

Y el PDF

El rango de x es c ≤ x ≤ ∞ para a ≤ 0 y c ≤ x ≤ b / a + c para a ≥ 0.

En ingeniería ambiental y de recursos hídricos, los métodos de estimación de parámetros


más comúnmente utilizados son los métodos de momentos, máxima verosimilitud y
momentos ponderados por probabilidad. Estos han sido discutidos en el Capítulo 8. Estos
métodos y sus variantes fueron considerados en este ejemplo. Específicamente, se
compararon cuatro métodos de estimación de parámetros para la distribución de GPD3:
dos métodos de momentos, momentos ponderados por probabilidad y estimación de
máxima verosimilitud. Los estimadores de parámetros resultantes de estos métodos se
describen brevemente

Los estimadores de momento regular de la distribución de GPD3 fueron derivados por


Hosking y Wallis (1987). Es importante tener en cuenta que E [1-a(x-c)/b] r = 1/(1+ar)
si [1 + ra]>0. Por lo tanto, el último momento rth de X existe solo si a≥[1/r]. Siempre
que estos momentos existan, los estimadores de momento son
Donde 𝑥̅ , s2 y G son, respectivamente, la media, la varianza y el coeficiente de asimetría.
Las ecuaciones 11.39 a 11.41 constituyen un sistema de ecuaciones que se resuelven para
obtener los parámetros a, b y c, dado el valor de 𝑥̅ , s2 y G.

11.6.3.1 Estimadores de momento modificados

El método regular de momentos es válido solo cuando a> - 1/3, lo que limita su aplicación
práctica. En segundo lugar, su estimación del parámetro de forma (a) depende únicamente
de la asimetría de la muestra, que en realidad podría ser muy diferente de la asimetría de
la población. Siguiendo a Quandt (1966), una versión modificada de este método (MM1)
implica la reestructuración de la Ec. 11.41 en términos de alguna propiedad conocida de
los datos. En esta modificación, Eq. 11.37 es reemplazado por E[F(x1)] = F(x1), que rinde

Eliminando b y c por sustitución de Eq. 11.40 y Eq. 11.41 en la ecuación 11.42, uno
obtiene una expresión para la estimación de a:

Con el valor de a obtenido de la solución de Eq. 11.43, las estimaciones de b y c se


obtienen de la solución de Eq. 11.40 y Eq. 11.41.

11.6.3.2 Estimadores de momento ponderados por la probabilidad

Los estimadores de momentos ponderados por probabilidad (PWM) para GPD3 se dan
(Hosking y Wallis 1987) como

Donde el cuarto momento ponderado por la probabilidad, Wr, está dado por

Por lo tanto, Eq. 11.44 a Eq. 11.46 estimaciones de parámetros de rendimiento en


términos de PWM. Para un tamaño de muestra finito, las estimaciones de momento
̅𝑟 ) se pueden calcular como
coherente (𝑊

Donde es la muestra ordenada y (Landwehr et


al. 1979b).
11.6.3.3 Estimadores de máxima verosimilitud

Las ecuaciones de máxima verosimilitud (ML) de Eq. 11.38 se dan (Moharram et al.,
1993) como

No se puede obtener un estimador de máxima verosimilitud para c, ya que la función de


máxima verosimilitud (L) no tiene límites con respecto a c. Sin embargo, dado que c es
el límite inferior de la variable aleatoria X, se puede maximizar L sujeto a la restricción
c≤x1, el valor de muestra más bajo. Claramente, L es máximo con respecto a c cuando
c=x1. Por lo tanto, los estimadores de máxima verosimilitud (RMLE) se dan c=x1 y los
valores de a y b están dados por Eq. 11.49 y Eq. 11.50. Esto provoca una falla a gran
escala del algoritmo, particularmente para tamaños de muestra <20. Al ignorar la
observación más pequeña x1, sin embargo, el pseudo-MLE (PMLE) se puede obtener de
la siguiente manera: Primero asuma un valor inicial de (c<x1) Luego calcule a y b. A
partir de entonces, vuelva a estimar c, y luego repita este procedimiento hasta que los
parámetros ya no cambien.

Ejemplo 11.11 Compare los diversos métodos de estimación de parámetros para la


distribución de Pareto generalizada de tres parámetros.

Solución Para comparar los diversos métodos de estimación de parámetros, se generaron


datos libres de errores mediante simulaciones de Monte Carlo utilizando un diseño
experimental comúnmente empleado en ingeniería ambiental y de recursos hídricos.
El inverso de Eq. 11.37 es

Donde X(P) denota el cuantil de la probabilidad acumulativa P o la probabilidad de no


aparición de 1-P. Para evaluar el rendimiento de los métodos de estimación de parámetros
descritos aquí, los experimentos de muestreo de Monte Carlo se realizaron utilizando Eq.
11.51 y Eq. 11.52.

En la práctica de ingeniería, las muestras observadas pueden estar disponibles con


frecuencia, para lo cual se calculan los primeros tres momentos (media, varianza y sesgo).
Por lo tanto, las estimaciones de los parámetros y los cuantiles para los datos de las
características máximas comúnmente encontradas se caracterizan frecuentemente por el
uso de los coeficientes de variación y asimetría. Debido a que esta información es
fácilmente derivable de un conjunto de datos dado, un candidato potencial para estimar
los parámetros y cuantiles de GPD3 será el que tenga el mejor desempeño en los rangos
observados esperados del coeficiente de variación y asimetría. Por lo tanto, la selección
de los rangos de parámetros de población es muy importante para cualquier estudio de
simulación. Con ese fin, se hicieron las siguientes consideraciones:
1. Para un conjunto dado de datos, los parámetros de distribución no se conocen de
antemano; las cantidades generalmente conocidas son los coeficientes de variación de
muestra y la asimetría, si existen. Por lo tanto, si uno fuera de alguna manera capaz de
clasificar los mejores estimadores con referencia a estas características de datos
fácilmente cognoscibles, eso sería preferible desde un punto de vista práctico en
comparación con la clasificación de los mejores estimadores en términos de un parámetro
desconocido a priori.

2. No todos los estimadores funcionan bien en todos los rangos de población, por lo que
debe seleccionarse un rango donde se puedan aplicar todos los estimadores.
Afortunadamente, en la vida real los datos encontrados más comúnmente se encuentran
dentro del rango considerado en este estudio.

3. Debido a que la asimetría de la muestra en GPD puede corresponder a más de una


varianza, la estimación de parámetros basada en la asimetría sola es engañosa. Para evitar
esta locura, la evaluación de los estimadores se basa en los parámetros.

Teniendo en cuenta las consideraciones anteriores, investigamos los parámetros usando


un experimento factorial dentro de un espacio abarcado por {ai, bj, ck}, donde {ai= - 0.1,
- 0.05, 0.0, 0.05, 0.1}, {bj = 0.25, 0.50} y {ci = 0.5, 1.0}. Veinte casos de población de
GPD3, enumerados en la Tabla E11-11, fueron considerados. Los rangos de las
características de los datos también se calcularon para que los resultados de este estudio
pudieran relacionarse con las estadísticas de datos comúnmente utilizadas. Para cada caso
de población, se generaron 20,000 muestras de tamaño 10, 20, 50, 100, 200 y 500, y luego
se calcularon los parámetros y los cuantiles.

11.6.3.4 Índices de rendimiento

Aunque las formas estandarizadas de sesgo, error estándar y error cuadrático medio se
usan comúnmente en la práctica de ingeniería (Kuczera 1982a, b), el rendimiento de los
estimadores de parámetros se evaluó utilizando sus estadísticas bien definidas. Estos
índices de rendimiento se definieron, respectivamente, como
Tabla E11-11 Casos de población de GPD3 considerados en el experimento de
muestreo.

Donde 𝜃̂ es una estimación de θ (parámetro o cuantil), E[·] denota la expectativa


estadística, y S[·] denota la desviación estándar de la variable aleatoria respectiva. Si n es
el número total de muestras aleatorias, entonces la media y la desviación estándar se
calcularon como

El error cuadrático medio también se puede expresar como

Estos índices se usaron para medir la variabilidad de las estimaciones de parámetros y


cuantiles para cada simulación. Aunque se usaron para determinar el mejor método de
estimación de parámetros, nuestro interés radica en el sesgo y la variabilidad de las
estimaciones de los cuantiles en las colas extremas de la distribución (probabilidad de no
coincidencia P = 0.9, 0.99, 0.999) cuando las estimaciones se basan en muestras pequeñas
(n ≤ 50). Debido al número limitado de muestras aleatorias (20,000 aquí) utilizadas, no
se espera que los resultados reproduzcan los valores verdaderos de BIAS, SE, RMSE y
E[𝜃̂].

Sin embargo, proporcionan un medio para comparar el rendimiento de los métodos de


estimación utilizados. Los valores calculados de BIAS y RMSE en cuantiles se tabulan
como razones en lugar de para el propio estimador.

Sin embargo, proporcionan un medio para comparar el rendimiento de los métodos de


estimación utilizados. Los valores calculados de BIAS y RMSE en cuantiles se tabulan
como relaciones 𝑋̂(𝐹)/𝑋(𝐹) en lugar de para el estimador 𝑋̂(𝐹) en sí mismo.

11.6.3.5 Robustez
Kuczera (1982a, b) definió un estimador robusto como aquel que es resistente y eficiente
en un amplio rango de fluctuaciones de la población. Si un estimador se desempeña de
manera constante sin un deterioro indebido en el RMSE y el sesgo, entonces se puede
esperar que tenga un mejor rendimiento que otros estimadores competitivos en
condiciones de población diferentes de aquellas en las que se basaron las conclusiones.
Dos criterios para identificar un estimador resistente son min-max y RMSE promedio
mínimo (Kuczera 1982b). Con base en este criterio min-max, el estimador preferido es
aquel cuyo RMSE máximo para todos los casos de población es mínimo. El criterio de
promedio mínimo es seleccionar el estimador cuyo promedio de RMSE sobre los casos
de prueba es mínimo.

11.6.3.6 Resultados y discusión


El rendimiento de un estimador de parámetros depende de lo siguiente:
1. Tamaño de muestra n
2. Parámetros de población
3. El parámetro de distribución
4. La probabilidad de excedencia o cuantil
Los resultados para los cinco casos se resumen en los cuadros 11-1 a 11-4.

11.6.3.7 Sesgo en las estimaciones de parámetros

La Tabla 11-1 muestra los resultados del sesgo en los parámetros. Para el parámetro de
forma (a), para tamaños de muestra pequeños (n ≤ 50), RME y MM1 mostraron menos
sesgo, particularmente para aumentar los valores de población de a, para tamaños de
muestra más pequeños (n ≤ 20). Los métodos basados en momentos tendieron a estimar
a sin responder a los cambios en b y c. A MLE no le fue bien para tamaños de muestra
pequeños, pero mejoró consistentemente mientras que su sesgo aumentó con el aumento
de los valores de población de a. PWM mostró menos sesgo para a>0. A partir de los
resultados sesgados de las 20 poblaciones, concluimos que para aumentar los tamaños de
muestra (n ≥ 50) PWM y MLE sería aceptable. Para el parámetro de escala (b), RME y
MM1 respondieron linealmente al cambio en los valores de población de b. MM1 se
desempeñó mejor para todos los tamaños de muestra y casos de población. Para tamaños
de muestra más grandes (n ≥ 100), todos los estimadores, excepto RME, que tenían un
sesgo mayor para a<0, mostraron un sesgo absoluto comparable. Para el parámetro de
ubicación (c), todos los métodos, excepto MLE, mostraron un sesgo negativo. La razón
del sesgo positivo de MLE está enraizada en el procedimiento de solución adoptado para
MLE. Otro hallazgo importante en este sentido es que el sesgo en c fue dictado solo por
los valores poblacionales de a y b.

11.6.3.8 RMSE en estimaciones de parámetros

La Tabla 11-2 resume el error cuadrático medio en los resultados de las estimaciones de
los parámetros. MM1 tuvo un buen rendimiento solo para c, pero para otros parámetros
mostró un patrón similar al de RME. PWM demostró una mejora constante para todos los
casos poblacionales a medida que aumentaba el tamaño de la muestra. A MLE no le fue
bien cuando n≤20; sin embargo, a medida que el tamaño de la muestra aumentó, superó
a otros métodos. Con el aumento de la población a, MLE exhibió una mejora constante
en RMSE para a y b. RME y MM1 no respondieron a los cambios en las poblaciones c y
b al estimar el parámetro a, como lo indicaron los resultados del sesgo antes.

11.6.3.9 Sesgo en las estimaciones de cuantiles

Los resultados de sesgo de la estimación de cuantiles por GPD3 se resumen en la Tabla


11-3. En general, para todas las probabilidades de no excedencia, entre los tres métodos
basados en momentos, RME se desempeñó mejor para valores más bajos de P en términos
de sesgo en el cuantil

Tabla 11-1 Sesgo en los parámetros de GDP3 para espacios abarcados por a = (-0.1, -
0.05, 0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Tabla 11-2 RMSE en los parámetros de GPD3 para espacio abarcado por a = (0.1, 0.05,
0.0, 0.05, 0.1), b = 0.50, c = 1.0.

Tabla 11-3 Sesgo en los cuantiles de GPD3 para espacio abarcado por a = (-0.1, -0.05,
0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Tabla 11-4 RMSE en los parámetros de GPD3 para espacio abarcado por a = (-0.1, -
0.05, 0.0, 0.05, 0.1), b = 0.50, c = 1.0.

Cuando a> 0 y tamaño de muestra n ≤ 20. A medida que aumentó el tamaño de la muestra
(n ≥ 50), MM1 se comportó comparativamente mejor que RME en todos los rangos. RME
y MM1 tendieron a subestimar aún más los cuantiles con el aumento de la población c
para un valor dado de b para P ≤ 0.995. Sin embargo, para P = 0.999, la tendencia se
revirtió. En general, al aumentar b, el sesgo absoluto de estos métodos aumentó para
tamaños de muestra n≥10. PWM y MLE superaron a los otros métodos en términos del
valor absoluto del sesgo para todos los tamaños de muestra y rangos de cuantiles. PWM
y MLE respondieron positivamente en términos de sesgo tanto para b y c cuando uno fue
variado manteniendo el otro constante.

11.6.3.10 RMSE en estimaciones de cuantiles


La Tabla 11-4 da RMSE en estimaciones de cuantiles para P = 0.9, 0.95 y 0.999 para
cinco casos poblacionales seleccionados. Para la probabilidad de no exedencia P ≤ 0.90,
PWM presentó el menor RMSE para muestras pequeñas (n>20) cuando a≤0 para b=0.25
y c=0.50. A medida que las poblaciones b y c aumentaron, MM1 mostró mejores
resultados en términos de RMSE para todos los cuantiles y rangos de muestra. El
rendimiento de RME fue mejor para muestras pequeñas cuando P ≥ 0.90. Para tamaños
de muestra pequeños, MLE tuvo un mal rendimiento, pero a medida que el tamaño de la
muestra aumentó, tanto PWM como MLE mostraron una mejora constante. MLE se
comportó mejor solo cuando n≥50 con a>0. RMSE de los cuantiles respondió
positivamente al aumento de la población b, mientras que lo contrario se observó para el
caso de un aumento de la población c.
11.6.3.11 Evaluación de robustez

La robustez relativa de los diferentes métodos de estimación de parámetros y cuantiles se


puede juzgar a partir del cuadro 11-1 y 11-2. En términos de sesgo de parámetros, PWM
se realizó de una manera superior para la mayoría de los rangos de datos, mientras que
MLE se comportó mejor para tamaños de muestra grandes. En términos del parámetro
RMSE, RME lo hizo bien con tamaños de muestra pequeños. Para el sesgo en los
cuantiles, PWM y MLE funcionaron mejor. Para RMSE en los cuantiles, MM1 lo hizo
mejor en la mayoría de los casos. En general, PWM mostró el comportamiento más
consistente. Por lo tanto, PWM sería el método preferido.

11.6.3.12 Resumen
Se realizó una evaluación del rendimiento relativo de cuatro métodos para estimar
parámetros y cuantiles del GPD de tres parámetros mediante la simulación de Monte
Carlo. La generación de una gran cantidad de datos de muestra y su análisis permitieron
una comparación de los diversos métodos de estimación de parámetros. No se encontró
que ningún método sea preferible a otro para todos los casos de población considerados.
En general, se encontró que el método PWM funcionaba de manera consistente. Cuando
una opción clara de un método en particular está en duda, PWM puede ser el método más
confiable y debe ser el preferido.

11.6.4 Robustez de una distribución de frecuencia


Este ejemplo demuestra la aplicación de la técnica de Monte Carlo para examinar la
solidez de una distribución de frecuencia y determinar si las estimaciones son parciales.

Ejemplo 11.12 Los datos de flujo máximo anual para un río en América del Sur durante
10 años se ordenan en orden descendente en la Tabla E11-12a. Los resultados de un
estudio detallado mostraron que la distribución GEV PWM se ajusta a los datos de la
región. La siguiente fórmula regional fue desarrollada para la región:

Donde A es la zona de influencia o cuenca (en km2) y

Los parámetros regionales de la distribución GEV se calcularon utilizando el método de


estimación PWM. Estos son K=- 0.247, u = 0.448, α = 0.493, a = 20.91, y b = 0.46. Estime
el sesgo en las fórmulas regionales utilizando simulaciones de Monte Carlo.

Solución El CDF de la distribución de GEV es


Tabla E11-12a Datos de caudal máximo anual.

Y los estimadores de PWM están relacionados con estadísticas de datos por las siguientes
relaciones:

Donde L1, L2 y L3 son los L-momentos.

A partir de los datos, el promedio de las inundaciones anuales es

Generamos un número aleatorio como se muestra en la segunda columna de la Tabla E11-


12b. Si xT es la inundación (flujo) para el período de retorno de año T, calculamos xT/xm
por
Tabla E11-12b

Los valores de xT/xm se almacenan en la tercera columna y los valores correspondientes


xT se almacenan en la cuarta columna con xm=3.297 cumec. En la quinta columna, los
valores de las cuatro columnas están dispuestos en orden descendente. Los valores de B1,
B2 y B3 se enumeran en las siguientes tres columnas.

Ahora, los L-momentos son calculados por

A continuación, determinamos las relaciones de momento L:

Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:
Usando estos parámetros calculados, computamos las inundaciones para varios períodos
de retorno como se muestra en la Tabla E11-12c.
De manera similar, se realizaron dos repeticiones más del procedimiento. Los resultados
para la segunda replicación se muestran en la Tabla E11-12d.
Ahora, los L-momentos son

Y las relaciones de momento L son

Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:

Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12e.
Para la tercera replicación, los datos se enumeran en la Tabla E11-12f.

Tabla E11-12c

Tabla E11-12d
Tabla E11-12e

Tabla E11-12f

Ahora, los L-momentos son

Y las relaciones de momento L son

Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:

Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12g.
Ahora analizamos los datos observados (Tabla E11-12h).
Aquí obtenemos

Con L-momentos
Y relaciones de momento L

Tabla E11-12g

Tabla E11-12h

Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:

Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12i.
Las inundaciones (los flujos) para los diversos períodos de retorno calculados utilizando
los datos observados y generados se resumen en la Tabla E11-12j.

De esta tabla, uno puede concluir lo siguiente:


1. El sesgo aumenta con el período de retorno de la inundación (del flujo).
2. Todas las estimaciones que utilizan los datos generados están sobreestimadas.

Aquí, se han mostrado los resultados de solo unas pocas repeticiones. Cuando se hicieron
10,000 réplicas, el sesgo para T = 1,000 años fue casi 11%. Por lo tanto, la distribución
de GEV puede considerarse un modelo robusto para la región.

Tabla E11-12i

Tabla E11-12j

COMCLUSIONES

Se encontró que el método PWM (estimadores de momento ponderados por probabilidad)


funcionaba de manera consistente. PWM puede ser el método más confiable y debe ser
el preferido.
11.7 Integración Monte Carlo
Cuando la integración implica problemas en una o dos dimensiones y los integrandos se
comportan bien (por ejemplo, no hay discontinuidad), los métodos convencionales de
integración numérica, como la regla trapezoidal o la regla de Simpson, se emplean
comúnmente. Pero la precisión de la integración numérica convencional se deteriora
rápidamente a medida que aumenta la dimensión de la integración. Para las integraciones
que implican dimensiones múltiples, el método de Monte Carlo es una técnica de
integración numérica adecuada. Deje que el problema de integración sea

donde a ≤ x ≤ b. La integración de Monte Carlo usando el método de la media muestral


se basa en la premisa de que la ecuación integral 11.61 se puede expresar como
donde el PDF, hx {x) ≥ O, se define en el intervalo a ≤ x ≤ b. El transformado integral
dado por la Eq. 11.62 es equivalente al cálculo de la expectativa del término dentro de los
corchetes; es decir,

donde X es una variable aleatoria cuyo PDF hx (x) se define sobre a ≤ x ≤ b. Ahora F
puede ser calculado por el método de Monte Carlo como

Aquí, xi es la i-ésima variante aleatoria generada de acuerdo con fx (x) y N es el número


de variables aleatorias generadas Cálculos usando la muestra-media El método de
integración de Monte Carlo se lleva a cabo en los siguientes pasos:
1. Seleccione hx(x) definido sobre la región de la integral de la cual N al azar las variables
son generadas
2. calcule f (xi) / hx(xi) para i = 1,2, N.
3. Calcule el promedio de muestra basado en la ecuación. 11.64 como la estimación de F.

11.8 Técnicas de reducción de la varianza


La simulación de Monte Carlo implica el muestreo y, por lo tanto, los resultados
obtenidos implicarán errores de muestreo. Estos errores disminuyen al aumentar el
tamaño de muestra, pero aumentar el tamaño de la muestra para lograr una precisión
mayor generalmente significa un aumento en el tiempo de la computadora para generar
números aleatorios y para el procesamiento de datos.

Se han desarrollado varias técnicas de reducción de varianza para obtener una alta
precisión en los resultados de la simulación de Monte Carlo sin tener que aumentar
sustancialmente el tamaño de muestra requerido. Algunas de estas técnicas son:
1. Variadas antitéticas (Hammersley y Morton 1956)
2. Muestreo correlacionado (Rubinstein 1981)
3. Muestreo de hipercubo latino (Pebesma y Heuvelink 1999)
4. Muestreo de importancia
5. Muestreo estratificado (Cochran 1972)
6. Variaciones de control
Estos se describen a continuación.
11.8.1 Técnica de variaciones antitéticas
Supongamos que dos estimadores imparciales α1 y α2 de un parámetro a han sido puteado
Los dos estimadores pueden promediarse para obtener otro estimador de α2 como:

Supongamos que se han calculado dos estimaciones insesgadas α1 y α2 de un parámetro


α. Los dos estimadores pueden promediarse para obtener otro estimador de un

El nuevo estimador también es imparcial y su varianza es

En la simulación de Monte Carlo, los estimadores α1 y α2 dependen de variables


aleatorias que se generan. Por supuesto, estas variables están relacionadas con las
variables aleatorias uniformes estándar utilizadas para generar variables aleatorias. Por lo
tanto, α1 y α2 son funciones de las dos variables aleatorias uniformes estándar U1 y U2.
Está claro de la Eq. 11.66 que la varianza de αavg puede reducirse si se pueden generar
variables aleatorias que producen correlaciones fuertemente negativas entre α1 y α2.

Se puede obtener un valor negativo de cov (α1 (U1), α2 (U2)) generando U1 y U2, que
se correlacionan negativamente. Un enfoque simple que produce variables aleatorias
uniformes negativamente correlacionadas y exige un cálculo mínimo es establecer U1 =
1- U2.

11.8.2 Técnica de muestreo correlacionada


Muchas veces el objetivo básico de la simulación de Monte Carlo es evaluar la
sensibilidad del rendimiento del sistema o determinar la diferencia en el rendimiento del
sistema bajo varias configuraciones y diseños. Las técnicas de muestreo correlacionadas
son especialmente efectivas en tales situaciones. Deje que un diseño involucre un vector
de N variables aleatorias X = (X1, X2, XN). Estas variables podrían correlacionarse,
teniendo un PDF conjunto fx (x); estos también podrían ser independientes, cada uno con
un PDF fi (xi), i = 1,2, ..., N.

Como ejemplo, considere dos diseños A y B de un sistema; el rendimiento del sistema se


denota por Z. Por lo tanto, el rendimiento del sistema bajo el diseño A será

donde A = (a1 a2, .... am) es un conjunto de parámetros para el diseño A. Del mismo
modo, el rendimiento de otro diseño B será:
donde B = (b1, b2, ... bm) es un conjunto de parámetros para el diseño B. Ahora, la
diferencia en el rendimiento de los dos diseños es

Dado que tanto ZA como ZB implican los mismos números aleatorios, estos pueden estar
altamente correlacionados. Por lo tanto, el método de muestreo correlacionado se puede
utilizar de manera efectiva para estimar las propiedades estadísticas de Z. Deje que el
valor medio de estos sea Z. La varianza de Z viene dada por

Si ZA y ZB están correlacionados positivamente, cox (Za, Zb)> 0 y la varianza de Z en


Eq. 11.70 será menor que la suma de sus varianzas individuales:

Se puede lograr una mayor reducción en la varianza de Z aumentando la correlación entre


los números aleatorios. Los números aleatorios Z AJ y Z BJ serán positivamente
correlacionados si se generan de la siguiente manera (Ang y Tang 1984):

donde (u1 u2 ..., un) es un conjunto independiente de distribución aleatoria uniforme


números.

11.8.3 Simulación de hipercubo latino


La simulación de hipercubo latino (LHS) es un método de muestreo estratificado que
permite una estimación eficiente de las estadísticas de salida. En LHS, la distribución de
probabilidad de cada variable básica se subdivide en N rangos, cada uno con una
probabilidad de ocurrencia igual a 1 / N. Los valores aleatorios de la variable básica se
simulan de tal manera que cada rango se muestrea solo una vez. El orden de selección de
los rangos es aleatorio y el modelo se ejecuta N veces con la combinación aleatoria de
variables básicas de cada rango para cada variable básica. Las estadísticas de salida, las
distribuciones y las correlaciones se pueden aproximar a partir de la muestra de N valores
de salida. El procedimiento de muestreo estratificado de LHS converge más rápidamente
que otros procedimientos de muestreo estratificado. Al igual que con la simulación Monte
Carlo, la precisión es una función del número de muestras. Si N equivale al doble de la
cantidad de parámetros importantes que se sospecha, podría proporcionar un buen
equilibrio de precisión y economía para los modelos con una gran cantidad de parámetros.

Para las variables básicas correlacionadas, existen varios procedimientos para generar una
muestra estratificada. Uno de los métodos populares es el método de muestreo exacto.
Para el caso de dos variables básicas dependientes, la distribución marginal de una de las
variables básicas se puede estratificar y muestrear como en LHS, y el valor apareado de
la variable básica codependiente se puede muestrear aleatoriamente a partir de la
distribución condicional usando el valor de la primera variable básica Estos pares
permanecen juntos en la asignación aleatoria a las ejecuciones del modelo. Para básico
dependiente de N

variables, el muestreo condicional se puede extender, o la distribución conjunta se puede


muestrear aleatoriamente de forma estratificada. Las N-tuplas permanecen juntas en la
asignación aleatoria a las ejecuciones del modelo.

Varios paquetes de computadora que contienen rutinas para los métodos de Monte Carlo
y LHS se informan en la literatura. La Agencia de Protección Ambiental de EE. UU.
Ha aprobado algunos paquetes de computadora para LHS y están disponibles a
través de la Biblioteca de Modelos de Exposición de la EPA. Monte Carlo y LHS se
han aplicado al modelo de contaminación de aguas subterráneas y evaluación de
confiabilidad de estructuras de ingeniería civil.

11.8.4 Técnica de muestreo de importancia


En lugar de distribuir los puntos de muestreo de manera uniforme, la técnica de muestreo
de importancia recoge más puntos de muestreo en la parte del dominio que es más
importante para el estudio. Rubinstein (1981) ha demostrado que los errores asociados
con el método de la media de la muestra (ver Sección 11.7) pueden reducirse
considerablemente si se elige hx (x) de manera que tenga una forma similar a la de f (x)
Sin embargo, puede haber problemas en extraer muestras de hx (x), especialmente cuando
| f {x) | no se porta bien
Por lo tanto, al implementar esta técnica, existe una compensación entre la reducción de
error deseada y las dificultades de muestreo de una zona específica del dominio.

11.8.5 Técnica de muestreo estratificado


El muestreo estratificado es un área bien establecida en el muestreo estadístico (Cochran
1972). En muchos sentidos, es similar al muestreo de importancia. La diferencia básica
entre las dos técnicas es que la técnica de muestreo estratificado requiere más
observaciones en las regiones que son más "importantes", mientras que el muestreo de
importancia elige un PDF óptimo. La reducción de la varianza mediante la técnica de
muestreo estratificado se logra tomando más muestras en subregiones importantes. En
este enfoque, la población que consiste en N muestras se subdivide en unidades M de
zonas superpuestas, que se llaman estratos (véase la figura 11-5). Las muestras se extraen
de cada estrato, el dibujo de las muestras es independiente en diferentes estratos.
Hay muchas ventajas de dividir el área de población en estratos:
1. Los datos con la precisión deseada se pueden extraer de un estrato específico.
2. La estratificación puede ser deseable a partir de consideraciones administrativas o
logísticas.
3. Diferentes enfoques de muestreo pueden ser necesarios para diferentes estratos. Por
ejemplo, si se va a llevar a cabo una encuesta de Evaluación de Impacto Ambiental (EIA)
para las industrias en un área, los aspectos que son importantes en las industrias del metal
y en las industrias textiles serán diferentes.
4. La estratificación ayuda a dividir una población heterogénea en grupos de población
más homogénea. La ventaja de una población homogénea es que, incluso con una muestra
pequeña, se pueden obtener estimaciones de parámetros razonablemente fiables.

Figura 11-5 Muestreo estratificado: espacio de población de N muestras divididas


en 7 estratos.

La teoría del muestreo estratificado examina los problemas de cómo dividir la población
en estratos, cuántos estratos debería haber y cómo deberían determinarse los dominios de
los estratos. Cochran (1972) describió la técnica con mayor detalle.
11.8.6 Variaciones de control
A veces, la exactitud de la estimación puede mejorarse mediante el uso de un estimador
indirecto. Deje Z ser un estimador directo e Y un estimador indirecto. Dejar

donde X es una variable aleatoria con u media conocida y α es un coeficiente; X es


correlacionado con Z. Variate X se denomina variate controlado para Z. X puede
representar la función de rendimiento de un modelo muy simple del prototipo que permite
una determinación analítica de ux. Tenemos

Claramente, si (Z) es un estimador insesgado, entonces (Y) también es un estimador


insesgado. La varianza de (Z) se puede obtener

Por lo tanto, la varianza de Y será menor que la varianza de Z si

En ese caso, el estimador indirecto Y es más preciso que el estimador directo Z. El valor
de a se puede seleccionar para obtener la reducción máxima en la varianza

11.9 Reducción de la incertidumbre de los parámetros

Los parámetros de los modelos hidrológicos matemáticos se estiman utilizando los datos
disponibles del sistema real. Muchas veces, puede haber grandes incertidumbres en los
valores de los parámetros si no hay suficientes datos disponibles. Dos métodos
estadísticos no paramétricos, a saber, los métodos de jackknife y bootstrap, que no hacen
suposiciones sobre la normalidad, son especialmente útiles en tales casos. Aunque estos
métodos requieren grandes cálculos, los cálculos son manejables. Estos métodos se
discuten a continuación.

11.9.1 Método Jackknife


La navaja de bolsillo, introducida a fines de la década de 1950, es un intento de responder
a una pregunta estadística importante: una vez calculada una estimación de cierta cantidad
de interés, ¿qué precisión se puede asignar a la estimación? La desviación estándar es una
expresión comúnmente utilizada para la "precisión" de una estimación. El método
jackknife puede emplearse para calcular la desviación estándar de las estimaciones de
parámetros de la siguiente manera:

1. Determine el parámetro de interés, αs, a partir de los datos de N muestras.


2. Para cada observación i = 1, ..., N, calcule usando los datos de (N - 1) observaciones;
la i-ésima observación se ignora al calcular α (i-s) Como resultado de este paso, se
obtienen N valores de αs.
3. La precisión de αs puede determinarse por

donde αj es la desviación estándar de jackknife de la estimación αs.

Ejemplo 11.13 Se pidió a veinte estudiantes que midieran el nivel del agua del río
Narmada en un sitio de medición. Los valores medidos (en metros) son 290.940, 290.870,
291.010, 290.950, 291.070, 291.110, 291.090, 290.640, 290.680, 290.750,
290.890,290.580,290.750,291.120,290.630,290.890,290.610,290.870,291.060, y
291.070. Determine la precisión de la media de estas medidas usando el método de
jackknife.
Solución Hay 20 valores diferentes de la etapa de agua del río Narmada. La media u de
estas 20 medidas de la etapa del río es 290.879 m. Siguiendo el paso 2 de el método
jackknife, 20 valores de la etapa media del río se calcularon ignorando una observación
a la vez. Estos valores medios ui (en metros) son 290.928, 290.985, 291.030, 291.086,
291.132, 291.183, 291.236, 291.313, 291.363, 291.412, 291.457,
291.526.291.570.291.603, 291.682, 291, 721, 291, 788, 291.827, 291.869 y 291.922.

Aplicando Eq. 11.78 con N = 20, obtenemos

11.9.2 Método Bootstrap


El método bootstrap fue desarrollado por Efron (1977). Se puede usar para determinar la
precisión de cualquier estimación determinada a partir de datos de muestra. Los pasos
computacionales de este método son los siguientes:

1. Deje que haya N elementos de datos x𝑖 , i = 1, N, y que G sea su distribución empírica.


La probabilidad de ocurrencia de cada dato es 1 / N.
2. Genere N nuevos elementos de datos aleatorios x𝑖∗ , i = 1 ..... N, Cada nuevo elemento
de datos es un reemplazo para uno de los N números originales. Este nuevo conjunto de
elementos se llama la muestra de arranque.
3. Estimar el valor del parámetro deseado α para la muestra de arranque
4. Repita los pasos 2 y 3 una gran cantidad de veces (por ejemplo, M). Cada vez que se
utiliza una nueva muestra de arranque y se estima el parámetro α. Finalmente, tendremos
M conjuntos independientes de estadísticas de arranque α∗𝑠
5. La varianza de αs se puede calcular como

Los métodos jackknife y bootstrap se pueden usar para calcular la varianza de cualquier
estadística (por ejemplo, media, desviación estándar y sesgo) que se determina a partir
de los datos de muestra.

CONCLUSION

Para las integraciones que implican dimensiones múltiples, el método de Monte Carlo es
una técnica de integración numérica adecuada, Se han desarrollado varias técnicas de
reducción de varianza para obtener una alta precisión en los resultados de la simulación
de Monte Carlo sin tener que aumentar sustancialmente el tamaño de muestra requerido.
Algunas de estas técnicas son:

1. Variadas antitéticas (Hammersley y Morton 1956)


2. Muestreo correlacionado (Rubinstein 1981)
3. Muestreo de hipercubo latino (Pebesma y Heuvelink 1999)
4. Muestreo de importancia
5. Muestreo estratificado (Cochran 1972)
6. Variaciones de control
Los parámetros de los modelos hidrológicos matemáticos se estiman utilizando los datos
disponibles del sistema real. Muchas veces, puede haber grandes incertidumbres en los
valores de los parámetros si no hay suficientes datos disponibles. Dos métodos
estadísticos no paramétricos, a saber, los métodos de jackknife y bootstrap,
Los métodos jackknife y bootstrap se pueden usar para calcular la varianza de cualquier
estadística (por ejemplo, media, desviación estándar y sesgo) que se determina a partir
de los datos de muestra.