Sie sind auf Seite 1von 241

UNIVERSIDAD DE VIGO

DEPARTAMENTO DE INGENIERÍA QUÍMICA

MODELADO E IDENTIFICACIÓN DE
BIOPROCESOS

Memoria que para optar al grado de Doctora por la


Universidad de Vigo presenta

Marı́a Rodrı́guez Fernández

Vigo, 2006
Autorización

El Doctor Julio Rodrı́guez Banga, Investigador Cientı́fico del Instituto de


Investigaciones Marinas de Vigo (C.S.I.C.)

CERTIFICA:

Que la memoria adjunta, titulada “Modelado e Identificación de Bioprocesos”,


que para optar al grado de Doctora presenta Da . Marı́a Rodrı́guez Fernández, ha sido
realizada bajo su inmediata dirección en el Instituto de Investigaciones Marinas del
C.S.I.C. y, considerando que constituye trabajo de Tesis, autoriza su presentación
en la Universidad de Vigo.

Vigo, 9 de Octubre de 2006

Fdo.: Dr. Julio Rodrı́guez Banga


Agradecimientos

Son muchas las personas e instituciones que durante estos años han participado
en este trabajo y a todas ellas quiero expresar mi gratitud por el apoyo prestado.
En primer lugar deseo expresar mi más profundo agradecimiento al Dr. Julio
Rodrı́guez Banga por su labor de dirección en este trabajo y por su constante apoyo
y asesoramiento en todos los aspectos de la investigación y elaboración de esta Tesis.
A él debo agradecer la confianza depositada en mi al brindarme la oportunidad de
formar parte de su grupo ası́ como todo su tiempo y permanente disponibilidad.
Quisiera agradecer a todo el personal del Instituto de Investigaciones Marinas del
CSIC, en especial al grupo de Ingenierı́a de Procesos por todos los momentos com-
partidos, ¡os echaré de menos!. Me gustarı́a destacar aquı́ a Eva por la colaboración
prestada en todo momento.
Asimismo, agradezco al Ministerio de Educación y Ciencia por la financiación de
los proyectos AGL2001-2610-C02-02 y AGL2004-05206-C02-01/ALI y a la Xunta de
Galicia por el proyecto PGIDIT02PXIC40211PN y por concederme una beca que me
permitió realizar una estancia en la UCSB (University of California Santa Barbara).
Quiero mandar desde aquı́ mi más sincero agradecimiento al Prof. Francis J.
Doyle III, a su grupo de investigación de la UCSB y al equipo del Sansum Diabetes
Research Institute por la amabilidad y el afecto con el que me acogieron y por lo
mucho que he aprendido de ellos.
A la Comisión Europea, a través del CTS (Control Training Site), por darme la
oportunidad de realizar una estancia en Supèlec y a la Prof. Françoise Lamnabhi-
Lagarrigue y al Prof. Eric Walter por la supervisión del trabajo allı́ realizado.
A mi familia y amigos debo el cariño y los ánimos necesarios para que este trabajo
llegase a buen puerto, especialmente a mis padres y a mis hermanos, gracias es lo
menos y a la vez lo más que puedo deciros.
No puedo acabar los agradecimientos sin recordar a la persona que más ha sufrido
este trabajo. Gracias Juan, por estar siempre ahı́.
A todos los mencionados y a todos los que quedan en el tintero, muchas gracias
por el apoyo prestado, el cariño recibido y los ánimos proporcionados.
A mis padres y a mis hermanos

A Juan
All models are wrong... but some are useful.

George E. P. Box
Resumen

La ingenierı́a de procesos moderna se basa en el uso de modelos matemáticos


rigurosos para realizar tareas de análisis, diseño, optimización y control. En el caso
de bioprocesos (industria alimentaria y biotecnológica) estos modelos suelen tener
un carácter dinámico y no lineal.
El desarrollo de un modelo matemático puede considerarse como un ciclo: par-
tiendo de unos objetivos (finalidad del modelo) y de unos conocimientos a priori
(datos preliminares, análisis básico e hipótesis iniciales), se propone una estructura
para el modelo. A partir de los datos experimentales, se realiza entonces la esti-
mación de parámetros dando lugar a un modelo inicial que debe ser validado con
nuevos experimentos, lo que en la mayorı́a de los casos revelará algunas deficiencias.
En ese caso, debe plantearse una nueva estructura del modelo o un nuevo diseño de
experimentos. Este proceso debe repetirse de forma iterativa hasta que la etapa de
validación se considere satisfactoria. El presente estudio se centra en los problemas
de (i) estimación de parámetros y (ii) diseño óptimo de experimentos dinámicos.
El problema de estimación de parámetros se plantea como la minimización de
una función de coste (J) que mide la calidad del ajuste del modelo con respecto
a un conjunto de datos experimentales, sujeto a la dinámica del sistema y a otras
posibles restricciones algebraicas. Esta formulación corresponde a la de un problema
de optimización no lineal (Non-Linear Optimization Problem, NLO) con ecuaciones
diferenciales ordinarias y algebraicas como restricciones.
Matemáticamente, el diseño óptimo de experimentos puede plantearse como un
problema de optimización dinámica en donde el objetivo es encontrar un conjunto
de variables de entrada (controles) para los experimentos dinámicos que maximicen
la calidad de algún indicador estadı́stico de los parámetros estimados. Con objeto
de aumentar la identificabilidad práctica y la precisión de los parámetros, en este
trabajo se han utilizado funciones escalares de la matriz de información de Fisher.
Empleando métodos directos, que transforman el problema original en un problema
de optimización no lineal (NLO) mediante la parametrización de los controles y/o
de los estados, se pueden obtener soluciones numéricas.

xi
xii Resumen

Debido a la naturaleza no lineal del modelo dinámico, estos dos problemas son fre-
cuentemente multimodales (no convexos) y, por lo tanto, si se resuelven con métodos
tradicionales de optimización local es muy probable que converjan a óptimos locales.
Además, en el caso de un mal ajuste de los parámetros, no hay modo de saber si
éste se debe a una mala formulación del modelo o si es debido a la convergencia a
una solución de naturaleza local. Ésta es una clara motivación para la utilización
de métodos que proporcionen más garantı́as de convergencia al óptimo global tanto
para resolver el problema de calibración como para resolver el problema de diseño
óptimo de experimentos.
La creciente demanda de los consumidores con respecto a la calidad de los ali-
mentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de métodos de computación basados en modelos para la simulación, la optimización
y el control de técnicas de procesamiento de alimentos. Las aproximaciones basadas
en modelos son también un tema central en la biologı́a de sistemas ya que proporcio-
nan nuevos modos de analizar los datos procedentes de la genómica y la proteómica,
proporcionando un gran entendimiento sobre el lenguaje de las células y los orga-
nismos. Además, estas aproximaciones proporcionan estrategias sistemáticas para
cuestiones clave de la medicina y la industria farmacéutica y biotecnológica como,
por ejemplo, el desarrollo de fármacos teniendo en cuenta los efectos de posibles
nuevos medicamentos en rutas bioquı́micas y en la fisiologı́a.
En este trabajo se estudia el modelado y la identificación de una serie de bioproce-
sos. Relativos a la industria alimentaria, se han considerado procesos de conservación
basados en técnicas de secado y procesamiento térmico de alimentos. En relación a
la biologı́a de sistemas, se han considerado modelos de rutas bioquı́micas de gran
interés ası́ como la modelización de la cinética de la glucosa en pacientes diabéticos
que es un paso clave en el desarrollo del deseado “páncreas artificial”.
Para llevar a cabo estas tareas, se presentan nuevas metodologı́as de optimización
global que aumentan significativamente la eficiencia de las hasta ahora utilizadas
garantizando su robustez. Se hace también una revisión de los métodos de análisis de
sensibilidades ası́ como de los tipos de funciones de sensibilidad y de su aplicabilidad,
especialmente para cuantificar la importancia de los parámetros estableciendo un
ranking de los mismos. Además, se analizan las técnicas existentes para el estudio de
la identificabilidad y se presenta un programa desarrollado en Matlab° R
que, como se
explicará detalladamente a lo largo de este trabajo, permite automatizar las tareas de
análisis de identificabilidad, ranking de parámetros, calibración del modelo, cálculo
de intervalos de confianza y diseño óptimo de experimentos dinámicos.
Objetivos

El objetivo fundamental de esta tesis consiste en desarrollar una metodologı́a


integrada para el modelado y la identificación de bioprocesos, es decir, aquellos per-
tenecientes a la industria alimentaria y biotecnológica. Los modelos que representan
estos procesos suelen tener un carácter dinámico y no lineal por lo que el problema
inverso asociado resulta especialmente complejo. Para poder realizar esta tarea con
éxito, se han propuesto una serie de sub-objetivos:

Análisis de la identificabilidad de los modelos tanto estructural (para aquellos


abordables mediante las técnicas disponibles en la actualidad) como práctica
y cuantificación de la importancia de los parámetros estableciendo un ranking
de los mismos.

Estimación robusta de parámetros mediante métodos que permitan el mane-


jo adecuado de ruido en las medidas y observaciones parciales ası́ como la
resolución de este tipo de problemas en un tiempo de cálculo reducido.

Diseño óptimo de experimentos empleando técnicas de optimización dinámica


con objeto de reducir los problemas de identificabilidad práctica, aumentar la
precisión de los parámetros estimados y disminuir el esfuerzo experimental.
Debido a la multimodalidad de este tipo de problemas, el uso de métodos
globales permitirá asegurar que los nuevos experimentos diseñados sean glo-
balmente óptimos y evitar la convergencia a mı́nimos locales.

Desarrollo de un entorno integrado para la automatización de las tareas de


estimación de parámetros, diseño óptimo de experimentos, análisis de la iden-
tificabilidad y otras medidas asociadas.

Modelado e identificación de una serie de bioprocesos de interés relativos a:

i.- Secado de alimentos


ii.- Procesamiento térmico de alimentos

xiii
xiv Objetivos

iii.- Isomerización del α-pineno


iv.- Inhibición de la proteasa del HIV
v.- Función de las caspasas en la apoptosis
vi.- Ruta bioquı́mica en tres pasos
vii.- Cinética de la glucosa en pacientes diabéticos
Índice general

I Introducción 1

1. Modelos matemáticos 3
1.1. Desarrollo de modelos matemáticos . . . . . . . . . . . . . . . . . . . 4
1.2. Tipos de modelos matemáticos . . . . . . . . . . . . . . . . . . . . . . 5

II Metodologı́a 9

2. Estimación de parámetros 11
2.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Caracterización del modelo . . . . . . . . . . . . . . . . . . . . 11
2.1.2. Datos experimentales . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.3. Funciones de coste . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Métodos de estimación . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1. Métodos de valor inicial . . . . . . . . . . . . . . . . . . . . . 18
2.2.2. Método multiple shooting . . . . . . . . . . . . . . . . . . . . . 19

3. Análisis de sensibilidad 21
3.1. Métodos numéricos para el cálculo de sensibilidades locales . . . . . . 22
3.1.1. Aproximación por diferencias finitas . . . . . . . . . . . . . . . 22
3.1.2. Métodos directos . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3. Método de la función de Green . . . . . . . . . . . . . . . . . 24
3.2. Tipos de funciones de sensibilidad . . . . . . . . . . . . . . . . . . . . 24
3.2.1. Función de sensibilidad absoluta . . . . . . . . . . . . . . . . . 25
3.2.2. Función de sensibilidad relativa . . . . . . . . . . . . . . . . . 25
3.2.3. Función de sensibilidad semirelativa . . . . . . . . . . . . . . . 26
3.3. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4. Análisis de identificabilidad 29
4.1. Identificabilidad estructural . . . . . . . . . . . . . . . . . . . . . . . 30

xv
xvi Índice general

4.2. Identificabilidad local a priori . . . . . . . . . . . . . . . . . . . . . . 32


4.3. Identificabilidad práctica o a posteriori . . . . . . . . . . . . . . . . . 34
4.3.1. Método basado en la FIM . . . . . . . . . . . . . . . . . . . . 34
4.3.2. Método basado en las regiones de confianza . . . . . . . . . . 36

5. Intervalos de confianza 37
5.1. Regiones de confianza exactas . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Método basado en la FIM . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3. Método basado en la matriz Hessiana . . . . . . . . . . . . . . . . . . 39
5.4. Métodos de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4.1. Jackknife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.4.2. Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

6. Diseño óptimo de experimentos 43


6.1. Criterios de diseño óptimo . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formulación del OED como un problema de optimización dinámica . 47
6.3. Método de parametrización de control . . . . . . . . . . . . . . . . . . 48

7. Métodos de optimización 51
7.1. Métodos locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.1.1. Métodos para problemas sin restricciones . . . . . . . . . . . . 53
7.1.2. Métodos para problemas con restricciones . . . . . . . . . . . 54
7.1.3. Métodos locales empleados . . . . . . . . . . . . . . . . . . . . 55
7.2. Métodos globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.2.1. Métodos deterministas . . . . . . . . . . . . . . . . . . . . . . 56
7.2.2. Métodos estocásticos . . . . . . . . . . . . . . . . . . . . . . . 57
7.2.3. Métodos hı́bridos . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.3. Desarrollo de un método hı́brido secuencial . . . . . . . . . . . . . . . 62
7.3.1. Ajuste del método hı́brido secuencial . . . . . . . . . . . . . . 63
7.4. Método hı́brido paralelo sincrónico . . . . . . . . . . . . . . . . . . . 64

8. GOSBio: entorno para modelado e identificación 69


8.1. Descripción de la metodologı́a . . . . . . . . . . . . . . . . . . . . . . 70
8.2. Fichero de entrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.2.1. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . 72
8.2.2. Datos de entrada . . . . . . . . . . . . . . . . . . . . . . . . . 73
8.3. Ficheros de salida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
8.3.1. Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
8.3.2. Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Índice general xvii

III Aplicaciones 77

9. Secado de alimentos 79
9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2.1. Transferencia de masa . . . . . . . . . . . . . . . . . . . . . . 81
9.2.2. Transferencia de energı́a . . . . . . . . . . . . . . . . . . . . . 82
9.3. Análisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 83
9.4. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9.5. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 87
9.5.1. Caso 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.5.2. Caso 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 91
9.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

10.Procesamiento térmico de alimentos 95


10.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
10.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
10.2.1. Esterilización industrial de alimentos enlatados . . . . . . . . 98
10.3. Análisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 99
10.4. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.5. Diseño óptimo de experimentos . . . . . . . . . . . . . . . . . . . . . 100
10.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 104
10.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

11.Isomerización del α-pineno 109


11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
11.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
11.3. Análisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 111
11.4. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 112
11.5. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 113
11.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 115
11.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
xviii Índice general

12.Inhibición de la proteasa del HIV 119


12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
12.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
12.3. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 121
12.4. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 122
12.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 124
12.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 126
12.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

13.Función de las caspasas en la apoptosis 129


13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
13.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
13.3. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 132
13.4. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 134
13.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 137
13.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

14.Ruta bioquı́mica en tres pasos 141


14.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
14.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
14.3. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.4. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 145
14.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 153
14.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.7. Diseño óptimo de experimentos . . . . . . . . . . . . . . . . . . . . . 156
14.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

15.Cinética de la glucosa en pacientes diabéticos 161


15.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
15.2. Modelo matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
15.3. Ranking de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.4. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . 166
15.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 170
15.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Índice general xix

IV Conclusiones 173

V Apéndices 181

A. Ejemplo de fichero de entrada para el entorno GOSBio 183

VI Bibliografı́a 189

VII Publicaciones 209


Índice de tablas

9.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 87


9.2. Valores nominales y lı́mites para los 8 parámetros . . . . . . . . . . . . . 88
9.3. Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31 . . . . . . . 89
9.4. Valores e intervalos de confianza de los parámetros óptimos . . . . . . . . 92

10.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 100


10.2. Valor del criterio D y E modificado para cinco, seis y ocho experimentos . 102
10.3. Valores e intervalos de confianza de los parámetros óptimos . . . . . . . . 105

11.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 113


11.2. Valores e intervalos de confianza de los parámetros óptimos . . . . . . . . 117

12.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 121


12.2. Valores nominales y lı́mites para los 20 parámetros . . . . . . . . . . . . 122
12.3. Valor de los parámetros para dos resultados obtenidos con SSm . . . . . . 125
12.4. Valores e intervalos de confianza de los parámetros óptimos . . . . . . . . 127

13.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 133


13.2. Valores nominales y lı́mites para los 18 parámetros . . . . . . . . . . . . 134
13.3. Valores e intervalos de confianza de los parámetros óptimos . . . . . . . . 139

14.1. Valores iniciales para los 8 estados . . . . . . . . . . . . . . . . . . . . . 143


14.2. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 144
14.3. Valores nominales y lı́mites para los 36 parámetros . . . . . . . . . . . . 146
14.4. Valores de S y P (10 experimentos) . . . . . . . . . . . . . . . . . . . . 147
14.5. Evolución de SRES-n2fb para los conjunto de datos I y II . . . . . . . . . 150
14.6. Intervalos de confianza de los parámetros óptimos . . . . . . . . . . . . . 155
14.7. Diseño original y diseños óptimos para 16 y 10 experimentos . . . . . . . 158

15.1. Valores para el ranking de parámetros . . . . . . . . . . . . . . . . . . . 166


15.2. Valores nominales y lı́mites para los cuatro parámetros . . . . . . . . . . 167

xxi
xxii Índice de tablas

15.3. Valores de los parámetros óptimos para cada paciente . . . . . . . . . . . 168


15.4. Valor medio de los errores de predicción para los niveles de glucosa . . . . 169
15.5. Valores y desviación estándar de los parámetros óptimos . . . . . . . . . 171
Índice de figuras

1.1. Esquema para la construcción de modelos matemáticos . . . . . . . . . . 4

2.1. Esquema para la estimación mediante un método de valor inicial . . . 18


2.2. Ejemplo de estimación mediante el método multiple shooting . . . . . 20

6.1. Interpretación geométrica de varios criterios de diseño óptimo . . . . 45

7.1. Métodos locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


7.2. Métodos globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.3. Esquema de funcionamiento de Scatter Search . . . . . . . . . . . . . . . 66

8.1. Esquema de GOSBio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

9.1. Secado por aire de una lámina de celulosa . . . . . . . . . . . . . . . . . 81


9.2. Lı́neas de contorno para los parámetros b3 y b6 . . . . . . . . . . . . . . 85
9.3. Lı́neas de contorno para los parámetros p1 y b3 . . . . . . . . . . . . . . 85
9.4. Lı́neas de contorno para los parámetros p1 y p2 . . . . . . . . . . . . . . 86
9.5. Lı́neas de contorno para los parámetros b1 y b4 . . . . . . . . . . . . . . 86
9.6. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 86
9.7. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 89
9.8. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 90
9.9. Valores predichos versus datos experimentales para Ts . . . . . . . . . . . 90
9.10. Valores predichos versus datos experimentales para mavg . . . . . . . . . 90
9.11. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 91
9.12. Región de confianza para los parámetros p2 y b4 . . . . . . . . . . . . . 92
9.13. Región de confianza para los parámetros b1 y b4 . . . . . . . . . . . . . 92

10.1. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 100


10.2. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 101
10.3. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 102
10.4. Evolución de los criterios D y E modificado con el número de experimentos 103

xxiii
xxiv Índice de figuras

10.5. Perfiles óptimos para los experimentos 1, 3 y 6 . . . . . . . . . . . . . . 103


10.6. Perfiles óptimos para los experimentos 2, 4 y 5 . . . . . . . . . . . . . . 103
10.7. Dinámica de la T0 y la retN para los experimentos 1, 3 y 6 . . . . . . . . 104
10.8. Dinámica de la T0 y la retN para los experimentos 2, 4 y 5 . . . . . . . . 104
10.9. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 104
10.10.Región de confianza para el diseño óptimo de seis experimentos . . . . . . 106
10.11.Función objetivo para el diseño óptimo de seis experimentos . . . . . . . . 106

11.1. Esquema de la isomerización del α-pineno . . . . . . . . . . . . . . . . . 109


11.2. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 113
11.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 114
11.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 115
11.5. Datos experimentales versus valores predichos por el modelo . . . . . . . 115
11.6. Valores de los residuos en función del tiempo . . . . . . . . . . . . . . . 115
11.7. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 116
11.8. Función objetivo en el plano (p1 , p2 ) . . . . . . . . . . . . . . . . . . . . 116
11.9. Función objetivo en el plano (p4 , p5 ) . . . . . . . . . . . . . . . . . . . . 116
11.10.Función objetivo en el plano (p1 , p2 ) . . . . . . . . . . . . . . . . . . . . 117
11.11.Función objetivo en el plano (p4 , p5 ) . . . . . . . . . . . . . . . . . . . . 117

12.1. Esquema de reacción para la inhibición irreversible de la proteasa del HIV 119
12.2. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 121
12.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 123
12.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 124
12.5. Datos experimentales versus valores predichos por el modelo . . . . . . . 125
12.6. Valores de los residuos en función del tiempo . . . . . . . . . . . . . . . 125
12.7. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 126

13.1. Esquema apoptosis (Fussengger et al., 2000) . . . . . . . . . . . . . . . . 130


13.2. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 132
13.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . . 135
13.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . . 136
13.5. Valores predichos versus datos pseudo-experimentales para las 11 veloci-
dades de reacción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
13.6. Valores predichos versus datos pseudo-experimentales para las 19 concen-
traciones de proteı́na . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
13.7. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 138

14.1. Esquema de reacción para la ruta bioquı́mica en tres pasos . . . . . . . . 142


Índice de figuras xxv

14.2. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 145


14.3. Frecuencia de las soluciones de n2fb en modo multi-start . . . . . . . . . 148
14.4. Efecto del punto de cambio en la convergencia del hı́brido . . . . . . . . . 149
14.5. Error relativo considerando el conjunto de datos II (3 % de error) . . . . . 151
14.6. Error relativo considerando el conjunto de datos III (5 % de error) . . . . 151
14.7. Valores predichos versus datos pseudo-experimentales (conjunto III) . . . 152
14.8. Curvas de convergencia de SRES, hı́brido SRES-n2fb y SSm . . . . . . . . 153
14.9. Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 154
14.10.Lı́neas de contorno para los parámetros p1 y p6 . . . . . . . . . . . . . . 154
14.11.Lı́neas de contorno para los parámetros p1 y p4 . . . . . . . . . . . . . . 154
14.12.Curvas de convergencia para el OED con 16 experimentos . . . . . . . . . 158

15.1. Bomba de infusión de insulina . . . . . . . . . . . . . . . . . . . . . . . 162


15.2. Estructura del modelo de Hovorka et al. (2004) . . . . . . . . . . . . . . 164
15.3. Estructura del modelo de infusión de insulina (Wilinska et al., 2005) . . . 165
15.4. Parámetros ordenados por orden decreciente de δ msqr . . . . . . . . . . . 166
15.5. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . 167
15.6. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . 168
15.7. Porcentaje de error entre los datos experimentales y los predichos . . 169
15.8. Ajuste del modelo con los datos del experimento 1 . . . . . . . . . . . . . 170
15.9. Validación del ajuste con los datos del experimento 2 . . . . . . . . . . . 170
15.10.Matriz de correlación a posteriori . . . . . . . . . . . . . . . . . . . . . 170
Notación

Tipografı́a

Itálica Escalar
Negrita minúscula Vector
Negrita mayúscula Matriz

Abreviaturas

ACO Método de la colonia de hormigas


BLUE Mejor estimador lineal no sesgado
CP Parametrización total
CVP Parametrización de control
DAEs Ecuaciones diferenciales ordinarias y algebraicas
GO Optimización global
DDM Método directo desacoplado
EP Programación Evolutiva
ES Estrategias Evolutivas
FIM Matriz de información de Fisher
GA Algoritmo Genético
GFM Método de la función de Green
GPS Método de búsqueda por patrones generalizados
GRG Método del gradiente reducido generalizado
IDP Método de programación dinámica iterativa
IVP Problema de valor inicial
KKT Condiciones de optimalidad de Karush-Kuhn-Tucker
MINLP Problema de optimización no lineal entero mixto
NLO Problema de optimización no lineal
NMOL Método numérico de las lı́neas
ODEs Ecuaciones diferenciales ordinarias
OED Diseño óptimo de experimentos
PDAEs Ecuaciones diferenciales en derivadas parciales y algebraicas
PDEs Ecuaciones en derivadas parciales

xxvii
xxviii Notación

s.g.i. Estructuralmente globalmente identificable


s.l.i. Estructuralmente localmente identificable
s.u.i. Estructuralmente no identificable
SC1 y SC2 Criterio de parada para los métodos estocástico y determinista
respectivamente
SA Método de templado simulado
SS Método de búsqueda dispersa
SQP Método de programación cuadrática secuencial
TDT Modelo basado en el tiempo de muerte térmica
TPBVP Problema de condiciones frontera en dos puntos
TS Método de búsqueda tabú

Sı́mbolos
² Errores de observación (ruido)
C Matrix de covarianza
F Jacobiano paramétrico de un conjunto de ODEs
F1 , F2 y F3 Condiciones frontera de primer, segundo y tercer orden
J Función objetivo
Jmp Función de máxima probabilidad
Jmc Función de mı́nimos cuadrados
J Jacobiano de un conjunto de ODEs
M Estructura de un modelo
N Número total de datos experimentales
Np Número de parámetros a estimar
Nu Número de variables de control
Nx Número de variables de estado distribuidas
Ny Número de variables de estado concentradas
Nz Número de variables medidas
R Matriz de correlación
σ Desviación estándar (ruido de las medidas)
p Vector de los Np parámetros del modelo
p∗ Vector de parámetros verdaderos del proceso
p̂ Estimador de p asociado a óptimo local
p̌ Estimador de p asociado a óptimo global
t Variable temporal
u Vector de las Nu variables de control
x Vector de las Nx variables de estado distribuidas
xξ y xξξ Vectores de la primera y segunda derivada espacial de x
xt Derivada temporal de x
y Vector de las Ny variables de estado concentradas
ẏ Derivada temporal de y
z Vector de las Nz variables medidas en cada experimento
z̃ Vector de las medidas experimentales
ξ Vector de coordenadas espaciales
Parte I

Introducción
Capı́tulo 1

Modelos matemáticos

La búsqueda de pautas en el mundo fı́sico parte de la idea de que éste es inteligible


y su funcionamiento puede conocerse mediante la observación y la especulación.
Esta forma de pensar se remonta a los filósofos naturalistas jonios del siglo VI
antes de Cristo (Tales, Anaximandro y sus discı́pulos Leucipo y Demócrito). La
idea subyacente en esta inteligibilidad es que toda la multiplicidad del mundo puede
reducirse a una serie de pautas o principios fundamentales llamadas leyes de la
naturaleza.
La Revolución Cientı́fica que culminó en 1687 con la publicación de Philosophiae
Naturalis Principia Mathematica (Principios matemáticos de la filosofı́a natural) por
el matemático, fı́sico, alquimista e inventor Isaac Newton (1643-1727), consideró que
el universo funciona como un engranaje de relojerı́a. A partir de este momento, su
mensaje fundamental ha ido calando en la comunidad cientı́fica y en nuestra sociedad
en general: “La naturaleza posee unas leyes y nosotros podemos encontrarlas”. Esta
afirmación implica que todo sistema - mecánico, eléctrico, biológico, etc. - puede ser
descrito de manera adecuada mediante un modelo matemático. A pesar de que la
teorı́a cuántica y la, recientemente desarrollada, teorı́a del caos han probado que
esta afirmación es falsa, la influencia en el modo de pensar de los cientı́ficos ha sido
enorme.
Hoy en dı́a la idea de que un modelo es una simplificación de la realidad y que
un modelo matemático es un modo particular de representación es admitida por
toda la comunidad cientı́fica. No se debe olvidar que el desarrollo de un modelo
está siempre motivado por una aplicación real y en este proceso se está traduciendo
nuestro problema en el mundo real a un problema matemático equivalente que se
resuelve y después se intenta interpretar. Esto se hace para llegar a comprender en
mayor profundidad la situación original en el mundo real o para utilizar el modelo
para realizar tareas de análisis, diseño, optimización y/o control.

3
4 Capı́tulo 1. Modelos matemáticos

Cualquiera que sea el objetivo del modelo, éste debe ser formulado explı́citamente
ya que influenciará en gran medida el proceso de modelado. Además, el modelo
obtenido debe ser juzgado en base a la satisfacción de esos propósitos.

1.1. Desarrollo de modelos matemáticos


Como en otras tareas de la ingenierı́a, la buena práctica requiere una estrategia
general para la construcción de modelos definida en una secuencia de pasos que se
realizarán en parte de modo consecutivo y en parte de modo iterativo. Esta estrategia
puede esquematizarse en tres grandes bloques como se representa en la Figura 1.1
(Vansteenkiste y Spriet, 1982):

Objetivos

Definición
Diseño de experimentos
del marco
Conocimientos

experimentales
Análisis
a priori

Datos
Caracterización
de la estructura

Estimación de
parámetros

NO

Validación

Modelo

Figura 1.1: Esquema para la construcción de modelos matemáticos

I.– Establecimiento de las entradas


En una primera fase se establece la información disponible procedente de tres
fuentes principales:

Objetivos del modelo que, como se ha mencionado anteriormente, influirán


particularmente en la definición del marco de trabajo.
Conocimiento previos tanto empı́ricos como teóricos (p.ej. leyes fı́sicas,
quı́micas y, en el caso de bioprocesos, de naturaleza bioquı́mica o micro-
biológica).
1.2. Tipos de modelos matemáticos 5

Datos experimentales. La adquisición de datos puede realizarse duran-


te la operación normal del sistema o durante un experimento diseñado
especı́ficamente. En etapas posteriores se hará uso del diseño óptimo de
experimentos para optimizar el contenido informativo de los datos resul-
tantes de cara a la identificación del sistema.

II.– Identificación del sistema


En teorı́a de sistemas y de control, la identificación de sistemas se define como
identificar un modelo a partir de datos experimentales e incluye los tres bloques
centrales del esquema de la Figura 1.1.

Definición del marco en el que se establecen los lı́mites del sistema y las
variables de entrada y salida.
Caracterización de la estructura en donde se determina el tipo de modelo
a considerar (lineal-no lineal, continuo-discreto,...), su nivel de compleji-
dad y las relaciones funcionales entre las variables.
Estimación de parámetros que proporciona valores numéricos para las
constantes de las relaciones funcionales.

La identificabilidad teórica de los parámetros del modelo (también llamada


identificabilidad estructural) viene dada por la propia estructura del modelo
por lo que debe elegirse una estructura adecuada para poder estimar todos los
parámetros.

III.– Validación del modelo


Esta es la última etapa del ciclo de modelado en dónde se comprueba si el
modelo alcanza los objetivos postulados. Cuando esta etapa no es satisfactoria,
los pasos anteriores deben ser reconsiderados.
Nótese que un modelo nunca puede ser validado con completa certeza (Smith
et al., 1997) por lo que la fase de validación consistirá esencialmente en una
serie de intentos por “invalidar” el modelo.

1.2. Tipos de modelos matemáticos


La elección de la estructura del modelo matemático es un punto crı́tico en el
proceso de modelado. El tipo de modelo elegido va a depender de diversos factores
como la finalidad del modelo, las condiciones bajo las cuales éste va a ser utilizado
(rangos de operación, naturaleza de las entradas,...), el coste de construcción del
6 Capı́tulo 1. Modelos matemáticos

modelo y la información disponible (no tiene sentido concebir un modelo muy com-
plejo con muchos parámetros si los datos experimentales disponibles son escasos e
imprecisos).
Entre las distintas clasificaciones que se pueden realizar de los modelos en función
de su estructura matemática cabe destacar (Jeppsson, 1996):

Lineales versus no lineales


En esta clasificación se debe distinguir entre dos tipos de no linealidad: con
respecto a las entradas y con respecto a los parámetros. Sea z(t, p, u) la salida a
tiempo t del modelo con parámetros p cuando se le ha aplicado la entrada u(τ ),
0 ≤ τ ≤ t desde una condición inicial cero. Se dice que la estructura del modelo
es lineal en sus entradas si la salida satisface el principio de superposición con
respecto a sus entradas, es decir, si:

∀ (λ, µ) ∈ R2 , ∀t ∈ R+ , z (t, p, λu1 + µu2 ) = λz (t, p, u1 ) + µz (t, p, u2 ) (1.1)

Por otra parte, se dice que la estructura de un modelo es lineal en sus paráme-
tros si la salida satisface el principio de superposición con respecto a sus
parámetros, es decir, si:

∀ (λ, µ) ∈ R2 , ∀t ∈ R+ , z (t, λp1 + µp2 , u) = λz (t, p1 , u) + µz (t, p2 , u) (1.2)

Siempre que sea posible se prefieren modelos lineales en sus entradas y en


sus parámetros. Las estructuras lineales en sus entradas se benefician de la
existencia de resultados matemáticos que facilitan su estudio teórico (p. ej.,
condiciones de estabilidad, control óptimo, efecto de las perturbaciones). La
estimación de parámetros de estructuras lineales en sus parámetros resulta
sencillo y a menudo es posible emplear fórmulas explı́citas.
Sin embargo, los modelos lineales en sus entradas tienen un reducido dominio
de validez y para la mayorı́a de los procesos reales sólo pueden aproximar el
comportamiento del sistema alrededor de un punto de operación. Con respec-
to a los modelos lineales en sus parámetros, éstos a menudo carecen de un
significado concreto.

Tiempo continuo versus tiempo discreto


La mayorı́a de los bioprocesos son dinámicos, es decir, varı́an con el tiempo y
pueden clasificarse en función de la forma en la que consideran esta variable.
Los modelos en tiempo continuo están basados en formulaciones de la velocidad
de cambio de las variables de estado. De este modo, los valores de las variables
1.2. Tipos de modelos matemáticos 7

de estado como funciones del tiempo son obtenidas a partir de la solución de un


sistema de ecuaciones diferenciales al que a menudo se le añaden restricciones
en forma de ecuaciones algebraicas.
En contraposición, los modelos en tiempo discreto se basan en una división de
la escala de tiempo en intervalos discretos y las variables de estado se especifi-
can en un intervalo de tiempo determinado como funciones algebraicas de los
valores en el intervalo de tiempo inmediatamente anterior. Cuando un modelo
es simulado en un ordenador, éste es discretizado ya que una computadora di-
gital es en si misma discreta, aunque se utilizan algoritmos especiales y pasos
de tiempo muy pequeños para imitar el comportamiento del sistema continuo
original casi a la perfección.

Deterministas versus estocásticos


Otra posible clasificación surge entre los modelos que contemplan un cierto
grado de incertidumbre o aleatoriedad en su resultado final y los que no. En
estos últimos, los modelos deterministas, todas las salidas vienen determinadas
con precisión y de forma única por el estado actual y los futuros valores de las
variables externas (entradas) del modelo.
En los modelos estocásticos, el resultado final no se conoce con certeza pero
puede expresarse como una distribución de todos los posibles resultados. Es-
tos modelos también tienen en cuenta las propias influencias aleatorias de la
evolución temporal del sistema. A pesar de que este tipo de descripción puede
resultar más realista para ciertos modelos biológicos ya que tiene en cuenta
explı́citamente las perturbaciones del sistema, la gran mayorı́a de los formula-
dos hasta ahora son deterministas. Las principales razones para este hecho son
la falta de datos para caracterizar las variables aleatorias, los elevados requeri-
mientos computacionales para resolver ecuaciones diferenciales estocásticas y
el éxito de los modelos deterministas para predecir el comportamiento futuro
en promedio.

Concentrados versus distribuidos


Como ya se ha mencionado, los modelos concentrados dinámicos en tiempo
continuo están descritos por sistemas mixtos de ecuaciones diferenciales ordi-
narias y algebraicas (DAEs). Estos sistemas pueden clasificarse de acuerdo a
su ı́ndice, definiendo éste como el mı́nimo número de veces que las ecuaciones
del sistema deben ser derivadas con respecto al tiempo para convertirse en
un sistema de ecuaciones diferenciales ordinarias (ODEs) (Pantelides et al.,
8 Capı́tulo 1. Modelos matemáticos

1988). De este modo, por definición, cualquier sistema de ODEs tiene ı́ndice
cero. Ası́ mismo, los sistemas de DAEs de ı́ndice uno se comportan de modo
bastante parecido a los sistemas de ODEs pudiendo ser resueltos utilizando
métodos similares. Sin embargo, el comportamiento de los sistemas de ı́ndi-
ce superior es cualitativamente diferente y deben ser tratados con métodos
especı́ficos.
Muchos procesos biológicos están distribuidos no sólo en el tiempo sino tam-
bién en el espacio. Matemáticamente, las variables distribuidas en el espacio
pueden describirse mediante ecuaciones diferenciales parciales (PDEs) y los
modelos resultantes son los llamados modelos distribuidos. Muchas veces estas
ecuaciones están combinadas con ecuaciones diferenciales ordinarias y ecua-
ciones algebraicas dando lugar a sistemas de PDAEs.

El presente estudio se centra en el estudio de bioprocesos (industria alimenta-


ria y biotecnológica) cuyos modelos suelen tener un carácter dinámico, no lineal y
normalmente están descritos por sistemas de ecuaciones deterministas en tiempo
continuo. Se han considerado modelos tanto concentrados (descritos por sistemas
de DAEs) como distribuidos (sistemas de PDAEs) en función de los requerimientos
particulares de cada proceso. En ningún caso el ı́ndice de los sistemas diferenciales-
algebraicos considerados es mayor que uno por lo que para todos ellos se ha podido
utilizar las técnicas aplicables a sistemas de ODEs.
Parte II

Metodologı́a
Capı́tulo 2

Estimación de parámetros

2.1. Planteamiento del problema


Suponiendo como válida la estructura de un modelo, el problema de estimación
de parámetros (también conocido como identificación o calibración de modelos) trata
de encontrar los parámetros que proporcionan el mejor ajuste de la predicción del
modelo a un conjunto de datos experimentales dado. De este modo, el problema
de identificación se establece como la minimización de una medida ponderada de la
distancia entre los valores experimentales correspondientes a las variables medidas
representados por z̃ y los valores predichos para esas variables representados por z.

2.1.1. Caracterización del modelo


Muchos modelos dinámicos de bioprocesos, junto con los experimentos de entrada-
salida diseñados para su identificación, pueden ser descritos por un sistema de
PDAEs general de la forma:

F (x, xξ , xξξ , xt , y, ẏ, z, u, p, t) = 0 (2.1)


donde los sı́mbolos de la ecuación (2.1) tienen las siguientes definiciones:
x e y: vectores de las Nx variables de estado distribuidas y las Ny concen-
tradas respectivamente
ξ: vector de coordenadas espaciales
xξ y xξξ : derivadas espaciales de x tal que xξ = ∂x/∂ξ y xξξ = ∂ 2 x/∂ξ 2
xt e ẏ: derivadas temporales de x e y tal que xt = ∂x/∂t e ẏ = dy/dt
z: vector de las Nz variables medidas para cada experimento
u: vector de las Nu variables de control o entradas del sistema que de-
terminan la forma de cada experimento
p: vector de los Np parámetros del modelo
t: variable temporal

11
12 Capı́tulo 2. Estimación de parámetros

Para garantizar la existencia de solución del sistema 2.1 es necesario imponer


condiciones iniciales y frontera de la forma:
Condiciones iniciales:

F0 (x(t0 ), y(t0 ), z(t0 ), u(t0 ), t0 ) = 0 (2.2)

Condiciones frontera:

- de primer orden o tipo Dirichlet:

x(Ω, t) = F1 (ξ, t) (2.3)

- de segundo orden o de Neumann:

xn (Ω, t) = F2 (ξ, t) (2.4)

- mixtas o de Robin:

f1 (ξ)x(Ω, t) + f2 (ξ)xn (Ω, t) = F3 (ξ, t) (2.5)

siendo n el vector normal a la superficie.

En caso de que se desconozcan las condiciones iniciales del problema, éstas tam-
bién pueden ser estimadas considerándose, a efectos de la calibración, como paráme-
tros adicionales.
Para la resolución de los sistemas distribuidos que aparecen en este trabajo, se
ha empleado el método numérico de las lı́neas (Numerical Method of Lines, NMOL)
(Schiesser, 1991) que transforma el problema original de dimensión infinita en uno
de dimensión finita, es decir, en un conjunto de ODEs o de DAEs. Por este motivo,
de aquı́ en adelante se prescindirá del vector de variables x y de sus derivadas.

2.1.2. Datos experimentales


El problema de estimación hace uso de los datos obtenidos previamente a partir
de un conjunto de experimentos. Cada experimento se caracteriza por las condiciones
bajo las que es realizado, es decir, su duración total, las condiciones iniciales y la
variación de las variables de control a lo largo del tiempo.
A lo largo de cada experimento se recogen datos de las variables medidas (en
la mayorı́a de los casos no es posible medir todas las variables de estado, sino un
subconjunto de las mismas o de variables relacionadas con ellas por medio de una
función de observación). Estas medidas son de la forma (tijk ; z̃ijk ) donde z̃ijk es el
2.1. Planteamiento del problema 13

valor k de la variable medida zj durante el experimento i y tijk es el tiempo en el


que se toma esta medida.
Para casi todas las técnicas de medición, la medida de la evolución de los ob-
servables de un sistema dinámico con respecto al tiempo lleva asociada un error
de observación o ruido. En este caso, la observación es perturbada por un sistema
diferente influenciando el proceso de medida y no se pueden determinar los valo-
res verdaderos de los estados observados. De ahı́ que la observación siga una cierta
distribución de probabilidad dependiendo de la perturbación.
Asumiendo que la estructura del modelo es correcta y teóricamente identificable,
las desviaciones entre las predicciones del modelo y las medidas experimentales serán
debidas únicamente al ruido en las medidas. Para incorporar el ruido de observa-
ción en el modelado matemático, estas perturbaciones se describen por una variable
aleatoria ² que se adiciona a la función de observación. La variable medida es por lo
tanto:
z̃ijk = zijk (p∗ ) + ²ijk (2.6)
siendo p∗ el vector de parámetros verdaderos del proceso.
En general, ² puede tener estructuras de dependencia complejas pero en la ma-
yorı́a de los casos puede ser descrita por una distribución gaussiana (o normal).
Una justificación para la importancia de esta familia de distribuciones estriba en el
teorema central del lı́mite que establece que ²ijk tiende a estar normalmente distri-
buida si resulta de la suma de un gran número de errores independientes igualmente
distribuidos con varianza finita. De este modo:

²ijk ∼ N (0, σijk ) (2.7)


siendo
2
¡ 2 ¢γ
σijk = ωijk z̃ijk + ε (2.8)
donde ω y γ vienen dadas por el conocimiento a priori sobre el proceso de medida
y ε es un valor pequeño distinto de cero que asegura que la varianza esté definida
para valores de las medidas iguales a cero o muy pequeños.
De esta manera, el ruido en las medidas se reduce a términos de error absoluto
y relativo siendo sus formas más relevantes:

- Error normal con varianza conocida o constante (homocedástico): cuando γ =


0 y ω es constante o tiene un valor conocido para cada medida.

- Error normal con varianza variable dependiente de las medidas (heterocedásti-


co): si γ 6= 0. En el caso en que γ = 1 y ω es constante, se dice que la varianza
es constante relativa.
14 Capı́tulo 2. Estimación de parámetros

2.1.3. Funciones de coste


El valor óptimo de p va a depender del modo en que se cuantifique la distancia en-
tre los valores experimentales y los valores predichos por el modelo para las variables
medidas. Entre las funciones de coste que han demostrado funcionar correctamente,
en orden decreciente de cantidad de información que debe ser proporcionada por
el usuario, o lo que es lo mismo, en orden creciente del número de asunciones a
priori ya incluidas en el método, destacan: el estimador Bayesiano, el estimador de
máxima probabilidad y el estimador por mı́nimos cuadrados. Para el método más
complejo, estimación Bayesiana, la distribución de probabilidad de los parámetros
y la distribución de la probabilidad condicional de las medidas para unos valores
dados de los parámetros deben ser parametrizadas, mientras que el método más
simple, estimación por mı́nimos cuadrados, puede ser llevado a cabo sin ninguna
información extrı́nseca adicional. La estimación por mı́nimos cuadrados es un caso
especial del método de máxima probabilidad en el que se asume que los errores de
las medidas no están correlacionados y que tienen distribución normal con media
cero y varianza constante (Bates y Watts, 1988; Seber y Wild, 1988).

Estimador Bayesiano
La estimación Bayesiana considera las medidas y los parámetros del modelo
como variables aleatorias. Si se conoce la densidad de probabilidad a priori
πp (p) para la ocurrencia del vector de parámetros p y la densidad de probabi-
lidad condicional πz (z̃|p) del modelo para medir los valores z̃ para unos valores
dados de los parámetros p, la densidad de probabilidad de los parámetros para
valores dados de las medidas se puede escribir como:
πz (z̃|p)πp (p)
πp (p|z̃) = (2.9)
πz (z̃)

La ecuación (2.9) no especifica directamente una estimación de los parámetros,


pero proporciona una descripción completa de las distribuciones de los valores
de los parámetros para unas medidas dadas. Para la elección de estimaciones
de los parámetros se necesitan asunciones adicionales. La idea central de la
estimación Bayesiana es proporcionar información previa de la distribución de
los parámetros a partir de los datos medidos.

Estimador de máxima probabilidad


A diferencia de la estimación Bayesiana, la calibración mediante el método
de máxima probabilidad no considera los parámetros como variables aleato-
rias sino como parámetros constantes aunque desconocidos. La estimación de
2.1. Planteamiento del problema 15

máxima probabilidad consiste en maximizar la denominada función de proba-


bilidad, Jmp , buscando el valor p̂mp que proporciona la máxima probabilidad
de ocurrencia a los datos observados z̃:

Jmp (p) = πz (z̃|p) (2.10)

En la práctica, es más fácil buscar p̂mp maximizando el logaritmo de la función


de probabilidad:
Jmp (p) = ln πz (z̃|p) (2.11)
que proporciona el mismo estimador ya que la función logarı́tmica es monotóni-
camente creciente.
La función de probabilidad es una función compleja que depende de la distri-
bución de probabilidad de las medidas. Si se asume que éstas no están corre-
lacionadas y que tienen una distribución normal, la función de probabilidad
viene dada por:
 " #
N 1  NE X
X N Vi N
X Mij
¡ ¢ (z̃ijk − zijk (p))2 
2
Jmp (p) = − ln (2π) − ln σijk + 2
2 2 i=1 j=1 k=1
σijk 
(2.12)
donde los sı́mbolos de la ecuación (2.12) tienen las siguientes definiciones:

N: número total de medidas en todos los experimentos


p: conjunto de parámetros a estimar. Los valores aceptables pueden
estar sujetos a lı́mites inferiores y superiores, pL ≤ p ≤ pU
N E: número de experimentos realizados
N Vi : número de variables medidas en el experimento i
N Mij : número de medidas de la variable j durante el experimento i
2
σijk : varianza de la medida k de la variable j en el experimento i
z̃ijk : medida k de la variable j en el experimento i
zijk : valor k de la variable j en el experimento i predicho por el modelo

Para unas medidas determinadas z̃ los estimadores de máxima probabilidad


para los parámetros son aquellos valores de p para los cuales el valor de la
función de probabilidad es máximo.

Estimador por mı́nimos cuadrados


Las funciones de coste cuadráticas son las más utilizadas desde Gauss y Le-
gendre (Stigler, 1981) debido a su relativamente sencilla optimización. Para
modelos de programación lineal, el mejor estimador correspondiente a una
función de coste cuadrática puede obtenerse analı́ticamente (Walter y Pron-
zato, 1997). Estas funciones de coste pueden escribirse como:
16 Capı́tulo 2. Estimación de parámetros

Jmc (p) = ²T (p)Q²(p) (2.13)


donde Q es una matriz definida no-negativa, y ² es un vector que caracteriza
el error entre el sistema y su modelo. El estimador de p correspondiente a Jmc
viene dado por:
p̂mc = arg min Jmc (p) (2.14)
Este estimador se llama estimador por mı́nimos cuadrados o estimador L2 . Éste
puede ser obtenido independientemente de cualquier consideración estadı́stica,
aunque su utilización puede estar motivada por información (hipótesis) sobre
la naturaleza del ruido que actúa en el sistema. Como ya se ha mencionado:

²(p) = z̃ − z(p) (2.15)

y Q se elige diagonal, por lo que el coste se escribe como:


N Vi N
NE X
X X Mij

Jmc (p) = wijk (z̃ijk − zijk (p))2 (2.16)


i=1 j=1 k=1

donde wijk es el coeficiente de peso k para la variable j en el experimento i.


Los coeficientes de peso son positivos o cero y están fijados a priori. Pueden ser
elegidos empı́ricamente. Cuanto mayor sea wijk , más le va a costar al modelo
desviarse del resultado experimental z̃ijk . La elección de los wijk expresará por
lo tanto la confianza relativa en los distintos datos experimentales y la con-
siguiente importancia que representa cada componente de z y su medida con
respecto al tiempo en el comportamiento del modelo.
La función objetivo de máxima probabilidad, ecuación (2.12), permite flexi-
bilidad para distintos tipos de modelos de varianza. Cuando la varianza de
los errores de las medidas se considera constante (independiente de i, j y k)
o conocida para todas las medidas, la función de máxima probabilidad (que
resulta a minimizar tras un cambio de signo) puede escribirse como:
 " #
1  X N Vi N
NE X X Mij
(z̃ijk − zijk (p))2 
Jmp (p) = (termino ind. de p) + 2
(2.17)
2 i=1 j=1 k=1
σijk 

Un estimador de máxima probabilidad de p es por lo tanto aquel que maximice:


NE X
X N Vi N
X Mij
(z̃ijk − zijk (p))2
J(p) = 2
(2.18)
i=1 j=1 k=1
σijk

es decir, un minimizador de la función cuadrática, ecuación (2.16), con pesos:


2
wijk = 1/σijk (2.19)
2.2. Métodos de estimación 17

2.2. Métodos de estimación


Una vez llevada a cabo la caracterización del modelo dinámico no lineal, el pro-
blema de identificación consiste en buscar el vector de parámetros que proporciona
el mejor ajuste del modelo con respecto a un conjunto de datos experimentales dado.
El problema se plantea como la minimización de una función de coste escalar, J(p),
que mide la bondad de ese ajuste, con respecto a los parámetros del modelo, p. Esto
está sujeto a la dinámica del sistema, que actúa como un conjunto de restricciones di-
ferenciales de igualdad y, en algunos casos, a otras posibles restricciones algebraicas.
Matemáticamente, esta formulación es la de un problema de optimización no lineal
(Nonlinear Optimization Problem, NLO) con restricciones diferenciales-algebraicas
consistente en:
Encontrar el vector de parámetros p que minimiza la función:

J(p) (2.20)

y que verifica:

F (y, ẏ, z, u, p, t) = 0 (2.21)


F0 (y(t0 ), z(t0 ), u(t0 ), t0 ) = 0 (2.22)
h (y, z, u, p, t) = 0 (2.23)
g (y, z, u, p, t) ≤ 0 (2.24)
L U
p ≤p≤p (2.25)

donde J(p) es la función de coste a minimizar, p es el vector de variables de decisión


del problema de optimización (el conjunto de parámetros a estimar), y el vector de
las variables de estado del modelo, z el vector de las variables medidas, u el vector de
variables de control y h y g las posibles restricciones de igualdad y desigualdad, res-
pectivamente. Finalmente, p está sujeto a lı́mites inferiores y superiores que actúan
como restricciones de desigualdad.
A la hora de resolver este problema, es frecuente encontrarse con muchas dificul-
tades entre las que destacan (Schittkowski, 2002):

- Convergencia a soluciones locales debido a la frecuente no convexidad de los


problemas, originada por la no linealidad de los modelos.

- Errores de redondeo debido a una resolución iterativa inadecuada del sistema


dinámico.

- Función objetivo con forma de valle angosto donde es difı́cil progresar hacia
la solución.
18 Capı́tulo 2. Estimación de parámetros

- Función objetivo muy plana en la vecindad de la solución, por ejemplo, cuando


existen grandes perturbaciones en las medidas.

- Modelos sobredeterminados cuando hay demasiados parámetros a estimar,


dando lugar a un número infinito de vectores solución.

- Malos valores iniciales para los parámetros, lo que hace necesario un gran
número de iteraciones en la optimización.

- Funciones del modelo mal escaladas, en particular, los valores de las medidas.

- Funciones del modelo no diferenciables.

Debido a estos escollos, se debe prestar especial atención al método elegido para
llevar a cabo la identificación que, a grandes rasgos, pueden clasificarse en dos grupos:
los métodos de valor inicial (o single shooting) y el método de disparo múltiple (o
multiple shooting).

2.2.1. Métodos de valor inicial


Dado que el NLO formulado no puede resolverse analı́ticamente, los métodos
de valor inicial, o single shooting, proponen para su resolución un procedimiento de
optimización iterativo como el representado en la Figura 2.1. Inicialmente se define

Valores iniciales para los parámetros

Integración de las
Definición estructura ecuaciones del modelo
del modelo (IVP)

Datos experimentales Cálculo función objetivo

¿Mínimo NO
Nuevos valores
de la función
para los parámetros
objetivo?

Mejor estimador
para los parámetros

Figura 2.1: Esquema para la estimación de parámetros mediante


un método de valor inicial
2.2. Métodos de estimación 19

la estructura del modelo, los datos experimentales y los parámetros a estimar. A


partir de unos valores iniciales para los parámetros (p0 ), la rutina de optimización
consiste, básicamente, en calcular el valor de la función objetivo (previa integración
de las ecuaciones del modelo mediante la resolución de un problema de valor inicial
(Initial Value Problem, IVP) y generar nuevos valores para los parámetros de modo
que disminuyan el valor de dicha función. Este proceso se repite iterativamente hasta
alcanzar una solución dentro de la tolerancia preespecificada.
Habitualmente, estos NLOs se resuelven empleando métodos locales de tipo Le-
venberg - Marquardt (L - M) o Gauss - Newton (G - N). Estos métodos resultan muy
eficientes y convergen a la solución correcta (óptimo global) si los valores iniciales
para la estimación de los parámetros son de buena calidad (es decir, si están en la
zona de atracción de la solución global) o si el problema es convexo. Frecuentemente,
estos NLOs son multimodales (presentan óptimos locales) por lo que éstos métodos
convergerán a soluciones locales. De este modo, en presencia de un mal ajuste, no
se puede saber si éste se debe a una mala formulación del modelo o si se está ante
un caso de convergencia a un óptimo local.
Con objeto de solventar esta limitación, en este trabajo se hará uso de métodos
de optimización global que se explicarán con más detalle en el capı́tulo 7.

2.2.2. Método multiple shooting


En el método multiple shooting (Bock, 1983; Timmer, 1998; Holbert, 1998) la
dinámica de las variables de estado se discretiza, dando lugar a problemas NLOs
más grandes (es decir, con mayor número de grados de libertad) pero evitando la
necesidad de resolver iterativamente un IVP (véase un ejemplo de la evolución del
método en la Figura 2.2). La idea fundamental es dividir el intervalo de tiempo en
muchos subintervalos de modo que el sistema de ODEs se resuelve separadamente
para cada uno de ellos, haciendo uso de las medidas experimentales para proporcio-
nar las primeras estimaciones para los valores iniciales de esos subintervalos. Durante
cada iteración los valores iniciales de cada subintervalo están sujetos a optimización
por lo que se convierten en nuevos parámetros del modelo.
Esta aproximación da lugar a una trayectoria inicial discontinua que, a pesar de
ello, está próxima a las medidas. Por supuesto, la trayectoria final debe ser continua,
es decir, la solución calculada para el final de un intervalo debe ser igual al valor
inicial al comienzo del intervalo siguiente. Con el fin de forzar esta condición, se
imponen restricciones de continuidad a la solución. En cada iteración, el método tiene
que elegir una dirección de búsqueda que lleve, no sólo a un mı́nimo de la función
objetivo, sino que además satisfaga las restricciones de continuidad de una forma
20 Capı́tulo 2. Estimación de parámetros

Valores iniciales

z (t)
8ª iteración
z (t)

34ª iteración: convergencia


z (t)

Figura 2.2: Ejemplo de estimación de parámetros mediante el


método multiple shooting (Timmer et al, 2000)

linealizada. De esta manera, los nuevos parámetros introducidos correspondientes


a los valores iniciales de cada subintervalo de tiempo, son eliminados del problema
linealizado que debe ser resuelto con el fin de calcular la dirección de búsqueda.
Como en el paso de actualización sólo se imponen las restricciones de continui-
dad linealizadas, la iteración podrá avanzar hacia la solución continua final a través
de “terreno prohibido”: las iteraciones serán generalmente trayectorias discontinuas.
Esta libertad permite que el método esté cerca de los datos observados, previene la
divergencia en la solución numérica y no introduce tanta multimodalidad como los
métodos de valor inicial, reduciendo el número de mı́nimos locales. Aún ası́, dado
que los problemas NLOs resultantes de esta formulación suelen resolverse por medio
de métodos Gauss-Newton, que son de naturaleza local, la convergencia a soluciones
locales puede seguir ocurriendo, especialmente cuando se dispone de un mal punto
inicial para la estimación. Además, debido a su gran tamaño y al necesario cumpli-
miento de las restricciones de continuidad, la aplicación de métodos de optimización
global resultarı́a inabordable para problemas reales.
Los detalles matemáticos y de implementación pueden encontrarse en Bock
(1987).
Capı́tulo 3

Análisis de sensibilidad

El análisis de sensibilidad consiste en el estudio de cómo la variación en la salida


de un modelo (numérica o de otro tipo) puede ser atribuida, cualitativa o cuantita-
tivamente, a diferentes fuentes de variación y de cómo el modelo dado depende de
la información que se le proporciona.
Existen varios métodos de análisis de sensibilidad que pueden clasificarse en
métodos de monitorización, métodos locales y métodos globales (Saltelly et al, 2000).
Esta distinción es de algún modo arbitraria ya que los métodos de monitorización
también pueden ser vistos como locales o globales. Además, la primera clase se
caracteriza con respecto a su uso (monitorización), mientras que los otros dos se
caracterizan con respecto a cómo tratan los factores.
En el contexto de modelización numérica, los coeficientes de sensibilidad local,
que son las derivadas parciales de las variables de estado del modelo con respecto
a los parámetros evaluadas en el punto normal de operación, juegan un papel muy
importante en el análisis de probabilidades, estimación de parámetros, optimización
y discriminación de modelos. Los resultados de un análisis de sensibilidad pueden
ser utilizados para (Karnavas et al., 1993) :
- Validar un modelo.

- Advertir de comportamientos del modelo extraños o no realistas.

- Sugerir nuevos experimentos o guiar futuros esfuerzos en recolección de datos.

- Indicar supuestos importantes del modelo.

- Sugerir la precisión con la que los parámetros deben ser calculados.

- Guiar la formulación de la estructura del modelo.

- Ajustar valores numéricos para los parámetros.

21
22 Capı́tulo 3. Análisis de sensibilidad

3.1. Métodos numéricos para el cálculo de sensi-


bilidades locales
Considérese un sistema dinámico definido por un conjunto de Ny ecuaciones
diferenciales ordinarias (ODEs) con Np parámetros p independientes del tiempo.

ẏ = f (y, t; p) ; y(0) = y0 (3.1)

Los coeficientes de sensibilidad que forman la matriz de sensibilidades serán entonces:


µ ¶
∂yi
Sij = (3.2)
∂pj y=y(t,p̂),p=p̂

Hay varios métodos numéricos para el cálculo de sensibilidades locales pero los
valores calculados deben ser idénticos dentro de la precisión del método empleado.

3.1.1. Aproximación por diferencias finitas


La manera más sencilla de calcular sensibilidades locales se basa en perturbar
ligeramente un parámetro de cada vez y volver a resolver el modelo. Utilizando la
aproximación por diferencias finitas, los elementos de la matriz de sensibilidades
pueden aproximarse por:
∂yi (t) yi (t, pj + ∆pj ) − yi (t, pj )
≈ (3.3)
∂pj ∆pj
Este procedimiento se llama también método indirecto. La principal ventaja es
que no requiere ninguna modificación del modelo original ni ningún código adicional.
Sin embargo, presenta dos inconvenientes: los valores numéricos obtenidos varı́an de
modo significativo con ∆pj y se requiere la resolución repetida del modelo (al menos
una vez por cada parámetro). En el caso de modelos no lineales, si las perturbaciones
de los parámetros son demasiado grandes (∆pj > 5 %) éstos se alejan de la suposición
de linealidad local, mientras que si la variación es muy pequeña, la diferencia entre
el resultado original y el perturbado será muy pequeña y los errores de redondeo
demasiado elevados. En la mayorı́a de los casos, una perturbación del 1 % es una
buena elección, pero encontrar el mejor valor supone a menudo un proceso de ensayo
y error.

3.1.2. Métodos directos


Los coeficientes de sensibilidad, ecuación (3.2), pueden encontrarse resolviendo
las siguientes ODEs que resultan de derivar la ecuación (3.1) con respecto a p (Leis
3.1. Métodos numéricos para el cálculo de sensibilidades locales 23

y Kramer, 1985) :

µ ¶ µ ¶
∂f (t) ∂f (t)
Ṡ(t) = S(t) + ; S(0) = S0 (3.4)
∂y p ∂p y

o, de forma matricial:

Ṡ = J(t)S(t) + F(t) (3.5)

donde J(t) es la Ny × Ny matriz Jacobiana (Jij = ∂fi /∂yi ) y F(t) la Ny × Np matriz


de derivadas parciales con respecto a los parámetros (Fij = ∂fi /∂pj ) llamada a veces
Jacobiano paramétrico.
Los métodos directos (DM) se basan en la resolución de la ecuación diferencial
ordinaria (3.4). La resolución numérica de la ecuación (3.4) requiere el conocimiento
del valor de las matrices J(t) y F(t) en cada una de las etapas del integrador de
ecuaciones diferenciales ordinarias. Para evaluar estas matrices, los valores actuales
de las variables del sistema deben ser conocidos y, por lo tanto, se necesita una reso-
lución simultánea o sucesiva de la ecuación (3.1). En las primeras implementaciones
del método directo, las ecuaciones (3.1) y (3.4) se resolvı́an independientemente pero
simultáneamente y la solución de la ecuación (3.1) era utilizada en la ecuación (3.4).
Todas las variantes de este algoritmo eran relativamente lentas.
Dunker (1984) fue el primero en demostrar que existe una relación especial en-
tre la ecuación (3.1) y la ecuación (3.4) que permite un atajo numérico y llamó a
este algoritmo método directo desacoplado (Decoupled Direct Method, DDM). Las
ecuaciones (3.1) y (3.4) tienen el mismo Jacobiano y, por lo tanto, un integrador de
sistemas rı́gidos de ecuaciones diferenciales ordinarias selecciona el mismo tamaño
de paso y orden de aproximación para la resolución de ambas ecuaciones. En el
método de Dunker el integrador de ODEs descompone el Jacobiano una sola vez
y toma un intervalo de tiempo para resolver la ecuación (3.1) y después el mismo
para resolver la ecuación (3.4) con todos los parámetros, uno tras otro. Dado que la
triangularización del Jacobiano es la parte que más tiempo consume de la resolución
de un sistema de ODEs, utilizando el método directo desacoplado las sensibilidades
pueden calcularse con un coste extra relativamente pequeño.
Existen varias implementaciones del método DDM que ha demostrado ser el me-
jor método general para el cálculo numérico de sensibilidades locales. Uno de los
códigos más conocidos es ODESSA, un paquete de rutinas FORTRAN desarrollado
por Leis y Kramer (1988) basado en la rutina de resolución de ecuaciones diferen-
ciales ordinarias LSODE, que será el empleado en este trabajo.
24 Capı́tulo 3. Análisis de sensibilidad

3.1.3. Método de la función de Green


Diferenciando la ecuación (3.1) con respecto a los valores iniciales y0 , se obtiene
las siguiente ecuación (Saltelli et al., 2000) :

K̇(t, t1 ) = J(t)K(t, t1 ) (3.6)

donde t1 y t son el tiempo de perturbación y de observación, respectivamente, y K


es el valor inicial de la matriz de sensibilidades, es decir:
∂ci (t)
Kij (t, t1 ) = ; K(t1 , t1 ) = I ; t ≥ t1 (3.7)
∂c0j (t1 )
La ecuación (3.1) consiste en un sistema lineal no homogéneo de ecuaciones diferen-
ciales y, por lo tanto, puede ser resuelto determinando primero la parte homogénea,
ecuación (3.6), y calculando después la solución particular:
Z t2
S(t1 , t2 ) = K(t2 , s)F(s)ds (3.8)
t1

En esta ecuación, K se conoce como función de Green del núcleo y el método numéri-
co basado en la solución de la ecuación (3.8) se llama método de la función de Green
(Green Function Method, GFM).
El método Magnus analı́ticamente integrado (Analytically Integrated Magnus,
GFM/AIM) es una modificación del método de la función de Green más desarrolla-
do. En esta versión, la matriz K es aproximada por una matriz exponencial dismi-
nuyendo significativamente el esfuerzo de cálculo:
·Z t+∆t ¸
K(t + ∆t, t) = exp J(s)ds (3.9)
t

El método GFM/AIM es varias veces más rápido que otras versiones del método de
la función de Green.
Aplicando el método directo, el esfuerzo numérico aumenta linealmente con el
número de parámetros. En el caso de los métodos de la función de Green, el esfuerzo
numérico es proporcional al número de variables. Sin embargo, en la práctica, el
método GFM sólo es más rápido que el DDM cuando la relación entre el número
de parámetros y el de variables es muy elevada y el error numérico es más difı́cil de
controlar en este caso que utilizando el método DDM, que es mucho más simple.

3.2. Tipos de funciones de sensibilidad


Existen distintos tipos de funciones de sensibilidad. El uso que se quiera hacer de
las mismas determinará cuál es la más adecuada en caso. A continuación se presenta
3.2. Tipos de funciones de sensibilidad 25

una breve descripción de cada una de ellas y sus aplicaciones principales destacando
sus ventajas e inconvenientes.

3.2.1. Función de sensibilidad absoluta


La sensibilidad absoluta de la variable yi con respecto a las variaciones en el
parámetro pj viene dada por:
µ ¶
∂yi
Sij = (3.10)
∂pj y=y(t,p̂),p=p̂

estando la derivada parcial evaluada en el punto normal de operación, donde todos


los parámetros tienen sus valores nominales p = p̂.
Las funciones de sensibilidad absolutas son útiles para calcular errores debidos
a variaciones en los parámetros y para conocer los tiempos a los que un parámetro
ejerce su mayor o menor efecto. Sin embargo, las funciones absolutas no están nor-
malizadas y no son útiles para comparar los efectos de distintos parámetros para lo
cual se debe utilizar funciones de sensibilidad relativas.

3.2.2. Función de sensibilidad relativa


La sensibilidad relativa de la variable yi con respecto a las variaciones del paráme-
tro pj representa el porcentaje de cambio en yi con respecto al cambio en pj :
µ ¶
% cambio en yi pj ∂yi
S ij = = (3.11)
% cambio en pj yi ∂pj y=y(t,p̂),p=p̂

Las funciones de sensibilidad relativas se forman multiplicando la derivada parcial


(función de sensibilidad absoluta) por el valor nominal del parámetro y dividiendo
por el valor de la variable. Son ideales para comparar parámetros dado que son
adimensionales (funciones normalizadas).
La utilidad de la función de sensibilidad relativa está limitada a estudios analı́ti-
cos dado que tiene diferentes significados en los dominios del tiempo y de la frecuen-
cia. Esto es el resultado de ser un producto de dos funciones (la derivada parcial
y la función original) y de que la transformada de Laplace de un producto no es
el producto de las transformadas de Laplace. Además, la función de sensibilidad
relativa presenta problemas de división por cero cuando yi es nula y proporciona
ponderaciones indebidas a la respuesta si el valor de y0 es pequeño. Por lo tanto, en
algunas ocasiones se recomienda el uso de la función de sensibilidad semirelativa.
26 Capı́tulo 3. Análisis de sensibilidad

3.2.3. Función de sensibilidad semirelativa


Aquı́ se debe distinguir entre:

Sensibilidad de la variable yi con respecto a las variaciones del parámetro pj


relativa a los valores de la variable:
µ ¶
1 ∂yi
S̃ij = (3.12)
yi ∂pj y=y(t,p̂),p=p̂

Sensibilidad de la variable yi con respecto a las variaciones del parámetro pj


relativa al valor del parámetro:
µ ¶
∂yi
Ŝij = pj (3.13)
∂pj y=y(t,p̂),p=p̂

Mientras que las funciones de sensibilidad semirelativas con respecto a las va-
riables de estado tienen la misma forma que las funciones de sensibilidad relativas
(y por lo tanto los mismos problemas de división por cero y sobrepesado), las fun-
ciones de sensibilidad semirelativas con respecto a los parámetros tienen la misma
forma que las funciones de sensibilidad absolutas (están únicamente multiplicadas
por los valores constantes de los parámetros) pero este reescalado permite hacer
comparaciones de los efectos de los distintos parámetros.
Cuando se utilizan funciones de sensibilidad, tanto relativas como semirelativas
con respecto a las variables, se puede definir un valor umbral ymin en el factor
premultiplicador de las ecuaciones (3.11) y (3.12) cuando éste es menor que el valor
de ymin . De este modo, se evitan los errores de sobrepesado cuando la trayectoria de
salida tiende a cero (Versyck, 2000) .

3.3. Ranking de parámetros


El análisis de sensibilidad indica qué parámetros son los más importantes y los
que con más probabilidad van a afectar las predicciones del modelo. De este modo,
los valores de los parámetros crı́ticos pueden ser redefinidos mientras que parámetros
que tienen poco efecto pueden ser simplificados o incluso ignorados (Karnavas et al.,
1993) .
Para casos muy simples, el análisis visual de las gráficas de las sensibilidades
relativas es suficiente para determinar la importancia relativa de los parámetros. Sin
embargo, esto resulta inmanejable cuando el tamaño del problema aumenta y se
necesita una justificación cuantitativa.
3.3. Ranking de parámetros 27

Cuando se considera la sensibilidad de una variable del modelo con respecto a


pequeños cambios en los valores de los parámetros en una localización especı́fica, se
recomienda el cálculo de los cinco sumatorios a partir de las sensibilidades relativas
que se presentan a continuación (Brun et al., 2001) :
v
u Ny N
u 1 1 X X 2
δjmsqr = t S (tk ) (3.14)
Ny N i=1 k=1 ij

Ny N
1 1 XX
δjmabs = |S ij (tk )| (3.15)
Ny N i=1 k=1

Ny N
1 1 XX
δjmean = S ij (tk ) (3.16)
Ny N i=1 k=1

δjmax = max S ij (tk ) (3.17)


i,k

δjmin = min S ij (tk ) (3.18)


i,k

A partir de estos coeficientes se pueden extraer una serie de conclusiones. Por


ejemplo, grandes diferencias entre δjmsqr y δjmabs indican una alta variabilidad o valo-
res extremos (outliers) en Sj . La revisión de δjmax y δjmin puede ayudar a distinguir
entre estos dos casos. Los dos sumatorios δjmax y δjmin son generalmente útiles para
detectar outliers y para conocer además el rango de Sj . Una comparación entre δjmabs
y δjmean muestra si los elementos de Sj tienen todos el mismo signo y δjmean propor-
ciona información sobre el signo del efecto medio que un cambio en un parámetro
tiene sobre la salida del modelo.
La clasificación de los parámetros por medio de una de las medidas δ en orden
decreciente da lugar a un ranking de importancia de los parámetros. En el contexto
de estimación de parámetros por mı́nimos cuadrados, δjmsqr es el más adecuado como
criterio de clasificación y se denomina también sensibilidad total. Las sensibilidades
totales proporcionan información sobre la importancia del ajuste de cada uno de los
parámetros del modelo y reflejan el efecto de los cambios en los parámetros alrededor
de sus valores nominales para la medida investigada que, para el caso de estimación
por mı́nimos cuadrados, está muy relacionada con la función de coste.
Con objeto de decidir qué parámetros pueden ser descartados en modelos con
parámetros redundantes, se puede utilizar la importancia dada por un ranking ba-
sado en las sensibilidades totales. Degenring et al. (2004) describen otros métodos
basados en el análisis de los autovalores y autovectores de la matriz de sensibilidad
28 Capı́tulo 3. Análisis de sensibilidad

relativa (análisis de las componentes principales) y los comparan con la aproxima-


ción de importancia del ajuste. Este análisis muestra que ambos procedimientos
llevan a descartar básicamente los mismos parámetros. Sin embargo, el análisis de
componentes principales ofrece la oportunidad de ser utilizado como una rutina auto-
controlable mientras que, para el procedimiento de importancia del ajuste, el lı́mite
superior de los valores de sensibilidades totales para el cual todos los parámetros
con un valor inferior pueden ser descartados dependerá de cada modelo.
Capı́tulo 4

Análisis de identificabilidad

El problema de estimación de parámetros tratado en el capı́tulo 2 (determinar


los parámetros de un sistema a partir de unos datos de entrada y salida) se denomina
a menudo problema de identificación. Esto es solamente un aspecto de un problema
mayor, el problema inverso, que incluye el estudio a priori de la identificabilidad
estructural, la identificabilidad a posteriori o práctica y la estimación de parámetros.
Una vez elegida una estructura para el modelo (o un conjunto de estructuras
entre las que se debe elegir), sus propiedades deben ser estudiadas lo más inde-
pendientemente posible del valor que tomen sus parámetros. Este estudio deberı́a
realizarse antes de la estimación para detectar problemas potenciales antes de re-
coger datos. En la práctica, esto no siempre es posible ya que muchos métodos de
análisis de identificabilidad son locales y requieren conocer el valor de los parámetros
procedente de una calibración previa.
El análisis de identificabilidad estructural es un problema a priori y se formu-
la de la siguiente manera: dado un modelo para el sistema, que se considera sin
errores de caracterización, se pregunta si, bajo condiciones ideales de observación
(medidas ilimitadas y sin ruido) e independientemente de los valores particulares de
los parámetros y de las condiciones experimentales, los parámetros desconocidos del
modelo postulado pueden ser estimados de forma única.
Aunque necesaria, la identificabilidad estructural no es suficiente para garantizar
una estimación satisfactoria de los parámetros a partir de datos reales y es entonces
cuando el concepto de identificabilidad a posteriori o práctica entra en juego. Se sigue
asumiendo que la estructura del modelo es exacta, sin embargo, ahora las condiciones
experimentales son conocidas y los datos son limitados y con ruido y la pregunta
es: ¿pueden los parámetros desconocidos del modelo postulado ser determinados a
partir de los datos disponibles?

29
30 Capı́tulo 4. Análisis de identificabilidad

4.1. Identificabilidad estructural


Considérese un proceso y una estructura para su modelado. Antes de comenzar
a recoger datos y de realizar la estimación de parámetros, es recomendable estudiar
si sus parámetros pueden ser determinados de forma única. Para definir el concepto
de identificabilidad estructural se debe considerar un marco idealizado donde:

- el proceso y el modelo tienen idéntica estructura, M ,

- los datos no contienen error,

- las entradas u y los tiempos de medida pueden ser escogidos libremente.

Bajo estas condiciones, siempre es posible (p.ej., eligiendo p̂ = p∗ ) calibrar los


parámetros del modelo de modo que su comportamiento sea idéntico al del proceso
para cualquier tiempo y entrada, lo que se denotará por M (p∗ ) = M (p̂). Lo que
interesa saber ahora es si este comportamiento idéntico implica que los parámetros
del modelo, p̂, son iguales a los del proceso, p∗ . Más concretamente y adoptando las
definiciones de Walter y Pronzato (1997), se dirá que el parámetro individual pi es:

Estructuralmente globalmente (o únicamente) identificable (s.g.i.) si y sólo


si, para casi cualquier p∗ ∈ P,

M (p̂) = M (p∗ ) ⇒ p̂i = p∗i (4.1)

La estructura M será s.g.i. si todos sus parámetros son s.g.i.

Estructuralmente localmente identificable (s.l.i) si y sólo si, para casi cual-


quier p∗ ∈ P, existe una vecindad V(p∗ ) tal que

p̂ ∈ V(p∗ ) y M (p̂) = M (p∗ ) ⇒ p̂i = p∗i (4.2)

La identificabilidad local es, por lo tanto, una condición necesaria para la


identificabilidad global.
La estructura M será s.l.i. si todos sus parámetros son s.l.i.

Estructuralmente no identificable (s.u.i.) si y sólo si, para casi cualquier


p∗ ∈ P no existe ninguna vecindad V(p∗ ) tal que

p̂ ∈ V(p∗ ) y M (p̂) = M (p∗ ) ⇒ p̂i = p∗i (4.3)

La estructura M será s.u.i. si al menos uno de sus parámetros es s.u.i.


4.1. Identificabilidad estructural 31

Nótese que la restricción a casi cualquier p∗ se refiere a que la condición debe


ser cierta para casi cualquier valor de los parámetros y puede ser falsa en un
subespacio del espacio paramétrico de medida cero. Es decir, una propiedad
que es cierta para cualquier valor de p excepto para alguna hipersuperficie
atı́pica se considera estructural ya que, la probabilidad de elegir aleatoriamente
un valor atı́pico de p es cero.

De un análisis de identificabilidad estructural, se puede concluir que sólo algunas


combinaciones de los parámetros son identificables. Si el número de parámetros
identificables es menor al número total, se deberá reducir el número de parámetros
a estimar o modificar la estructura del modelo.
Se han publicado distintas técnicas para el análisis de identificabilidad estructu-
ral a priori de modelos lineales (ver p.ej. Walter y Pronzato (1997) y los trabajos
ahı́ citados). Sin embargo, este análisis es especialmente difı́cil para modelos dinámi-
cos no lineales y existen relativamente pocas técnicas propuestas para ese caso, a
saber, el método de Taylor, la aproximación de transformación de similitud y técni-
cas basadas en álgebra diferencial.
Chappel et al. (1990) comparan los dos principales métodos disponibles en ese
momento para el análisis de identificabilidad estructural de parámetros de un sistema
no lineal, la aproximación por series de Taylor de Pohjanpalo (1978) y la aproxima-
ción de transformación de similitud, basada en el teorema de isomorfismo de estado
local, introducido por Vajda et al. (1989). Ambos métodos han sido aplicados con
éxito a algunas estructuras no lineales especı́ficas pero se ha probado que no son
aplicables para el caso general, principalmente cuando el sistema no lineal aumenta
de tamaño.
También se han aplicado técnicas basadas en álgebra diferencial al estudio de
este problema. Ollivier (1990) y Ljung y Glad (1994) propusieron por primera vez
métodos de este tipo. Más recientemente, se ha desarrollado un nuevo algoritmo
basado en álgebra diferencial (Audoly et al., 2001) que mejora la eficiencia de los
anteriores y aumenta su dominio de aplicación. Sin embargo, a pesar de que estos
métodos han mejorado enormemente el análisis de identificabilidad para modelos
no lineales, la construcción de un algoritmo eficiente aplicable al caso general sigue
siendo una tarea difı́cil debido a las limitaciones en su aplicabilidad (Dokos y Lovell,
2004; Baker et al., 2005).
Desafortunadamente, probar la identificabilidad estructural global para algunos
de los modelos considerados en este trabajo no parece posible con las técnicas dispo-
nibles en la actualidad ya que la mayorı́a no pueden ser aplicadas a no linealidades
exponenciales. La aproximación de Taylor es aplicable a algunos de los modelos a
32 Capı́tulo 4. Análisis de identificabilidad

estudio aunque con algunas restricciones en el tamaño del conjunto de parámetros.


A pesar de las limitaciones, esta técnica permitirá realizar el análisis de la iden-
tificabilidad estructural local (s.l.i.) de subconjuntos particulares de parámetros,
proporcionando información útil para llevar a cabo una identificación iterativa del
modelo, como se mostrará más adelante.

Método de series de Taylor


La aproximación por series de Taylor, propuesta originalmente por Pohjanpalo
(1978), se basa en analizar la expansión en series de potencias de las trayectorias de
las medidas z(t), evaluadas a tiempo cero, en función del conjunto desconocido de
parámetros p:

1 1
zi (p, O+ ) = a0i (p) + a1i (p)t + a2i (p)t2 + ... + ani (p)tn (4.4)
2 n!
siendo:

dj zi
aji (p) = ∀i = 1, ..., Nz ; j = 0, ...n (4.5)
dtj
Ya que el vector de medidas es único, todas sus derivadas son también únicas.
Por lo tanto una condición suficiente para que el modelo sea s.g.i. será:

aji (p) = aji (p̂) ⇒ p = p̂ (4.6)


Cuando no se verifica la condición suficiente, el problema de demostrar la iden-
tificabilidad teórica de los parámetros del modelo es equivalente a determinar el
número de soluciones de p para el conjunto de ecuaciones algebraicas (4.5), que
normalmente son no lineales en los parámetros. Si éste es mayor que uno pero un
número finito, se podrá decir que el modelo es s.l.i. y no únicamente identificable y,
si el número de soluciones es infinito, se dirá que es s.u.i.

4.2. Identificabilidad local a priori


La limitada aplicabilidad de las técnicas existentes para la determinación de la
identificabilidad global estructural, junto con la necesidad de métodos prácticos,
suponen un argumento clave para enfatizar el uso de métodos locales a priori a
pesar de las limitaciones derivadas de su naturaleza local. Estos métodos dependen,
no sólo del valor de los parámetros, sino también de las condiciones experimentales
pero, a diferencia con la identificabilidad a posteriori o práctica, suponen que los
datos experimentales son ilimitados y sin ruido.
4.2. Identificabilidad local a priori 33

Las funciones de sensibilidad de la salida son fundamentales para el estudio


de la identificabilidad local a priori. Si las funciones de sensibilidad son linealmente
dependientes, el modelo no es identificable mientras que funciones de sensibilidad que
son casi linealmente dependientes son un indicador de la existencia de parámetros
muy correlacionados.
Una manera sencilla de estudiar la identificabilidad local de un modelo es re-
presentar gráficamente las funciones de sensibilidad calculadas para ese conjunto de
parámetros pero esto se vuelve complicado cuando el número de estados medidos y
de parámetros aumenta.
Zak et al. (2003) presentan el siguiente método numérico para comprobar la
identificabilidad local a priori de los parámetros en un punto determinado p̂ haciendo
uso de las funciones de sensibilidad, basado en el propuesto por Jacquez y Greif
(1985).
Considérese un sistema de modelo-experimento descrito por:

F (y, ẏ, z, u, p, t) = 0 (4.7)


F0 (y(t0 ), z(t0 ), u(t0 ), t0 ) = 0 (4.8)

Considerando los valores de los parámetros del conjunto p̂ como “valores ver-
daderos”, las matrices de sensibilidad de los estados medidos, Sz , de dimensión Nz
por Np , se calculan para un número suficientemente grande de puntos de tiempo N
donde: µ ¶
∂zi
Szij = (4.9)
∂pj z=z(t,p̂),p=p̂
La matriz G se construye entonces almacenando las matrices de sensibilidades
para estos puntos:  
Sz (t1 )
 Sz (t2 ) 
 
G= ..  (4.10)
 . 
Sz (tN )
Finalmente la matriz de correlación de los parámetros (Mc ), de dimensión Np
por Np , se calcula como:
Mc = correlación(G) (4.11)

Los parámetros que son localmente identificables tienen correlaciones entre −1


y +1 con todos los demás parámetros. Los parámetros que no son localmente iden-
tificables tienen correlaciones de exactamente −1 o +1 con al menos uno de los
otros parámetros. Esto significa que estos parámetros influyen en las variables me-
didas de la misma manera o de manera exactamente opuesta. El conjunto original
34 Capı́tulo 4. Análisis de identificabilidad

de parámetros, p, puede reducirse al conjunto de parámetros identificables, pI , de


longitud NI , calculando Mc , eliminando uno de los parámetros no identificables, re-
calculando Mc , eliminando otro parámetro no identificable, etc., hasta que no quede
ningún parámetro no identificable.

4.3. Identificabilidad práctica o a posteriori


A diferencia de la identificabilidad estructural o teórica que sólo depende de la
estructura del modelo, la identificabilidad práctica está también relacionada con la
calidad de los datos y su contenido informativo. Mientras que la identificabilidad es-
tructural se estudia bajo los supuestos de datos perfectos, el problema de parámetros
muy correlacionados se acentúa cuando se usa un conjunto limitado de datos expe-
rimentales y con ruido para la estimación. Bajo estas condiciones, la unicidad de los
parámetros estimados predicha por un análisis teórico ya no puede ser garantizada
ya que un cambio en un parámetro puede ser compensado casi por completo por un
cambio proporcional en otro y éstos seguir produciendo un ajuste satisfactorio de
los datos experimentales.
La cuestión a tratar en esta sección es la siguiente: con los datos experimen-
tales disponibles, ¿se les puede dar a los parámetros valores únicos para el mejor
ajuste? O, en otras palabras, si se produce una pequeña desviación en el conjunto
de parámetros, ¿tendrá esto como consecuencia una disminución considerable de la
bondad del ajuste?
Existen varias técnicas para analizar la identificabilidad práctica siendo las más
empleadas el método basado en la matriz de información de Fisher y el análisis
basado en las regiones de confianza.

4.3.1. Método basado en la FIM


Matemáticamente este método puede formalizarse del modo que se detalla a
continuación (Munack, 1991). En primer lugar recuérdese que la estimación de
parámetros puede formularse como la minimización de la siguiente función obje-
tivo cuadrática mediante la elección óptima de los parámetros p:
N
X
J(p) = (zi (p) − z̃i )T Qi (zi (p) − z̃i ) (4.12)
i=1

donde z̃i y zi (p) son vectores de N valores medidos y predicciones del modelo a los
tiempos ti (i = 1 a N ), respectivamente, y Qi es una matriz cuadrada proporcionada
por el usuario de coeficientes de peso.
4.3. Identificabilidad práctica o a posteriori 35

El valor esperado de la función objetivo para un conjunto de parámetros ligera-


mente diferente del óptimo viene dado por:
" N µ ¶T µ ¶# N
X ∂z ∂z X

E[J(p + δp)] = δp T
(ti ) Qi (ti ) δp + tr (Vi Qi ) (4.13)
i=1
∂p ∂p i=1

donde Vi representa la matriz de covarianza del error de las medidas (Qi se elige
tı́picamente como Vi −1 ).
Una consecuencia importante de la ecuación (4.13) es que para optimizar la
identificabilidad práctica (maximizar la diferencia entre J(p + δp) y J(p)) se tiene
que maximizar el término entre corchetes [·]. Este término se conoce como matriz
de información de Fisher (FIM) y expresa la cantidad de información de los datos
experimentales (Ljung, 1999):
N µ
X ¶T µ ¶
∂z ∂z
FIM = (ti ) Qi (ti ) (4.14)
i=1
∂p ∂p

Los términos ∂z/∂p son las funciones de sensibilidad que son de gran importancia
para la evaluación de la identificabilidad práctica ya que son el componente principal
de la matriz de información de Fisher.
Como se explicará en detalle en el capı́tulo 5, la matriz de información de Fisher
es también una aproximación de la inversa de la matriz de covarianza del error del
mejor estimador lineal no sesgado (Best Linear Unbiased Estimator, BLUE):
" N µ ¶T µ ¶#−1
X ∂z ∂z
C = FIM−1 = (ti ) Qi (ti ) (4.15)
i=1
∂p ∂p

Además, de la matriz de covarianza también se puede obtener información útil


sobre la correlación de los parámetros estimados. La matriz de correlación, cuyos
elementos son los coeficientes de correlación aproximados entre el parámetro i y el
j, se define como:
Cij
Rij = p , i 6= j, (4.16)
Cii Cjj

Rij = 1, i = j, (4.17)

La matriz de correlación, R, mide la relación entre los parámetros y da una idea


de los efectos de compensación de los cambios en los valores de los parámetros sobre
la salida del modelo. Si dos parámetros, pi y pj , están altamente correlacionados,
un cambio en la salida del modelo ocasionado por un cambio en pi puede estar
(casi) compensado por un cambio apropiado en el valor de pj . Esto evita que los
36 Capı́tulo 4. Análisis de identificabilidad

parámetros sean identificables de forma única incluso si la salida del modelo es muy
sensible a los cambios en los parámetros individuales.
El problema de analizar la identificabilidad práctica es similar al análisis de la
identificabilidad a priori local pero ahora los puntos de evaluación de las funciones
están limitados a los datos experimentales y éstos tienen error. Si las funciones de
sensibilidad presentan dependencia lineal en los puntos de los datos experimentales,
la matriz de covarianza se vuelve singular y el modelo no es identificable. Una FIM
singular indica la presencia de parámetros no identificables y correlaciones entre
parámetros superiores de 0.99 pueden dar lugar a una FIM singular.
En el presente estudio, se ha utilizado el estimador del número de condición de
una matriz de Matlab, rcond, para determinar si la FIM es singular:

1
rcond(FIM) = (4.18)
norm(FIM, 1)norm(FIM−1 , 1)
Si rcond(FIM) < 10ε, donde ε es la máxima precisión de Matlab en punto
flotante (2.2 10−16 ), la FIM se considera singular.
A pesar de que el análisis de sensibilidad basado en la FIM es una técnica muy
extendida, ésta implica una linealización de primer orden del modelo con respecto a
los parámetros lo que en algunos casos dará lugar a conclusiones erróneas (Petersen,
2000). En el caso de problemas muy no lineales, en esta aproximación se pierde
mucha información lo que podrı́a dar lugar a que los parámetros sean identificables
en la práctica aún cuando la FIM sea singular.
Por este motivo, el análisis basado en las regiones de confianza se presenta en este
trabajo como una una alternativa más robusta aunque mucho más costosa desde el
punto de vista computacional.

4.3.2. Método basado en las regiones de confianza


Existen distintas posibilidades para la determinación de las regiones de confian-
za para los parámetros estimados (ver capı́tulo 5). Las técnicas basadas en la FIM
presentan las limitaciones inherentes a esta matriz derivadas de su carácter lineal.
Sin embargo, la forma y dimensiones de las regiones de confianza obtenidas me-
diante métodos de Monte Carlo permitirán obtener conclusiones objetivas sobre la
identificabilidad práctica de los parámetros del modelo.
Capı́tulo 5

Intervalos de confianza

Después de ajustar los parámetros p a los datos experimentales, es deseable


obtener alguna medida de la calidad de los estimadores. En principio, el objetivo
es obtener la distribución de probabilidad de los parámetros estimados o una ca-
racterización adecuada de la misma, por ejemplo, mediante el cálculo de diferentes
percentiles de la distribución. Sin embargo, en la mayorı́a de los casos, esta distri-
bución no se conoce y por lo tanto es necesario obtener una aproximación de la
misma.
En este capı́tulo, se introducirá, en primer lugar, la definición básica de las re-
giones de confianza exactas. A continuación, se consideran dos métodos de aproxi-
mación: una linealización local de las salidas dando lugar a la matriz de información
de Fisher (FIM) y una expansión cuadrática del funcional del error de estimación
implicando a la matriz Hessiana. Por último se consideran alternativas más robustas
basadas en métodos de Monte Carlo.

5.1. Regiones de confianza exactas


Las regiones de confianza son de gran importancia ya que proporcionan una eva-
luación objetiva de la precisión de los parámetros estimados y de su identificabilidad.
Dado que la función objetivo J representa la cercanı́a de los datos experimentales al
modelo ajustado, es justificable basar la región de confianza de p̂ en los contornos
de J(p). En el espacio paramétrico, esta región tiene la forma general:

{p : J(p) ≤ cJ(p̂)} (5.1)


para todo c > 1. Esta región puede ser considerada como “exacta” ya que no está ba-
sada en ninguna aproximación, aunque es difı́cil seleccionar un valor de c con sig-
nificado estadı́stico. De todos modos, para un número de puntos experimentales N

37
38 Capı́tulo 5. Intervalos de confianza

grande, la región de confianza basada en estadı́sticos F (Seber y Wild, 1989)


½ µ ¶ ¾
Np 1−α
p : J(p) ≤ 1 + F J(p̂) (5.2)
N − Np Np ,N −Np

tiene el nivel de confianza asintótico de 100(1 − α) % donde FN1−α p ,N −Np


es el nivel
crı́tico superior α de la distribución FNp ,N −Np .
La dificultad práctica de estimar esta región ha sido examinada por Vanrolleghem
y Keesman (1996) que sugirieron utilizar simulaciones extensivas de Monte Carlo
que se explicarán más adelante. Más recientemente, Dochain y Vanrolleghem (2001)
propusieron un método de contracción sucesiva para encontrar el valor de J(p)
correspondiente al valor prescrito de la distribución F .

5.2. Método basado en la FIM


La región de confianza puede definirse como una función de la matriz de cova-
rianza de los parámetros C y puede expresarse como (Seber y Wild, 1989; Ljung,
1999): n o
p : (p − p̂)T C−1 (p − p̂) ≤ Np FN1−α
p ,N −Np
(5.3)
Para un modelo lineal z = py + ², con ruido residual ² ∼ N (0, σ 2 Iq ), C puede
obtenerse de forma compacta como:
£ ¤−1
C = σ 2 YT V−1 Y (5.4)

donde Y = [y1 , y2 , ..., yN ]T .


Para modelos no lineales no hay un modo exacto de obtener C y la aproximación
lineal puede dar lugar a estimaciones pobres de la región de confianza real (Donald-
son y Schnabel, 1987; Rooney y Biegler, 1999). La matriz de covarianza anterior
C obtenida para el caso lineal puede ser ampliada para dar lugar a una matriz de
covarianza aproximada como:

J(p̂) £ ¤−1
CJ (p̂) = J(p̂)T V−1 J(p̂) (5.5)
N − Np
donde el término J(p̂)/N − Np es una aproximación objetiva de la varianza residual
σ 2 y J es la matrix Jacobiana del modelo que puede escribirse en columna, tal que:
£ ¤
J = J1 |J2 |...|Jj |...|JNp (5.6)

siendo ¯
∂z ¯¯
Jj (p̂) = = Sj , j = 1, ..., Np (5.7)
∂pj ¯p̂
5.3. Método basado en la matriz Hessiana 39

Las columnas de la matrix Jacobiana J son las salidas de las funciones de sensibilidad
Sj = (∂z/∂pj ) con respecto a los parámetros.
Asumiendo que el ruido de las medidas no está correlacionado y que éste pre-
senta una distribución normal con media cero y varianza constante, CJ , dada por
la ecuación (5.5), es también la inversa de la FIM, definida como:
N µ
X ¶T µ ¶
∂z(ti ) ∂z(ti )
FIM = Vi−2 (5.8)
i=1
∂p ∂p

es decir,
CJ (p̂) = FIM−1 (5.9)

En este caso, la inversa de la FIM representa la matriz de covarianza del error del
estimador objetivo de varianza mı́nima de acuerdo con el teorema de Cràmer-Rao
(Ljung, 1999). Sustituyendo C de la ecuación (5.5) en la ecuación (5.3), se obtienen
los elipsoides de confianza aproximados:
n o
T −1 1−α
p : (p − p̂) CJ (p − p̂) ≤ Np FNp ,N −Np (5.10)

5.3. Método basado en la matriz Hessiana


Para modelos no lineales la función objetivo J(p) dada por la ecuación (4.12) no
es una forma cuadrática exacta pero, para desviaciones de los parámetros suficiente-
mente pequeñas (p − p̂), puede ser aproximada por una expansión de segundo orden
alrededor de los parámetros estimados p̂. Dado que en la vecindad del mı́nimo el
término de primer orden se pierde ((∂J/∂p)p̂ ≈ 0) la expansión de segundo orden
da lugar a: µ 2 ¶
1 T ∂ J
J(p) ≈ J(p̂) + (p − p̂) (p̂) (p − p̂) (5.11)
2 ∂p∂pT
Sustituyendo la ecuación (5.11) en la ecuación (5.2), se obtiene un resultado formal-
mente similar al caso lineal:
2
CH (p̂) = J(p̂)H(p̂)−1 (5.12)
N − Np

donde:
∂ 2 J(p̂)
H(p̂) = (5.13)
∂p∂pT
con los elipsoides de confianza dadas por:
n o
p : (p − p̂)T CH −1 (p − p̂)T ≤ Np FN1−α
p ,N −Np
(5.14)
40 Capı́tulo 5. Intervalos de confianza

En cualquiera de los dos casos, el intervalo de confianza individual de cada


parámetro σi puede obtenerse como:

1−(α/2)
p
σi = ±tN −Np Cii (5.15)

donde C puede ser aproximada o bien por CJ de la ecuación (5.5) o por CH de la


1−(α/2)
ecuación (5.12) y tN −Np es la distribución t de Student de dos colas para un nivel
de confianza dado α y N − Np grados de libertad. En el lı́mite de un número largo
de medidas (N − Np > 100), el intervalo de confianza del 95 % para los parámetros
es [p̂i − 1.96σi , p̂i + 1.96σi ].
Los elipsoides de confianza obtenidos a partir del Hessiano o con el método de
Fisher coinciden sólo cuando la estimación converge a los parámetros verdaderos.
De otro modo, éstos dan resultados claramente distintos, pudiendo ası́ detectar si
los resultados de la estimación son inadecuados (Marsili-Libelli et al., 2003).
De todos modos, estos intervalos de confianza son estadı́sticamente optimistas
debido al uso de una aproximación del modelo no lineal en la vecindad de la mejor
estimación de los parámetros (Vanrolleghem y Dochain, 1998). Otras técnicas alter-
nativas más robustas como los métodos jackknife y bootstrap producen varianzas de
los parámetros más realistas aunque estos métodos son bastante intensivos desde un
punto de vista computacional.

5.4. Métodos de Monte Carlo


La estimación de parámetros utiliza los datos obtenidos de un sistema en un ex-
perimento dado. En general, debido a las perturbaciones que actúan sobre el sistema
y el ruido en las medidas, la repetición de experimentos idénticos no conducirá a
los mismos resultados. Por lo tanto, antes de la recogida de datos, el vector z̃ es
un vector aleatorio cuyo estimador asociado será p̂(z̃) y una vez llevados a cabo los
experimentos, lo que se tendrá es una realización particular de ese vector aleatorio.
Los métodos de Monte Carlo tratan de determinar las caracterı́sticas estadı́sticas
de la población de estimadores proporcionada por un conjunto de todas las posibles
realizaciones de z̃, es decir, de todos los resultados experimentales posibles. Con este
fin, se generan vectores de datos ficticios z̃f mediante simulaciones del modelo para
el valor estimado de los parámetros, incorporando errores aleatorios para representar
la presencia de perturbaciones y de ruido. Cada vector de datos ficticios dará lugar
a un estimador ficticio p̂f = p̂(z̃f ), calculado como para los datos reales. De este
modo se obtendrá un conjunto de estimadores ficticios cuyas propiedades estadı́sticas
pueden ser estudiadas. Normalmente, p̂f se considera un vector aleatorio normal
5.4. Métodos de Monte Carlo 41

y su distribución se caracteriza por la media y la matriz de covarianza empı́rica


de los estimadores ficticios. Este método requiere, por lo tanto, un gran número
de estimaciones y de simulaciones del modelo. Con objeto de reducir el esfuerzo
computacional se han sugerido varias técnicas (ver, p. ej., Grant y Solberg, 1983).
Una de las dificultades de los métodos de Monte Carlo está en la elección de la
distribución empleada para generar los datos ficticios z̃f . Las técnicas jackknife (Que-
nouille, 1949) y bootstrap (Efron, 1982) hacen posible evitar estimar la distribución
del error a partir de los residuos.

5.4.1. Jackknife
La mayor ventaja de la técnica jackknife estriba en su simplicidad. Sea N = Gh,
el vector de datos experimentales z̃ = (z̃1 , z̃2 , ..., z̃N ) se divide de la forma z̃ =
(z̃01 , z̃02 , ..., z̃0G ), siendo cada z̃0g (g = 1, 2, ..., G) un vector h × 1. Sea p̂ el vector de
parámetros estimados a partir de todos los datos z̃ y p̂(g) el mejor estimador de
parámetros para el modelo omitiendo el grupo z̃0g calculado iterativamente emplean-
do p̂ como punto inicial. Se definen entonces G pseudo-estimadores de la forma:

p̃g = Gp̂ − (G − 1)p̂(g) (g = 1, 2, ..., G) (5.16)

con media:
G
1 X
p̄Jk = p̃g (5.17)
G g=1

y matriz de varianza-covarianza:
G
£ ¤ 1 X
CJk = (CJkij ) = (p̃g − p̄Jk ) (p̃g − p̄Jk )T (5.18)
G − 1 g=1

De este modo, p̄Jk es el estimador jackknife de p∗ y CJk /G es un estimador de


D[p̄Jk ]. Considerando p̃g (g = 1, 2, ..., G) independientes e igualmente distribuidos,
se puede construir una región con un nivel de confianza de 100(1 − α) % para p
empleando la distribución T 2 de Hotelling (p. ej. Seber, 1984) de modo que:
½ ¾
T −1 Np G − 1 1−α
p : (p − p̄Jk ) CJk (p − p̄Jk ) ≤ FNp ,G−Np (5.19)
G − Np G

Además, para un pi dado, el intervalo de confianza 100(1 − α) % puede obtenerse


como: r
1−(α/2) CJkii
p̄Jki ± tN −Np (5.20)
G
donde p̄Jki es el elemento i de p̄Jk .
42 Capı́tulo 5. Intervalos de confianza

Las propiedades de (5.19) y (5.20) fueron estudiadas por Dunkan (1978) para
N = 24 y distintos valores de h. Aunque tener un h lo más grande posible es
conveniente desde el punto de vista computacional, su estudio concluye claramente
que las omisiones de uno en uno (h = 1) son más recomendables, especialmente para
muestras pequeñas. A pesar de su fácil implementación, este método resulta menos
flexible y fiable que el método bootstrap (Walter y Pronzato, 1997).

5.4.2. Bootstrap
El método bootstrap (ver, por ejemplo, DiCiccio y Romano, 1988; Hinkley, 1988)
utiliza solamente los valores de los datos experimentales z̃ y el modelo M (p̂) asu-
miendo que los errores son variables aleatorias con idéntica distribución pero sin
especificar. Se asume por ejemplo que

z(ti ) = z̃(ti , p∗ ) + bi , i = 1, ..., N (5.21)

donde los bi corresponden a variables independientes e igualmente distribuidas. Un


estimador de bi viene dado por el residuo i:

b̂i = z(ti ) − z̃(ti , p̂), i = 1, ..., N (5.22)

donde p̂ es un estimador de p∗ . Un vector z̃f de datos ficticios z̃ f se obtiene entonces


como:
z̃ f (ti ) = z̃(ti , p̂) + b̂, i = 1, ..., N (5.23)
donde, para cada ti , b̂ se elige aleatoriamente entre los residuos b̂k (k = 1, ..., N )
considerados como equiprobables. Esto equivale a sustituir la distribución empı́rica
de los residuos por la distribución verdadera de los bi que será más aceptable cuanto
más cerca esté p̂ de p∗ . Repitiendo esta operación, se obtiene la población de vectores
de datos ficticios, a partir de la cual puede derivarse la población de los parámetros.
Las caracterı́sticas de esta población (media p̄B , matriz de covarianza CB ) podrán
entonces ser estudiadas de manera análoga al método jackknife obteniendo, para un
pi dado, el intervalo de confianza 100(1 − α) %:
1−(α/2)
p
p̄Bi ± tN −Np CBii (5.24)

donde p̄Bi es el elemento i de p̄B .


Capı́tulo 6

Diseño óptimo de experimentos

Para llevar a cabo la estimación de parámetros de modo satisfactorio, es impres-


cindible que los datos experimentales sean de suficiente calidad. La realización de
experimentos en bioprocesos, especialmente a nivel industrial, es una actividad muy
costosa en tiempo y dinero. Por estos motivos, se hace necesario el diseño óptimo
de experimentos (OED) cuyo objetivo es encontrar los experimentos dinámicos ne-
cesarios para que los parámetros estimados a partir de los datos proporcionados por
los mismos sean de la mejor calidad estadı́stica posible.
Además, todos los algoritmos numéricos empleados para la estimación de paráme-
tros en modelos no lineales presentan dificultades cuando se encuentran con proble-
mas mal condicionados. Asumiendo que la estructura del modelo es correcta y que
éste es estructuralmente identificable, el diseño de experimentos va a influir en gran
medida para la identificabilidad práctica del mismo. El OED ayudará a mejorar la
identificabilidad práctica mejorando a su vez el condicionamiento del problema de
estimación y facilitando ası́ la tarea de los métodos de optimización.
Cuando uno se enfrenta a un problema de diseño óptimo de experimentos las
preguntas que se debe plantear son:

- ¿Qué medir? Esta pregunta afronta la elección de las variables medidas.

- ¿Dónde medir? Aquı́ se trata el problema de la localización de los sensores.

- ¿Cuándo medir? Consiste en establecer la estrategia de muestreo.

- ¿Cómo manipular? Se trata de definir cuáles son las posibles variables ma-
nipuladas o controles y el tipo de manipulaciones, es decir, la variación de
los controles a lo largo del experimento. En algunos casos también se podrán
modificar las condiciones iniciales de ciertas variables.

43
44 Capı́tulo 6. Diseño óptimo de experimentos

Para el diseño de experimentos informativos, se han desarrollado diferentes es-


trategias basadas en la definición del contenido de información de un experimento
dado. Por sus caracterı́sticas, la matriz de información de Fisher (FIM) es la clave
de muchos de estos procedimientos. Para sistemas lineales y bajo ciertas suposicio-
nes sobre el ruido de las medidas, la inversa de la FIM evaluada en los verdaderos
parámetros del proceso p∗ es la matriz de covarianza del mejor estimador lineal no
sesgado (Best Linear Unbiased Estimator, BLUE) (Goodwin y Payne, 1977; Godfrey
y DiStefano III, 1985). Cuando los parámetros estimados a partir de un experimento
están cerca de los parámetros verdaderos del proceso p∗ , la matriz de información
de Fisher evaluada en esos estimadores puede verse como una aproximación de la
FIM evaluada en los parámetros verdaderos del proceso p∗ . De este modo, su in-
versa proporciona una aproximación de la mejor covarianza del error que se puede
conseguir.
Para modelos no lineales en los parámetros, la aplicación de esta metodologı́a
implica la suposición de que las salidas pueden ser aproximadas por una expansión
en series de Taylor de primer orden en la vecindad de los parámetros verdaderos
de proceso p∗ . En la práctica, los parámetros verdaderos se desconocen por lo que,
durante el diseño de experimentos, debe utilizarse un conjunto de parámetros, lla-
mado conjunto de parámetros nominales p0 que generalmente no coincide con los
parámetros verdaderos del proceso p∗ . Normalmente, estos parámetros nominales
p0 se obtienen a partir de experimentos preliminares o de datos bibliográficos. De
este modo, el problema de OED se establece como la optimización de una función
escalar de la FIM evaluada en los parámetros nominales p0 . Dado que éstos nor-
malmente no coinciden con los parámetros verdaderos, se debe realizar un esquema
iterativo de diseño para obtener los verdaderos experimentos óptimos con respecto al
vector de parámetros verdadero p∗ . En cada ciclo iterativo, los valores de los paráme-
tros estimados a partir del experimento precedente son utilizados como conjunto de
parámetros nominales para el diseño óptimo de experimentos.

6.1. Criterios de diseño óptimo


Con objeto de comparar la eficacia de un experimento con respecto a la identi-
ficabilidad de los parámetros y a la precisión esperada de la estimación a partir de
los datos recogidos, se han sugerido como medida varias funciones escalares de la
matriz de información de Fisher. Estos funcionales también se utilizan como ı́ndices
de eficacia para el diseño óptimo de experimentos. En la bibliografı́a se pueden en-
contrar varios de estos criterios de diseño óptimo (Vanrolleghem y Dochain, 1998)
6.1. Criterios de diseño óptimo 45

cuya interpretación geométrica se ilustra en la Figura 6.1:

Criterio A Criterio E

p2

Criterio D

p1

Figura 6.1: Interpretación geométrica de varios criterios de


diseño óptimo (Asprey y Macchietto, 2002)

¡ ¢
Criterio A: min traza FIM−1
Este criterio se centra en la minimización de la traza y por lo tanto de la
suma de los autovalores de la matriz de covarianza, es decir, el cuadrado de
la longitud de los ejes de los elipsoides de confianza. Esto es equivalente a
minimizar la media aritmética de los errores de los parámetros. Nótese que
este criterio se basa en la inversión de la FIM por lo que producirá errores
numéricos en el caso de que la FIM sea singular o esté mal condicionada.

Criterio A modificado: max traza (FIM)


Este criterio es similar al criterio A sólo que, en este caso, se maximiza la
traza de la FIM de modo que se evitan los errores numéricos en caso de
que la FIM sea singular. Sin embargo, el problema de este criterio es que
en el máximo puede darse el caso de que la matriz sea singular porque uno
de los autovalores sea cero, si alguno de los otros autovalores se ha vuelto
lo suficientemente grande (Goodwin y Payne, 1977). Esto significarı́a que la
región de confianza se va a infinito en cierta dirección y que los parámetros no
son identificables.
46 Capı́tulo 6. Diseño óptimo de experimentos

Criterio D: max det (FIM)


Aquı́ se trata de maximizar el determinante de la FIM. El determinante es
proporcional al volumen de la región de confianza. Maximizando el criterio D
se minimiza el volumen de los elipsoides de confianza asintóticos y, por lo tan-
to, la media geométrica del error de los parámetros. Además, este criterio es
invariable a cualquier reescalado de los parámetros (Walter y Pronzato, 1997).
Por otra parte, un diseño D-óptimo consiste normalmente en la repetición de
un número pequeño de condiciones experimentales diferentes, es decir, algu-
nos experimentos aparecerán repetidos (Atkinson y Hunter, 1968; Box, 1968,
1970). Como se explica en detalle en Walter y Pronzato (1997), esto puede
ayudar a eliminar óptimos locales a la hora de estimar los parámetros.

Criterio E: min λmax (FIM−1 )


La longitud de los ejes de los elipsoides de confianza es proporcional a la
inversa de la raı́z cuadrada de los autovalores correspondientes. El criterio E
maximiza el mı́nimo autovalor de la FIM y, por lo tanto, minimiza la longitud
del mayor de los ejes de los elipsoides de confianza. De este modo, este criterio
trata de minimizar el mayor de los errores de los parámetros y ası́ maximizar
la distancia del caso singular (no identificable).

Criterio E modificado: min abs( λλmax (FIM)


min (FIM)
)
Este criterio también está relacionado con la forma de la región de confianza.
Aquı́ el objetivo es la minimización del número de condición (relación entre el
mayor y el menor autovalor) o lo que es lo mismo, trata de igualar el mayor
y el menor de los ejes de los elipsoides. Una de las ventajas de este criterio
es que su valor óptimo es conocido y corresponde a la unidad indicando el
caso donde la forma de los elipsoides de confianza es una (hiper)esfera (en una
representación tridimensional corresponderı́a a una forma cónica) y los errores
de los parámetros están igualmente distribuidos.

En este punto, se debe mencionar que el reescalado de los parámetros afecta a


las propiedades de la matriz de información de Fisher y por lo tanto de su inversa,
la matriz de covarianza. El reescalado de los parámetros puede utilizarse de modo
ventajoso ya que mediante un reescalado adecuado se puede minimizar los problemas
relacionados con la inversión de la FIM. Sin embargo, este efecto también afecta al
diseño óptimo de experimentos basado en funciones escalares de la FIM. Como se
muestra en Petersen (2000), todos los criterios antes explicados con excepción del
criterio D son sensibles al reescalado de los parámetros. Esto significa que los diseños
6.2. Formulación del OED como un problema de optimización dinámica 47

experimentales obtenidos mediante estos criterios serán diferentes si el modelo se


expresa, por ejemplo, en distintas unidades de tiempo. Por este motivo, con objeto
de obtener unos elipsoides de confianza lo más esféricos posible, se recomienda escalar
todos los parámetros al mismo valor, p. ej. la unidad. Por otra parte, si se desea
que unos parámetros tengan mejor calidad estadı́stica que los otros, se recomienda
escalar estos parámetros a un valor mayor que el resto.

6.2. Formulación del OED como un problema de


optimización dinámica
El problema de diseño óptimo de experimentos puede ser formulado como un
problema de optimización dinámica, también llamado de control óptimo en lazo
abierto, como sigue:
Encontrar los factores externos variables con el tiempo o variables de control
(temperatura, pH, concentraciones, etc.), u(t), ası́ como los tiempos de muestreo, la
duración del experimento y las condiciones iniciales, v, que minimizan (o maximizan)
una función escalar φ de la matriz de información de Fisher:

JOED = φ(FIM) (6.1)


sujeto a:

la dinámica del sistema:

F (y, ẏ, z, u, v, p, t) = 0 (6.2)


F0 (y(t0 ), z(t0 ), u(t0 ), v, p, t0 ) = 0 (6.3)

donde y es el vector de las variables de estado del modelo, z es el vector de las


variables medidas en puntos discretos de tiempo, u es el vector de variables de
control o factores externos, v incluye los tiempos de medida, la duración de
los experimentos y las condiciones iniciales y p es el vector de los parámetros
del modelo.

posibles restricciones de igualdad y desigualdad respectivamente:

h (y, z, u, v, p, t) = 0 (6.4)
g (y, z, u, v, p, t) ≤ 0 (6.5)
48 Capı́tulo 6. Diseño óptimo de experimentos

otras restricciones algebraicas relacionadas con limitaciones experimentales:

uL (t) ≤ u(t) ≤ uU (t) (6.6)


vL ≤ v ≤ vU (6.7)

Los métodos existentes en la actualidad para la resolución de problemas de op-


timización dinámica pueden clasificarse en tres grandes grupos:

1. Métodos de programación dinámica desarrollados inicialmente para pro-


blemas discretos y que están basados en las condiciones de optimalidad de
Bellman (1957). Luus (1990) propone el método denominado programación
dinámica iterativa (Iterative Dynamic Programming, IDP) que se basa en apli-
car el principio de Bellman de manera iterativa.

2. Métodos indirectos que emplean las condiciones del principio mı́nimo de


Pontryagin (1962) dando lugar a un problema de condiciones iniciales para
los estados y finales para las variables adjuntas (Two Point Boundary Value
Problem, TPBVP) (Bryson y Ho, 1975).

3. Métodos directos, donde el problema original se transforma en un proble-


ma de optimización no lineal (NLO) utilizando o bien la parametrización de
control (Control Vector Parametrization, CVP) (Vassiliadis, 1993) o bien la
parametrización total (Complete Parametrization, CP), donde se parametri-
zan tanto las variables de control como las variables de estado (Polak, 1971;
Biegler, 1984).

Las técnicas más utilizadas en la actualidad para la resolución de problemas de


optimización dinámica están basadas en métodos directos (ver revisiones por Balsa-
Canto, 2001 y Banga et al., 2005). De las distintas alternativas, en este trabajo se
ha elegido la parametrización de control (CVP) ya que permite el diseño de varios
experimentos simultáneos con varias entradas para el caso general de modelos de
dimensión elevada sin resolver NLO excesivamente grandes (Banga et al, 2002).

6.3. Método de parametrización de control


El método de parametrización de control (CVP) consiste en la discretización de
las variables de control u utilizando un conjunto finito de parámetros w de modo
que los controles pueden expresarse como:
6.3. Método de parametrización de control 49

u(t) = θ(t, w) (6.8)


De este modo el problema original de dimensión infinita se transforma en un
problema de optimización no lineal (NLO) de dimensión finita con restricciones
diferenciales-algebraicas.
En Vassiliadis (1993), la duración de los experimentos se divide en un número
de ρ elementos y se aproximan las variables de control empleando polinomios de
orden bajo. Las aproximaciones lineales (rampas) o constantes (escalones) son las
más convenientes ya que permiten la incorporación simple de la mayorı́a de las
actuaciones sobre los sistemas que se observan en la práctica real.
Finalmente se debe resolver un problema de optimización no lineal (NLO) siendo
las variables de decisión:

los coeficientes de los polinomios

la duración de los experimentos

los tiempos de muestreo

las condiciones iniciales

La función objetivo será una función escalar de la matriz de información de Fis-


her para cuya evaluación se requiere la simulación de la dinámica del sistema y el
cálculo de sensibilidades paramétricas. Por los motivos expuestos en el capı́tulo 3,
se utilizará el código ODESSA (Leis y Kramer, 1985) para la resolución del siste-
ma de ecuaciones diferenciales que describe la dinámica del sistema y la obtención
simultánea de las sensibilidades paramétricas.
El problema ası́ formulado puede resolverse, de forma análoga al problema de
estimación de parámetros formulado en la sección 2.2, mediante métodos de valor
inicial o métodos multiple shooting. Los métodos más populares para la resolución de
este NLO son métodos de valor inicial consistentes en la resolución del problema de
valor inicial (IVP) para cada evaluación de la función. La mayorı́a de estos métodos
son técnicas de optimización local basadas en el gradiente, habitualmente variantes
del método de programación cuadrática secuencial (Sequential Quadratic Problem,
SQP). Sin embargo, debido al carácter no lineal de la mayorı́a de los bioprocesos,
el uso del método CVP da lugar con frecuencia a NLOs no convexos por lo que los
métodos de optimización local no convergerán o lo harán a óptimos locales. Con
el fin de solventar estas dificultades, en el presente trabajo se propone el uso de
métodos de optimización global que se explican con detalle en el capı́tulo 7.
Capı́tulo 7

Métodos de optimización

Optimizar es encontrar, de forma eficiente, la mejor solución del conjunto de


todas las posibles. Tanto en el caso de estimación de parámetros como en el de
diseño óptimo de experimentos, lo que se pretende es encontrar el valor de un vector
de variables de decisión que proporciona el mı́nimo valor posible de una función
objetivo J. En el caso de la estimación de parámetros, las variables de decisión
son los parámetros del modelo que se debe calibrar. Para resolver ambos problemas
se empleará un esquema de un problema de optimización no lineal que requiere
la resolución de un problema de valor inicial para cada evaluación de la función
objetivo. Como se explica en la sección 2.2.1, los métodos de optimización numérica
generan nuevos valores para las variables de decisión en cada iteración de modo que
éstos disminuyan el valor de la función objetivo. La generación de nuevos valores se
realiza habitualmente de acuerdo con:

pi+1 = pi + αdi (7.1)

donde di es una dirección de búsqueda basada en información acerca de la función


objetivo J(p) adquirida en iteraciones previas y α es una constante positiva deter-
minada de modo que se obtenga una disminución apropiada del valor de J(p). El
modo en que se calcula di va a determinar el tipo de método de optimización. En
una primera clasificación, los métodos de optimización pueden dividirse en métodos
deterministas, estocásticos e hı́bridos.
Los métodos deterministas calculan las direcciones de búsqueda de manera sis-
temática mediante la toma de decisiones deterministas. En muchos casos requieren
el cálculo del gradiente y del Hessiano de la función objetivo y suelen buscar la ve-
rificación de las condiciones de optimalidad. Dentro de este tipo se puede distinguir
entre métodos locales y métodos globales. Los métodos locales buscan un vector p̂
tal que J(p̂) < J(p) para todos los valores de p cercanos a p̂. En el caso de los méto-

51
52 Capı́tulo 7. Métodos de optimización

dos globales lo que se pretende es encontrar el valor de p̌ tal que J(p̌) < J(p) para
todos los posibles valores de p. Nótese que, en el caso de los problemas convexos, el
óptimo local coincide con el global.
Por otra parte, los métodos estocásticos calculan las direcciones de búsqueda
empleando secuencias pseudo-aleatorias con un importante componente heurı́stico y
valores previos de la función objetivo, sin hacer uso de información sobre la estruc-
tura del problema. En general, son de carácter global aunque debido a su naturaleza
aleatoria no se puede garantizar la convergencia al óptimo global con total certe-
za. Sin embargo, muchos de estos métodos disponen de pruebas de convergencia
asintóticas y a menudo son estrategias muy eficientes localizando las proximidades
del óptimo global.
A su vez, la mayor parte de los métodos hı́bridos combinan estrategias estocásti-
cas y deterministas para superar las limitaciones inherentes a cada una de ellas
mientras que potencian sus puntos fuertes. No obstante, un método hı́brido es todo
aquel que resulta de la combinación de dos o más algoritmos por lo que también
se pueden encontrar estrategias que combinan varios métodos estocásticos o varios
métodos deterministas. La clave para la obtención de métodos hı́bridos robustos y
eficaces radica en la elección de los métodos a combinar y en el modo de estructurar
dicha combinación.

Figura 7.1: Métodos locales Figura 7.2: Métodos globales

Este trabajo se centra en la estimación de parámetros y el diseño óptimo de


experimentos (OED) de modelos dinámicos no lineales que, como se ha explicado
anteriormente, pueden formularse como problemas de optimización no lineal (NLOs).
Debido a la acusada no linealidad de los modelos considerados, los problemas de ca-
libración y de OED resultantes serán multimodales por lo que los métodos locales
quedarán atrapados en soluciones locales. Para solventar esta limitación se requiere
7.1. Métodos locales 53

el uso de estrategias de optimización que proporcionen más garantı́as de convergen-


cia a la solución global. Las Figuras 7.1 y 7.2 representan el comportamiento de
los métodos de optimización local y global respectivamente para la resolución de
problemas no convexos.
En las siguientes secciones se hará una revisión de los métodos de optimiza-
ción más utilizados en la actualidad, tanto locales como globales y se justificará la
elección de algoritmos estocásticos e hı́bridos para la resolución de los problemas
considerados.

7.1. Métodos locales


Como ya se ha mencionado, la mayorı́a de los métodos locales son deterministas
y por lo tanto calculan la dirección de búsqueda de manera sistemática. La diferencia
entre unos métodos y otros estriba, fundamentalmente, en el tipo de problemas que
pueden resolver y en el modo de generar las direcciones de búsqueda. A continuación
se presenta una breve revisión de los principales métodos para tratar problemas de
optimización multidimensionales (Edgar y Himmelblau, 1988; Reklaitis et al., 1983).

7.1.1. Métodos para problemas sin restricciones


En función de la información que necesiten, estas estrategias pueden clasificarse
en dos grandes grupos:

Métodos de búsqueda directa: solamente requieren valores de la función


objetivo, y no de las derivadas parciales de la misma, para encontrar el óptimo.
También se conocen como métodos de orden cero ya que utilizan las derivadas
de orden cero de la función. De entre estos métodos se debe destacar los méto-
dos de búsqueda por patrones como el método de Hooke y Jeeves (1961), el
método de Powell (1964), el método de Rosenbrock (1960), el método simplex
(Dantzig, 1963) y el método de Nelder y Mead (1965), que es una modificación
del simplex. Estos métodos son los más adecuados para problemas simples con
un número de variables relativamente pequeño pero generalmente son menos
eficientes y requieren mayor número de evaluaciones de la función objetivo que
los métodos de búsqueda indirecta.

Métodos de búsqueda indirecta: requieren conocer, además de los valores


de la función objetivo, el gradiente y en algunos casos también el Hessiano de
la misma. De entre los métodos basados en gradiente, aquellos que requieren
solamente las primeras derivadas de la función objetivo se llaman métodos de
54 Capı́tulo 7. Métodos de optimización

primer orden y aquellos que requieren las derivadas de primer y segundo orden
se llaman métodos de segundo orden. El primer método de este grupo, propues-
to por Cauchy en el siglo XIX, es el método del gradiente clásico que utiliza
el negativo del gradiente como dirección de búsqueda para la minimización.
En este método la dirección de búsqueda puede interpretarse como ortogo-
nal a una aproximación lineal tangente a la función objetivo en ese punto. Los
métodos de segundo orden tienen también en cuenta la curvatura de la función
para lo que deberá considerarse la matriz Hessiana de la misma. Entre estos
métodos destacan el método de Newton y los populares métodos quasi-Newton
que tratan de aproximar la dirección de Newton asintóticamente.
Estas técnicas han sido originalmente desarrolladas para resolver problemas sin
restricciones pero se adaptan fácilmente a la resolución de problemas con restriccio-
nes mediante el uso de funciones de penalización (Balsa-Canto, 2001).

7.1.2. Métodos para problemas con restricciones


Además de las técnicas de resolución de problemas de optimización no lineales
con restricciones (NLOs) mediante su transformación en problemas sin restricciones
por medio de funciones de penalización, existen métodos especialmente diseñados
para este tipo de problemas que hacen uso de las condiciones de optimalidad de
Karush-Kuhn-Tucker, KKT (ver, por ejemplo, Bazaara et al., 1993). Entre estos
métodos destacan el método clásico basado en multiplicadores de Lagrange, los
métodos de linealización iterativa y los métodos de programación cuadrática secuen-
cial que hacen uso de los valores de la función objetivo y de su gradiente. Además,
el método complex, que es una modificación del método simplex, permite resolver
problemas con restricciones sin hacer uso de las derivadas de la función.
De entre los métodos de linealización iterativa, que consisten en linealizar el pro-
blema y aplicar técnicas de optimización lineal de un modo secuencial, destaca el
método del gradiente reducido generalizado (Generalized Reduced Gradient, GRG)
(Abadie y Carpentier, 1969). Este método utiliza el llamado gradiente reducido gene-
ralizado para el cálculo de la dirección de búsqueda que consiste en una combinación
del gradiente de la función objetivo y el jacobiano de las restricciones.
El método GRG requiere un tiempo de computación muy elevado, lo que hace
que los métodos de programación cuadrática sucesiva (Sequential Quadratic Pro-
gramming, SQP) (Fletcher, 1982; Gill et al., 1981) sean los más utilizados, junto con
los métodos de penalización, para resolver problemas de optimización no lineal con
restricciones (NLOs). Los métodos SQP aproximan localmente la función objetivo
por una función cuadrática y las restricciones por funciones lineales de modo que
7.1. Métodos locales 55

el problema original se convierte en una sucesión de problemas cuadráticos con res-


tricciones lineales. Estos métodos se basan en la aplicación del método de Newton
a las condiciones necesarias de optimalidad Karush-Kunh-Tucker y resuelven una
secuencia de problemas cuadráticos, en los que en cada iteración se requiere la reso-
lución de un sistema de ecuaciones generalmente grande. Aunque estos métodos han
demostrado una gran eficiencia para la resolución de problemas con función objetivo
y restricciones suaves, esto puede resultar muy costoso por lo que se han dedicado
muchos esfuerzos al desarrollo de estrategias eficientes.

7.1.3. Métodos locales empleados


Con objeto de ilustrar las ventajas de los métodos de optimización global y co-
mo segunda etapa de los métodos hı́bridos, en este trabajo también se han utilizado
métodos locales estándar. En ocasiones se han empleado en un esquema multiarran-
que (multi-start), generando soluciones aleatorias entre los lı́mites de los parámetros
y comenzando el algoritmo local en esos puntos. Los métodos considerados son los
siguientes:

clsSolve: este algoritmo forma parte del entorno de optimización Tomlab (Holms-
tröm, 2004) y resuelve problemas de estimación de parámetros no lineales,
dispersos o densos, manejando explı́citamente igualdades y desigualdades li-
neales y lı́mites simples en las variables.

fmincon: método local basado en gradiente implementado como parte de la librerı́a


de optimización de Matlab (Maltab Optimization Toolbox° R
, The MathWorks
Inc.). Este método encuentra el mı́nimo local de una función multivariable con
restricciones por medio de un algoritmo de programación cuadrática secuencial,
SQP. El método utiliza gradientes numéricos o analı́ticos si están disponibles.

n2fb/dn2fb: este algoritmo fue especialmente diseñado para problemas de estima-


ción de parámetros por Denis et al., (1981). Está basado en la combinación
de un algoritmo Gauss-Newton y uno quasi-Newton y soporta lı́mites supe-
riores e inferiores para las variables de manera independiente. Una parte del
Hessiano se calcula directamente y otra se aproxima mediante un método de
actualización quasi-Newton. En ciertas situaciones el algoritmo se reduce a un
algoritmo Gauss-Newton o Levenberg-Marquardt. El método es estabilizado
mediante una técnica de regiones de confianza junto con una elección adaptati-
va del modelo del Hessiano para alcanzar la convergencia. El algoritmo dn2fb
es la versión en doble precisión de n2fb.
56 Capı́tulo 7. Métodos de optimización

NOMADm: método directo de propósito general implementado en Matlab y diseñado


por Abramson (2002) para la optimización de problemas no lineales con va-
riables continuas, discretas y/o categóricas (Nonlinear Optimization for Mixed
variables And Derivatives-Matlab, NOMADm). Emplea varios algoritmos de
búsqueda por patrones generalizados (Generalized Pattern Search, GPS), y no
requiere información sobre las derivadas. Resulta especialmente adecuado para
problemas de calibración con datos con mucho ruido para los que los métodos
basados en gradiente no dan buenos resultados.

npsol: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
1998), se considera como el estado actual para la resolución de problemas de
optimización no lineal densos.

snopt: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
2002), se considera el método más puntero para la resolución de problemas
grandes y dispersos de optimización no lineal.

solnp: método SQP implementado por Ye (1987) para problemas de optimización


no lineal densos con restricciones.

7.2. Métodos globales


La optimización global (GO) de sistemas dinámicos no lineales ha recibido una
atención creciente en los últimos años por parte de ingenieros, matemáticos e in-
formáticos. Favorecido por el aumento de las capacidades computacionales a lo largo
de las últimas décadas, este campo ha crecido a un ritmo muy rápido y con él el
número de algoritmos propuestos para resolver problemas que antes resultaban in-
tratables. En Horst y Pardalos (1995), Pinter (1996) y más recientemente en Moles
(2003) puede encontrarse una revisión de los métodos deterministas y estocásticos
disponibles en la actualidad.

7.2.1. Métodos deterministas


Los métodos de optimización global deterministas pueden garantizar la opti-
malidad global bajo unas condiciones determinadas y para ciertos problemas. Sin
embargo, ninguno de estos algoritmos puede garantizar la resolución de problemas
generales NLOs con certeza en un tiempo finito (Guus et al., 1995). De hecho, el
esfuerzo computacional asociado crece muy rápido (a menudo exponencialmente)
con el tamaño del problema.
7.2. Métodos globales 57

Recientemente han aparecido varias técnicas avanzadas de ramificación y poda


(branch and bound) para la resolución de problemas de optimización dinámica y la
estimación de parámetros de sistemas dinámicos no lineales (Esposito y Floudas,
2000; Papamichail y Adjiman, 2002). Ésta parece una lı́nea de investigación pro-
metedora pero la función objetivo y la dinámica del sistema deben ser doblemente
diferenciables y continuas y las restricciones de camino que pueden manejar son
limitadas. Además, estos métodos no escalan bien con el tamaño del problema y
no resultan aplicables para problemas de estimación con un número relativamente
grande de parámetros como los considerados en este trabajo. Por otra parte, los
problemas de diseño óptimo no garantizan el cumplimiento de las condiciones ne-
cesarias para la aplicación de estos métodos ya que la función objetivo depende no
sólo de los estados sino también de las sensibilidades paramétricas.
Una revisión extensa de estos métodos está fuera de los objetivos de este trabajo
y puede encontrarse en Pinter (1996) y Floudas (2000).

7.2.2. Métodos estocásticos


Con respecto a los métodos estocásticos, muchos investigadores han demostrado
que éstos pueden localizar la vecindad de la solución global para problemas NLOs
con bastante eficicencia (Banga et al., 1991; Luus, 1993; Banga et al., 1997; Ali
et al., 1997; Wang y Chiou, 1997; Moles et al., 2003b; Banga et al., 2003). No
obstante, los métodos estocásticos son métodos basados en algoritmos probabilı́sticos
y, por lo tanto, se debe sacrificar la posibilidad de una garantı́a absoluta de éxito.
En su lugar, algunos métodos disponen de pruebas de convergencia asintóticas que
garantizan que, a medida que aumenta el esfuerzo computacional, la probabilidad de
encontrar el óptimo global se acerca a la unidad (Guus et al., 1995). Sin embargo, en
muchas situaciones prácticas estos métodos resultan satisfactorios y proporcionan
una solución “suficientemente buena” que a menudo es la mejor disponible, en un
tiempo computacional reducido. Además, los métodos estocásticos resultan fáciles
de implementar y de usar, y no requieren la transformación del problema original
que puede ser tratado como una caja negra.
Debido al gran interés por el estudio de técnicas que permitan resolver proble-
mas de gran complejidad que no pueden ser resueltos por los métodos tradicionales,
el número de algoritmos estocásticos ha experimentado un crecimiento muy rápido
(ver revisión por Osman y Laporte (1996) con más de 1300 referencias). Resulta
difı́cil hacer una clasificación exhaustiva de todos los métodos existentes por lo que
a continuación se presentará una clasificación de los tipos de métodos más significa-
tivos:
58 Capı́tulo 7. Métodos de optimización

Métodos de búsqueda aleatoria y métodos estocásticos adaptativos:


tienen sus orı́genes en investigaciones realizadas a lo largo de los años cin-
cuenta y sesenta (Brooks, 1958; Matyas, 1965; Rastrigin y Rubinstein, 1969).
Basándose en estas investigaciones, en la última década se han desarrollado
métodos más refinados y eficientes (p. ej. Zabinsky y Smith, 1992; Banga y
Seider, 1996; Torn et al., 1999).

Métodos de agrupamiento: (clustering) derivan de los conceptos básicos de


los métodos multi-start, es decir, métodos locales que comienzan en distintos
puntos iniciales. Los métodos de agrupamiento son más eficientes y robustos
que los multi-start ya que tratan de identificar la vecindad de los óptimo locales,
e incrementan su eficiencia evitando la determinación repetida de las mismas
soluciones locales (Törn, 1973; Rinnooy-Kan y Timmer, 1987).

Computación evolutiva: la mayorı́a de estos algoritmos fueron creados si-


guiendo ideas de la evolución biológica pero en la práctica pueden ser con-
siderados como métodos adaptativos estocásticos basados en poblaciones. Al
menos tres clases fueron desarrolladas independientemente a finales de los años
sesenta y principios de los setenta: algoritmos genéticos (Genetic Algorithms,
GAs) (Holland, 1975; Goldberg, 1989), programación evolutiva (Evolutionary
Programming, EP) (Fogel et al., 1966) y estrategias evolutivas (Evolution Stra-
tegies, ES) (Schwefel, 1995; Beyer, 1996; Beyer y Schwefel, 2002).

Templado simulado: (Simulated Annealing, SA) este método y sus variantes


fueron desarrollados originariamente para problemas combinatorios. Su base
está en la simulación de un cierto fenómeno natural que tiene lugar a nivel
atómico, relativo al enfriamiento de metales (Kirkpatrick et al., 1983; Laarho-
ven y Aarts, 1987).

Otros métodos inspirados en la biologı́a y metaheurı́sticas: en los últi-


mos años se han presentado un gran número de las denominadas metaheurı́sti-
cas, la mayor parte de ellas basadas en fenómenos biológicos o fı́sicos, desarro-
lladas en primera instancia para problemas combinatorios. Algunos ejemplos
son el método de la colonia de hormigas (Ant Colony Optimization, ACO) (Do-
rigo et al., 1996; Bonabeau et al., 2000), el método del enjambre de partı́culas
(Particle Swarm Method) (Bonabeau et al., 1999) y el método de búsqueda
tabú (Tabu Search, TS) desarrollado por Glover y Laguna (1997) basándose
en conceptos del campo de la Inteligencia Artificial. En este grupo se debe
también destacar el método de búsqueda dispersa (Scatter Search, SS) intro-
ducido por Glover (1977) como una heurı́stica para programación entera. A
7.2. Métodos globales 59

partir de la publicación de Glover (1998), SS ha empezado a ser utilizado por


numerosos investigadores para la resolución de NLOs complejos obteniendo
resultados de gran calidad. Una revisión de éstas y otras técnicas recientes
puede encontrarse en Corne et al. (1999) y Michalewicz y Fogel (2000) entre
otros.

En la actualidad, los tipos de métodos estocásticos más populares son los algorit-
mos genéticos (GAs) y los de templado simulado (SA). Sin embargo, según nuestra
propia experiencia y como muchos autores han señalado en los últimos años (Banga
et al., 2003; Moles et al., 2003b), los GAs y SA, diseñados en primera instancia
para problemas combinatorios (con variables enteras), no son normalmente los al-
goritmos más eficientes y robustos para la optimización global en variables reales.
La elección de un método para un cierto tipo de problemas de GO es complicada
y la bibliografı́a al respecto está muy fragmentada, por lo que en muchos casos la
elección está basada más en la predilección del autor por un tipo de técnicas que en
criterios racionales (Preux y Talbi, 1999). Aunque éste continúa siendo un tema de
gran debate, sin embargo, Wolpert y MacReady (1997) han demostrado a través del
teorema “no hay comida gratis” (No Free Lunch, NFL) que no existe ningún méto-
do que pueda ser considerado mejor que los demás para la resolución de problemas
generales de optimización global de estructura desconocida.
No obstante, para el caso de optimización global de NLOs y para el caso par-
ticular de estimación de parámetros, diferentes trabajos recientes (Balsa-Canto et
al., 1998; Moles et al., 2003a; Moles et al., 2003b) indican que ciertos métodos
estocásticos simples, en concreto el método Evolución Diferencial (Differential Evo-
lution, DE) (Storn y Price, 1997) y ciertas estrategias evolutivas como la Estrategia
Evolutiva con Ranking Estocástico (Stochastic Ranking Evolution Strategy, SRES)
desarrollada por Runarsson y Yao (2000, 2005) presentan un comportamiento mejor
en términos de eficiencia y robustez. Además estas estrategias escalan bien con el
tamaño del problema y permiten ser paralelizados muy fácilmente, lo que signifi-
ca que los problemas de mediana o gran escala podrán ser resueltos en un tiempo
computacional razonable.
Por estos motivos, estos dos serán los métodos estocásticos considerados en el
presente estudio y servirán también de base para la creación de métodos hı́bridos
que mejoren su eficiencia manteniendo su robustez:

DE: (Differential Evolution) es un algoritmo heurı́stico robusto para la optimiza-


ción global de funciones no lineales continuas y posiblemente no diferenciables
desarrollado por Storn y Price (1997). Está basado en poblaciones y mane-
ja variables estocásticas por medio de un método de búsqueda directa. Este
60 Capı́tulo 7. Métodos de optimización

método es muy utilizado por la comunidad de computación evolutiva y se ha


demostrado que supera a otros algoritmos populares de optimización global
como los de templado simulado (SA) o algoritmos genéticos (GAs).

SRES: (Stochastic Ranking Evolution Strategy) desarrollado por Runarsson y Yao


(2000, 2005), consiste en una estrategia evolutiva combinada con una aproxi-
mación denominada clasificación estocástica (Stochastic Ranking) para equili-
brar de modo estocástico la función objetivo y las funciones de penalización.
En este algoritmo tipo (µ, λ)-ES, la función objetivo y las funciones de pena-
lización para cada individuo se emplean para clasificar los individuos de una
población, y los individuos mejor clasificados (µ de λ) son seleccionados pa-
ra la siguiente generación. Este hecho lo hace especialmente atractivo para la
resolución de problemas con restricciones.

7.2.3. Métodos hı́bridos


La idea clave de los métodos hı́bridos está en el concepto de sinergia, esto es,
unión de varios elementos cuyo resultado aprovecha y maximiza las cualidades de
cada uno de ellos. Las metodologı́as hı́bridas han recibido un interés creciente en
los últimos años y se han propuesto una gran variedad de aproximaciones (ver Talbi
(2002) con referencias a casi 100 algoritmos hı́bridos diferentes). Las combinaciones
de algoritmos como templado simulado (SA), algoritmos evolutivos y otras me-
taheurı́sticas han proporcionado métodos de búsqueda eficientes y robustos dando
lugar a que los mejores resultados para muchas aplicaciones prácticas fueran ob-
tenidos mediante hı́bridos. Sin embargo, la hibridación de algoritmos es una tarea
delicada en donde la elección de los métodos a combinar y el modo de estructurar
dicha combinación juegan un papel clave.
Una primera clasificación de los métodos hı́bridos puede hacerse según el tipo de
hibridación, secuencial o paralela (Preux y Talbi, 1999):

Hibridación secuencial

La hibridación secuencial es aquella en la que dos o más algoritmos son aplicados


uno después de otro, utilizando cada uno de ellos el resultado del anterior como
punto inicial. Numerosos autores han utilizado la idea de hibridación secuencial
dando lugar a muchos esquemas diferentes: varios métodos estocásticos combinados
entre si, un algoritmo voraz para generar una buena población para un algoritmo
evolutivo, un método estocástico con uno determinista local, etc.
7.2. Métodos globales 61

Una caracterı́stica común de la mayorı́a de los métodos estocásticos de optimi-


zación es que presentan una velocidad de convergencia relativamente lenta, especial-
mente en la última etapa de la búsqueda. Esto puede ocasionar tiempos de cálculo
excesivos, especialmente si se requiere una gran precisión en la solución. Por el con-
trario, los métodos locales deterministas (como aquellos basados en el gradiente)
convergen muy rápido si se inicializan adecuadamente, es decir, dentro del radio de
atracción de la solución global. Por este motivo, los métodos que combinan de forma
secuencial un algoritmo estocástico en la primera fase y un algoritmo local basado en
gradiente en la segunda son bastante frecuentes y han demostrado ser muy eficientes
(Banga y Seider, 1996; Banga et al., 2005; Rodriguez-Fernandez et al., 2006).
El problema fundamental de la hibridación secuencial radica en decidir cuándo
parar un algoritmo e iniciar el siguiente. Una posibilidad consiste en esperar a que
la búsqueda se estabilice, pero podrı́a existir un punto anterior a la estabilización
desde el cual el siguiente algoritmo ya se encontrarı́a en la zona de atracción de la
solución global, por lo que comenzar en ese punto serı́a más eficiente. Por otra parte,
una inicialización demasiado temprana puede hacer que, si el segundo algoritmo es
de naturaleza local, éste quede atrapado en la zona de convergencia de una solu-
ción local. Por lo tanto, una estrategia adecuada para elegir este punto de cambio
será imprescindible para el buen funcionamiento del método hı́brido secuencial.

Hibridación paralela

Dependiendo del tamaño del problema a tratar, será conveniente considerar im-
plementaciones paralelas de los métodos a utilizar. Sin embargo, se debe distinguir
entre la mera paralelización de un algoritmo secuencial y una implementación de
un algoritmo paralelo. Una implementación en paralelo de un algoritmo trata de
mantener la esencia de la búsqueda secuencial mientras que los algoritmos hı́bridos
paralelos son una sub-clase de algoritmos estocásticos que se comportan de modo
diferente a los secuenciales. Dentro de estos métodos se debe distinguir entre la
hibridación paralela sincrónica y asincrónica.
La idea fundamental de la hibridación paralela sincrónica es la utilización de un
algoritmo como un operador de otro. Un ejemplo de este tipo de hibridación serı́a
emplear un algoritmo evolutivo como estrategia de búsqueda principal en donde, los
tradicionales operadores matemáticos utilizados en las etapas de recombinación y/o
mutación, son sustituidos por otro algoritmo que puede ser desde un método local
tradicional hasta un método tabú o incluso un algoritmo de templado simulado SA.
Este tipo de hibridación se denomina hibridación paralela sincrónica porque en ella
los diferentes algoritmos están sincronizados con precisión.
62 Capı́tulo 7. Métodos de optimización

Básicamente, el esquema de la hibridación paralela asincrónica implica varios


algoritmos realizando una búsqueda en un determinado espacio o sub-espacio, y
cooperando para encontrar el óptimo intercambiando información. Los algoritmos
que cooperan pueden ser todos idénticos dando lugar a métodos homogéneos, o
diferentes, en cuyo caso el método resultante se denominará heterogéneo.

7.3. Desarrollo de un método hı́brido secuencial


En una contribución reciente (Moles et al., 2003b), se consideraron varios méto-
dos de optimización global, tanto deterministas como estocásticos, para resolver un
problema de estimación de parámetros relativamente complejo, asociado a una ruta
bioquı́mica. Sólo un cierto tipo de algoritmos estocásticos, las estrategias evolutivas
(ES), fue capaz de resolverlo satisfactoriamente. El mejor resultado fue obtenido con
el método SRES, aunque con un elevado tiempo de cálculo.
Los algoritmos evolutivos simulan más o menos un proceso natural. Una propie-
dad básica de estos procesos evolutivos es que la población que actúa en ellos se
vuelve cada vez más uniforme, por lo que, empezando con una población aleatoria,
todos sus individuos se vuelven muy parecidos después de un cierto periodo de tiem-
po. La uniformización de los genotipos está relacionada con la estabilización de la
aptitud media de la población. Si se observa la evolución a lo largo del tiempo de
la aptitud media de la población de los algoritmos evolutivos, se ve claramente que
ésta tiende a converger y que la estabilización es bastante rápida. De este modo, es-
tos métodos serán relativamente rápidos en encontrar la vecindad del óptimo global
pero se harán especialmente lentos en la última fase de la búsqueda si se requiere
una solución refinada.
Por otra parte, se ha demostrado que ciertos métodos locales deterministas, como
los presentados en la sección 7.1.3, convergen muy rápido si son inicializados desde
un punto que se encuentre dentro de la zona de atracción de la solución global.
En el presente estudio se ha utilizado el método hı́brido secuencial en dos fases
presentado en Rodriguez-Fernandez et al. (2006) para problemas de estimación de
parámetros. En la primera fase de este método hı́brido se utiliza un método global
estocástico, SRES. El método estocástico se interrumpe cuando se satisface un cri-
terio de parada relativamente amplio. A pesar de que este criterio no asegura una
solución final apropiada, se elige lo suficientemente ajustado para asegurar que se
ha encontrado un punto en la vecindad de la solución global. La segunda fase se
inicializa desde este punto y se lleva a cabo por técnicas rápidas de estimación de
parámetros basadas en el gradiente. En este trabajo, se ha utilizado el método n2fb
7.3. Desarrollo de un método hı́brido secuencial 63

(Denis et al., 1981) con muy buenos resultados.

7.3.1. Ajuste del método hı́brido secuencial


Una vez que el método global y el local han sido seleccionados, se debe tratar la
cuestión de cómo estructurar su combinación. Aquı́ se ha elegido una aproximación
hı́brida secuencial de dos fases por lo que el asunto clave será decidir la cantidad
de búsqueda a realizar por cada método, es decir, el ajuste del hı́brido. En nues-
tra propuesta, el usuario debe especificar previamente el criterio de parada para el
método estocástico y para el determinista local, SC1 y SC2 . El valor asignado a SC1
establece el punto de cambio entre la búsqueda global y la local, y en cierto modo
controla la robustez del hı́brido, es decir, la probabilidad de convergencia a la ve-
cindad de la solución global. Por lo tanto, éste debe elegirse de modo que se asegure
que el método estocástico va a llegar a un punto dentro del radio de convergencia
del método determinista al óptimo global. Por otra parte, el valor elegido para SC2
será crucial a la hora de minimizar el tiempo de computación final asegurando a su
vez una solución muy cercana a la verdaderamente global. De este modo, uno debe
encontrar el mejor ajuste, es decir, un compromiso entre robustez y eficiencia.
Debe destacarse, que la elección de unos criterios SC1 y SC2 adecuados es de-
pendiente del problema, por lo que, en general, el ajuste del método hı́brido debe
realizarse para cada clase especı́fica de problemas. En otras palabras, y como ocurre
con todos los métodos estocásticos en general, no hay ningún procedimiento analı́ti-
co a priori para derivar, en base a las caracterı́sticas estructurales del problema,
rangos aconsejables para los criterios de parada. Esta dependencia es especialmente
relevante en problemas con restricciones dinámicas no lineales como los considerados
en el presente trabajo. Sin embargo, está ampliamente aceptado que los métodos es-
tocásticos, o sus hı́bridos, pueden ser ajustados en base a resultados empı́ricos para
clases especı́ficas. De hecho, esta aproximación ha dado lugar a los mejores métodos
que se conocen para muchas clases de problemas (Michalewicz y Fogel, 2000).
Basándose en la experiencia, se ha ideado una heurı́stica simple para ajustar el
punto de cambio (elección de SC1 ) del método hı́brido. Comenzando con las curvas
de convergencia (historiales de la función objetivo y de los vectores de decisión fren-
te al tiempo de CPU) obtenidos con algunas optimizaciones del método estocástico
puro, se selecciona un número de posibles puntos de cambio, en la mayorı́a de los
casos igualmente distribuidos en la escala lineal de tiempos de CPU. El método de
optimización local se inicia desde estos puntos, y se registran las curvas de con-
vergencia. En general, se va a obtener un cierto número de puntos de cambio que
convergen a soluciones locales (normalmente los que corresponden a tiempos más
64 Capı́tulo 7. Métodos de optimización

tempranos), y un conjunto de puntos que convergen a la mejor solución conocida


(o su vecindad próxima, dependiendo del valor de SC2 elegido), que será considera-
da como la global. En general, no se tendrá ningún conocimiento a priori sobre la
solución global, por lo que esta última suposición es la tı́pica de cualquier esquema
que incorpore métodos estocásticos. Por supuesto, en el caso de problemas sintéti-
cos (como algunos de los considerados aquı́), se está en mejor posición de evaluar la
eficacia del hı́brido, por que la solución global es conocida.
De estos datos se encontrará una región de valores admisibles para SC1 que re-
presentan un compromiso entre robustez y eficiencia, en otras palabras, estos valores
aseguran la convergencia final a la vecindad próxima de la mejor solución (robustez)
manteniendo el tiempo computacional total (global más local) en valores razonables
(eficiencia). Además, es importante destacar que este proceso de ajuste preliminar
no incrementa significativamente el esfuerzo computacional total comparado con el
uso del método estocástico puro, ya que: (i) el método estocástico se para prema-
turamente y (ii) las curvas de convergencia de un método estocástico pueden ser
reutilizadas.
En es este punto debe recordarse que los métodos estocásticos (ver revisión en
Moles et al., 2003b) pueden normalmente proporcionar muy buenas soluciones (cer-
ca de las globales), pero no proporcionan garantı́as totales (o sólo de modo proba-
bilı́stico débil). Por lo tanto, cualquier aproximación hı́brida que esté basada en
una primera fase de búsqueda global estocástica sufrirá la misma limitación básica,
incluso si el método de cambio es muy sofisticado (lo que, en cualquier caso, sólo
puede ser considerado como una heurı́stica más refinada).

7.4. Método hı́brido paralelo sincrónico


Con objeto de incrementar aún más la robustez y la eficiencia computacional,
en nuestro grupo se ha implementado una nueva metaheurı́stica basada en Scatter
Search (SS), conocido en castellano como búsqueda dispersa (Egea et. al, 2006).
Con esta metaheurı́stica combinada con varios métodos locales, se consigue una
aceleración de más de un orden de magnitud con respecto a los resultados previos.
Además este método elimina la delicada tarea de decidir dónde colocar el punto de
cambio entre el método global y el local.
En una reciente revisión en la que se comparan un buen número de métodos de
optimización global en un conjunto de 1000 problemas de optimización global con
restricciones (Neumaier et al, 2005), el método llamado OQNLP (basado en Scatter
Search) resultó ser el mejor de todos los estocásticos. Además, OQNLP resolvió el
7.4. Método hı́brido paralelo sincrónico 65

mayor porcentaje de problemas con un alto número de variables de decisión. Esta


es la justificación para elegir e implementar un algoritmo hı́brido basado en Scatter
Search para resolver nuestros problemas de optimización global.
Cuando la búsqueda local está activada, Scatter Search puede definirse como un
método hı́brido paralelo sincrónico ya que combina una búsqueda global con una
intensificación (es decir, búsqueda local). El algoritmo utiliza distintas heurı́sticas
para elegir eficientemente puntos iniciales para la búsqueda local, basadas en filtros
de mérito y de distancia ası́ como un término de memoria, lo que ayuda a superar
el problema del cambio de la búsqueda global a la local.
Scatter Search es un método de poblaciones basado en formulaciones original-
mente propuestas en los años 60 para combinar reglas de decisión y problemas con
restricciones, como el método de restricciones subrogadas. Éste fue introducido por
primera vez por Glover (1977) como una heurı́stica para programación entera. Scat-
ter Search orienta sus exploraciones sistemáticamente en relación a un conjunto de
puntos de referencia que normalmente está compuesto por buenas soluciones obte-
nidas en anteriores esfuerzos por resolver el problema.
Es interesante observar las similitudes y las diferencias entre Scatter Search y las
propuestas originales de los algoritmos genéticos. Ambos son métodos basados en
poblaciones, o estrategias evolutivas. Ambos incorporan la idea de que un aspecto
clave para producir nuevos elementos es la generación de alguna forma de combina-
ción de los elementos existentes. Sin embargo, los GAs se basan en la idea de elegir a
los padres aleatoriamente para producir descendencia, y además en introducir alea-
toriedad para determinar qué componentes de los padres deben ser combinados. A
diferencia de esto, Scatter Search no enfatiza la aleatoriedad, particularmente en el
sentido de ser indiferente a la elección entre alternativas. En lugar de esto, SS in-
corpora respuestas estratégicas tanto deterministas como probabilı́sticas, que tienen
en cuenta las evaluaciones y la historia. Debido al modo en que el proceso de gene-
ración está implementado, esta propuesta se centra en generar resultados relevantes
sin perder la habilidad de producir soluciones diversas.
En Laguna y Marti (2003) se da un esquema en cinco pasos para describir las
etapas básicas del algoritmo (ver Figura 7.3):

I.– Método de generación de soluciones diversas: el algoritmo comienza


generando un conjunto inicial de soluciones diversas (alrededor de 100), del
que se extrae un subconjunto pequeño (alrededor de b = 10) que se denomi-
nará conjunto de referencia RefSet.

II.– Método de mejora: tı́picamente se trata de un método de búsqueda local


66 Capı́tulo 7. Métodos de optimización

Generación de Soluciones Diversas

Formación del RefSet

Combinación elementos RefSet

SÍ SÍ
¿Llamada ¿Pasa
método filtros?
local?
NO

NO
Regeneración Actualización Cálculo
RefSet RefSet resultados
método local


¿Elementos no
combinados?

NO

NO ¿Satisfacción
criterio de
parada?

Resultados

Figura 7.3: Esquema de funcionamiento de Scatter Search

para mejorar las soluciones, tanto del conjunto de referencia como las combi-
nadas antes de estudiar su inclusión en el conjunto de referencia.

III.– Método de actualización del conjunto de referencia: las soluciones del


conjunto de referencia RefSet están ordenadas de mejor a peor con respecto
a su calidad, de modo que el acceso de otras partes del método sea eficiente.
Las soluciones entran a formar parte de este conjunto en función de criterios
de calidad y diversidad.

IV.– Método de generación de subconjuntos: método para generar subconjun-


tos del RefSet a los que se aplicará el método de combinación. Scatter Search
se basa en examinar de forma bastante exhaustiva todas las combinaciones del
RefSet y este método especifica la forma en que se seleccionan los subconjuntos
para aplicarles el método de combinación.
7.4. Método hı́brido paralelo sincrónico 67

V.– Método de combinación de soluciones: método de combinación para


transformar un subconjunto dado de soluciones producidas por el Método de
generación de subconjuntos en uno o más vectores combinados.

Las diferencias entre las distintas implementaciones de Scatter Search se basan en


el nivel de sofisticación con el que están implementados los pasos, no en la presencia
o ausencia de otros pasos. En nuestra implementación, llamada SSm (Scatter Search
para Matlab), se han añadido algunas caracterı́sticas avanzadas:

El usuario puede elegir una distribución logarı́tmica para la generación de so-


luciones iniciales con objeto de favorecer su presencia cerca de los lı́mites en
términos de distancia euclı́dea, ya que en problemas de estimación de paráme-
tros es bastante usual que el óptimo global se encuentre cerca de los lı́mites
inferiores.

Se han añadido mecanismos para evitar zonas planas (también frecuentes en


problemas de estimación de parámetros) ası́ como otros para no quedar atra-
pado en soluciones locales pequeñas.

Un nuevo método de combinación permite explorar con mayor profundidad el


espacio de búsqueda.

Cuando ya se han hecho todas las combinaciones entre las soluciones del Ref-
Set, el algoritmo puede parar o continuar mediante la reconstrucción parcial
del conjunto de soluciones de elite. Se ha implementado una nueva estrategia
para reconstruir este conjunto, basada en direcciones de búsqueda ortogonales.

El usuario puede elegir entre un amplio número de métodos locales SQP como
fmincon (The MathWorks Inc.), solnp (Ye, 1987), npsol (Gill et al, 1998),
snopt (Gill et al, 2002), métodos directos como NOMADm (Abramson, 2002)
para casos con datos con mucho ruido, y otros especı́ficamente diseñados para
problemas de estimación de parámetros como n2fb/dn2fb de Dennis et al.
(1981).
Capı́tulo 8

GOSBio: entorno para modelado e


identificación

El desarrollo de modelos matemáticos puede ser considerado como un ciclo y


debe comprender una serie de pasos. La omisión de alguna de estas etapas pue-
de dar lugar a modelos erróneos o de baja capacidad predictiva. Por este motivo,
en el presente estudio se ha acoplado el uso de métodos de optimización global
para la estimación de parámetros y el diseño óptimo de experimentos con otros
procedimientos computacionales para analizar la identificabilidad y otras medidas
asociadas. Todas estas tareas fueron implementadas en Matlab (The Mathworks
Inc.) creando pasarelas adecuadas para llamar a códigos Fortran externos cuando
resultó necesario. Estos códigos Fortran fueron implementados como librerı́as de en-
lace dinámicas (dynamic link libraries, .dll) dando lugar a un entorno integrado,
denominado GOSBio (Global Optimization for Systems Biology), capaz de llevar a
cabo la estimación robusta de parámetros, el análisis de identificabilidad y el di-
seño óptimo de experimentos dinámicos (Rodriguez-Fernandez y Balsa-Canto, 2006;
Balsa-Canto y Rodriguez-Fernandez, 2006).
Para utilizar estas herramientas, el usuario tiene que especificar el modelo y
otros datos (por ejemplo, los valores iniciales de los estados, los tiempos a los que
se efectúan las medidas o las variables manipulables en el OED) en un fichero de
entrada.
GOSBio llevará a cabo entonces la estimación de parámetros y/o el diseño óptimo
de experimentos evaluando a su vez la identificabilidad y otras medidas del modo
que se detalla a continuación.
Los resultados, además de presentarse por pantalla en tiempo real, se guardan
en un fichero de datos de salida y en una serie de ficheros gráficos.

69
70 Capı́tulo 8. GOSBio: entorno para modelado e identificación

8.1. Descripción de la metodologı́a


Las principales etapas del entorno GOSBio pueden esquematizarse del siguiente
modo (ver Figura 8.1):
Modificar modelo
Modelo
propuesto

Diseño Cálculo
experimentos sensibilidades

Modelo Modelo no Ránking


adecuado adecuado parámetros

NO
SÍ NO

Validación del Análisis identificabilidad


modelo teórica

NO SÍ

Cálculo intervalos Obtención datos


de confianza experimentales

Análisis identificabilidad Estimación


práctica parámetros

Cómputo
FIM

Figura 8.1: Esquema de GOSBio

Paso 1: Cálculo de las sensibilidades paramétricas (derivadas parciales de los esta-


dos con respecto a los parámetros) para un valor dado del conjunto de paráme-
tros. En el caso de problemas sintéticos (aquellos en los que los datos son
pseudo-experimentales calculados mediante simulación) las sensibilidades se
calcularán para los valores nominales. Sin embargo, en el caso de datos reales,
cuando este paso se realiza previo a cualquier estimación de parámetros, se
emplearán los valores de los parámetros disponibles en la bibliografı́a u otras
fuentes. De no disponer de ninguna información previa sobre el valor de los
parámetros, se considerará el punto medio entre los lı́mites definidos para la
estimación.

Paso 2: Cómputo de las sensibilidades relativas a partir de las sensibilidades abso-


lutas obtenidas en el paso anterior y del valor de los estados obtenido mediante
simulación. Empleando las sensibilidades relativas se procede al cálculo del va-
lor de los cinco criterios δ msqr , δ mabs , δ mean , δ max y δ min explicados en la sección
3.3 y a la clasificación de los parámetros en orden decreciente de δ msqr dando
lugar a un ranking de importancia.
8.1. Descripción de la metodologı́a 71

Paso 3: Análisis de la identificabilidad a priori local mediante la construcción de la


matriz de correlación a priori y eliminación de los parámetros no identificables
y/o redundantes a partir de la información proporcionada por este análisis y
el ranking de parámetros.
Dado que esta eliminación de parámetros no identificables está basada en un
análisis local (para un valor concreto de los parámetros) este paso debe realizar-
se iterativamente. El análisis de identificabilidad local para distintos conjuntos
de parámetros puede dar lugar a conclusiones diferentes sobre la identificabi-
lidad de los mismos. Por ello, una vez realizada la estimación, debe volverse al
Paso 1 para calcular las sensibilidades para los nuevos valores incluyendo de
nuevo los parámetros descartados en etapas anteriores.

Paso 4: Estimación de los parámetros mediante métodos de optimización global a


partir de los datos experimentales disponibles. Los métodos empleados permi-
ten manejar con robustez medidas con ruido y observaciones parciales.

Paso 5: Cómputo de las sensibilidades paramétricas para los valores obtenidos de


la estimación de modo análogo al paso 1 y construcción de la matriz de infor-
mación de Fisher (FIM), la matriz de covarianza y la de correlación.

Paso 6: Cálculo del número de condición (rcond) de la FIM para determinar si


ésta es singular en cuyo caso el modelo se considera prácticamente no identi-
ficable debido probablemente a experimentos no informativos (asumiendo que
el modelo es estructuralmente identificable e identificable a priori).

Paso 7: Análisis de las posibles correlaciones entre pares de parámetros mediante


la matriz de correlación.

Paso 8: Cómputo de los intervalos de confianza del 95 % a partir de la FIM y


mediante el método de Monte Carlo ofreciendo una medida objetiva sobre la
precisión de los parámetros estimados.

Paso 9: Validación del modelo: a pesar de que no existe ningún método que pueda
garantizar la validez de un modelo con total certeza, es necesario investigar el
comportamiento del mismo de modo que, si supera todas las pruebas de invali-
dación a las que es sometido, se pueda considerar satisfactorio. Este programa
permite realizar distintas pruebas de invalidación:

observación de las gráficas correspondientes al ajuste de las predicciones


del modelo con respecto a los datos experimentales
72 Capı́tulo 8. GOSBio: entorno para modelado e identificación

métodos estadı́sticos basados en los errores de predicción (los residuos


deben tener media cero, estar distribuidos de forma simétrica y ser inde-
pendientes del tiempo y de las entradas)
estudio del comportamiento del modelo con conjuntos de datos indepen-
dientes (datos no empleados para la calibración)
análisis de la precisión de los parámetros estimados mediante los interva-
los de confianza

Paso 10: Diseño óptimo de nuevos experimentos dinámicos mediante métodos de


optimización global con objeto de mejorar la identificabilidad y la precisión
de los parámetros estimados. El programa permite al usuario elegir la función
escalar de la matriz de información de Fisher que desea emplear como función
objetivo (criterio A, A-Modificado, D, E o E-modificado).

8.2. Fichero de entrada


El fichero de entrada contiene toda la información necesaria para llevar a cabo la
estimación de parámetros y/o el diseño óptimo de experimentos. En el Apéndice A
se da un ejemplo de un fichero de entrada que debe contener la siguiente información:

8.2.1. Modelo matemático


El sistema de ODEs o DAEs que describe el modelo debe proporcionarse en
alguna de estas formas:

1. Fichero Fortran de nombre fcn.f con la siguiente estructura:


SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
YDOT=F(...) OR M*YDOT=F(...)
RETURN
END
Los sistemas de ODEs se resolverán mediante los integradores rkf45 (Sham-
pine et al., 1976) o radau5 (Hairer y Wanner, 1996) y los de DAEs mediante
radau5.

2. Fichero Matlab, fcn.m, de estructura:


function yteor = fcn(t,y,par)
8.2. Fichero de entrada 73

El sistema se resolverá mediante el integrador de Matlab ode15s.m.

3. Vector problem input.ydot, tipo carácter, incluyendo las ecuaciones. A par-


tir de este vector el programa generará un fichero Fortran y el sistema se
resolverá mediante los integradores rkf45 o radau5.

8.2.2. Datos de entrada


problem input.n states: número de variables de estado.

problem input.y0: vector de condiciones iniciales.

problem input.sens0: matriz de valores iniciales de las sensibilidades. Esta


matriz será cero a menos que la condición inicial para un estado en particular
dependa de un parámetro.

problem input.n par: número de parámetros del modelo.

problem input.par: valores nominales de los parámetros.

problem input.n theta par: número de parámetros a estimar.

problem input.index theta par: ı́ndice de los parámetros a estimar.

problem input.n exp: número de experimentos.

problem input.n theta y0: número de condiciones iniciales a estimar.

problem input.index theta y0: ı́ndice de las condiciones iniciales a estimar.

problem input.n obs: número de variables medidas.

problem input.ms: vector de estados medidos o funciones de observación.

problem input.n m: número de medidas por experimento.

problem input.t m: vector de tiempos de las medidas.

problem input.measurement type: tipo de medidas.

- real: el usuario debe proporcionar los datos experimentales


- sim: el código generará datos pseudo-experimentales

problem input.exp data: datos experimentales.

problem input.rel error: error relativo añadido a los datos simulados.


74 Capı́tulo 8. GOSBio: entorno para modelado e identificación

problem input.noise type: tipo de error de los datos pseudo-experimentales.

- 0: exp data = yteor*(1+rel error*rand)


- 1: exp data = yteor+rel error*rand

problem input.fobj type:

Para estimación de parámetros:


- 0: mı́nimos cuadrados sin normalización
- 1: normalización con max(exp data)
Para diseño óptimo de experimentos:
- A optimality = trace(inv(FIM))
- A modified = -trace(FIM)
- D optimality = -det(FIM)
- E optimality = max(abs(eig(inv(FIM))))
- E modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))

problem input.n u: número de variables de control.

problem input.n con: número de escalones de control.

problem input.u: valor de las variables de control.

problem input.t con: vector de tiempos para los cambios en el control.

ivp solver.name: nombre del integrador.

- ode15s: integrador de Matlab para ODEs y DAEs


- radau5: integrador Runge-Kutta en Fortran adecuado para DAEs
- rkf45: integrador Runge-Kutta-Fehlberg en Fortran para ODEs

ivp solver.sens: método de cálculo de las sensibilidades paramétricas.

- ODESSA: método BDF implementado en Fortran


- finite differences: método de diferencias finitas

opt solver.name:

- DE: Differential Evolution


- SRES: Stochastic Ranking Evolutionary Search
8.3. Ficheros de salida 75

- SSm: Scatter Search para Matlab 2.5


- only local: método local a elegir entre clssolve, fmincon, n2fb, dn2fb,
NOMADm, npsol, snopt y solnp
- multistart: multi-start de cualquiera de los métodos locales
- simulate: realiza sólo la simulación

opt solver.par guess/par min/par max: valores iniciales y lı́mites inferiores


y superiores para los parámetros a estimar.

opt solver.y0 guess/y0 min/y0 max: valores iniciales y lı́mites inferiores y


superiores para las condiciones iniciales a estimar.

opt solver.u guess/u min/u max: valores iniciales y lı́mites inferiores y su-
periores para los controles en OED.

opt solver.t f/tf min/tf max: valor inicial y lı́mite inferior y superior para
el tiempo final en OED.

results.folder: nombre de la carpeta donde se guardarán los resultados.

results.report: nombre del fichero del informe de resultados.

8.3. Ficheros de salida


8.3.1. Datos
El programa GOSBio genera un fichero de texto con los datos más relevantes y
una estructura de datos de Matlab (.mat) con todas las entradas proporcionadas
por el usuario y todos los resultados obtenidos. Estos dos archivos se guardan en la
carpeta results.folder.

8.3.2. Figuras
Además se generan una serie de figuras que se detallan a continuación. Éstas se
muestran en pantalla y son posteriormente almacenadas en la carpeta de resultados
como figuras de Matlab (.fig) y en formato PostScript encapsulado (.eps).

ranking parameters: representación en el eje de ordenadas del valor de los


cinco criterios relativos al ranking de parámetros. En el eje de abscisas se
representan los parámetros ordenados por orden decreciente de δ msqr .
76 Capı́tulo 8. GOSBio: entorno para modelado e identificación

correlation a priori: representación de la matriz de correlación a priori.


Para facilitar su visualización, esta matriz se representa en una cuadrı́cula
donde el color de cada celda viene dado por el valor de cada uno de los ele-
mentos de la matriz. El color rojo corresponde a 1, el azul a -1 y el verde a 0
mientras que los valores intermedios se representarán por distintas tonalidades
de estos colores. Una barra representando la escala de colores adjunta a cada
gráfica facilita la identificación del valor correspondiente a cada color.

fit plot: representación de los valores predichos por el modelo para cada
uno de los estados medidos (linea continua) y de los datos experimentales
correspondientes (marcador) a lo largo del tiempo.

residuals plot: representación de los residuos (diferencia entre los valores


predichos por el modelo y los datos experimentales) en función del tiempo.

convergence curve PE: curva de convergencia (valor de la función objetivo en


función del tiempo) para el método de optimización elegido para la estimación
de parámetros.

convergence curve OED: curva de convergencia (valor de la función objetivo


en función del tiempo) para el método de optimización elegido para el OED.

histogram: histograma de frecuencia de las soluciones para el modo multi-


start.

correlation a posteriori: representación de la matriz de correlación a pos-


teriori de forma análoga a la matriz de correlación a priori.

experiment profile: representación de los experimentos dinámicos diseñados


mediante OED (tiempos de medida y variación de los controles a lo largo del
tiempo).

confidence plots: representación de los intervalos de confianza obtenidos


mediante el método de Monte Carlo.

least sq plots: representación de las lı́neas de contorno de la función objetivo


en el plano paramétrico.

Este programa puede ser empleado para la identificación de un amplio rango


de modelos no lineales. En el presente estudio, su potencial se ilustra mediante la
resolución de una serie de problemas de la ingenierı́a de bioprocesos. Los resultados
obtenidos se muestran en los siguientes capı́tulos. Todos los cálculos fueron realizados
en un PC/Pentium 4 (1.80 GHz) bajo Windows 2000 y Matlab 6.5.
Parte III

Aplicaciones
Capı́tulo 9

Secado de alimentos

9.1. Introducción
La creciente demanda de los consumidores con respecto a la calidad de los ali-
mentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de métodos de computación basados en modelos para la simulación, la optimización
y el control de técnicas para su procesamiento (Datta, 1998; Banga et al., 2003).
El modelado de secado por aire de alimentos ha recibido una gran atención
durante las últimas décadas ya que es uno de los métodos de preservación más
importantes. Los primeros modelos matemáticos simples de este proceso aparecieron
a finales de los años 70. El desarrollo de nuevas técnicas numéricas y el incremento
de las capacidades computacionales han permitido el aumento de la complejidad
de modelos posteriores. Muchos autores han revisado los distintos avances, ver p.ej.
Bruin y Luyben (1980), Jayaraman y Das Gupta (1992) o Waananen et al. (1993) o,
más recientemente, Ruiz-Lopez et al. (2004) en el contexto de modelado de procesos
y Banga y Singh (1994) y los trabajos allı́ citados, en el contexto de optimización.
La combinación de las leyes fı́sicas de transferencia de masa y de energı́a con las
propiedades fı́sicas del producto alimentario, permiten la predicción de la variación
a lo largo del tiempo de las variables de estado relevantes (contenido de humedad y
temperatura), sujetas a diferentes condiciones de secado. Aunque los modelos más
simples asumen que la contracción del alimento durante el proceso es despreciable y
que las propiedades de transporte son constantes, se ha ilustrado experimentalmente
que estas suposiciones no son realistas (Balaban, 1989; Park, 1998; Simal et al., 1998)
y que, por lo tanto, cualquier modelo riguroso deberı́a considerar estos efectos (ver
una revisón más extensa en Mayor y Sereno (2004)).
En la bibliografı́a se han propuesto muchos modelos (la mayorı́a empı́ricos) para
diferentes tipos de alimentos. La mayor parte de ellos son muy no lineales, frecuen-

79
80 Capı́tulo 9. Secado de alimentos

temente exponencialmente no lineales, con respecto al contenido de humedad y a


la temperatura y dependen de varios parámetros. Por otro lado, normalmente se
asume que las propiedades de transporte varı́an linealmente con la temperatura y
que dependen también de uno o dos parámetros. Nótese que estos parámetros no
son medibles directamente por lo que deben ser estimados mediante la resolución de
un problema de estimación (calibración del modelo).

En este capı́tulo se consideró el análisis de identificabilidad y el problema de


estimación de parámetros en modelos de secado. Como se ha explicado en la parte
correspondiente a Metodologı́a, dada la estructura de un modelo para un produc-
to alimentario en particular y un conjunto de datos experimentales, el objetivo de
la estimación de parámetros es calibrar el modelo de modo que reproduzca los re-
sultados experimentales de la mejor forma posible. Aunque aparentemente simple,
la calibración de modelos no lineales es normalmente una tarea compleja debido a
numerosas razones, entre las que destacan la presencia de problemas de no identifi-
cabilidad (es decir, la imposibilidad de encontrar una solución única para todos los
parámetros) y la existencia de soluciones sub-óptimas y valles muy estrechos o muy
planos dónde es muy difı́cil progresar hacia la solución (Rodriguez-Fernandez et al.,
2006; Schittkowski, 2002).

El carácter no lineal de los modelos considerados, tanto con respecto a los


parámetros como a los estados, da lugar a menudo a este tipo de dificultades.
En Rodriguez-Fernandez et al. (2004), se consideró el problema de estimación de
parámetros en modelos de transferencia de masa y energı́a para el procesamiento de
alimentos, ilustrando la necesidad de métodos de optimización globales con objeto
de evitar las soluciones espúreas encontradas a menudo por los métodos tradicionales
basados en gradiente. Además, este estudio reveló la presencia de problemas de iden-
tificabilidad en el modelo considerado que no habı́an sido presentados anteriormente.
Por lo tanto, en este capı́tulo se propone una aproximación para la identificación en
dos pasos que permitirá evitar estas dificultades. El primer paso consiste en analizar
la identificabilidad estructural del modelo y el segundo en resolver el problema de
estimación de parámetros utilizando métodos de optimización global.

El análisis de identificabilidad estructural se realizó utilizando la llamada apro-


ximación de Taylor (ver sección 4.1). El análisis de la función de mı́nimos cuadrados
reveló también la presencia de soluciones locales proporcionando una clara motiva-
ción para el empleo de técnicas de optimización global.
9.2. Modelo matemático 81

9.2. Modelo matemático


Como ejemplo de un modelo de secado de complejidad media, se consideró el
secado por aire de una lámina compuesta por agua y celulosa en una bandeja de
secado (ver Figura 9.1). No obstante, los métodos empleados también pueden ser
aplicados a modelos de mayor complejidad. La formulación matemática del modelo
dinámico, en la que están implicados dos fenómenos acoplados de transferencia de
masa y energı́a, fue tomada de Banga y Singh (1994) y se resume a continuación.

corriente de aire
Tdb

Ts , m
L3 = 0.2 cm
L2 = 3.5 cm
L1 = 3.4 cm

Figura 9.1: Secado por aire de una lámina de celulosa

9.2.1. Transferencia de masa


Se asume que el transporte de agua dentro del sólido es el mecanismo de control
y que la fuerza conductora es el gradiente del contenido de humedad. Por lo tanto,
la ecuación de gobierno será la ley de Fick para la difusión (segunda ley de Fick):

dm
= ∇ (D∇m) (9.1)
dt
Debido al pequeño grosor de la lámina en comparación con las otras dimensiones,
ésta puede ser considerada como un sistema semi-infinito en donde el contenido de
humedad depende sólo de la posición con respecto a la dimensión menor. Además,
con objeto de tener en cuenta el efecto de la contracción, se asume que la difusividad
D es una función no lineal de ambos, el contenido de humedad y la temperatura,
por lo que la ecuación (9.1) resulta:
µ ¶ µ ¶2
dm ∂ 2m ∂D ∂m
=D + (9.2)
dt ∂x2 ∂m ∂x
82 Capı́tulo 9. Secado de alimentos

con el valor de la difusividad calculado según Luyben, Liou, y Bruin (1982):


· µ ¶¸
ED 1 1
D = Dref exp − − (9.3)
R Ts Tref

donde Dref y ED son funciones del contenido de humedad:


µ ¶
b1 + b2 m
Dref = exp − (9.4)
1 + b3 m
µ ¶
b4 + b5 m
ED = (9.5)
1 + b6 m
El contenido medio de humedad de la lámina se calcula utilizando:
Z L
1
mavg = m(x)dx (9.6)
L 0

ρ0 L1 L2 L3
ms = (9.7)
mavg,0 + 1

9.2.2. Transferencia de energı́a


Se asume que la temperatura de la lámina es uniforme. Por lo tanto, un balance
de energı́a resulta (suposición de lámina fina):
µ ¶
dTs dmavg
(ms Cps + ms mavg Cpw ) = hA (Tdb − Ts ) + ms λw (9.8)
dt dt
donde el calor latente de vaporización λw depende de la temperatura:

λw = α1 − α2 Ts (9.9)

El coeficiente de transferencia de calor y el área de la superficie son variables


durante el secado, por lo que hA se estima utilizando una función lineal empı́rica de
la humedad:

hA = A0 (p1 mavg + p2 ) (9.10)


donde:

A0 = 2 (L1 L2 + L1 L3 + L2 L3 ) (9.11)

El problema tı́pico de calibración consistirı́a en calcular los parámetros relaciona-


dos con la contracción y la transferencia de energı́a, en nuestro caso bi y pi , basándose
en medidas experimentales del contenido medio de humedad de la lámina mavg y
9.3. Análisis de identificabilidad estructural 83

de su temperatura Ts a lo largo del tiempo para un conjunto de condiciones experi-


mentales dadas. El resto de los parámetros están disponibles en manuales estándar
(p.ej. aquellos para la vaporización de agua).
En un estudio preliminar (Rodriguez-Fernandez et al., 2004), este problema fue
resuelto utilizando métodos de optimización global obteniendo varias soluciones (di-
ferentes valores para los parámetros), todas ellas capaces de ajustar adecuadamente
los datos experimentales. El hecho de que estas soluciones sean equivalentes y ob-
tenidas utilizando técnicas de optimización global permite concluir que no son el
resultado de la convergencia a soluciones locales sino un claro signo de la falta de
identificabilidad del modelo.

9.3. Análisis de identificabilidad estructural


Con objeto de estudiar la identificabilidad estructural del modelo considerado,
se aplicó el método de series de Taylor detallado en la sección 4.1. Para ello, la
ecuación diferencial parcial (9.2) se transformó primero en un conjunto de ecuaciones
diferenciales ordinarias (ODEs) utilizando el método numérico de las lı́neas (NMOL)
(Schiesser, 1991) que consiste en la discretización del dominio espacial. El secado
por aire de alimentos se describe entonces por:

ṁ1 = 0 (9.12)
µ ¶ µ ¶µ ¶
mi−1 − 2mi + mi+1 Di+1 − Di−1 mi+1 − mi−1
ṁi = Di + (9.13)
2dx 2dx 2dx
µ ¶
mnx−1 − mnx
ṁnx = Dnx (9.14)
dx
nx
1X
ṁavg = ṁi (9.15)
L i=1
µ ¶
1
Ṫs = (A0 (p1 mavg + p2 ) (Tdb − Ts ) (9.16)
ms Cps + ms Cpw mavg
+ms (α1 − α2 Ts ) ṁavg )

donde mi representa el contenido local de humedad en el punto xi = (nx − i) dx, de


modo que x1 = L y Di = D (mi ); nx es el nivel de discretización y dx = L/ (nx − 1).
A continuación, la aproximación de Taylor, implementada en un software de
manipulación simbólica (MATHEMATICATM ), fue aplicada a las trayectorias de
las medidas en las ecuaciones (9.15-9.16) y se obtuvieron los siguientes coeficientes:
84 Capı́tulo 9. Secado de alimentos

a01 = mavg,0
a02 = Ts,0
1 1
a11 = − dxDm,0 m0 + dx2 (Dm,0 − Dm1 ,0 ) m0
2 4
λw,0 a11 A0 (a01 p1 + p2 ) (Tdb,0 − a02 )
a12 = +
Cps + Cpw a01 (Cps + Cpw a01 ) ms
2
µ µ
dx m0 a12 (ED,0 − b4 Dm1 ,0 ) Dm,0 dx m0 (b2 + b3 log (Dref,0 ))
a21 = 2
− a11 1 −
4Ra02 2 1 + b3 m0
¶ ¶
m0 (−b5 + b6 ED,0 ) (log (Dref,0 ) − log (Dm,0 )) m0 ED,0 a12
+ +
ED,0 (1 + b6 m0 ) Ra202
³ ´
A0 (a01 p1 + p2 ) Ṫdb,0 − a12 + A0 p1 a11 (Tdb,0 − a02 ) + ms a21 λw,0
a22 =
(Cps + Cpw a01 ) ms
¡ ¢
a11 −a12 (α1 + Cpw ) − 12 dxDm,0 λw,0
+
Cps + Cpw a01
donde el sub-ı́ndice “,0” se refiere al valor de la magnitud en t = 0, tal que Dm,0 =
D (m0 ) y Dm1 ,0 = D (m1 (t = 0)).
La complejidad del sistema hace imposible el estudio de la identificabilidad es-
tructural global de todo el conjunto de parámetros p = [b1 b2 b3 b4 b5 b6 p1 p2 ]T . Sin
embargo, el primer coeficiente de Taylor permite extraer algunas conclusiones sobre
la identificabilidad estructural local para algunos subconjuntos:

i. Fijando todos los bi y utilizando a12 y a21 se puede obtener una solución
única para los parámetros relacionados con la transferencia de energı́a, p1 y
p2 , siempre que Tdb,0 sea diferente de Ts,0 .
Por lo tanto pk = [p1 p2 ]T son s.l.i.

ii. Para algunas parejas pk = [bi bj ]T y pk = [pi bj ]T también es posible conseguir


una solución única, siendo también s.l.i., pero no para todas ellas. A modo
ilustrativo, las Figuras 9.2 y 9.3 muestran las lı́neas de contorno correspon-
dientes a la función de mı́nimos cuadrados empleando un único experimento
“perfecto” con Tdb constante para la estimación de b3 b6 y p1 b3 . Las gráficas
confirman lo que predice la aproximación de Taylor: es posible estimar b3 con
gran precisión pero es imposible estimar b6 o p1 . Nótese que utilizando un di-
seño de experimentos adecuado puede mejorarse la identificabilidad de estos
parámetros.
9.3. Análisis de identificabilidad estructural 85

18
6.755
16
6.75
14
6.745
12
b6

b3
10 6.74

8 6.735

6 6.73

4
6.725
6.4 6.5 6.6 6.7 6.8 6.9 7 7.1 8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75
b3 p1 −4
x 10

Figura 9.2: Lı́neas de contorno para Figura 9.3: Lı́neas de contorno para
los parámetros b3 y b6 los parámetros p1 y b3

iii. Las condiciones suficientes (ecuación 4.6) aplicadas a a22 revelan que algunos
conjuntos de cuatro parámetros son s.l.i. A modo ilustrativo, aquı́ se consi-
deró el caso pk = [b1 b4 p1 p2 ]T .
³h i´
De la ecuación a22 ([b1 b4 p1 p2 ]) = a22 b̂1 b̂4 p̂1 p̂2 se concluye que:

p1 = p̂1 (9.17)
a01 p1 + p2 = a01 p̂1 + p̂2 (9.18)
µ ¶ µ ¶
1 1 1 1
−b1 + b4 − + = −b̂1 + b̂4 − + (9.19)
RTs,0 RTref RTs,0 RTref
µ ¶
b1 b4 1 1 b̂1
− + + =− (9.20)
1 + b3 m0 1 + b6 m0 RTs,0 RTref 1 + b̂3 m0
µ ¶
b̂4 1 1
+ − +
1 + b6 m0 RTs,0 RTref

y estas ecuaciones son simultáneamente ciertas sólo en el caso de que:

h i
[b1 b4 p1 p2 ] = b̂1 b̂4 p̂1 p̂2

Las Figuras 9.4 y 9.5 muestran las lı́neas de contorno correspondientes a la


función de mı́nimos cuadrados utilizando un único experimento “perfecto” con Tdb
constante para la estimación de b1 b4 y p1 p2 . Nótese que aunque la identificabilidad
estructural está garantizada, aparecen varias soluciones subóptimas, demostrando
la necesidad de emplear técnicas de optimización global a la hora de afrontar la
resolución del problema de estimación de parámetros.
86 Capı́tulo 9. Secado de alimentos

100.25
0.01874
100.2
0.01873
100.15
0.01872 100.1
0.01871 100.05

b4
p2

0.01870 100

0.01869 99.95

0.01868 99.9

0.01867 99.85

99.8
0.01866
99.75
8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75 34.12 34.14 34.16 34.18 34.2 34.22 34.24 34.26 34.28
p1 x 10
−4 b1

Figura 9.4: Lı́neas de contorno para Figura 9.5: Lı́neas de contorno para
los parámetros p1 y p2 los parámetros b1 y b4

9.4. Ranking de parámetros


Mediante la evaluación de la sensibilidad de los estados medidos con respecto
a los parámetros para sus valores nominales también se pueden extraer algunas
conclusiones de cómo éstos van a afectar a las predicciones del modelo y establecer
un ranking de los mismos. En la Tabla 9.1 se muestra el valor de los criterios descritos
en la sección 3.3 para los ocho parámetros del modelo. Los parámetros aparecen en
orden decreciente con respecto al criterio δ msqr y se representan en la Figura 9.6.

4
dmsqr
d
3 mabs
dmean
dmax
2 dmin
Valor del criterio

−1

−2

−3

−4
b3 b2 b1 b6 p2 b4 b5 p1
Parámetros

Figura 9.6: Parámetros ordenados por orden decreciente de δ msqr


9.5. Estimación de parámetros 87

Parámetro Valor nominal δ msqr δ mabs δ mean δ max δ min


b3 6.74e+0 8.52e-1 1.42e+0 -1.37e+0 1.26e-1 -3.24e+0
b2 1.38e+2 7.30e-1 1.23e+0 1.17e+0 2.73e+0 -1.20e-1
b1 3.42e+1 4.31e-1 6.73e-1 6.70e-1 1.91e+0 -9.28e-3
b6 1.00e+2 4.34e-2 5.60e-2 5.42e-2 1.73e-1 -2.34e-2
p2 1.87e-2 3.97e-2 7.76e-2 5.92e-3 2.15e-1 -9.14e-2
b4 1.00e+2 3.49e-2 4.21e-2 -4.13e-2 1.14e-2 -1.48e-1
b5 2.00e+2 2.29e-2 3.05e-2 -2.91e-2 1.54e-2 -8.70e-2
p1 8.73e-4 1.29e-3 2.36e-3 1.62e-4 8.62e-3 -2.92e-3

Tabla 9.1: Valores para el ranking de parámetros

Estos resultados reflejan grandes diferencias en los valores de δ msqr para los
distintos parámetros lo que indica que la salida del modelo es considerablemente
sensible a algunos de ellos y muy poco sensible a otros. Ası́ se ve, por ejemplo, que
el parámetro ante el cual el modelo presenta una mayor sensibilidad es b3 y el de
menor influencia es p1 . Las lı́neas de contorno representadas en la Figura 9.3 también
apuntan en esta dirección mostrando cómo un cambio en el valor de b3 produce una
gran variación en el valor de la función objetivo mientras que un cambio en p1
produce un efecto mucho menor.
Las pequeñas diferencias entre δ msqr y δ mabs , indican que no existe una gran va-
riabilidad en las sensibilidades (Sj ) ni valores alejados (outliers). Una comparación
de δ max y δ min indica que todos los parámetros presentan sensibilidades tanto posi-
tivas como negativas siendo el efecto global negativo para tres de los parámetros y
positivo para los demás, como puede verse por el signo de δ mean .

9.5. Estimación de parámetros


Para este problema se consideró como función de coste la función de mı́nimos
cuadrados:
X 5 X 2 X 13
J(p) = wij (z̃ijk − zijk (p))2 (9.21)
i=1 j=1 k=1

donde wij corresponde a los diferentes pesos considerados con objeto de normalizar
la contribución de cada término:

wij = (1/max (z̃ijk ))2 (9.22)


88 Capı́tulo 9. Secado de alimentos

Esta normalización se hace especialmente necesaria en problemas donde las va-


riables medidas tienen valores de diferente orden de magnitud como sucede en el
caso que nos ocupa.
Para poder evaluar los métodos considerados mediante una medida objetiva de
la calidad de la solución, se emplearon datos pseudo-experimentales. Las medidas
correspondientes al contenido de humedad medio de la lámina mavg y a su tempe-
ratura Ts a lo largo del tiempo, fueron generadas mediante simulación considerando
los parámetros publicados por Luyben et al. (1982) como los valores verdaderos
(ver Tabla 9.2 para examinar el valor nominal y los lı́mites de cada parámetro).
Se realizó un conjunto de cinco experimentos (simulaciones) con diferentes valores
constantes para la temperatura de bulbo seco, Tdb (55, 65, 75, 85 y 100 o¯ C).

Parámetro Valor nominal Lı́mite inferior Lı́mite superior


p1 8.73e-4 1.00e-4 1.00e+0
p2 1.87e-2 1.00e-4 1.00e+0
b1 3.42e+1 1.00e+0 1.00e+3
b2 1.38e+2 1.00e+0 1.00e+3
b3 6.74e+0 1.00e+0 1.00e+3
b4 1.00e+2 1.00e+0 1.00e+3
b5 2.00e+2 1.00e+0 1.00e+3
b6 1.00e+1 1.00e+0 1.00e+3

Tabla 9.2: Valores nominales y lı́mites para los 8 parámetros

9.5.1. Caso 1

Con objeto de ilustrar los problemas revelados por el análisis de identificabilidad


estructural, se intentó estimar todos los parámetros relacionados con la contracción
y la transferencia de energı́a a la vez, p = [b1 b2 b3 b4 b5 b6 p1 p2 ]T , asumiendo ausen-
cia de error en los datos pseudo-experimentales. Para este caso, incluso utilizando
métodos de optimización global, se encontraron distintos conjuntos de parámetros
con capacidades predictivas equivalentes (p.ej., soluciones I y II en la Tabla 9.3). Sin
embargo, sólo una (o ninguna) de estas soluciones serı́a capaz de predecir el com-
portamiento del proceso en condiciones experimentales diferentes lo cual confirma
la no identificabilidad estructural revelada por la aproximación de Taylor.
9.5. Estimación de parámetros 89

Parámetro Solución I Solución II


p1 4.89e-3 3.04e-2
p2 1.45e-2 4.92e-4
b1 5.49e+2 5.99e+1
b2 9.85e+2 5.79e+2
b3 7.13e+1 2.85e+1
b4 9.96e+2 6.47e+2
b5 9.93e+2 9.88e+2
b6 1.24e+1 8.51e+2

Tabla 9.3: Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31

9.5.2. Caso 2
Aquı́ se consideró el problema de estimación del conjunto pk = [b1 b4 p1 p2 ]T
que, como se ha demostrado, es estructuralmente identificable y multimodal. Para
acercarse más a las condiciones experimentales reales, se consideró un error relativo
gaussiano de un 5 % en las medidas pseudo-experimentales.
Con objeto de enfatizar la necesidad de métodos globales de optimización, en
primer lugar se intentó resolver el problema utilizando un método de optimización
local de tipo SQP (solnp) en modo multi-start. El histograma de la Figura 9.7
representa la frecuencia de las soluciones mostrando que la mayorı́a de ellas están
lejos del óptimo global (soluciones locales).

40

35

30

25
Frecuencia

20

15

10

0
0 0.5 1 1.5 2 2.5 3
4
Función Objetivo x 10

Figura 9.7: Frecuencia de las soluciones de un SQP en modo multi-start


90 Capı́tulo 9. Secado de alimentos

Por otra parte, el uso de métodos globales (SRES, DE y SSm) dio lugar solucio-
nes óptimas globales siendo el valor del vector de parámetros encontrado próximo
al vector nominal. El algoritmo SSm convergió casi dos órdenes de magnitud más
rápido que los demás como se ilustra en la Figura 9.8 con las curvas de convergencia
(evolución del valor de la función objetivo con respecto al tiempo de computación).
4
10
DE
SRES
SSm
Función objetivo

3
10

2
10

0 500 1000 1500 2000 2500


Tiempo CPU (s)

Figura 9.8: Curvas de convergencia de SRES, DE y SSm

Las Figuras 9.9 y 9.10 muestran una comparación entre los valores predichos a
partir del mejor vector de decisión y los datos pseudo-experimentales correspondien-
tes a la temperatura de la lámina (Ts ) y al contenido medio de humedad (mavg ).
Los parámetros estimados mediante los métodos de optimización global permiten
reproducir adecuadamente los datos pseudo-experimentales.
100 1
Tdb=100

90 0.9

T =85
db
0.8
80

T =75 0.7
db
70
Ts (ºC)

mavg

0.6
Tdb=65
60
0.5
T =55
50 db
0.4 Tdb=55
T =65
db
40 0.3 T =75
db
T =85
db
T =100
30 0.2 db
0 1000 2000 3000 4000 5000 6000 7000 0 1000 2000 3000 4000 5000 6000 7000
Tiempo (s) Tiempo (s)

Figura 9.9: Valores predichos versus Figura 9.10: Valores predichos versus
datos experimentales para Ts datos experimentales para mavg
9.6. Identificabilidad a posteriori 91

9.6. Identificabilidad a posteriori


La Figura 9.11 representa la matriz de correlación a posteriori para el conjunto
de parámetros pk = [b1 b4 p1 p2 ]T en el óptimo. A pesar de que este conjunto de
parámetros ha demostrado ser estructuralmente identificable, en la práctica y debido
a las limitaciones experimentales, la matriz de Fisher está bastante mal condicionada
(rcond(FIM)=1.1e-9). Como se puede ver en la Figura 9.11 dónde se representa la
matriz de correlación, los parámetros del par p1 y p2 están muy correlacionados con
un valor de R1,2 = −0.98 lo que explica las dificultades encontradas por algunos
métodos para alcanzar la solución global.
1

0.8
b4
0.6

0.4

b1 0.2

−0.2
p2
−0.4

−0.6

p1 −0.8

−1
p1 p2 b1 b4

Figura 9.11: Matriz de correlación a posteriori

9.7. Intervalos de confianza


Los valores de los parámetros correspondientes a la mejor solución y sus inter-
valos de confianza del 95 % obtenidos mediante la aproximación de Cràmer-Rao y
el método de Monte Carlo se presentan en la Tabla 9.4. Los intervalos obtenidos
por ambos métodos son bastante cercanos excepto para el parámetro p2 para el cual
difieren en casi un orden de magnitud. El método de Monte Carlo, siendo el más
robusto de los dos, predice un error de casi el 25 % para los parámetros p1 y p2 lo
cual podrı́a explicarse por la alta correlación que existe entre ellos. Para los otros
dos parámetros los intervalos son pequeños en términos relativos indicando que éstos
fueron estimados con precisión.
La forma elı́ptica de la región de confianza para los parámetros b1 y b4 confirma los
92 Capı́tulo 9. Secado de alimentos

Parámetro Valor óptimo Int conf (95 %) Int conf (95 %)


Cràmer-Rao Monte Carlo
p1 7.05e-3 1.51e-3 1.76e-3
p2 1.43e-2 6.24e-4 3.47e-3
b1 3.43e+1 3.45e-1 7.34e-1
b4 1.08e+2 3.90e+0 8.96+0

Tabla 9.4: Valores e intervalos de confianza de los parámetros óptimos

resultados del análisis de correlación (R3,4 = 0.82). Sin embargo, la baja correlación
entre los parámetros p2 y b4 (R2,4 = 0.61) se traduce en una región de confianza más
esférica.
120 120

115 115

110 110
b4

105
b4

105

100 100

95 95

90 90
0.0125 0.013 0.0135 0.014 0.0145 0.015 0.0155 0.016 0.0165 33.8 34 34.2 34.4 34.6 34.8
p2 b
1

Figura 9.12: Región de confianza Figura 9.13: Región de confianza


para los parámetros p2 y b4 para los parámetros b1 y b4

9.8. Conclusiones
En este capı́tulo se presentó un análisis detallado del problema de estimación
de parámetros relativo al secado por aire de alimentos que revela la necesidad de
llevar a cabo un procedimiento en dos pasos para garantizar que la solución alcan-
zada sea capaz de reproducir el comportamiento del sistema en un amplio rango de
condiciones de operación.
En una primera fase, se estudió la identificabilidad estructural del modelo por
medio de la aproximación de Taylor lo cual permitió concluir que sólo un subconjunto
de parámetros relacionados con la contracción y la transferencia de energı́a pueden
9.8. Conclusiones 93

ser estimados al mismo tiempo. Además, se detectó la presencia de múltiples óptimos


locales motivando el uso de métodos de optimización global en el segundo paso de
la identificación.
Varios métodos globales estocásticos fueron capaces de converger a la solución
global mientras que, como era de esperar, las aproximaciones locales quedaron atra-
padas en soluciones locales la mayorı́a de las veces. Nótese que una solución subópti-
ma puede dar lugar a conclusiones erróneas sobre la capacidad predictiva del modelo.
Además, con SSm la solución global fue obtenida en un número de evaluaciones
muy razonable lo que hace que este método sea especialmente atractivo para la
identificación de modelos relacionados con el procesamiento de alimentos, que con-
sisten normalmente en un conjunto de ecuaciones diferenciales parciales no lineales
acopladas.
El análisis de identificabilidad a posteriori reflejó que, a pesar de que la iden-
tificabilidad estructural esté garantizada, en la práctica pueden presentarse ciertas
dificultades a la hora de realizar la estimación debido a la correlación entre ciertos
pares de parámetros ocasionada por las limitaciones experimentales.
Capı́tulo 10

Procesamiento térmico de
alimentos

10.1. Introducción
El procesamiento térmico es una de las operaciones más importantes para la
conservación de alimentos. La idea subyacente es procesar el producto alimentario a
una temperatura elevada durante un cierto periodo de tiempo con objeto de reducir
los microorganismos dañinos, garantizando la seguridad alimentaria y aumentando
su tiempo de conservación. Sin embargo, los cambios que experimentan los alimentos
durante el procesamiento térmico dan lugar, normalmente, a un empeoramiento de
su calidad. Resulta, por lo tanto, esencial procesar el alimento de manera que las
propiedades sensoriales y nutricionales se mantengan en los niveles más altos posibles
garantizando siempre la seguridad.
A este respecto, en las últimas décadas se han propuesto varias aproximaciones
para el diseño y/o optimización de este tipo de procesos (ver revisión por Banga
et al., 2003). Las metodologı́as más satisfactorias son aquellas que utilizan técnicas
computacionales basadas en modelos, especialmente aquellas que consisten en el
uso de modelos de principios fundamentales (Banga et al., 1991; Durance, 1997;
Ramaswamy et al., 1997; Balsa-Canto et al, 2002; Garcia et al. 2006).
Estos modelos matemáticos combinan las leyes de conservación con las propie-
dades fı́sicas de los productos, modelos de degradación de la calidad y cinéticas de
los microorganismos, permitiendo la predicción de las propiedades organolépticas y
la seguridad del producto final, sujetas a diferentes condiciones de procesamiento.
La degradación de la calidad se describe generalmente utilizando cinéticas de
cero, primer y segundo orden, y normalmente se asume que la dependencia de la
velocidad de degradación con la temperatura sigue la ecuación de Arrhenius (Sa-

95
96 Capı́tulo 10. Procesamiento térmico de alimentos

guy y Karel, 1980) o el modelo basado en el concepto de tiempo de muerte térmica


(Thermal Death Time, TDT) (Rasmaswamy et al., 1989). Por lo tanto, los modelos
resultantes consideran un número de factores de calidad (lisina disponible, digesti-
bilidad de la proteı́na, contenido de tiamina o color de la superficie) que dependen
de una serie de parámetros. En los modelos tipo Arrhenius estos parámetros son,
entre otros, la energı́a de activación, Ea , y la constante pre-exponencial y en el mo-
delo TDT el tiempo de reducción decimal, Dref , y el parámetro que caracteriza la
sensibilidad a la temperatura, Zref . Dado que éstos no pueden ser medidos directa-
mente, la calibración del modelo será un paso crucial para garantizar la capacidad
predictiva del modelo.
Lenz y Lund (1980), propusieron un diseño de experimentos factorial para la
determinación de los parámetros cinéticos de la degradación de alimentos durante
el procesamiento térmico. En concreto, sugirieron dos tipos de aproximaciones ex-
perimentales, la estacionaria (isotérmica) a realizar utilizando pequeños tubos para
garantizar una temperatura constante en la muestra y la no estacionaria a llevar a
cabo utilizando cualquier tipo de contenedor y en la cual debe considerarse la varia-
ción de la temperatura espacial y temporalmente dentro del producto alimentario.
En cualquiera de los dos casos proponen el uso de 10 a 18 experimentos (5-6 tem-
peraturas de calentamiento y 2-3 tiempos de calentamiento) dependiendo del grado
de precisión deseado para los parámetros.
La calibración del modelo, una vez que se dispone de datos experimentales, es
mucho más sencilla para el caso estacionario que para el no estacionario, ya que éste
no requiere la resolución de la ecuación de Fourier. Además, el diseño es relativa-
mente simple dado que el número de temperaturas a considerar dentro de los lı́mites
prácticos es limitado. Esto ha hecho bastante popular la aproximación estaciona-
ria. Por ejemplo, Banga et al. (1992) hicieron uso de 20 experimentos estacionarios
para calibrar la cinética de degradación de la digestibilidad de la proteı́na y de la
lisina disponible durante el procesamiento térmico de atún. Van Loey et al. (1995),
emplearon 50 combinaciones de tiempo y temperatura para la calibración de las
cinéticas que describen el deterioro de la calidad de los guisantes verdes y las habas
blancas durante el procesamiento térmico.
Sin embargo, nótese que los parámetros resultantes no son sensibles a las in-
fluencias prácticas del proceso ya que el procesamiento isotérmico se aleja bastante
de las condiciones de procesamiento prácticas. Además, el uso de la aproximación
estacionaria no proporciona mucha información sobre el comportamiento cinético
ocasionando a menudo problemas de no identificabilidad y/o grandes errores en los
parámetros estimados a no ser que se realice un gran número de experimentos.
10.2. Modelo matemático 97

El uso de la aproximación no estacionaria ha demostrado reducir estas dificul-


tades. Banga et al. (1993) emplearon 10 experimentos dinámicos para calibrar un
modelo TDT para la disminución de tiamina en el procesamiento térmico de atún
en lata obteniendo un error máximo para los parámetros estimados de un 2.3 %.
Garote et al. (2001) utilizaron alrededor de 10 experimentos dinámicos para esti-
mar los parámetros cinéticos que describen la inactivación de la lipogenasa durante
el calentamiento de judı́as verdes, consiguiendo una buena concordancia entre la
predicción del modelo y los datos experimentales.
Sin embargo, el uso de experimentos dinámicos no óptimos puede dar lugar a
una carga experimental innecesariamente elevada, problemas de identificabilidad o
grandes intervalos de confianza para los parámetros. Los trabajos de Versyck et
al. (1999) y Grijspeerdt y Vanrolleghem (1999) fueron los primeros en introducir el
diseño óptimo de experimentos para modelos de biologı́a predictiva y posteriormente,
Nahor et al. (2001, 2003) propusieron su utilización para la estimación de parámetros
térmicos de alimentos.
En este capı́tulo, se propone el uso de diseño óptimo de experimentos (OED)
para superar las dificultades antes mencionadas en la estimación de los parámetros
cinéticos de retención de tiamina en la esterilización térmica de alimentos enlatados.

10.2. Modelo matemático


La conducción y la convección son las formas de trasferencia de energı́a más
comunes en el procesamiento térmico de alimentos, siendo la primera el mecanismo
relevante en alimentos sólidos y lı́quidos muy viscosos y el segundo el caracterı́stico
en alimentos lı́quidos. Con objeto de proporcionar una explicación detallada de es-
tos procesos y de su efecto en la seguridad microbiológica y la calidad del producto
alimentario, se requiere un modelo matemático general basado en principios funda-
mentales. Además de la distribución de la temperatura, este modelo debe considerar
la concentración de las posibles esporas de microorganismos presentes en el alimen-
to ya que éstas determinan el grado de seguridad microbiológica. La concentración
de sustancias responsables de la calidad del producto, como vitaminas o enzimas,
también debe ser incluida. Formalmente, la evolución temporal y espacial de la tem-
peratura para productos sólidos homogéneos e isótropos puede describirse por la
ecuación de Fourier (10.1):

ρCp Tt = k∆T + q(T, ∇T, ξ, t) (10.1)

que está definida en un dominio limitado con coordenadas generalizadas ξ y las


98 Capı́tulo 10. Procesamiento térmico de alimentos

adecuadas condiciones iniciales y de frontera. Los parámetros ρ y Cp correspon-


den a la densidad del alimento y su capacidad calorı́fica respectivamente y k es la
conductividad térmica. Los procesos térmicos inducidos mediante campos electro-
magnéticos (microondas) o calentamiento óhmico también pueden ser introducidos
en esta formulación mediante el término de generación q(T, ξ, t).
Para el caso de productos sólidos las especies de interés no se distribuyen median-
te convección o difusión por lo que la ecuación general que describe la disminución
de la calidad como efecto de la temperatura es (Saguy y Karel, 1980):

dC
− = f (T ) (10.2)
dt
donde C representa el factor de calidad considerado.
Con objeto de resolver las ecuaciones (10.1-10.2), deben imponerse condiciones
iniciales y frontera adecuadas en el dominio.

10.2.1. Esterilización industrial de alimentos enlatados


En este capı́tulo se consideró el caso de la esterilización térmica de atún enlatado
como se formula en Banga et al. (1993). El sistema se modeló como un producto
calentado por conducción en contenedores cilı́ndricos de volumen VT (radio R y
altura 2L). Debido a la simetrı́a, es suficiente modelizar la transferencia de energı́a
y los fenómenos cinéticos en el plano medio del cilindro. El objetivo consistió en
diseñar experimentos óptimos (un conjunto de esterilizaciones realizadas mediante
el procesamiento de latas en un autoclave) que proporcionen datos experimentales
(retención de tiamina en cada experimento) que permitan la mejor estimación posible
de los parámetros cinéticos TDT para la degradación térmica de tiamina.
La ecuación de Fourier (10.1) en coordenadas cilı́ndricas para un producto ali-
mentario homogéneo e isótropo resulta:
µ ¶
∂T ∂ 2T 1 ∂T ∂2T
=α + + (10.3)
∂t ∂r2 r ∂r ∂z 2
Se establecen los siguientes lı́mites y condiciones iniciales:

T (R, z, t) = Tautoclave (t) (10.4)

T (r, L, t) = Tautoclave (t) (10.5)


∂T
(0, z, t) = 0 (10.6)
∂r
∂T
(r, 0, t) = 0 (10.7)
∂z
10.3. Análisis de identificabilidad estructural 99

T (r, z, 0) = T0 (10.8)
Para este caso particular el estado medido corresponde a la retención media de
nutrientes que se calcula asumiendo una cinética de primer orden (10.2):

Z VT µ Z tf µ ¶ ¶
1 − ln 10 T (r, z, t) − TN,ref
y= exp exp ln 10 dt dV (10.9)
VT 0 DN,ref 0 ZN,ref
Nótese que este valor se mide a tiempo final por lo que sólo se dispone de una
medida por cada experimento.
Para transformar la ecuación diferencial parcial original (10.3) en un conjunto
de ecuaciones diferenciales ordinarias, se empleó el método numérico de las lı́neas
(NMOL) (Schiesser, 1991). El sistema de ODEs resultante, combinado con las ecua-
ciones cinéticas (una ecuación por posición espacial) se resolvió posteriormente con
ODESSA (Leis y Kramer, 1988) para permitir el cálculo de las sensibilidades pa-
ramétricas.

10.3. Análisis de identificabilidad estructural


Con objeto de analizar la identificabilidad estructural, se aplicó el método de
Taylor para generar un sistema de ecuaciones no lineal en los parámetros. Dado que
sólo se van a estimar dos parámetros, DN,ref y ZN,ref , se requieren solamente tres
coeficientes de Taylor. El primero es independiente de los parámetros y el segundo
y el tercero dan lugar a combinaciones de términos exponenciales dependientes de
ZN,ref y de la temperatura inicial del producto, la temperatura de la autoclave y
otros términos relativos a la derivada temporal de la temperatura de la autoclave.
Desafortunadamente, debido a la complejidad de este sistema, no hay modo de
obtener soluciones analı́ticas por lo que no es posible extraer conclusiones generales
sobre la identificabilidad estructural.

10.4. Ranking de parámetros


El ranking de parámetros refleja que existe una diferencia de más de un orden
de magnitud entre la importancia del ajuste para DN,ref y para ZN,ref (ver Tabla
10.1). Esto implica que un mal ajuste de DN,ref tendrá mucha más influencia en la
predicción del modelo que un mal ajuste de ZN,ref .
Nótese que para todos los cálculos se emplearon los valores de los paráme-
tros normalizados por lo que su valor será igual a la unidad. Para ello se consi-
∗ ∗
deró DN,ref = 5428 s y ZN,ref = 31.4o¯ C como se establece en Banga et al (1993).
100 Capı́tulo 10. Procesamiento térmico de alimentos

2
d
msqr
d
mabs
dmean
1.5
dmax
d
min

Valor del criterio


1

0.5

−0.5
p1 p2
Parámetros

Figura 10.1: Parámetros ordenados por orden decreciente de δ msqr

Parámetro Val nom δ msqr δ mabs δ mean δ max δ min



DN,ref /DN,ref 1 4.81e-1 1.03e+0 1.03e+0 1.51e+0 0.00e+0

ZN,ref /ZN,ref 1 4.66e-2 9.99e-2 7.28e-2 1.71e-1 -7.12e-2

Tabla 10.1: Valores para el ranking de parámetros

10.5. Diseño óptimo de experimentos


Para este caso, el objetivo del diseño óptimo de experimentos puede ser formulado
de la siguiente manera:
Calcular las condiciones experimentales óptimas, temperatura de procesamiento
Tautoclave (t) y duración de un número dado de experimentos, nexp , que permitan
estimar los parámetros cinéticos relacionados con la retención de tiamina Dref y
Zref , con la máxima precisión posible.
Este problema se resolvió considerando las siguientes condiciones:

El número de experimentos se fijó a un valor mı́nimo de cinco, considerando


que, como indica Sontag (2002), el mı́nimo número de medidas “perfectas”
para la calibración de Np parámetros es 2Np + 1. Para evaluar su efecto en los
intervalos de confianza de los parámetros, también se consideró el OED para
el caso de seis y ocho experimentos.

Se asumió que la temperatura de la autoclave sigue el perfil tı́pico de proce-


samiento de calentamiento-enfriamiento. Por lo tanto, el vector de variables
de decisión será [Tc,iexp ; Te,iexp ; tc,iexp ] donde Tc,iexp representa la temperatura
10.5. Diseño óptimo de experimentos 101

de calentamiento, Te,iexp la temperatura de enfriamiento y tc,iexp el tiempo de


calentamiento del experimento iexp. Se consideró que la duración de la fase de
enfriamiento es el 60 % de la de calentamiento para garantizar que la degrada-
ción de nutrientes no continúe después del final del experimento, es decir, que
la temperatura del producto sea suficientemente baja.
Los lı́mites establecidos para las variables de decisión son los siguientes:

110o C ≤ Tc,iexp ≤ 140o C (10.10)


20o C ≤ Te,iexp ≤ 25o C (10.11)
1800 s ≤ tc,iexp ≤ 9000 s (10.12)

Se consideró una sola medida por experimento a tiempo final y que éstas están
sujetas a un ruido gaussiano del 3 %.

El objetivo de la optimización consistió en la maximización del criterio D.

En primer lugar y con objeto de analizar la posible naturaleza multimodal del


problema, se resolvió el problema de diseño de cinco experimentos empleando un
método local en modo multi-start. La Figura 10.2 representa el histograma de fre-
cuencia de las soluciones mostrando la presencia de varias soluciones subóptimas y
confirmando la necesidad de emplear métodos de optimización global.

3
Frecuencia

0
0.8 1 1.2 1.4 1.6 1.8 2 2.2
5
Funcion Objetivo x 10

Figura 10.2: Frecuencia de las soluciones de un SQP en


modo multi-start
102 Capı́tulo 10. Procesamiento térmico de alimentos

La solución encontrada por los métodos globales SRES, DE y SSm es prácticamente


la misma siendo este último considerablemente más rápido en términos de conver-
gencia como puede apreciarse en la Figura 10.3 para el caso de seis experimentos.

DE
1
−10 SRES
SSm

2
−10
Función objetivo

3
−10

4
−10

5
−10

6
−10
0 5000 10000 15000
Tiempo CPU (s)

Figura 10.3: Curvas de convergencia de SRES, DE y SSm

La Tabla 10.2 presenta los valores óptimos obtenidos por SSm mediante la ma-
ximización del criterio D considerando cinco, seis y ocho experimentos ası́ como los
valores del criterio E modificado para estos diseños.

nexp Criterio D Criterio E M od


5 2.63e + 5 1.46e+0
6 3.95e + 5 1.88e+0
8 7.01e + 5 1.86e+0

Tabla 10.2: Valor del criterio D y E modificado para cinco,


seis y ocho experimentos

Como era de esperar, cuando se emplea el criterio D, cuanto mayor es el número


de experimentos mayor es la cantidad de información y por lo tanto mayor será el
valor óptimo para este criterio y menor será el tamaño de los intervalos de confianza
como se verá a continuación. Los valores de la tabla y la Figura 10.4 que muestra la
evolución de los valores óptimos obtenidos en función del número de experimentos,
ilustran el hecho de que este tipo de experimentos fuerzan la decorrelación entre los
parámetros (el valor del criterio E modificado es cercano a la unidad en todos los
casos). Nótese que empleando sólo un experimento la FIM resulta singular por lo
que el valor del criterio D es cero y el criterio E modificado no está definido.
10.5. Diseño óptimo de experimentos 103

5
4 x 10 4

3.5
3
3

E modificado
Criterio D
2 2.5

2
1
1.5

0 1
1 2 3 4 5 6
nexp

Figura 10.4: Evolución de los criterios D y E modificado


con el número de experimentos

Una propiedad del criterio D es su tendencia a repetir un número pequeño de


condiciones experimentales diferentes (Walter y Pronzato, 1997). En este ejemplo,
el diseño óptimo consiste en la realización repetida de dos tipos de experimentos:
uno a alta temperatura durante un tiempo corto y otro a baja temperatura durante
un tiempo largo. En el caso de seis experimentos (nexp = 6) las condiciones óptimas
consisten en realizar tres experimentos de cada tipo, como muestran los perfiles
óptimos de calentamiento-enfriamiento representados en las Figuras 10.5-10.6.

140 140
Experimentos: 2, 4, 5
Experimentos: 1, 3, 6
120 120
Temperatura (ºC)
Temperatura (ºC)

100 100

80 80

60 60

40 40

20 20
0 2000 4000 6000 8000 0 2000 4000 6000 8000
Tiempo (s) Tiempo (s)

Figura 10.5: Perfiles óptimos para los Figura 10.6: Perfiles óptimos para los
experimentos 1, 3 y 6 experimentos 2, 4 y 5
104 Capı́tulo 10. Procesamiento térmico de alimentos

La evolución de la temperatura en el punto crı́tico y la retención de nutrientes


correspondientes a cada experimento se presentan en las Figuras 10.7-10.8.

1 140
1 140
Experimentos: 1, 3, 6
120 Experimentos: 2, 4, 5
120
0.8 0.8
100 100

T0 (º C)
T0

T0 (º C)
ret N

0.6 80

ret N
0.6 T0 80

retN 60 60
0.4 0.4
40 ret N 40

0.2 20 0.2 20
0 2000 4000 6000 8000 0 2000 4000 6000 8000
Tiempo (s) Tiempo (s)

Figura 10.7: Dinámica de la T0 y la Figura 10.8: Dinámica de la T0 y la


retN para los experimentos 1, 3 y 6 retN para los experimentos 2, 4 y 5

10.6. Identificabilidad a posteriori


Con objeto de comprobar las propiedades de los esquemas experimentales ópti-
mos, se realizó el análisis de identificabilidad práctica. Para ello se seleccionó el caso
de seis experimentos ya que ofrece un buen compromiso entre la calidad de la solu-
ción y el esfuerzo experimental. La Figura 10.9 muestra la matriz de correlación a

0.8

0.6
Z N,ref
0.4

0.2

0.2

0.4
DN,ref
0.6

0.8

DN,ref Z N,ref

Figura 10.9: Matriz de correlación a posteriori


10.7. Intervalos de confianza 105

posteriori para los parámetros DN,ref y ZN,ref considerando el diseño experimental


óptimo. Tal y como indicaba el valor del criterio E modificado, la correlación entre
los mismos es muy baja con un valor de R1,2 =0.265 lo que da lugar a una matriz de
información de Fisher bien condicionada (rcond(FIM)=5.8e-1). Esto significa que los
parámetros considerados son identificables a posteriori a partir del diseño obtenido.

10.7. Intervalos de confianza


A partir de los diseños óptimos correspondientes a cinco, seis y ocho experimentos
se generaron datos pseudo-experimentales considerando los parámetros nominales y
añadiéndoles un 3 % de error gaussiano. A partir de estos datos, se estimaron los
parámetros obteniéndose en todos los casos valores muy cercanos a los nominales y
se calculó el valor de los intervalos de confianza del 95 % mediante la aproximación
de Monte Carlo. Los resultados se muestran en la Tabla 10.3.

∗ ∗
DN,ref /DN,ref ZN,ref /ZN,ref
nexp Valor óptimo Int conf (95 %) Valor óptimo Int conf (95 %)
5 exp. 1.0 1.95e-2 1.0 2.02e-2
6 exp. 1.0 1.58e-2 1.0 1.58e-2
8 exp. 1.0 1.42e-2 1.0 1.44e-2

Tabla 10.3: Valores e intervalos de confianza de los parámetros óptimos

El mayor error, correspondiente al caso de cinco experimentos, es ligeramente


mejor al obtenido por Banga et al. (1993) empleando diez experimentos dinámicos
(2.3 %). Como ya se ha señalado, cuanto mayor es el número de experimentos mayor
es la cantidad de información y por lo tanto menor será el volumen de la elipse de
confianza asintótica. De este modo, el uso de seis u ocho experimentos reduce el
tamaño de los intervalos de confianza. Estos resultados confirman el hecho de que el
diseño óptimo de experimentos puede ayudar a reducir sustancialmente el esfuerzo
experimental, hasta un 50 % en este ejemplo.
La región de confianza para los parámetros representada en la Figura 10.10,
confirma que los parámetros son totalmente identificables y que además están casi
completamente decorrelacionados ya que ésta es prácticamente redonda.
Además, el problema de calibración resultante es convexo en la vecindad del
óptimo global, como ilustra la representación del valor de la función objetivo en las
proximidades de la solución (ver Figura 10.11) por lo que, una vez alcanzada esa
106 Capı́tulo 10. Procesamiento térmico de alimentos

1.020

1.015

1.010

1.005
Zref/Z*ref

1.000

0.995

0.990

0.985

0.980
0.980 0.985 0.990 0.995 1.000 1.005 1.010 1.015 1.020
*
Dref /Dref

Figura 10.10: Región de confianza para el diseño óptimo


de seis experimentos

zona mediante un método de optimización global, el problema podrı́a ser resuelto


fácilmente mediante un método local.

6
5
4
log(Jmc)

3
2
1
0

1.5 1.5
1 1
0.5 0.5 *
Dref /Dref
Zref /Z*
ref

Figura 10.11: Función objetivo para el diseño óptimo


de seis experimentos
10.8. Conclusiones 107

10.8. Conclusiones
En este capı́tulo se consideró el diseño óptimo de experimentos para la estimación
de los parámetros cinéticos relativos al procesamiento térmico de bioproductos. El
empleo de un método local en modo multi-start detectó la presencia de óptimos loca-
les por lo que varios métodos estocásticos de optimización global fueron empleados
para la resolución del problema, siendo el método SSm el más rápido en converger.
Además, se ilustró el efecto del número de experimentos en el valor de distintos
criterios escalares de la FIM. De este modo, se ve como el valor del criterio D aumen-
ta con la cantidad de información a la vez que disminuyen los intervalos de confianza
para los parámetros. El empleo del criterio D dio lugar a diseños que consisten en
la repetición de dos tipos de experimentos: uno caracterizado por un procesamien-
to de corta duración a alta temperatura y otro por un procesamiento largo a baja
temperatura. Este resultado confirma la idea, ya apuntada por otros autores, de
que el criterio D tiende a repetir experimentos. Fisher (1935) ya señala las ventajas
de la repetición de experimentos argumentando que, si todos los experimentos son
diferentes, un error en uno de ellos disminuirá significativamente el rendimiento glo-
bal mientras que, si el experimento se repite varias veces, podrá probarse su validez
mediante la predominancia de las realizaciones con éxito.
Los resultados obtenidos demuestran que mediante un esquema experimental
óptimo no sólo se reducen los problemas de identificabilidad sino que además se
reducen los intervalos de confianza de los parámetros a la vez que disminuye el
esfuerzo experimental requerido, hasta un 50 % con respecto a las aproximaciones
tradicionales para el caso considerado.
Capı́tulo 11

Isomerización del α-pineno

11.1. Introducción
Este problema consiste en estimar cinco constantes de reacción (p1 , ..., p5 ) de
un sistema de reacción complejo estudiado originalmente por Box et al. (1973), que
forma parte de COPS (Collection of large-scale Constrained Optimization ProblemS)
(Dolan et al., 2004). La Figura 11.1 representa el esquema de reacción propuesto
para esta reacción quı́mica homogénea que describe la isomerización térmica del α-
pineno (y1 ) a dipenteno (y2 ) y allo-ocimeno (y3 ) que a su vez se convierte en α- y
β-pironeno (y4 ) y en un dı́mero (y5 ).

Figura 11.1: Esquema de la isomerización del α-pineno

Este proceso fue estudiado por Fuguitt y Hawkins (1947), que proporcionaron
las concentraciones del reactante y de los cuatro productos en ocho intervalos de
tiempo (z̃ji ). Si los órdenes de las reacciones quı́micas son conocidos, se pueden
derivar modelos matemáticos que den las concentraciones de las distintas especies

109
110 Capı́tulo 11. Isomerización del α-pineno

en función del tiempo. Hunter y MacGregor (1967) asumieron cinéticas de primer


orden y derivaron un conjunto de ecuaciones diferenciales lineales para las cinco
respuestas.
Asumiendo que el modelo es adecuado y que se conocen las condiciones iniciales
para las cinco especies, se pueden estimar los coeficientes desconocidos p1 , ..., p5
minimizando una función de coste que corresponde a una medida de la distancia
entre los valores experimentales correspondientes a las variables medidas y los valores
predichos para estas variables.
Box et al. (1973) intentaron en un primer momento resolver este problema sin
analizar los datos de respuesta múltiple y encontraron valores de los parámetros que
proporcionaban un mal ajuste de los datos experimentales. Dado que ignorar las
posibles dependencias entre las respuestas puede provocar dificultades a la hora de
estimar los parámetros (múltiples mı́nimos locales, función objetivo muy plana,...),
Box et al. (1973) describieron un método para detectar y manejar estas relaciones
lineales. Con este estudio demostraron que existen dependencias entre los datos y
de las cinco respuestas utilizaron solamente tres combinaciones linealmente indepen-
dientes para la identificación, mejorando significativamente el ajuste de los datos.
Este análisis de los datos de respuesta múltiple, a pesar de su eficiencia, requiere
un esfuerzo considerable especialmente para detectar las causas de las dependencias
una vez que han sido localizadas, y se requiere un conocimiento en profundidad del
modelo (que ya no puede ser considerado como una caja negra). Además, esto deja
de ser asequible cuando se incrementa la complejidad del modelo.
Tjoa y Biegler (1991) también consideraron este problema y utilizaron un método
robusto de estimación local para estimar los parámetros desconocidos. Consideraron
todo el conjunto de datos experimentales con objeto de evaluar el comportamiento
del método con dependencias entre los datos. En el punto de convergencia, obtu-
vieron los mismos parámetros óptimos que los obtenidos por Box et al. (1973). No
obstante, el valor inicial considerado para los parámetros estaba muy cerca de la
solución óptima, lo que explica que este método alcanzase el óptimo global sin que-
dar atrapado en una solución local. Como señala Averick et al. (1991), la solución
de este problema no es difı́cil de obtener desde valores iniciales de p cercanos a la
solución global, pero la dificultad se incrementa cuando se intenta resolver desde
puntos iniciales remotos.
Con objeto de evitar la convergencia a soluciones locales sin requerir unos bue-
nos valores iniciales para los parámetros y/o un análisis exhaustivo de los datos de
respuesta múltiple, en este capı́tulo se propone la utilización de métodos de optimi-
zación global para la calibración del modelo.
11.2. Modelo matemático 111

11.2. Modelo matemático


Para la resolución de este problema, se consideran las ecuaciones lineales deriva-
das por Hunter y MacGregor (1967) asumiendo cinéticas de primer orden:

dy1
= −(p1 + p2 )y1 (11.1)
dt
dy2
= p1 y1 (11.2)
dt
dy3
= p2 y1 − (p3 + p4 )y3 + p5 y5 (11.3)
dt
dy4
= p3 y3 (11.4)
dt
dy5
= −p4 y3 + p5 y5 (11.5)
dt

11.3. Análisis de identificabilidad estructural


Con objeto de estudiar la identificabilidad estructural del modelo considerado, se
aplicó el método de series de Taylor (ver sección 4.1) a las ecuaciones de los estados
medidos (11.1-11.5). De este modo se obtuvieron los siguientes coeficientes de cero
y primer orden:

a01 = y1,0
a02 = y2,0
a03 = y3,0
a04 = y4,0
a05 = y5,0
a11 = −(p1 + p2 )y1
a12 = p1 y1
a13 = p2 y1 − (p3 + p4 )y3 + p5 y5
a14 = p3 y3
a15 = −p4 y3 + p5 y5

Del análisis de estos coeficientes pueden extraerse las siguientes conclusiones


sobre la identificabilidad estructural de los parámetros del modelo:

i. De los coeficientes a11 y a12 se concluye que p1 y p2 son estructuralmente


112 Capı́tulo 11. Isomerización del α-pineno

globalmente identificables (s.g.i.) ya que:

a11 ([p1 , p2 ]) = a11 ([pˆ1 , pˆ2 ]) =⇒ −(p1 + p2 )y1 = −(pˆ1 + pˆ2 )y1 (11.6)
a12 ([p1 ]) = a12 ([pˆ1 ]) =⇒ p1 y1 = pˆ1 y1 (11.7)

y estas ecuaciones son simultáneamente ciertas sólo en el caso de que p1 = pˆ1


y p2 = pˆ2

ii. De modo análogo, del coeficiente a14 se concluye que p3 es estructuralmente


globalmente identificable (s.g.i.) ya que:

a14 ([p3 ]) = a14 ([pˆ3 ]) =⇒ p3 y3 = pˆ3 y3 (11.8)

y esto es cierto sólo en el caso de que p3 = pˆ3

iii. Del coeficiente a15 se deduce que p4 y p5 son s.g.i. ya que:

a15 ([p4 , p5 ]) = a15 ([pˆ4 , pˆ5 ]) =⇒ −p4 y3 + p5 y5 = −pˆ4 y3 + pˆ5 y5 (11.9)

y esto es cierto sólo en el caso de que p4 = pˆ4 y p5 = pˆ5 siempre que la relación
entre y3 e y5 no sea constante, lo cual viene dado por el modelo de ODEs.

En este caso los coeficientes de Taylor de primer orden son suficientes para de-
mostrar que todos los parámetros del modelo son estructuralmente globalmente
identificables (s.g.i.).

11.4. Ranking de parámetros


Los resultados del análisis de sensibilidad se resumen mediante el valor de los
criterios descritos en la sección 3.3 para los cinco parámetros del modelo que se mues-
tran en la Tabla 11.1. Los parámetros aparecen en orden decreciente con respecto
al criterio δ msqr y se representan en la Figura 11.2.
Estos resultados no reflejan grandes diferencias en los valores de δ msqr para los
distintos parámetros lo que indica que la salida del modelo es considerablemente
sensible a todos ellos. Las pequeñas diferencias entre δ msqr y δ mabs , indican que no
existe una gran variabilidad en las sensibilidades (Sj ) ni valores extremos (outliers).
Una comparación de δ max y δ min indica que todos los parámetros presentan sensibi-
lidades tanto positivas como negativas aunque el efecto global es positivo para tres
de los parámetros y negativo para los otros dos, como puede verse por el signo de
δ mean .
11.5. Estimación de parámetros 113

Parámetro Valor nominal δ msqr δ mabs δ mean δ max δ min


p1 5.93e-5 0.7144 0.5712 -0.3169 0.9946 -2.1582
p2 2.96e-5 0.6978 0.6313 0.3415 0.9982 -1.0793
p4 2.75e-4 0.4762 0.3403 -0.1869 0.9834 -0.8533
p3 2.05e-5 0.4242 0.2206 0.1552 0.9988 -0.1593
p5 4.00e-5 0.2256 0.1303 0.0864 0.7189 -0.1641

Tabla 11.1: Valores para el ranking de parámetros

2.5
dmsqr
2 d
mabs
dmean
1.5 dmax
dmin
1
Valor del criterio

0.5

−0.5

−1

−1.5

−2

−2.5
p1 p2 p4 p3 p5
Parámetros

Figura 11.2: Parámetros ordenados por orden decreciente de δ msqr

11.5. Estimación de parámetros


Para este problema la función de coste puede formularse como:

5 X
X 8
J(p) = (zj (p, ti ) − z̃ji )2 (11.10)
j=1 i=1

Los métodos utilizados requieren un lı́mite superior e inferior ası́ como un punto
inicial para los parámetros. El lı́mite inferior para los cinco parámetros viene dado
por consideraciones fı́sicas, pi ≥ 0, y el lı́mite superior se considera pi ≤ 1, muy lejos
de la mejor solución conocida p1 = 5.93e-5, p2 = 2.96e-5, p3 = 2.05e-5, p4 = 27.5e-5,
p5 = 4.00e-5). Como punto inicial se elige pi = 0.5.
114 Capı́tulo 11. Isomerización del α-pineno

En primer lugar se intentó resolver el problema utilizando un método SQP en mo-


do multi-start. El histograma de frecuencias representado en la Figura 11.3 muestra
que los métodos locales no son capaces de converger a la solución global estando la
mayorı́a de las soluciones muy alejadas de este punto. Por este motivo, el empleo de
herramientas de optimización global resulta imprescindible para resolver con éxito
este problema.
90

80

70

60
Frecuencia

50

40

30

20

10

0
3 3.2 3.4 3.6 3.8 4 4.2 4.4
Función objetivo 4
x 10

Figura 11.3: Frecuencia de las soluciones de un SQP en


modo multi-start

La Figura 11.4 muestra claramente que SSm convergió siempre a la solución global
en un tiempo de computación corto mientras que otros métodos de optimización
global fallaron o convergieron en un tiempo computacional mucho mayor. Con objeto
de favorecer la visualización, la curva correspondiente a SSm se representa en ejes
diferentes, ya que SRES y DE quedaron atrapados en soluciones locales cerca del
punto inicial mientras que SSm convergió al óptimo global lejos del primer valor.
Asimismo, la Figura 11.5 muestra una comparación entre los valores predichos
a partir del mejor vector de parámetros obtenido con SSm (linea continua) y los
datos experimentales para estas especies proporcionados por Fuguitt y Hawkins
(1947) (sı́mbolos), correspondientes a la concentración del reactante y de los cuatro
productos. Los parámetros estimados permiten reproducir los datos experimentales
y, como puede verse en la Figura 11.6, no existe correlación entre los residuos y el
tiempo lo que indica que el error de los datos experimentales es homocedástico.
11.6. Identificabilidad a posteriori 115

50000
SRES

Función objetivo
DE

40000

30000 0 1 2 3
10 10 10 10
Tiempo CPU (s)
5
10
SSm
Función objetivo

3
10

1
10

0 1 2 3
10 10 10 10
Tiempo CPU (s)

Figura 11.4: Curvas de convergencia de SRES, DE y SSm

100 2
y1: alfa−pineno y1: alfa−pineno
90 y2: dipenteno y2: dipenteno
y3: allo−ocimeno 1.5 y3: allo−ocimeno
80 y4: pironeno y4: pironeno
Concentración (% peso)

y5: dimero 1 y5: dimero


70
0.5
60
Residuos

50 0

40
−0.5
30
−1
20
−1.5
10

0 −2
0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.5 1 1.5 2 2.5 3 3.5 4
Tiempo (min) x 10
4 Tiempo (min) x 10
4

Figura 11.5: Datos experimentales Figura 11.6: Valores de los residuos en


versus valores predichos por el modelo función del tiempo

11.6. Identificabilidad a posteriori


La matriz de correlación representada en la Figura 11.7 muestra una identifi-
cabilidad aceptable en el óptimo, con un número de condición rcond(FIM)=2.2e-4.
Este hecho lleva a pensar que los problemas en la calibración del modelo experimen-
tados por la mayorı́a de los métodos se deben fundamentalmente a la existencia de
múltiples mı́nimos locales.
116 Capı́tulo 11. Isomerización del α-pineno

p5 0.8

0.6

p4 0.4

0.2

p3 0

−0.2

p2 −0.4

−0.6

p1 −0.8

−1
p1 p2 p3 p4 p5

Figura 11.7: Matriz de correlación a posteriori

Las Figuras 11.8 y 11.9 muestran las lı́neas de contorno de la función objetivo
en el plano paramétrico para el par (p1 , p2 ) que presenta un valor del coeficiente de
correlación R1,2 = 0.13 y para el par más correlacionado (p4 , p5 ) con R4,5 = 0.82.

−5 −5
x 10 x 10

5.5
4

5
3.5
4.5

3
p2

p5

3.5
2.5

3
2
2.5

1.5 2
3 4 5 6 7 8 1.5 2 2.5 3 3.5 4
p −5
x 10 p x 10
−4
1 4

Figura 11.8: Función objetivo en el Figura 11.9: Función objetivo en el


plano (p1 , p2 ) plano (p4 , p5 )
11.7. Intervalos de confianza 117

11.7. Intervalos de confianza


Por otra parte, los intervalos de confianza del 95 % que se muestran en la Tabla
11.2 para los valores óptimos de los parámetros (J = 19.87) son pequeños lo que
indica que éstos fueron estimados con precisión. No obstante, el parámetro que
presenta un mayor intervalo de confianza, en términos relativos, es p5 . Este hecho
puede explicarse por la menor sensibilidad del modelo con respecto a este parámetros
que resultó el último en el ranking y por la correlación entre p4 y p5 detectada en el
análisis de identificabilidad a posteriori.

Parámetro Valor óptimo Int. conf. (95 %) Int. conf. (95 %)


Cràmer Rao Monte Carlo
p1 5.926e-5 8.706e-7 3.732e-7
p2 2.963e-5 8.431e-7 3.563e-7
p3 2.047e-5 5.313e-6 1.725e-6
p4 2.745e-4 3.984e-5 1.003e-5
p5 3.998e-5 1.439e-5 4.579e-6

Tabla 11.2: Valores e intervalos de confianza de los parámetros óptimos

Las Figuras 11.10 y 11.11 muestran las regiones de confianza obtenidas por el
método de Monte Carlo. Como era de esperar, la correlación existente entre el par
(p4 , p5 ) dio lugar a una forma elı́ptica mientras que la correspondiente al par (p1 , p2 )
es prácticamente circular.

5
x 10
5 x 10

4.6
3.02

4.4
3

4.2
2.98
p2

p5

4
2.96

3.8
2.94

3.6
2.92

2.9 3.4

5.86 5.88 5.9 5.92 5.94 5.96 5.98 2.55 2.6 2.65 2.7 2.75 2.8 2.85 2.9
5 p4
p1 x 10 x 10
4

Figura 11.10: Función objetivo en el Figura 11.11: Función objetivo en el


plano (p1 , p2 ) plano (p4 , p5 )
118 Capı́tulo 11. Isomerización del α-pineno

11.8. Conclusiones
En este capı́tulo se consideró la calibración de un sistema de reacción para la
isomerización térmica del α-pineno. Mediante el método de series de Taylor se de-
mostró la identificabilidad estructural de los cinco parámetros del modelo. A pesar de
que el modelo es aparentemente sencillo, el problema inverso asociado es multimodal
debido, entre otros factores, a dependencias entre los datos. Esto se debe a que las
concentraciones proporcionadas por Fuguitt y Hawkins (1947) para algunos de los
productos no fueron obtenidas experimentalmente sino calculadas matemáticamente
a partir de las concentraciones de otros productos (Box et al., 1973).
Esta multimodalidad fue corroborada mediante un multi-start de un método
SQP motivando el uso de estrategias de optimización global para la estimación de
los parámetros del modelo. La consideración de un rango muy amplio para los lı́mites
de los parámetros y de un punto inicial muy alejado de la solución global hace que,
incluso algunos métodos de optimización global de probada eficacia como SRES y DE,
presenten problemas de convergencia. Sin embargo, la metaheurı́stica SSm probó ser
muy robusta y alcanzó la solución global muy rápidamente lo que la convierte en
una estrategia muy recomendable para la resolución de esta clase de problemas.
El análisis de identificabilidad a posteriori no revela grandes correlaciones en-
tre los parámetros que pudieron ser estimados con precisión como demuestran los
intervalos de confianza calculados.
Capı́tulo 12

Inhibición de la proteasa del HIV

12.1. Introducción
Este problema consiste en la estimación de un número de parámetros de un
modelo que describe el mecanismo de reacción para la inhibición irreversible de la
proteasa del HIV originalmente estudiado por Kuzmic (1996) (ver Figura 12.1).

Figura 12.1: Esquema de reacción para la inhibición


irreversible de la proteasa del HIV

La enzima (M) sólo es activa en forma de dı́mero (E), el producto (P) es un


inhibidor competitivo con el sustrato (S) y el inhibidor (I) es irreversible (Kuzmic,
1996). La proteasa del HIV (concentración de ensayo 0.004 µM) fue añadida a una
disolución de un inhibidor irreversible y un sustrato fluorogénico (25 µM). Los cam-
bios de fluorescencia fueron monitorizados durante una hora en cada uno de los

119
120 Capı́tulo 12. Inhibición de la proteasa del HIV

cinco experimentos llevados a cabo a cuatro concentraciones diferentes de inhibidor


(0, 0.0015, 0.003 y 0.004 µM en duplicado).
Mendes y Kell (1998) trataron de calibrar el modelo utilizando una serie de méto-
dos de optimización y encontraron varios conjuntos de parámetros que, a pesar de
presentar valores de la función objetivo cercanos, tenı́an valores considerablemente
diferentes. Estos investigadores apuntaron la posibilidad de que este hecho fuese de-
bido a la convergencia a mı́nimos locales o a una función objetivo muy plana en la
región del espacio correspondiente al óptimo global.
Con objeto de dilucidar las causas de estas dificultades, en este capı́tulo se con-
sideró el mismo problema resuelto por Kuzmic (1996) y Mendes y Kell (1998) y
se analizó su identificabilidad a posteriori. Además se calibró el modelo utilizando
varios métodos de optimización global, confirmando la superioridad de SSm para la
resolución de este tipo de problemas.

12.2. Modelo matemático


El modelo matemático consiste en un conjunto de nueve ecuaciones diferenciales
ordinarias no lineales con diez parámetros. Este sistema de ODEs puede describirse
de la siguiente forma:

d[M ]
= −2k11 [M ][M ] + 2k12 [E] (12.1)
dt
d[P ]
= k22 [ES] − k21 [P ][E] + k42 [EP ] (12.2)
dt
d[S]
= −k21 [S][E] + k22 [ES] (12.3)
dt
d[I]
= −k21 [I][E] + k52 [EI] (12.4)
dt
d[ES]
= k21 [S][E] − k22 [ES] − k3 [ES] (12.5)
dt
d[EP ]
= k41 [P ][E] − k42 [EP ] (12.6)
dt
d[E]
= k11 [M ][M ] + k12 [E] − k21 [S][E] + k22 [ES] + k3 [ES] (12.7)
dt
−k41 [P ][E] + k42 [EP ] − k51 [I][E] + k52 [EI]
d[EI]
= k51 [I][E] − k52 [EI] − k6 [EI] (12.8)
dt
d[EJ]
= k6 [EI] (12.9)
dt
12.3. Ranking de parámetros 121

12.3. Ranking de parámetros


El valor de los criterios descritos en la sección 3.3 para los cinco parámetros a
estimar se muestran en la Tabla 12.1. Los parámetros aparecen en orden decreciente
de acuerdo con el criterio δ msqr y se representan en la Figura 12.2.

Parámetro Valor nominal δ msqr δ mabs δ mean δ max δ min


k42 5.00e+2 8.10e+1 1.62e+2 1.62e+2 5.00e+2 1.26e+2
k22 3.00e+2 4.85e+1 9.67e+1 9.68e+1 3.00e+2 7.53e+1
k3 1.00e+1 1.80e+0 3.60e+0 3.60e+0 1.00e+1 2.81e+0
k52 1.00e-1 6.49e-2 1.10e-1 1.10e-1 1.63e-1 4.97e-2
k6 1.00e-1 4.17e-2 6.59e-2 -4.97e-2 1.00e-1 -7.29e-2

Tabla 12.1: Valores para el ranking de parámetros

500
dmsqr
d
mabs
400 dmean
dmax
dmin
300
Valor del criterio

200

100

−100
k42 k22 k3 k52 k6
Parámetros

Figura 12.2: Parámetros ordenados por orden decreciente de δ msqr

Estos resultados reflejan grandes diferencias en los valores de δ msqr para los dis-
tintos parámetros lo que indica que la salida del modelo es muy sensible a unos y
poco sensible a otros. Las diferencias entre δ msqr y δ mabs , indican que existe cierta
variabilidad en las sensibilidades de los distintos estados con respecto a un mismo
parámetro (Sj ). Una comparación de δ max y δ min indica que solamente k6 presentan
sensibilidades tanto positivas como negativas mientras que para los demás paráme-
tros éstas son siempre positivas.
122 Capı́tulo 12. Inhibición de la proteasa del HIV

12.4. Estimación de parámetros


El problema de estimación que se plantea consiste en la calibración de cinco
constantes de reacción. En este ajuste, se asumió también un cierto grado de in-
certidumbre en el valor de las concentraciones iniciales de sustrato y de enzima (±
50 %) (errores de valoración). Además, la lı́nea base del fluorı́metro (offset) se con-
sideró también como un grado de libertad. Dado que se dispone de cinco curvas de
datos experimentales, se tendrá un total de veinte parámetros ajustables: las cinco
constantes de reacción, cinco concentraciones iniciales de la enzima, cinco concentra-
ciones iniciales del sustrato y cinco valores para el offset. La señal medida es función
de la concentración de producto tal que:

señal = ²p [P ] + of f set (12.10)

Parámetro Valor inicial Lı́mite inf. Lı́mite sup.


k3 1.00e+1 0.00e+0 1.00e+5
k42 5.00e+2 0.00e+0 1.00e+5
k22 3.00e+2 0.00e+0 1.00e+5
k52 1.00e-1 0.00e+0 1.00e+5
k6 1.00e-1 0.00e+0 1.00e+5
S0 (exp 1) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 2) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 3) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 4) 2.50e+1 1.25e+1 3.75e+1
S0 (exp 5) 2.50e+1 1.25e+1 3.75e+1
E0 (exp 1) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 2) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 3) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 4) 4.00e-3 2.00e-3 6.00e-3
E0 (exp 5) 4.00e-3 2.00e-3 6.00e-3
offset (exp 1) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 2) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 3) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 4) 1.00e-1 -2.00e-1 4.00e-1
offset (exp 5) 1.00e-1 -2.00e-1 4.00e-1

Tabla 12.2: Valores nominales y lı́mites para los 20 parámetros


12.4. Estimación de parámetros 123

Para poder comparar los resultados se tomaron los lı́mites y valores iniciales para
los parámetros empleados por Mendes y Kell (1998) (ver Tabla 12.2). Una de las
dificultades añadidas de este problema son los amplios lı́mites considerados para las
constantes cinéticas.
Mediante la minimización de la suma de los cuadrados de los residuos entre
los datos medidos y los simulados, la mejor solución conocida hasta este trabajo
fue obtenida por Mendes y Kell (1998) utilizando el método Simulated Annealing,
con un coste computacional de tres millones de simulaciones. La siguiente mejor
solución fue obtenida utilizando un método Levenberg-Marquardt con un esfuerzo
computacional considerablemente menor (4000 simulaciones) aunque la convergencia
al óptimo global con este método sólo está garantizada si se inicializa en su vecindad.
En este trabajo se trató de resolver el problema mediante un método local tipo
SQP en modo multi-start. El histograma de frecuencias (Figura 12.3) muestra que
este método se quedó atrapado en soluciones locales la mayorı́a de las veces lo que
demuestra que este problema es multimodal por lo que se necesitarán métodos de
optimización global para poder asegurar la convergencia al óptimo global.

35

30

25
Frecuencia

20

15

10

0
0 10 20 30 40 50
Función objetivo

Figura 12.3: Frecuencia de las soluciones de un SQP en


modo multi-start

El método SSm convergió a mejores soluciones que las encontradas por Mendes y
Kell (1998) en menos de 1500 simulaciones lo que confirma el buen comportamien-
to de este método incluso en problemas complejos de estimación de parámetros.
Además, cuando se compara con otros métodos estocásticos de demostrada eficacia
124 Capı́tulo 12. Inhibición de la proteasa del HIV

como SRES o DE, SSm alcanzó mejores soluciones con una aceleración en el tiempo
de cálculo de casi tres órdenes de magnitud (ver Figura 12.4).
2
10
SRES
DE
SSm
1
10
Función objetivo

0
10

−1
10

−2
10 0 2 4 6
10 10 10 10
Tiempo CPU (s)

Figura 12.4: Curvas de convergencia de SRES, DE y SSm

A pesar de que SSm convergió en todas las optimizaciones a valores muy buenos
de la función objetivo (siempre inferiores al mejor valor publicado hasta el momen-
to), los valores de los parámetros no siempre fueron los mismos lo que indica una
función objetivo muy plana en la región del espacio de parámetros cerca del óptimo.
En la Tabla 12.3 se ilustra este hecho mostrando el valor de los parámetros corres-
pondientes a dos soluciones cuyo valor de la función objetivo es muy próximo siendo
los valores de los parámetros significativamente diferentes.
La Figura 12.5 muestra el buen ajuste de los datos experimentales a las predic-
ciones del modelo obtenidas con el mejor vector encontrado por SSm (Solución I). La
Figura 12.6 representa los residuos y en ella se puede apreciar la falta de correlación
de los mismos con respecto al tiempo.

12.5. Identificabilidad a posteriori


La matriz de correlación (ver Figura 12.7) ayuda a explicar la existencia de
múltiples soluciones ya que existen valores de coeficientes de correlación de R2,3 =
0.9999 entre algunos pares de parámetros como k42 and k22 dando lugar a una matriz
casi singular (rcond(FIM) =1.7e-21). Esto da lugar a una función objetivo muy plana
y por lo tanto a la falta de identificabilidad del modelo.
12.5. Identificabilidad a posteriori 125

Parámetro Solución I (J=1.99e-2) Solución II (J=2.03e-2)


k3 6.23e+0 5.66e+0
k42 8.77e+4 6.88e+2
k22 4.73e+2 1.21e+2
k52 9.73e-2 4.61e+0
k6 1.42e-2 3.53e+0
S0 (exp 1) 2.46e+1 2.47e+1
S0 (exp 2) 2.33e+1 2.34e+1
S0 (exp 3) 2.69e+1 2.71e+1
S0 (exp 4) 1.33e+1 1.71e+1
S0 (exp 5) 1.25e+1 1.45e+1
E0 (exp 1) 5.52e-3 5.40e-3
E0 (exp 2) 5.32e-3 5.20e-3
E0 (exp 3) 6.00e-3 6.00e-3
E0 (exp 4) 4.39e-3 4.26e-3
E0 (exp 5) 3.98e-3 3.97e-3
offset (exp 1) -4.34e-3 -5.61e-3
offset (exp 2) -1.58e-3 -4.25e-3
offset (exp 3) -1.12e-2 -1.52e-2
offset (exp 4) -1.66e-3 -9.65e-3
offset (exp 5) 7.13e-3 1.33e-3

Tabla 12.3: Valor de los parámetros para dos resultados obtenidos con SSm

0.7
Experimento 1 0.03
Experimento 1
Experimento 2
0.6 Experimento 2
Experimento 3
0.02 Experimento 3
Experimento 4
Experimento 4
0.5 Experimento 5
Experimento 5

0.4 0.01
Residuos
Señal

0.3 0

0.2
−0.01
0.1

−0.02
0

−0.1 −0.03
0 500 1000 1500 2000 2500 3000 3500 4000 0 500 1000 1500 2000 2500 3000 3500 4000
Tiempo (s) Tiempo (s)

Figura 12.5: Datos experimentales versus Figura 12.6: Valores de los residuos en
valores predichos por el modelo función del tiempo
126 Capı́tulo 12. Inhibición de la proteasa del HIV

offset(5)
1
E0(5)
S0(5)
0.8
offset(4)
E0(4)
0.6
S0(4)
offset(3)
0.4
E0(3)
S0(3)
0.2
offset(2)
E0(2)
0
S0(2)
offset(1)
−0.2
E0(1)
S0(1)
−0.4
k6
k52
−0.6
k22
k42
−0.8
k3
−1

Figura 12.7: Matriz de correlación a posteriori

12.6. Intervalos de confianza


Los valores de los parámetros correspondientes a la mejor solución y sus inter-
valos de confianza del 95 % obtenidos mediante la aproximación de Cràmer-Rao se
presentan en la Tabla 12.4. Como era de esperar, los parámetros que presentaron
altas correlaciones como k42 , k22 , k52 y k6 son los que tienen los mayores intervalos
de confianza. El elevado valor de estos intervalos, demuestra nuevamente la falta de
identificabilidad de estos parámetros.

12.7. Conclusiones
En este capı́tulo se consideró el problema de estimación de parámetros y concen-
traciones iniciales para un modelo de la inhibición irreversible de la proteasa del HIV.
El método SSm demostró ser una estrategia muy eficaz para su resolución alcanzando
valores muy buenos de la función objetivo en un tiempo de cálculo muy razonable y
superando en más de dos órdenes de magnitud los requerimientos computacionales
de otros método de optimización global como SRES, DE o Simulated Annealing.
12.7. Conclusiones 127

Parámetro Valor óptimo Int conf (95 %)


k3 6.23e+0 3.25e+0
k42 8.77e+3 4.61e+4
k22 4.73e+2 6.25e+2
k52 9.73e-2 1.29e-1
k6 1.42e-2 1.03e-2
S0 (exp 1) 2.46e+1 7.82e-2
S0 (exp 2) 2.33e+1 1.35e+0
S0 (exp 3) 2.69e+1 1.22e+0
S0 (exp 4) 1.33e+1 1.82e+0
S0 (exp 5) 1.25e+1 1.81e+0
E0 (exp 1) 5.52e-3 1.97e-3
E0 (exp 2) 5.32e-3 1.31e-3
E0 (exp 3) 6.00e-3 1.11e-3
E0 (exp 4) 4.39e-3 8.69e-5
E0 (exp 5) 3.98e-3 8.84e-5
offset (exp 1) -4.34e-3 1.79e-3
offset (exp 2) -1.58e-3 2.97e-3
offset (exp 3) -1.12e-2 2.73e-3
offset (exp 4) -1.66e-3 1.88e-3
offset (exp 5) 7.13e-3 1.76e-3

Tabla 12.4: Valores e intervalos de confianza de los parámetros óptimos

Sin embargo, el análisis de identificabilidad a posteriori reveló altas correlaciones


entre ciertos pares de parámetros. Esta falta de identificabilidad es el origen de las
múltiples soluciones con capacidades predictivas equivalentes encontradas por los
métodos de optimización empleados aún siendo de naturaleza global. De este modo,
a pesar de que las predicciones del modelo se ajusten a los datos experimentales
empleados para su calibración, los parámetros ası́ obtenidos carecen de robustez y
no serán válidos para predecir el comportamiento del modelo en condiciones expe-
rimentales diferentes.
Por este motivo, resulta imprescindible la realización de nuevos experimentos
más informativos para obtener un modelo capaz de reproducir resultados en un
amplio rango de condiciones experimentales.
Capı́tulo 13

Función de las caspasas en la


apoptosis

13.1. Introducción
La apoptosis consiste en una cascada de reacciones enzimáticas que conduce a la
muerte celular programada o suicidio celular, un proceso que juega un importante
papel desde el desarrollo temprano hasta el envejecimiento. Las caspasas son unas
proteı́nas pertenecientes al grupo de las cisteı́n-proteasas, caracterizadas por presen-
tar un residuo de cisteı́na que media en la ruptura de otras proteı́nas. En el caso de
las caspasas el corte se produce al nivel de un residuo de aspartato de donde deriva
su nombre (cisteinil-aspartato proteasas). Estas enzimas son mediadoras esenciales
de los procesos de muerte celular programada y, una vez activadas, desmantelan la
célula mediante la ruptura selectiva de proteı́nas clave después de residuos de aspar-
tato. Los eventos que culminan en la activación de las caspasas están sujetos a un
intenso estudio debido a su papel en el cáncer y en enfermedades neurodegenerativas
y autoinmunes.
Fussenegger et al. (2000) presentaron un modelo matemático mecanı́stico, descri-
biendo los elementos clave de la activación de las caspasas por medio de receptores
y mecanismos inducidos por estrés (ver Figura 13.1). Este grupo utilizó principios
de conservación de masa junto con leyes sobre las velocidades cinéticas para for-
mular un sistema de ecuaciones diferenciales que describe la evolución temporal de
la activación de las caspasas. El modelo consiste en 19 estados (concentraciones de
proteı́nas) y 11 velocidades de reacción. Se simularon varias estrategias cualitativas
para la prevención de la activación de las caspasas mostrando concordancia con la
información disponible.
Gadkar et al. (2005) consideraron la identificación de este modelo y generaron

129
130 Capı́tulo 13. Función de las caspasas en la apoptosis

FAS/FASL
Activación inducida por el receptor
FADD FADD

Procaspasa-8 Procaspasa-8
FLIP

División proteolítica
Activación inducida por estrés

Caspasa-8 Caspasa-8

Citocroma - c
p53

Bax, bik, bad Bcl-2


ARC
Bcl-xL
Mitocondria
Apaf-1 Bcl-xL

Citocroma - c

Procaspasa-9 Procaspasa-9
IAPs

División proteolítica Ejecutor procaspasa

Caspasa-9 Caspasa-9 Caspasa-8


Ejecutor procaspasa Ejecutor caspasa
zVAD-fmk Ruptura de
Caspasa-9 proteínas
Ejecutor caspasa

Figura 13.1: Esquema apoptosis (Fussengger et al., 2000)

datos pseudo-experimentales a partir de simulaciones de este sistema corrompiéndo-


los con un 10 % de error y suponiendo que sólo un conjunto de siete proteı́nas y
ninguna velocidad de reacción podı́a ser medido directamente. Este grupo propuso
un algoritmo iterativo para la identificación del modelo que incluye el estudio de la
identificabilidad, la eliminación de los parámetros no identificables y la estimación
de los parámetros identificables. En el trabajo citado, se emplea un algoritmo basado
en el problema del regulador de estado (State Regulator Problem, SRP) para estimar
todas las concentraciones no medidas y las velocidades de reacción a partir de los
estados medidos. De este modo, la calibración fue realizada mediante la división de
los parámetros en varios grupos, correspondiendo cada uno de ellos a los parámetros
relacionados con una de las velocidades de reacción, y resolviendo ası́ el problema de
estimación de modo desacoplado con respecto a cada reacción mediante un método
local basado en gradiente.

En este capı́tulo, se consideró este mismo modelo y se resolvió el problema de


estimación de parámetros asociado mediante técnicas de optimización global ilus-
trando su superioridad frente a las técnicas locales. El análisis de identificabilidad
práctica permitirá extraer conclusiones interesantes sobre el modelo.
13.2. Modelo matemático 131

13.2. Modelo matemático


El modelo de la apoptosis activada por caspasas propuesto por Fussenegger et al.
(2000) consiste en 19 estados (concentraciones de proteı́na) y 11 velocidades de reac-
ción con 27 parámetros (11 constantes de reacción y 16 constantes de saturación).
Las ecuaciones del modelo pueden representarse como:

ẋ1 = Ω1 − µx1 (13.1)


ẋ2 = r1 − µx2 (13.2)
ẋ3 = Ω3 − 2r2 − µx3 (13.3)
ẋ4 = r2 − µx4 (13.4)
ẋ5 = r10 − r3 − µx5 (13.5)
ẋ6 = Ω6 − µx6 (13.6)
ẋ7 = r3 − µx7 (13.7)
ẋ8 = Ω8 − 2r4 − 2r6 − µx8 (13.8)
ẋ9 = Ω9 − 2r5 − 2r7 − µx9 (13.9)
ẋ10 = Ω10 − r8 − r9 − µx10 (13.10)
ẋ11 = 2r4 + 2r6 − µx11 (13.11)
ẋ12 = 2r5 + 2r7 − µx12 (13.12)
ẋ13 = r8 + r9 − r11 − µx13 (13.13)
ẋk = Ωk − µxk k = 14, 15, ..., 19 (13.14)

donde xi denota la concentración de la proteı́na i, rj denota la velocidad de reacción


j, Ωk denota la velocidad de sı́ntesis de la proteı́na k y µ denota la velocidad de
degradación del complejo proteı́nico. Las velocidades de reacción se expresan del
siguiente modo:

kl (x1 − x2 )L
r1 = (13.15)
KS−1 + L
· ¸
x3 x2 x4
r2 = ka − (13.16)
(1 + KA x3 + KA KB x23 ) KA KB x3
" #
x5 x6 x7
r3 = kh x19 − (13.17)
1 + KH x5 + KI 1+KJ x17
KH
k8za1 x28 x4
r4 = (13.18)
KC−1 KD
−1 −1
+ KD x8 + x28 + KF KC−1 KD −1 −1
x15 + KG KD x8 x15
132 Capı́tulo 13. Función de las caspasas en la apoptosis

k9za1 x29 x7
r5 = −1 −1 (13.19)
KK KL + KL−1 x9 + x29 + KN KK KL x16 + KO KL−1 x9 x16
−1 −1

r6 = k8za2 x28 (13.20)


r7 = k9za2 x29 (13.21)
k83a x10 x11
r8 = (13.22)
KP−1+ KR KP−1 x14 + x10
k93a x10 x12
r9 = (13.23)
KP + KR KP−1 x14 + x10
−1

r10 = αCE [υ (x13 , x18 ) + υ (X, x18 )] (13.24)


[IAP s]
r11 = ku x13 (13.25)
1 + KU [IAP s]

donde

L = concentración de ligando libre (receptor) (13.26)


½ ¾
1 ∀ xx13 > 0.25
υ (x13 , x18 ) = 18 (13.27)
0 ∀ xx13
18
≤ 0.25
½ ¾
1 ∀ xX18 > 0.025
υ (X, x18 ) = (13.28)
0 ∀ xX18 ≤ 0.025
X = factor quı́mico/nutricional (estrés) (13.29)
[IAP s]
= 0.1765 (13.30)
1 + KU [IAP s]

13.3. Ranking de parámetros

1.5
dmsqr
d
mabs
1 dmean
dmax
dmin
0.5
Valor del criterio

−0.5

−1

−1.5
10 3 16 4 5 19 21 23 25 8 26 27 17 14 13 11 9 7 2 1 15 12 18 20 22 24 6
Parámetros

Figura 13.2: Parámetros ordenados por orden decreciente de δ msqr


13.3. Ranking de parámetros 133

En la Figura 13.2 se representa el valor de los criterios de los criterios descritos en


la sección 3.3 para los 27 parámetros del modelo. Los parámetros aparecen en orden
decreciente de acuerdo con el criterio δ msqr y sus valores numéricos se muestran en
la Tabla 13.1

Param pn Val nom δ msqr δ mabs δ mean δ max δ min


αCE p10 1.00e-1 3.34e-1 1.40e-1 1.20e-1 1.04e+0 -1.56e-1
kh p3 3.00e-1 2.23e-1 8.47e-2 5.81e-2 9.95e-1 -1.37e-1
KI p16 1.00e+2 2.09e-1 7.98e-2 -5.44e-2 1.34e-1 -9.48e-1
k8za1 p4 1.25e+0 2.07e-1 8.78e-2 -8.44e-3 7.65e-1 -5.65e-1
k9za1 p5 1.25e+0 2.07e-1 6.12e-2 3.37-2 9.68e-1 -2.20e-1
KS p19 1.00e+2 2.02e-1 8.53e-2 -8.23e-3 7.37e-1 -5.47e-1
KG p21 2.00e+3 1.99e-1 8.45e-2 8.15e-3 5.42e-1 -7.30e-1
KL p23 1.00e+2 1.98e-1 5.86e-2 3.22e-2 9.23e-1 -2.11e-1
KO p25 2.00e+3 1.97e-1 5.82e-2 -3.20e-2 2.10e-1 -9.18e-1
k83a p8 5.00e-1 1.87e-1 5.37e-2 -2.19e-2 8.57e-1 -8.79e-1
Kp p26 1.50e+0 1.86e-1 5.33e-2 -2.38e-2 6.23e-1 -8.13e-1
KR p27 5.00e+0 1.42e-1 4.07e-2 1.80e-2 6.18e-1 -4.97e-1
KJ p17 5.00e+0 1.28e-1 4.80e-2 3.32e-2 6.81e-1 -7.49e-2
KB p14 1.00e+2 9.25e-2 3.02e-2 -1.73e-2 8.64e-2 -3.97e-1
KA p13 1.00e-1 8.93e-2 2.92e-2 -1.67e-2 8.33e-2 -3.83e-1
ku p11 1.10e-1 5.21e-2 1.16e-2 -1.16e-2 0.00e+0 -2.76e-1
k93a p9 5.00e-1 4.35e-2 1.04e-2 -5.87e-3 5.84e-2 -2.70e-1
k9za2 p7 1.00e-5 3.60e-2 2.33e-3 2.20e-3 9.97e-1 -9.18e-4
ka p2 2.00e+0 1.89e-2 7.07e-3 -2.84e-3 1.49e-1 -7.73e-2
kI p1 2.00e+0 1.69e-2 7.14e-3 6.49e-4 1.41e-1 -5.88e-2
KH p15 1.00e+1 1.23e-2 3.82e-3 -1.77e-3 3.51e-2 -6.98e-2
KS p12 1.00e+1 1.02e-2 3.80e-3 2.80e-4 1.20e-1 -5.00e-2
KC p18 1.00e+2 1.93e-3 8.20e-4 -8.22e-5 6.46e-3 -5.05e-3
KF p20 2.00e+3 1.93e-3 8.20e-4 8.22e-5 5.05e-3 -6.46e-3
KK p22 1.00e+2 1.16e-3 3.45e-4 1.89e-4 5.30e-3 -1.31e-3
KN p24 2.00e+3 1.16e-3 3.45e-4 -1.89e-4 1.31e-3 -5.29e-3
k8za2 p6 1.00e-5 9.28e-5 3.83e-5 -3.28e-6 5.06e-4 -2.87e-4

Tabla 13.1: Valores para el ranking de parámetros

Estos resultados reflejan grandes diferencias en los valores de δ msqr para los
distintos parámetros lo que indica que la salida del modelo es muy sensible a unos
134 Capı́tulo 13. Función de las caspasas en la apoptosis

y poco sensible a otros. Entre δ msqr y δ mabs no hay grandes diferencias lo que indica
que no existe mucha variabilidad en las sensibilidades de los distintos estados con
respecto a un mismo parámetro (Sj ). Una comparación de δ max y δ min indica que
todos los parámetros presentan sensibilidades tanto positivas como negativas.

13.4. Estimación de parámetros


Para poder comparar nuestros resultados con los publicados anteriormente, se
consideraron las condiciones del caso 3 de Gadkar et al. (2005). De este modo, los
datos pseudo-experimentales fueron obtenidos mediante simulación a partir de los
valores de los parámetros nominales a los que se añadió un 10 % de error. Mediante el
cómputo de la matriz de correlación a priori (ver sección 4.2) se comprobó que el con-
junto de los 27 parámetros del modelo no es identificable por lo que se consideró un
conjunto de 18 parámetros identificables a priori cuyo valor nominal ası́ como sus
lı́mites superior e inferior se muestran en la Tabla 13.2.

Param pn Val nom Lim inf Lim sup


kI p1 2.00e+0 0.00e+0 1.00e+1
ka p2 2.00e+0 1.00e-1 1.00e+1
kh p3 3.00e-1 1.00e-1 2.00e+0
k8za1 p4 1.25e+0 1.00e-1 1.00e+1
k9za1 p5 1.25e+0 1.00e-1 1.00e+1
k83a p8 5.00e-1 1.00e-1 1.00e+1
k93a p9 5.00e-1 1.00e-1 1.00e+1
αCE p10 1.00e-1 0.00e+0 1.00e+0
ku p11 1.10e-1 0.00e+0 1.00e+0
KS p12 1.00e+1 1.00e-1 1.00e+2
KA p13 1.00e-1 1.00e-2 1.00e+1
KH p15 1.00e+1 1.00e-1 1.00e+3
KI p16 1.00e+2 1.00e-1 1.00e+3
KS p19 1.00e+2 1.00e-1 1.00e+3
KG p21 2.00e+3 1.00e-2 2.00e+6
KO p25 2.00e+3 1.00e-1 1.00e+4
Kp p26 1.50e+0 5.00e-2 1.00e+2
KR p27 5.00e+0 1.00e-2 2.00e+1

Tabla 13.2: Valores nominales y lı́mites para los 18 parámetros


13.4. Estimación de parámetros 135

Se consideraron las mismas concentraciones iniciales de proteı́nas que las nominales


(cero para x2 , x4 , x5 , x7 , x11 , x12 y x13 y uno para el resto) perturbadas con un error
del 25 %. Las medidas se tomaron cada cinco minutos durante un tiempo total de
simulación de 100 minutos. Las proteı́nas medidas son x2 , x3 , x4 , x5 , x7 , x10 y x12 .
En un primer momento el problema fue resuelto con un método de SQP en
modo multi-start. En la Figura 13.3 se representa el histograma de frecuencia de las
soluciones estando todas ellas lejos del óptimo global. La convergencia a mı́nimos
locales de los métodos de esta naturaleza resulta una clara motivación para el uso
de estrategias globales con más garantı́as de convergencia a la solución global.

18

16

14

12
Frecuencia

10

0
0 5 10 15 20 25
Función objetivo

Figura 13.3: Frecuencia de las soluciones de un SQP en


modo multi-start

Por este motivo, el problema de estimación fue también resuelto con los métodos
globales SRES, DE y SSm. El método DE no alcanzó la solución global mientras que
SRES y SSm convergieron a valores muy buenos de la función objetivo aunque el
tiempo de cálculo requerido por SSm fue de menos de 10 segundos, más de un orden
de magnitud inferior al requerido por SRES.
A pesar de que para la estimación solamente se consideraron los datos pseudo-
experimentales correspondientes a la concentración de siete proteı́nas, el ajuste de
todos los estados es bueno como muestra la Figura 13.6. El valor de las velocidades
de reacción predicho por el modelo también se ajusta bien a los valores teóricos a
pesar de que éstos no hayan sido empleados para la estimación (ver Figura 13.5).
136 Capı́tulo 13. Función de las caspasas en la apoptosis

2
10
DE
SRES
SSm
Función objectivo

1
10

0
10

0 1 2 3
10 10 10 10
Tiempo CPU (s)

Figura 13.4: Curvas de convergencia de SRES, DE y SSm

0.25 0.2 0.015 0.03

0.2
0.15
0.01 0.02
0.15
r1

r3

r4

0.1
r

0.1
0.005 0.01
0.05
0.05

0 0 0 0
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

−5 −5
0.015 x 10 x 10 0.1
1.4 3.5

3 0.08
1.2
0.01
2.5 0.06
r5

r8
6

r7

1
r

2 0.04
0.005
0.8 0.02
1.5

0 0.6 1 0
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

0.03 0.2 0.05

0.04
0.15
0.02
0.03
10

r11
r9

0.1
r

0.02
0.01
0.05
0.01

0 0 0
0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min)

Figura 13.5: Valores predichos versus datos pseudo-experimentales


para las 11 velocidades de reacción
13.5. Identificabilidad a posteriori 137

2.5 2.5 1 1

2 0.8
0.8
2
1.5 0.6
x1

x3

x4
0.6

x
1 0.4
1.5
0.4
0.5 0.2

1 0 0.2 0
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

2 2.5 0.25 1.4

0.2
1.5 1.2
2
0.15
x5

x7

x8
1 1
x

0.1
1.5
0.5 0.8
0.05

0 1 0
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

2 1.5 1.5 0.5

1.8 0.4
1 1
1.6 0.3
10

x11

x12
x9

1.4 0.2
0.5 0.5
1.2 0.1

1 0 0 0
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

1.5 1 2.2 2.5

0.9 2
1 2
0.8 1.8
x13

14

x15

x16
x

0.7 1.6
0.5 1.5
0.6 1.4

0 0.5 1
0 50 100 0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min) Tiempo (min)

0.8 2.5 1.6

1.4
0.6 2
1.2
x17

18

x19

0.4 1.5
x

1
0.2 1
0.8

0 0.5
0 50 100 0 50 100 0 50 100
Tiempo (min) Tiempo (min) Tiempo (min)

Figura 13.6: Valores predichos versus datos pseudo-experimentales


para las 19 concentraciones de proteı́na

13.5. Identificabilidad a posteriori

A pesar de que el ajuste es bastante bueno, a la hora de realizar el estudio de


identificabilidad a posteriori, la matriz de información de Fisher resultó ser singular
138 Capı́tulo 13. Función de las caspasas en la apoptosis

lo que significa que los parámetros considerados no son identificables a partir de


la información disponible. De hecho, al llevar a cabo múltiples optimizaciones con
los métodos globales, el valor de la función objetivo fue siempre muy parecido pero
los parámetros correspondientes resultaron ser diferentes de cada vez. Esto significa
que hay múltiples combinaciones de parámetros que proporcionan el mismo ajuste
de los datos experimentales. Sin embargo, sólo uno o ninguno de estos conjuntos
de parámetros serán capaces de reproducir los resultados del modelo en condiciones
experimentales diferentes.
Dado que la FIM es singular, no se puede realizar un diseño óptimo de expe-
rimentos ya que el punto inicial no es siquiera factible. Por lo tanto, con objeto de
disminuir los problemas de identificabilidad práctica, se consideró un experimento
similar al anterior pero en donde se midió la concentración de todas las proteı́nas.
Para ese caso los métodos de optimización global funcionaron de modo análogo
encontrando un conjunto de parámetros que ajustan muy bien los datos pseudo-
experimentales. La matriz de información de Fisher para este experimento ya no
es singular pero sigue estando muy mal condicionada (rcond = 7.7e-19) habiendo
pares de parámetros muy correlacionados (R3,15 = 0.998, R3,16 = 0.999) como puede
verse representado en la Figura 13.7.

27
26 0.8
25
21 0.6

19
0.4
16
15
0.2
13
12 0
11
10 −0.2
9
8 −0.4
5
4 −0.6

3
−0.8
2
1
1 2 3 4 5 8 9 10 11 12 13 15 16 19 21 25 26 27

Figura 13.7: Matriz de correlación a posteriori


13.6. Intervalos de confianza 139

13.6. Intervalos de confianza

Para el caso de siete estados medidos, los intervalos de confianza de Cràmer-Rao


no pueden ser calculados ya que la FIM es singular y éstos requieren la inversión
de la misma.

Los parámetros óptimos y los intervalos de confianza del 95 % obtenidos median-


te a aproximación de Cràmer-Rao para el experimento en el que se miden todos los
estados se muestran en la Tabla 13.3. Como puede apreciarse, los intervalos de con-
fianza son muy elevados para todos los parámetros que presentan altas correlaciones
con otros lo que significa que éstos fueron estimados con muy poca precisión.

Param pn Valor óptimo Int conf (95 %)


kI p1 8.41e-1 4.40e-1
ka p2 1.54e+0 5.70e-1
kh p3 1.05e-1 1.05e+1
k8za1 p4 9.95e+0 7.01e+3
k9za1 p5 1.88e+0 3.48e+2
k83a p8 5.54e+0 1.37e+3
k93a p9 7.95e+0 1.99e+3
αCE p10 9.71e-2 4.13e-3
ku p11 1.10e-1 2.50e-2
KS p12 6.08e+1 8.23e+1
KA p13 1.13e-1 3.57e-2
KH p15 3.78e+0 4.54e+2
KI p16 3.20e+1 3.49e+3
KS p19 1.87e+2 2.58e+6
KG p21 2.90e+4 4.21e+8
KO p25 3.19e+3 6.09e+5
Kp p26 1.46e-1 2.93e+1
KR p27 7.91e+0 5.13e+2

Tabla 13.3: Valores e intervalos de confianza de los


parámetros óptimos
140 Capı́tulo 13. Función de las caspasas en la apoptosis

13.7. Conclusiones
En este capı́tulo se consideró la estimación de parámetros en un modelo que
describe los elementos clave de la activación de las caspasas. El empleo de métodos
globales permitió realizar un buen ajuste de los datos experimentales. El método
SSm resultó ser mucho más rápido que otras técnicas globales de probada eficacia.
Sin embargo, el análisis de la identificabilidad a posteriori, demostró la existen-
cia de graves problemas de identificabilidad por lo que no se puede asegurar que los
parámetros estimados puedan reproducir el comportamiento del sistema en condi-
ciones experimentales diferentes.
Capı́tulo 14

Ruta bioquı́mica en tres pasos

14.1. Introducción

La construcción de modelos dinámicos de rutas bioquı́micas es un punto clave pa-


ra el desarrollo de modelos celulares y de organismos completos. Estas herramientas
pueden dar lugar, en última instancia, a medicina predictiva y/o preventiva basada
en modelos.
Los recientes trabajos de Sugimoto et al. (2005), Voit y Almeida (2004) y Poli-
setty et al. (2006) demuestran el interés creciente por llevar a cabo la identificación
de modelos de rutas bioquı́micas. En Moles et al. (2003b) se considera un conjun-
to seleccionado de métodos estocásticos y deterministas de optimización global que
pueden manejar modelos tipo caja negra para resolver el problema de estimación de
parámetros de una ruta bioquı́mica empleado como problema de referencia (ver Fi-
gura 14.1). Solamente un cierto tipo de métodos estocásticos de optimización global,
las estrategias evolutivas, fueron capaces de resolver con éxito el problema inverso
asociado aunque con un esfuerzo de cálculo muy elevado, especialmente cuando se
requiere una gran precisión para la solución.
Con objeto de acelerar los métodos de optimización global estocásticos mante-
niendo su robustez, las estrategias hı́bridas tratan de combinar ambas metodologı́as
de un modo adecuado (sinérgico) para beneficiarse de sus ventajas reduciendo, o
eliminando, sus limitaciones. En este capı́tulo se utilizó el método hı́brido secuencial
en dos fases, estocástico-determinista presentado en la sección 7.3. Con objeto de
incrementar todavı́a más la eficiencia computacional y de comparar ambas aproxi-
maciones, también se empleó el método hı́brido paralelo sincrónico basado en Scatter
Search presentado en la sección 7.4, SSm.

141
142 Capı́tulo 14. Ruta bioquı́mica en tres pasos

G1 G2 G3

E1 E2 E3

S M1 M2 P

Figura 14.1: Esquema de reacción para la ruta bioquı́mica en tres pasos

14.2. Modelo matemático


La formulación matemática del modelo dinámico no lineal descrito por ocho
ODEs consta de 36 parámetros y viene dada por (Moles et al., 2003b):

dG1 V1
= ³ ´ni1 ¡ Ka ¢na1 − k1 G1 (14.1)
dt P
1+ Ki1
+ S
1

dG2 V2
= ³ ´ni2 ³ ´na2 − k2 G2 (14.2)
dt P Ka2
1 + Ki 2
+ M1

dG3 V3
= ³ ´ni3 ³ ´na3 − k3 G3 (14.3)
dt P Ka3
1 + Ki3 + M2
dE1 V4 G1
= − k4 E 1 (14.4)
dt K4 + G1
dE2 V5 G2
= − k5 E 2 (14.5)
dt K5 + G2
dE3 V6 G3
= − k6 E 3 (14.6)
dt K6 + G3
³ ´ ³ ´
1 1
dM1 kcat1 E1 Km1
(S − M1 ) kcat2 E2 Km3
(M1 − M2 )
= S M1
− M1 M2
(14.7)
dt 1+ Km1
+ Km2
1+ Km3
+ Km4

³ ´ ³ ´
1 1
dM2 kcat2 E2 Km3
(M1 − M2 ) kcat3 E3 Km5
(M2 − P )
= M1 M2
− M2 P
(14.8)
dt 1+ Km3
+ Km4
1+ Km5
+ Km6
14.3. Ranking de parámetros 143

donde M1 , M2 , E1 , E2 , E3 , G1 , G2 y G3 representan la concentración de las 8 especies


implicadas en las diferentes reacciones bioquı́micas. La concentración del sustrato
S y del producto P actúan como variables de control y se consideran constantes
para cada experimento (su concentración inicial es lo suficientemente elevada como
para considerar despreciable su variación en relación con la variación de las demás
especies). Las condiciones iniciales para cada estado (y para todos los experimentos)
aparecen en la Tabla 14.1.

Especie Concentración
G1 6.6667e-1
G2 5.7254e-1
G3 4.1758e-1
E1 4.0000e-1
E2 3.6409e-1
E3 2.9457e-1
M1 1.4190e+0
M2 9.3464e-1

Tabla 14.1: Valores iniciales para los 8 estados

14.3. Ranking de parámetros


El valor de los cinco criterios descritos en la sección 3.3 se muestran en la Tabla
14.2 donde los parámetros aparecen en orden decreciente de acuerdo con el criterio
δ msqr . Los valores de los cinco criterios para los 36 parámetros se representan en la
Figura 14.2.
Estos resultados reflejan que, a pesar de diferencias de más de dos órdenes de
magnitud en δ msqr , la salida del modelo es considerablemente sensible a todos los
parámetros. Para algunos parámetros existen diferencias bastante grandes entre
δ msqr y δ mabs lo que indica una variabilidad relativamente elevada y/o la existen-
cia de valores extremos (outliers) en Sj . Una comparación de δ max y δ min indica
que todos los parámetros presentan sensibilidades tanto positivas como negativas
aunque, como puede verse por el signo de δ mean , el efecto global es positivo para 16
parámetros y negativo para los otros 20.
144 Capı́tulo 14. Ruta bioquı́mica en tres pasos

Parámetro pnúmero δ msqr δ mabs δ mean δ max δ min


na1 p5 2.61e-1 3.81e-1 -2.42e-1 2.83e-1 -1.44e+0
na2 p11 1.80e-1 2.38e-1 -1.89e-1 1.73e-1 -1.08e+0
na3 p17 1.62e-1 2.39e-1 -1.45e-1 2.21e-1 -1.05e+0
Ka1 p4 1.42e-1 2.52e-1 -1.99e-1 1.16e-1 -9.67e-1
Ka2 p10 1.32e-1 2.32e-1 -2.17e-1 6.26e-2 -1.09e+0
k4 p21 1.21e-1 3.00e-1 -1.21e-1 3.30e-1 -1.39e+0
Ka3 p16 1.19e-1 2.59e-1 -1.50e-1 2.55e-1 -1.20e+0
k1 p6 1.11e-1 2.74e-1 -2.27e-1 8.32e-2 -1.47e+0
V1 p1 1.08e-1 2.61e-1 2.31e-1 1.00e+0 -6.39e-2
k2 p12 1.07e-1 2.43e-1 -2.21e-1 9.66e-2 -1.07e+0
V2 p7 1.06e-1 2.40e-1 2.19e-1 1.02e+0 -9.61e-2
k6 p27 9.68e-2 2.29e-1 1.57e-2 5.65e-1 -9.96e-1
k5 p24 9.58e-2 1.98e-1 -1.47e-1 1.94e-1 -1.22e+0
k3 p18 9.37e-2 2.23e-1 -1.28e-1 2.57e-1 -1.03e+0
V3 p13 9.31e-2 2.21e-1 1.29e-1 9.92e-1 -2.47e-1
V4 p19 8.88e-2 2.10e-1 1.61e-1 9.99e-1 -9.08e-2
V5 p22 8.53e-2 1.80e-1 1.34e-1 9.84e-1 -1.65e-1
V6 p25 8.31e-2 1.99e-1 -1.50e-4 8.10e-1 -4.49e-1
kcat1 p28 7.40e-2 1.85e-1 -1.04e-2 2.73e-1 -4.61e-1
kcat3 p34 7.18e-2 1.74e-1 -1.52e-1 3.09e-2 -6.72e-1
K4 p20 6.44e-2 1.47e-1 -1.04e-1 7.97e-2 -7.47e-1
K6 p26 6.39e-2 1.52e-1 -3.66e-3 3.21e-1 -6.44e-1
K5 p23 6.30e-2 1.27e-1 -9.63e-2 1.07e-1 -7.39e-1
Km1 p29 6.00e-2 1.31e-1 4.96e-2 4.20e-1 -1.22e-1
Km5 p35 4.94e-2 1.15e-1 9.86e-2 4.20e-1 -2.30e-2
Ki2 p8 4.02e-2 4.95e-2 4.49e-2 2.41e-1 -2.07e-2
Ki3 p14 3.93e-2 4.84e-2 3.92e-2 2.18e-1 -3.52e-2
Ki1 p2 3.75e-2 4.34e-2 4.09e-2 1.74e-1 -4.05e-3
kcat2 p31 3.27e-2 8.54e-2 2.18e-2 2.52e-1 -1.86e-1
Km2 p30 2.22e-2 5.37e-2 -8.38e-3 7.36e-2 -1.72e-1
Km3 p32 1.80e-2 4.94e-2 -1.19e-2 1.02e-1 -1.45e-1
ni1 p3 8.41e-3 1.06e-2 1.05e-2 4.13e-2 -3.00e-4
Km4 p33 7.48e-3 1.94e-2 5.25e-3 6.20e-2 -4.38e-2
ni2 p9 7.46e-3 9.28e-3 8.21e-3 5.41e-2 -5.29e-3
Km6 p36 6.34e-3 1.65e-2 -9.16e-3 9.81e-3 -5.53e-2
ni3 p15 4.97e-3 6.24e-3 3.15e-3 3.79e-2 -1.04e-2

Tabla 14.2: Valores para el ranking de parámetros


14.4. Estimación de parámetros 145

1.5
dmsqr
dmabs
dmean
1 dmax
dmin

0.5
Valor del criterio

−0.5

−1

−1.5
5 11 17 4 10 21 16 6 1 12 7 27 24 18 13 19 22 25 28 34 20 26 23 29 35 8 14 2 31 30 32 3 33 9 36 15

Parámetros

Figura 14.2: Parámetros ordenados por orden decreciente de δ msqr

14.4. Estimación de parámetros


El problema de optimización consiste en ajustar los 36 parámetros del modelo
matemático, que están divididos en dos clases diferentes: seis que pueden variar en
el rango (0.1, 10), y todos los demás, que pueden variar en el rango (10−12 , 103 ) (ver
Tabla 14.3).
Con el fin de estudiar el comportamiento de las diferentes técnicas para la re-
solución del problema inverso se generaron datos pseudo-experimentales mediante
simulación a partir de un conjunto determinado de parámetros considerados como
los verdaderos o valores nominales (ver Tabla 14.3). De este modo, las medidas
pseudo-experimentales de las concentraciones de las especies de metabolitos, pro-
teı́nas y RNA mensajero, correspondientes a las ocho especies implicadas en las
diferentes reacciones bioquı́micas descritas, son el resultado de 16 experimentos di-
ferentes (simulaciones) con distintas concentraciones iniciales de sustrato (S) y de
producto (P ). Los valores de S y P correspondientes a cada experimento para el
diseño original y para el diseño óptimo se muestran en la Tabla 14.4.
En una primera etapa los datos simulados corresponden a resultados exactos,
146 Capı́tulo 14. Ruta bioquı́mica en tres pasos

Parámetros pnúmero Val. nom. Lı́mite inf. Lı́mite sup.


V1 p1 1 1e-12 1e+3
Ki1 p2 1 1e-12 1e+3
ni1 p3 2 1e-1 1e+1
Ka1 p4 1 1e-12 1e+3
na1 p5 2 1e-1 1e+1
k1 p6 1 1e-12 1e+3
V2 p7 1 1e-12 1e+3
Ki2 p8 1 1e-12 1e+3
ni2 p9 2 1e-1 1e+1
Ka2 p10 1 1e-12 1e+3
na2 p11 2 1e-1 1e+1
k2 p12 1 1e-12 1e+3
V3 p13 1 1e-12 1e+3
Ki3 p14 1 1e-12 1e+3
ni3 p15 2 1e-1 1e+1
Ka3 p16 1 1e-12 1e+3
na3 p17 2 1e-1 1e+1
k3 p18 1 1e-12 1e+3
V4 p19 0.1 1e-12 1e+3
K4 p20 1 1e-12 1e+3
k4 p21 0.1 1e-12 1e+3
V5 p22 0.1 1e-12 1e+3
K5 p23 1 1e-12 1e+3
k5 p24 0.1 1e-12 1e+3
V6 p25 0.1 1e-12 1e+3
K6 p26 1 1e-12 1e+3
k6 p27 0.1 1e-12 1e+3
kcat1 p28 1 1e-12 1e+3
Km1 p29 1 1e-12 1e+3
Km2 p30 1 1e-12 1e+3
kcat2 p31 1 1e-12 1e+3
Km3 p32 1 1e-12 1e+3
Km4 p33 1 1e-12 1e+3
kcat3 p34 1 1e-12 1e+3
Km5 p35 1 1e-12 1e+3
Km6 p36 1 1e-12 1e+3

Tabla 14.3: Valores nominales y lı́mites para los 36 parámetros


14.4. Estimación de parámetros 147

Concentración de S Concentración de P
Experimento 1 0.1 0.05
Experimento 2 0.1 0.13572
Experimento 3 0.1 0.36840
Experimento 4 0.1 1.0
Experimento 5 0.46416 0.05
Experimento 6 0.46416 0.13572
Experimento 7 0.46416 0.36840
Experimento 8 0.46416 1.0
Experimento 9 2.1544 0.05
Experimento 10 2.1544 0.13572
Experimento 11 2.1544 0.36840
Experimento 12 2.1544 1.0
Experimento 13 10 0.05
Experimento 14 10 0.13572
Experimento 15 10 0.3684
Experimento 16 10 1.0

Tabla 14.4: Valores de S y P (10 experimentos)

es decir, medidas sin ruido (conjunto de datos pseudo-experimentales I). A conti-


nuación, se añadieron errores relativos, normalmente distribuidos, de un 3 % y un
5 % a los datos resultantes de la simulación dando lugar a los conjuntos de datos
pseudo-experimentales II y III, respectivamente:

z̃ ∗ (i) = z̃ (i) ± σν (14.9)

donde ν representa la variable normalmente distribuida con media cero y desviación


estándar igual a la unidad y σ son las desviaciones estándar de los errores añadidos a
z̃ ∗ . El error relativo (r) se utiliza para definir estas desviaciones estándar σ = rz̃ (i).

Resultados de los métodos locales


En una primera aproximación, se intentó resolver el problema empleando varios
métodos locales (n2fb, NOMADm y solnp) llegando a la conclusión de que ninguno
de ellos es capaz de resolver el problema satisfactoriamente si no se inicializa en un
punto muy próximo al verdadero valor de los parámetros. Además, la aproximación
multi-start tradicional (es decir, elegir un gran número de valores iniciales aleatorios
148 Capı́tulo 14. Ruta bioquı́mica en tres pasos

dentro de los lı́mites de los parámetros y realizar la búsqueda local desde cada uno
de ellos) dio lugar a un gran número de soluciones locales. En la Figura 14.3, se
puede observar el histograma de frecuencias para el método n2fb en modo multi-
start donde la mayor parte de las soluciones están lejos del óptimo global que no se
alcanzó en ninguna ocasión.

30

25

20
Frecuencia

15

10

0
0 200 400 600 800 1000 1200
Función Objetivo

Figura 14.3: Frecuencia de las soluciones de n2fb en modo multi-start

Esto lleva a confirmar la idea de que sólo los métodos de optimización global son
adecuados para resolver esta clase de problemas.

Resultados del método hı́brido SRES-n2fb


Los resultados obtenidos con el hı́brido SRES-n2fb mejoraron significativamente
los resultados de Moles et al. (2003b) utilizando SRES solo. En concreto, el tiempo
computacional se redujo en un orden de magnitud (de un rango de 35-40 a 2-3
horas, empleando 5 optimizaciones con cada aproximación) y, simultáneamente, se
obtuvo un valor de la función objetivo mucho mejor (en el caso de conjunto de datos
I, el valor final de la función objetivo se redujo de 10−3 a 10−7 ). Esto se muestra
claramente en la Figura 14.8, donde se comparan las curvas de convergencia (valor
de la función objetivo frente al tiempo computacional, en escala logarı́tmica) del
método SRES y del hı́brido SRES-n2fb (para este último, la fase estocástica global y
la local se representan con distinto tipo de lı́nea). Nótese que, para esta gráfica, el
método hı́brido fue inicializado a propósito en un punto peor (es decir, con un valor
14.4. Estimación de parámetros 149

mayor de la función objetivo) que el método SRES. A pesar de esta ventaja inicial,
puede verse como la fase local del hı́brido proporciona una convergencia mucho más
rápida a una solución mejor, dando lugar a una aceleración total de un orden de
magnitud.
Basándose en la observación de la Figura 14.8, serı́a natural argumentar que un
cambio más temprano de la búsqueda estocástica a la fase local del hı́brido podrı́a
dar lugar a una aceleración todavı́a mayor. Sin embargo, como ya se discutió en
la sección 7.3, si el cambio se realiza demasiado pronto, éste podrı́a dar lugar a la
convergencia a una solución local, es decir, un punto de cambio anterior tiene mayor
probabilidad de estar fuera de la zona de atracción de la solución global. Este efecto
se ilustra en la Figura 14.4 donde se representan tres búsquedas locales realizadas a
partir de diferentes puntos de la misma búsqueda global. Las flechas indican el punto
de cambio a lo largo de la curva de convergencia de SRES (lı́nea contı́nua), mientras
que la convergencia de n2fb para cada punto se representa por lı́neas discontinuas.
Las dos primeras, señaladas con (a), convergieron a soluciones locales, mientras que
la última, señalada con (b), alcanza la solución óptima global.

4
10

2
10
(a)
0
10
Función objetivo

−2
10

−4
10 (b)

−6
10

−8
10
0 2000 4000 6000 8000 10000 12000
Tiempo CPU (s)

Figura 14.4: Efecto del punto de cambio en la convergencia del hı́brido

Obviamente, el tamaño de la zona de atracción, o en general, la topologı́a del


espacio de búsqueda, es dependiente del problema. Por lo tanto, encontrar un punto
de cambio adecuado que dé lugar a la mejor relación eficiencia/robustez requiere
unos cuantos ensayos preliminares. De todos modos, una vez que esto se ha llevado
a cabo (y el tiempo computacional no es prohibitivo), nuestra experiencia demuestra
150 Capı́tulo 14. Ruta bioquı́mica en tres pasos

que el hı́brido ajustado puede ser aplicado a otros conjuntos de datos, o incluso a
modelos ligeramente diferentes, sin ajuste adicional.
Para el conjunto de datos I, el mejor resultado (J=1.54e-7) se obtuvo después de
un tiempo de cálculo de 3.1 horas. Para el conjunto de datos pseudo-experimentales
II (3 % de error) el mejor resultado (J = 1.25) se obtuvo después de un tiempo de
cálculo de 3.4 horas y para el conjunto de datos pseudo-experimentales III (5 % de
error) se alcanzó un valor de la función objetivo J = 3.27 en un tiempo de cálculo
total de 3.5 horas. En la Tabla 14.5 se muestran los valores del tiempo computacional
y de la función objetivo en cada una de las etapas del método hı́brido (punto inicial,
punto de cambio y resultado final) para los tres conjuntos de datos.

Conjunto I Conjunto II Conjunto III


J tCP U (h) J tCP U (h) J tCP U (h)
Punto inicial 1180 0 1116 0 1100 0
Primera etapa 48.2 1.55 34.9 2.50 44.6 2.09
Segunda etapa 1.54e-7 1.59 1.25 0.93 3.27 1.39
Final 1.54e-7 3.14 1.25 3.43 3.27 3.47

Tabla 14.5: Evolución de SRES-n2fb para los conjunto de datos I y II

Este método hı́brido converge siempre a la solución global si la segunda fase


(método n2fb) se inicializa desde un punto lo suficientemente cercano a la solución
global. En este caso (y como confirman los puntos de cambio para la mejor solución
de cada uno de los tres conjuntos de datos) se puede considerar J < 35 como criterio
de parada para la primera etapa para asegurar la convergencia. Además, siempre
se puede asegurar la convergencia a resultados mejores que los de cualquier méto-
do local (incluso en modo multi-start) en un tiempo computacional relativamente
pequeño.
Para dar una medida cuantitativa de la calidad de las soluciones obtenidas con
el método hı́brido para los tres conjuntos de datos, se calcularon los errores relativos
de los parámetros estimados con respecto a los parámetros nominales (verdaderos).
En el caso de los datos sin error (conjunto I), el hı́brido recupera el valor de todos
los parámetros con un error relativo muy bajo (prácticamente se puede decir que
recupera los valores exactos de los parámetros verdaderos). En el caso de datos con
ruido, que son mucho más realistas, las Figuras 14.5 y 14.6 muestran como el error
puede ser de hasta un 20 % para ciertos parámetros, pero que para la mayorı́a de
ellos es bastante inferior al 10 %, que es un resultado muy satisfactorio. En cualquier
caso, como se discutirá más adelante, este problema (debido al diseño experimental
14.4. Estimación de parámetros 151

considerado) presenta ciertas dificultades con respecto a su identificabilidad que


pueden explicar en parte esos errores.

25 25

20 20

15 15

10 10
error relativo (%)

error relativo (%)


5 5

0 0

−5 −5

−10 −10

−15 −15

−20 −20

−25 −25
5 10 15 20 25 30 35 5 10 15 20 25 30 35
Parámetro Parámetro

Figura 14.5: Error relativo considerando Figura 14.6: Error relativo considerando
el conjunto de datos II (3 % de error) el conjunto de datos III (5 % de error)

La Figura 14.4 muestra los valores M1, M2, E1, E2, E3, G1, G2 y G3 teóricos
(lı́nea continua) frente a sus experimentales (marcador) considerando los mejores
parámetros estimados por el método hı́brido secuencial para el conjunto de datos
III en cada uno de los 16 experimentos. Nótese que existe una muy buena correlación
entre los datos experimentales y los predichos incluso para el conjunto de datos con
más ruido. El comportamiento para los otros dos conjuntos de datos es similar por
lo que se omitió su representación.

Resultados del método SSm

Como se puede apreciar en la Figura 14.8 el método hı́brido paralelo sincrónico,


SSm, fue capaz de mejorar el resultado del método hı́brido secuencial SRES-n2fb en
un orden de magnitud con respecto al tiempo computacional. Además, SSm presenta
la ventaja de no requerir ningún ensayo preliminar para el ajuste del método, lo que
hace que sea una estrategia muy fácil de usar. En resumen, empleando SSm se redujo
el tiempo computacional de dos dı́as (Moles et al., 2003b) a un par de minutos,
asegurando la robustez.
152 Capı́tulo 14. Ruta bioquı́mica en tres pasos

6
3

5
2.5

4 2
M1

M2
1.5

2 1

1 0.5

0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120
Tiempo (min) Tiempo (min)

0.7 0.7

0.6 0.6

0.5 0.5

0.4 0.4
E1

E2

0.3 0.3

0.2 0.2

0.1 0.1

0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120
Tiempo (min) Tiempo (min)

0.45 1.4

0.4 1.2

0.35
1
0.3
0.8
0.25
G1
E3

0.2 0.6

0.15
0.4
0.1
0.2
0.05

0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120
Tiempo (min) Tiempo (min)

1.4 0.8

1.2 0.7

0.6
1
0.5
0.8
G2

G3

0.4
0.6
0.3
0.4
0.2

0.2 0.1

0 0
0 20 40 60 80 100 120 0 20 40 60 80 100 120
Tiempo (min) Tiempo (min)

Figura 14.7: Valores predichos versus datos pseudo-experimentales (conjunto III)


14.5. Identificabilidad a posteriori 153

4
10
SRES
SRES
2 n2fb
10 SSm

Función objetivo
0
10

−2
10

−4
10
Método híbrido

−6
10

2 3 4 5
10 10 10 10
Tiempo CPU (s)

Figura 14.8: Curvas de convergencia de SRES, hı́brido SRES-n2fb y SSm

14.5. Identificabilidad a posteriori


Un estudio sobre el condicionamiento de la FIM demuestra que ésta no está bien
condicionada (rcond(FIM) = 1.7e-7) pero que no es singular, lo que significa que los
parámetros son prácticamente identificables para el valor óptimo encontrado a partir
de los datos experimentales considerados (conjunto II). La matriz de correlación a
posteriori se representa en la Figura 14.9. Se puede percibir que, aunque ningún
elemento fuera de la diagonal es igual a +1 o -1, los pares (p1 ,p6 ), (p7 ,p12 ) (p13 ,p18 )
tienen correlaciones muy elevadas (mayores que 0.99 en valor absoluto) lo que explica
en cierto modo las dificultades encontradas por algunos métodos para resolver el
problema.
Para ilustrar mejor esta situación, la Figura 14.11 muestra las lı́neas de contorno
correspondientes a la función objetivo en el plano de los parámetros para un par de
parámetros poco correlacionados (p1 ,p4 ), mientras que la Figura 14.10 presenta la
gráfica equivalente para un par de parámetros altamente correlacionados (p1 ,p6 ).

En el primer caso, la falta de correlación se refleja en un contorno bastante


redondeado de la función objetivo en la vecindad del mı́nimo. Sin embargo, la gráfica
correspondiente al par (p1 ,p6 ) muestra un largo valle a lo largo de la diagonal de
estos dos parámetros, dónde todos los puntos de esta diagonal presentan valores muy
154 Capı́tulo 14. Ruta bioquı́mica en tres pasos

1
35
0.8
30
0.6

25 0.4

0.2
20
0

15 −0.2

−0.4
10
−0.6
5 −0.8

−1
5 10 15 20 25 30 35

Figura 14.9: Matriz de correlación a posteriori

pequeños y similares de la función de coste. Por lo tanto, aunque existe un mı́nimo


verdadero para los valores (1,1), existen muchas otras combinaciones de p1 y p6 que
dan prácticamente el mismo valor de la función objetivo, es decir, que dan lugar al
mismo comportamiento del modelo para el diseño de experimentos considerado.

14.6. Intervalos de confianza


Los intervalos de confianza del 95 % calculados a partir de la matriz de infor-
mación de Fisher para los 36 parámetros se representan en la Tabla 14.6. Como se

1.5 1.5

1.4 1.4

1.3 1.3

1.2 1.2

1.1 1.1
p4

1 1
6
p

0.9 0.9

0.8 0.8

0.7 0.7

0.6 0.6

0.5 0.5
0.5 1 1.5 0.5 1 1.5
p p
1 1

Figura 14.10: Lı́neas de contorno Figura 14.11: Lı́neas de contorno


para los parámetros p1 y p6 para los parámetros p1 y p4
14.6. Intervalos de confianza 155

Int conf (95 %) Int conf (95 %) Int conf (95 %)


Parámetro pn Conjunto I Conjunto II Conjunto III
V1 p1 2.160e-5 8.639e-2 1.424e-1
Ki1 p2 2.056e-6 1.148e-2 1.953e-2
ni1 p3 9.278e-6 1.012e-1 1.478e-1
Ka1 p4 2.036e-6 1.149e-2 1.869e-2
na1 p5 2.957e-6 1.651e-2 2.861e-2
k1 p6 2.157e-5 8.558e-2 1.409e-1
V2 p7 3.197e-5 6.952e-2 1.739e-1
Ki2 p8 2.228e-6 1.335e-2 2.063e-2
ni2 p9 1.381e-5 1.078e-1 1.903e-1
Ka2 p10 2.282e-6 1.396e-2 2.164e-2
na2 p11 4.819e-6 1.915e-2 3.127e-2
k2 p12 3.210e-5 7.001e-2 1.717e-1
V3 p13 3.667e-5 1.228e-1 2.320e-1
Ki3 p14 7.752e-6 2.135e-2 3.307e-2
ni3 p15 4.084e-5 1.675e-1 3.440e-1
Ka3 p16 7.689e-6 2.337e-2 3.858e-2
na3 p17 7.610e-6 2.190e-2 3.695e-2
k3 p18 3.644e-5 1.236e-1 2.360e-1
V4 p19 7.369e-7 2.703e-3 4.053e-3
K4 p20 1.228e-5 3.805e-2 5.344e-2
k4 p21 3.694e-7 1.608e-3 2.778e-3
V5 p22 9.714e-7 3.307e-3 4.883e-3
K5 p23 1.375e-5 4.465e-2 7.318e-2
k5 p24 9.298e-7 2.561e-3 3.112e-3
V6 p25 1.245e-6 3.167e-3 7.095e-3
K6 p26 1.809e-5 4.707e-2 1.002e-1
k6 p27 9.718e-7 1.999e-3 3.672e-3
kcat1 p28 1.067e-5 3.198e-2 5.926e-2
Km1 p29 1.905e-5 5.059e-2 9.101e-2
Km2 p30 5.175e-5 1.913e-1 2.727e-1
kcat2 p31 2.475e-5 7.569e-2 1.339e-1
Km3 p32 3.781e-5 9.858e-2 1.510e-1
Km4 p33 9.325e-5 3.560e-1 3.855e-1
kcat3 p34 2.376e-5 6.890e-2 1.079e-1
Km5 p35 3.646e-5 1.034e-1 1.563e-1
Km6 p36 2.456e-5 9.928e-2 1.317e-1

Tabla 14.6: Intervalos de confianza de los parámetros óptimos


156 Capı́tulo 14. Ruta bioquı́mica en tres pasos

puede observar, el valor de los intervalos de confianza es pequeño para todos los
parámetros y los tres conjuntos de datos lo que indica una buena estimación de los
mismos. Como era de esperar, estos intervalos son mayores a medida que aumenta
el error de los datos experimentales.
Aunque en todos los casos los valores de confianza son aceptables, éstos son
mayores para los parámetros que presentan altas correlaciones. Véase, por ejemplo,
que los intervalos para el parámetro p1 que presenta altas correlaciones con otros
parámetros, éstos son un orden de magnitud mayores que para el parámetro p2 que
está poco correlacionado. Esta situación puede ser mejorada mediante un diseño
experimental adecuado.

14.7. Diseño óptimo de experimentos


Una vez que las herramientas para la evaluación de la identificabilidad y otras
medidas relacionadas han proporcionado información útil sobre las propiedades del
problema, es importante darse cuenta de que éstas corresponden al diseño experi-
mental concreto que se está considerando. Sin embargo, como se ha explicado en
el capı́tulo de Metodologı́a correspondiente al diseño óptimo de experimentos, este
diseño puede ser mejorado mediante la formulación y la resolución de un problema
de optimización dinámica.
El diseño experimental considerado hasta este momento (que se denotará como
original) consiste en 16 combinaciones diferentes de valores de S y P que se mantienen
constantes a lo largo de cada uno de los experimentos. Para un diseño experimental
nuevo, se podrı́a intentar diseñar experimentos en los que S y P varı́en a lo largo
del tiempo. Aunque esto es factible numéricamente, se asumió que, para este caso
particular y debido a limitaciones prácticas, estos controles (es decir, los valores de
S y P), deben ser constantes durante cada uno de los experimentos. Por lo tanto, el
problema de OED puede ser formulado como:
Dado el número de experimentos nuevos que se desean realizar N 2exp , encontrar
los valores de S y P para cada uno que maximicen o minimicen el valor de un cierto
criterio basado en la FIM sujeto a las siguientes restricciones:
dinámica del sistema

lı́mites para S y P

otras posibles restricciones (por ejemplo debidas a limitaciones prácticas)


Éste es un problema de optimización no lineal (NLO) con restricciones diferen-
ciales que puede resolverse como se detalla en sección 6.2. Nótese que, por supuesto,
14.7. Diseño óptimo de experimentos 157

también podrı́a plantearse una formulación más (o menos) general del problema.
Por ejemplo, el número de nuevos experimentos N 2exp podrı́a ser considerado como
una variable de decisión, dando lugar a un problema de optimización no lineal en-
tero mixto (Mixed-Integer Non-Linear Programming, MINLP) con un problema de
valor inicial interno. El horizonte de tiempo y los tiempos de muestreo para cada
experimento también podrı́an ser considerados como variables de decisión. Obvia-
mente, aumentar la generalidad de la formulación implica resolver un problema de
optimización más complejo.
Para los objetivos de este trabajo, se consideró que el valor de N 2exp es fijo y
además:

el horizonte de tiempo y los tiempos de muestreo son los mismos que en el


diseño original

los lı́mites para los valores de S y P se consideran como el máximo y el mı́nimo


valor de estas variables en el diseño original

los valores de P y S son invariantes con el tiempo para cada uno de los expe-
rimentos

De este modo, se intentó encontrar un diseño experimental alternativo de igual


dificultad práctica que el original (es decir, al emplear los mismos tiempos de mues-
treo significa que se podrán utilizar los mismos sensores, etc.).
Este problema fue resuelto mediante la minimización del criterio E, consideran-
do 10 y 16 experimentos. Para su resolución se emplearon los métodos globales DE,
SRES y SSm alcanzando los tres la solución óptima global. No obstante, como mues-
tra la Figura 14.12 para el caso de 16 experimentos, SSm resultó ser un orden de
magnitud más rápido que los otros dos. Además se utilizaron dos métodos locales,
fmincon y NOMADm, que quedaron atrapados en soluciones locales confirmando la
multimodalidad del problema y la necesidad de emplear métodos de optimización
global.
Los resultados se resumen en la Tabla 14.7, donde se muestran los valores del
criterio E y de otros criterios para el diseño original y para los diseños resultantes.
El nuevo diseño de 16 experimentos mejora el criterio E (empleado para la optimi-
zación) en un orden de magnitud. Además, también reduce el criterio E modificado
y simultáneamente mejora los demás. Sin embargo, debe destacarse que el criterio E
modificado del nuevo diseño es también muy grande, indicando que todavı́a existen
problemas de identificabilidad aunque en menor grado.
158 Capı́tulo 14. Ruta bioquı́mica en tres pasos

0.018
fmincon
0.016 NOMADm
DE

Funcion objetivo = criterio E


0.014 SRES
SSm
0.012

0.01

0.008

0.006

0.004

0.002

0 0 1 2 3 4 5
10 10 10 10 10 10
Tiempo CPU (s)

Figura 14.12: Curvas de convergencia para el OED con 16 experimentos

El nuevo diseño óptimo para 10 experimentos también mejora el criterio E del


diseño original aunque en menor medida. Esto era de esperar ya que menos expe-
rimentos significa menos información. Sin embargo, cabe destacar que, a pesar de
la reducción sustancial del trabajo experimental de este nuevo diseño, el criterio E
todavı́a pudo ser mejorado significativamente.

Criterio Diseño Diseño Ópt. Diseño Ópt.


Original (16 exp.) (10 exp.)
Criterio E 1.658e-2 1.404e-3 2.586e-3
Criterio E modificado 1.682e+6 8.673e+5 1.443e+6
Criterio A 6.040e-2 6.162e-3 1.181e-2
Criterio A modificado 2.670e+8 9.434e+8 7.887e+8
Criterio D 2.264e+161 8.799e+185 5.428e+177

Tabla 14.7: Diseño original y diseños óptimos para 16 y 10 experimentos

A partir del diseño óptimo para 16 experimentos se generaron nuevos valores


pseudo-experimentales y se volvió a calibrar el modelo dando lugar a valores muy
similares para los parámetros y disminuyendo los intervalos de confianza de los que
aparecı́an más correlacionados en el diseño original.
14.8. Conclusiones 159

14.8. Conclusiones
En este capı́tulo se consideró la estimación de parámetros y el diseño expe-
rimental óptimo para un modelo de una ruta bioquı́mica. Empleando el hı́brido
SRES+n2fb para el problema de estimación de parámetros se obtuvieron soluciones
mejores que con el método SRES a solas en un tiempo computacional mucho más
reducido. Además, esta metodologı́a demostró ser robusta cuando se maneja ruido
en las medidas. Sin embargo, empleando el método SSm el tiempo computacional
se reduce todavı́a más pasando de un rango de 35-40 horas con SRES a un par de
minutos, conservando la robustez.
El análisis de identificabilidad reveló correlaciones elevadas entre ciertos pares
de parámetros que estaban ocasionando un mal condicionamiento del problema.
Mediante el uso de nuevos diseños experimentales se demostró que esta situación
puede ser mejorada. Los parámetros estimados utilizando datos experimentales ob-
tenidos a partir del diseño óptimo presentaron intervalos de confianza menores que
los estimados con el diseño original.
Los resultados del diseño óptimo de experimentos confirman la utilidad de esta
metodologı́a mejorando la precisión de los parámetros estimados a la vez que se
reduce el esfuerzo experimental.
Capı́tulo 15

Cinética de la glucosa en pacientes


diabéticos

15.1. Introducción
La diabetes mellitus se define como un grupo de enfermedades metabólicas que
se caracterizan por altos niveles de glucosa en sangre (hiperglucemia) (Expert Com-
mittee on the Diagnosis and Classification of Diabetes Mellitus, 2003). Esta hiper-
glucemia es el resultado de defectos en la secreción de insulina, en la acción de la
insulina, o en ambas. En la diabetes de tipo 1 hay una deficiencia absoluta de secre-
ción de insulina debido a la destrucción de las células β. Las personas con diabetes
de tipo 1 son propensas a la cetoacidosis y son totalmente dependiente de insulina
exógena. Se estima que en el año 2000 habı́a 17.1 millones de personas con diabetes
de tipo 1 en todo el mundo (Wild et al., 2004; Eiselein et al., 2004).
En diabetes, la hiperglucemia crónica se asocia con complicaciones a largo plazo
debido a daños, disfunciones e insuficiencias en varios órganos, especialmente ojos,
riñones, nervios, corazón y vasos sanguı́neos. Las mayores complicaciones son en-
fermedades cardı́acas, ataques de apoplejı́a, retinopatı́as, nefropatı́as y neuropatı́as.
Éstas pueden eventualmente producir fallos renales, ceguera, amputación y otros
tipos de morbilidad. Los sujetos con diabetes tienen un alto riesgo de sufrir en-
fermedades cardiovasculares y se enfrentan a una mayor morbilidad y mortalidad
cuando son enfermos crı́ticos.
La eficacia de un tratamiento intensivo para la prevención de complicaciones
diabéticas ha sido demostrada por el Ensayo sobre el Control y las Complicacio-
nes de la Diabetes (Diabetes Control and Complications Trial, 1993) y el Estudio
Prospectivo de Diabetes del Reino Unido (United Kingdom Prospective Diabetes
Study, 1998). En ambos ensayos los regı́menes de tratamiento que redujeron la me-

161
162 Capı́tulo 15. Cinética de la glucosa en pacientes diabéticos

dia de la hemoglobina glicosilada A1C (medida clı́nica del control glucémico que
refleja los niveles medios de glucosa en sangre durante los 2-3 meses precedentes) a
un apróximadamente 7 % (el rango normal es de 4-6 %) fueron asociados con pocas
complicaciones microvasculares a largo plazo. A pesar de ello, evidencias recientes
sugieren que estos niveles objetivo no son suficientemente bajos (Khaw et al., 2001;
Muntner et al., 2005).
Los tratamientos intensivos requieren múltiples inyecciones diarias de insulina
(tres o más), o un tratamiento con una bomba de infusión de insulina (ver Figura
15.1). En cualquier caso, este control estricto (lo más cercano posible a la normali-
dad) debe mantenerse de por vida para aprovechar todos los beneficios que confiere.
Hay muchos factores que influyen en la dosis de insulina requerida a través del tiem-
po, incluyendo el peso, la condición fı́sica y los niveles de estrés. Debido a esto, se
requiere una monitorización frecuente de la glucosa en sangre. Basándose en estas
medidas, se puede modificar la dosificación de la insulina, implementar cambios en
la dieta (como alteraciones en los horarios, frecuencia y contenido de las comidas)
y variar las pautas de actividad y ejercicio.

Figura 15.1: Bomba de infusión de insulina

Esto ha fomentado el desarrollo de sistemas de control retroalimentados que


puedan ajustar automáticamente las dosis de insulina (Bellazzi et al., 2001; Parker
et al., 2001; Bequette, 2005). Un componente crı́tico de estos esfuerzos es el desarrollo
de un modelo matemático que pueda ser empleado para probar la eficacia del sistema.
Hay varios modelos en la literatura aunque todos ellos fueron obtenidos utilizando
datos de sujetos sin diabetes. Para el presente estudio ha sido elegido uno de los
modelos recientemente publicados por Hovorka et al. (2004), sustituyendo el modelo
para la infusión subcutánea de insulina por el descrito por Wilinska et al. (2005).
Cinco sujetos con diabetes de tipo 1 fueron sometidos a un ensayo clı́nico en con-
diciones de hiperinsulinemia (Defronzo et al., 1979) y euglucemia durante el cual les
fue administrada una comida y la dosis correspondiente de insulina subcutánea (Be-
vier et al., 2006). En este capı́tulo, los datos recogidos fueron utilizados para ajustar
los parámetros del modelo utilizando métodos de optimización global. Los resultados
15.2. Modelo matemático 163

muestran que el modelo es capaz de describir las dinámicas observadas para sujetos
de tipo 1 y por lo tanto puede ser empleado para simular el comportamiento del
paciente en estas condiciones.

15.2. Modelo matemático


El protocolo experimental se encuentra detallado en Bevier et al. (2006). El
principal objetivo del protocolo es reunir los datos de la respuesta de la glucosa en
sangre a una comida mixta y la correspondiente dosis de insulina subcutánea; el
procedimiento de la prueba permite garantizar que el sujeto se encuentra en estado
estacionario euglucémico en el momento que comienza la ingestión de la comida.
Cada sujeto se somete a este procedimiento dos veces, de modo que se tiene un
conjunto de datos independientes para cada uno con el que validar el modelo.
La glucosa en sangre es medida cada cinco minutos durante todo el experimento.
Los niveles de insulina en plasma también son medidos: cada 30 minutos hasta el
comienzo de la comida, después cada 10 minutos durante 90 minutos, a continuación
cada 15 minutos durante 45 minutos, después cada 20 minutos durante 40 minutos y
finalmente cada 30 minutos hasta el final del experimento. Los datos experimentales
fueron procesados con un filtro de Hampel para eliminar los datos anómalos (outliers)
(Pearson, 2002).
El modelo propuesto por Hovorka et al. (2004) es un modelo compartamental
(ver Figura 15.2). Dos estados describen la glucosa en plasma y tejidos, uno es para
la insulina en plasma y el resto describen tres efectos diferentes de la insulina en
la dinámica de la glucosa. En general, el modelo consiste en las ecuaciones de un
balance de masa que se detallan a continuación:

dQ1 (t) c
= −F01 − x1 (t)Q1 (t) + k12 Q2 (t) − FR (15.1)
dt
+UG (t) + EGP0 [1 − x3 (t)]
dQ2 (t)
= x1 (t)Q1 (t) − [k12 + x2 (t)] Q2 (t) (15.2)
dt
dx1 (t)
= −ka1 x1 (t) + SIT ka1 I(t) (15.3)
dt
dx2 (t)
= −ka2 x2 (t) + SID ka2 I(t) (15.4)
dt
dx3 (t)
= −ka3 x3 (t) + kb3 I(t) (15.5)
dt
G(t) = Q2 (t)/VG (15.6)
164 Capı́tulo 15. Cinética de la glucosa en pacientes diabéticos

absorción G=Q1/VG
intestinal
UG

EGP0 Q1 k 12 Q2

Fc 01Q1/(GVG)-FR

k a1 k b1
absorción x1
insulina
UI /VI

k a2 kb2
I x2

ke
ka3 k b3
x3

Figura 15.2: Estructura del modelo de Hovorka et al. (2004)

donde
½
c F01 si G ≥ 4.5 mmol/L
F01 = (15.7)
F01 G/4.5 en otro caso
½
0.003(G − 9)VG si G ≥ 9 mmol/L
FR = (15.8)
0 en otro caso
DG AG te−t/tmax,G
UG = (15.9)
t2max,G

El modelo captura algunos aspectos de la fisiologı́a que otros modelos o bien


ignoran o bien agrupan con otros parámetros. Estos son la variación del efecto de
la concentración de glucosa en el flujo de glucosa no dependiente de la insulina, la
depuración renal de glucosa y la producción endógena de glucosa hepática. Este últi-
mo efecto no se observa en nuestras condiciones experimentales, ya que es suprimido
por la hiperinsulinemia, por lo tanto se eliminará este término del modelo para la
estimación de parámetros, ası́ como el correspondiente al estado x3 (t).
En una publicación posterior, el mismo grupo realizó un modelado más detallado
para la dinámica de la absorción de insulina para una infusión subcutánea (Wilinska
et al., 2005). El modelo que destacan con mejores resultados (Modelo 10) divide la
absorción de insulina en un canal lento y otro rápido, basándose en que la forma
monomérica de la insulina va a ser absorbida más rápidamente que la forma dimérica.
El modelo también incluye la degradación local de insulina en el espacio de los
tejidos. La estructura del modelo se muestra en la Figura 15.3.
15.3. Ranking de parámetros 165

canal lento

ku
ka1
Q1a
1 Q2

LDa

ka1
canal rápido

(1-k)u ka2 insulina en


Q1a
1 Q2 plasma

ke

Figura 15.3: Estructura del modelo de infusión de insulina (Wilinska et al., 2005)

Las ecuaciones que describen la cinética de la insulina son:

dQI1a (t)
= ku(t) − kia1 QI1a (t) − LDa (15.10)
dt
dQI1b (t)
= (1 − k)u(t) − kia2 QI1b (t) − LDb (15.11)
dt
dQI2 (t)
= kia1 QI1a (t) − kia1 QI2 (15.12)
dt
dI(t) 1
= (kia1 QI2 + kia2 QI1b (t)) − ke I(t) (15.13)
dt VI

donde

Vmax,ld QI1a
LDa = km,ld +QI1a
(15.14)
Vmax,ld QI1b
LDb = km,ld +QI1b
(15.15)

15.3. Ranking de parámetros


En la Figura 15.4 se representa el valor de los criterios de los criterios descritos
en la sección 3.3 para los 4 parámetros a estimar. Los parámetros aparecen en orden
decreciente de acuerdo con el criterio δ msqr y sus valores numéricos se muestran en la
Tabla 15.1. Estos resultados no reflejan grandes diferencias en los valores de δ msqr
para los distintos parámetros lo que indica que no hay mucha diferencia entre la
sensibilidad de la salida del modelo con respecto a variaciones en cada uno de ellos.
Entre δ msqr y δ mabs tampoco hay grandes diferencias indicando que no existe mucha
166 Capı́tulo 15. Cinética de la glucosa en pacientes diabéticos

1
d
msqr
0.8 dmabs
d
0.6 mean
dmax
0.4 dmin
Valor del criterio 0.2

−0.2

−0.4

−0.6

−0.8

−1
SIT SID F01 tmaxG
Parámetros

Figura 15.4: Parámetros ordenados por orden decreciente de δ msqr

Param pn Val nom δ msqr δ mabs δ mean δ max δ min


SIT p1 5.12e-3 8.17e-1 7.83e-1 -7.83e-1 0.00e+0 -9.65e-1
SID p2 8.20e-4 3.96e-1 3.62e-1 -3.62e-1 0.00e+0 -5.12e-1
tmax,G p4 4.00e+1 2.53e-1 1.36e-1 -9.81e-2 3.05e-1 -6.61e-1
F01 p3 9.70e-3 1.86e-1 1.68e-1 -1.68e-1 0.00e+0 -3.00e-1

Tabla 15.1: Valores para el ranking de parámetros

variabilidad en las sensibilidades de los distintos estados con respecto a un mismo


parámetro (Sj ). El efecto global de las sensibilidades para todos los parámetros es
negativo tal y como indica el signo de δ mean .

15.4. Estimación de parámetros


Es bien sabido que los parámetros del sistema glucorregulatorio varı́an conside-
rablemente entre sujetos, por lo tanto, la estimación de parámetros se realizó por
separado para cada uno de los pacientes. Utilizando varios métodos de optimización,
se estimaron los parámetros correspondientes al sistema de glucosa (F01 , SIT , SID )
y también tmax,G considerada una constante del modelo por Hovorka et al. (2004).
Los parámetros relacionados con el sistema de insulina se mantuvieron en sus valo-
res nominales. Para los métodos que requieren un valor inicial para los parámetros
se consideraron los valores de la bibliografı́a. Los lı́mites inferiores y superiores se
muestran en la Tabla 15.2.
15.4. Estimación de parámetros 167

Parámetro Val inicial Lı́mite inf Lı́mite sup


SIT 5.12e-3 1.00e-5 1.00e+0
SID 8.20e-4 1.00e-5 1.00e+0
F01 9.70e-3 1.00e-5 1.00e+0
tmax,G 4.00e+1 2.00e+1 1.00e+2

Tabla 15.2: Valores nominales y lı́mites para los cuatro parámetros

En un primer momento se resolvió el problema empleando un método SQP en


modo multi-start. En la Figura 15.5 se muestra la frecuencia de las soluciones para
el primer paciente. Este método local convergió a soluciones que ajustan bastante
bien los datos experimentales pero, dado que se desconoce el valor de la función
objetivo en el óptimo y debido a la naturaleza del método, no se puede saber si la
solución obtenida corresponde al óptimo global. Por ello, se hace necesario resolver
el problema empleando métodos de optimización global que proporciones mayores
garantı́as de convergencia a la solución óptima global.

80

70

60

50
Frecuencia

40

30

20

10

0
0 0.5 1 1.5 2 2.5 3
Función objetivo x 10
5

Figura 15.5: Frecuencia de las soluciones de un SQP en


modo multi-start

Por este motivo, se emplearon los métodos globales SRES, DE y SSm. Los tres
métodos convergieron a la solución óptima global en un tiempo reducido siendo SSm
el más rápido de los tres. En la Figura 15.6 se muestran las curvas de convergen-
168 Capı́tulo 15. Cinética de la glucosa en pacientes diabéticos

cia para los tres métodos durante la estimación de parámetros correspondientes al


primer paciente (para los demás pacientes los resultados obtenidos fueron similares).

4
x 10
6
SRES
DE
5 SSm

4
Función objetivo

0
2 4 6 8 10 20 40 60
Tiempo CPU (s)

Figura 15.6: Curvas de convergencia de SRES, DE y SSm

En la Tabla 15.3 se muestran los valores de los parámetros obtenidos para cada
uno de los cinco pacientes.

Paciente 1 Paciente 2 Paciente 3 Paciente 4 Paciente 5


SIT 5.05e-3 2.48e-3 4.49e-3 5.57e-4 1.73e-3
SID 1.49e-5 9.94e-5 2.18e-5 1.00e-5 1.00e-5
F01 2.36e-2 2.70e-2 2.55e-2 5.25e-2 3.60e-2
tmax,G 3.82e+1 5.58e+1 5.63e+1 8.92e+1 8.75e+1

Tabla 15.3: Valores de los parámetros óptimos para cada paciente

La Figura 15.7 representa el error entre los datos experimentales y los datos
predichos por el modelo para la concentración de glucosa como función del tiem-
po, mostrando buena concordancia para los cinco sujetos. Los valores medios de los
errores absolutos para la concentración de glucosa se dan en la Tabla 15.4. Se ob-
serva que los parámetros estimados son apropiados y que la dinámica del sistema es
capturada. Los errores medios son inferiores al 5 % para todos los sujetos a estudio.
15.4. Estimación de parámetros 169

Paciente 1
10 Paciente 2
Paciente 3
Paciente 4
Paciente 5
Error de Predicción (%)
5

−5

−10

200 250 300 350 400


Tiempo (min)

Figura 15.7: Porcentaje de error entre los datos


experimentales y los predichos

Paciente 1 Paciente 2 Paciente 3 Paciente 4 Paciente 5


4.41 % 3.71 % 3.07 % 4.19 % 4.79 %

Tabla 15.4: Valor medio de los errores de predicción para los niveles de glucosa

Los parámetros ajustados para un sujeto a partir de los datos de un experimento


fueron validados con los datos de un segundo experimento. Para el sujeto 1, la Figura
15.8 muestra el ajuste del modelo basado en la primera prueba y la Figura 15.9, los
resultados de la segunda prueba comparados con la predicción del modelo para esas
condiciones empleando el mejor conjunto de parámetros encontrado utilizando los
datos experimentales de la primera.
Para los objetivos del estudio, el factor más importante es la tendencia y ésta es
capturada por el modelo cuando se utiliza para predecir los resultados de la prueba
de validación. El error en si mismo no es malo, considerando que los dos experimentos
fueron realizados en un intervalo más de tres meses, un periodo de tiempo suficiente
para que el peso del sujeto, su condición fı́sica y otros factores que afectan estas
dinámicas hubiesen cambiado en cierta medida. Las diferencias observadas pueden
ser fácilmente explicadas por un aumento en la sensibilidad a la insulina durante el
segundo experimento en comparación con el primero.
170 Capı́tulo 15. Cinética de la glucosa en pacientes diabéticos

120 140

120
100

100
80
Glucosa (mg/dl)

Glucosa (mg/dl)
80
60
60

40
40

20
datos experimentales 20 datos experimentales
data filtrados datos filtrados
predicción del modelo predicción del modelo
0 0
0 50 100 150 200 250 300 350 0 50 100 150 200 250 300 350 400
Tiempo (min) Tiempo (min)

Figura 15.8: Ajuste del modelo con los Figura 15.9: Validación del ajuste con
datos del experimento 1 los datos del experimento 2

15.5. Identificabilidad a posteriori


Para asegurar que el problema de estimación de parámetros está bien planteado,
deben realizarse pruebas sobre la identificabilidad de los parámetros. La identifica-
bilidad práctica fue evaluada mediante la matriz de correlación, calculada a partir
de la matriz de información de Fisher como se detalla en 4.3.
La matriz de correlación (ver Figura 15.10) no presenta elementos iguales a +1
o -1 fuera de la diagonal (la mayor correlación se encuentra entre SID y SIT con
un valor de R1,2 = −0.77), lo que significa que todos los parámetros son localmente
identificables en la práctica.

0.8
tmaxG
0.6

0.4
F01
0.2

−0.2
SID
−0.4

−0.6
SIT
−0.8

−1
SIT SID F01 tmaxG

Figura 15.10: Matriz de correlación a posteriori


15.6. Intervalos de confianza 171

15.6. Intervalos de confianza


El valor medio de los parámetros estimados para los 5 pacientes y su desviación
estándar, se muestran en la Tabla 15.5 junto con los valores publicados por Hovorka
et al. (2004).

Parámetro Hovorka et al. (2004) Valor óptimo Desv estd


SIT 5.12e-3 2.86e-3 1.88e-3
SID 8.20e-4 3.12e-5 3.84e-5
F01 9.70e-3 3.29e-2 1.19e-2
tmax,G 4.00e+1 6.54e+1 2.22e+1

Tabla 15.5: Valores y desviación estándar de los parámetros óptimos

Cabe destacar que, a pesar de que los parámetros del sistema glucorregulatorio
varı́an entre sujetos y por eso su estimación se realiza por separado, la desviación
estándar de algunos de ellos es relativamente pequeña.

15.7. Conclusiones
En este capı́tulo se consideró la calibración de un modelo para la cinética de
la glucosa en pacientes con diabetes de tipo I. El método SSm demostró converger
en un tiempo computacional reducido al óptimo global proporcionando un buen
ajuste de los datos experimentales. La validación del modelo con otros conjuntos de
datos experimentales fue satisfactoria demostrando que el modelo evaluado es capaz
de describir las dinámicas observadas bajo el protocolo experimental del ensayo
hiperinulinı́mico-euglucémico incluyendo una comida.
Esto sugiere que el modelo considerado puede servir como punto de partida para
la incorporación de otros efectos que ningún otro modelo describe actualmente. Estas
otras dinámicas están relacionadas con la variación circadiana en la sensibilidad
a la insulina, cambios en el ritmo de flujo (debidos y no debidos a la insulina)
dependiendo de los niveles de actividad fı́sica, y respuestas contra-regulatorias a
hipoglucemia, estrés y otros.
Parte IV

Conclusiones
Conclusiones

En esta tesis se abordó el modelado y la identificación de procesos relaciona-


dos con la industria alimentaria y biotecnológica. Debido a la compleja estructura
de estos modelos, descritos en su mayorı́a por sistemas de ecuaciones algebraicas y
diferenciales ordinarias y/o en derivadas parciales de naturaleza no lineal, se desa-
rrolló una metodologı́a en varios pasos para la adecuada resolución del problema
inverso asociado.
La primera parte de este trabajo se centró en el problema de estimación de
parámetros. Como conclusiones y resultados más relevantes cabe destacar:

Los métodos locales basados en el gradiente, empleados habitualmente para


el ajuste de sistemas dinámicos no lineales, presentan a menudo problemas de
convergencia local dando lugar a conclusiones erróneas sobre la validez de los
modelos.

La mayorı́a de los métodos de optimización global capaces de resolver este tipo


de problemas dan lugar a tiempos de cálculo excesivos, especialmente cuando
se requiere una gran precisión para la solución.

Con objeto de superar estas dificultades se desarrolló un método hı́brido es-


tocástico-determinista (SRES+n2fb) y se emplearon otras metaheurı́sticas al-
ternativas (SSm) para la calibración de los modelos considerados. Mediante
la resolución de una serie de problemas de complejidad media-alta, estas es-
trategias han demostrado mejorar la eficiencia sin perder robustez, manejando
adecuadamente medidas con ruido y observaciones parciales. En todos los pro-
blemas considerados, SSm resultó ser al menos dos órdenes de magnitud más
rápido que métodos estocásticos de probada eficacia como SRES y DE.

El valor de los parámetros estimados siempre debe ir acompañado de una medi-


da objetiva de su precisión. Para ello se calcularon los intervalos de confianza
mediante la aproximación de Cràmer-Rao y mediante el método de Monte
Carlo resultando esta última aproximación más robusta.

175
176 Conclusiones

En una segunda parte se realizó un estudio sobre de los diferentes métodos para el
cálculo de sensibilidades y el análisis de identificabilidad obteniéndose las siguientes
conclusiones:

El estudio de la identificabilidad estructural global es muy complejo para mo-


delos no lineales. Para algunos de los modelos considerados (el relativo al seca-
do de alimentos y el correspondiente a la isomerización térmica del α-pineno)
se pudo estudiar la identificabilidad estructural mediante el método de series
de Taylor. A pesar de que las técnicas basadas en álgebra diferencial hayan
demostrado resultados prometedores, la aplicabilidad de las técnicas existentes
en la actualidad es limitada (Dokos y Lovell, 2004; Baker et al., 2005) por lo
que para otros de los modelos considerados no fue posible realizar este análisis.

El análisis de sensibilidades permitió establecer un ranking en función de la


importancia de los parámetros de modo que los que demostraron tener poco
efecto pudieron ser simplificados o incluso ignorados. Dado el carácter local
de este procedimiento, éste debe realizarse con especial cautela y siempre de
modo iterativo para evitar descartar parámetros poco importantes en fases
intermedias que afecten significativamente a las predicciones del modelo una
vez encontrado el óptimo global. Por este motivo, siempre que fue posible, se
intentó llevar a cabo la estimación del conjunto completo de los parámetros
del modelo.

Se realizó el chequeo de la identificabilidad práctica de todos los modelos


considerados. En algunos casos, como en el modelo de la ruta bioquı́mica
en tres pasos, al llevar a cabo el estudio de identificabilidad a posteriori se
vieron algunos pares de parámetros altamente correlacionados. A pesar de estos
resultados, al realizar la identificación con métodos globales, se comprobó que
los parámetros sı́ pueden ser determinados de forma única. Esto lleva a pensar
que, como ya han indicado otros autores como Petersen et al. (2001), en algunos
casos la matriz de información de Fisher resulta inadecuada para evaluar la
identificabilidad práctica. Debido a la linealización de primer orden del modelo
con respecto a los parámetros en la que se basa la FIM, se podrı́a estar
perdiendo alguna información sobre los parámetros lo que hace que en algunas
ocasiones éstos sean identificables aún cuando la FIM sea singular.

En la tercera parte de este trabajo se consideró e problema de diseño óptimo de


experimentos. Basándose en los resultados obtenidos se puede concluir que:
Conclusiones 177

El diseño óptimo de experimentos mediante técnicas de optimización dinámica


consiguió reducir los problemas de identificabilidad práctica de algunos mode-
los a la vez que se aumentó la precisión de los parámetros estimados.

Esta técnica permite además reducir el esfuerzo experimental con el consi-


guiente beneficio económico que esto supone a nivel industrial.

Debido a la multimodalidad de este tipo de problemas, el uso de métodos


globales permitió asegurar que los nuevos experimentos diseñados son global-
mente óptimos y evitar la convergencia a soluciones espúreas experimentada
por los métodos locales.

Los resultados obtenidos con los distintos criterios sugieren el uso de otras for-
mulaciones alternativas a ser estudiadas en trabajos futuros como, por ejemplo,
formulaciones multi-objetivo para considerar simultáneamente varios criterios
basados en la matriz de información de Fisher.

La cuarta parte de este trabajo consistió en el desarrollo de un entorno de trabajo


(GOSBio) para la automatización de estas tareas dando lugar a una herramienta de
las siguientes caracterı́sticas:

El entorno principal se logró empleando código Matlab y creando pasarelas


para llamar a códigos Fortran externos para la simulación, el cómputo de las
sensibilidades paramétricas y algunos métodos de optimización como n2fb.
Esto permitió reducir considerablemente el esfuerzo de cálculo con respecto
a una implementación completa en Matlab, manteniéndose todas las ventajas
de este lenguaje en cuanto a facilidad de implementación y visualización de
los resultados.

La simplicidad de uso del código desarrollado, su versatilidad y su rapidez lo


convierten en una herramienta práctica y eficaz que puede ser empleada para
el modelado e identificación de un amplio rango de modelos no lineales.

Por último, la utilidad y potencial de esta metodologı́a se ilustró mediante el mo-


delado e identificación de una serie de procesos de complejidad media-alta tomados
del área de ingenierı́a de bioprocesos. Las principales conclusiones fueron:

Secado de alimentos: mediante la aproximación de Taylor se detectaron pro-


blemas de identificabilidad estructural en este modelo. La eliminación de los
parámetros no identificables y el empleo de métodos de optimización global
para la calibración de los parámetros identificables a priori permitió estimarlos
con gran precisión como muestran los intervalos de confianza calculados.
178 Conclusiones

Procesamiento térmico de alimentos: los resultados obtenidos del diseño ópti-


mo de experimentos para un esquema de esterilización térmica de alimentos
enlatados permitió no solo reducir los problemas de identificabilidad del mode-
lo y aumentar la precisión de los parámetros estimados sino también disminuir
el esfuerzo experimental requerido con el consiguiente ahorro económico.

Isomerización del α-pineno: mediante la aproximación de Taylor se demostró la


identificabilidad estructural de todos los parámetros de este modelo. Sin em-
bargo, la multimodalidad del problema inverso asociado hizo que sólo la me-
taheurı́stica SSm fuese capaz de alcanzar la solución global en un tiempo de
cálculo reducido lo que la convierte en una estrategia muy recomendable para
la resolución de esta clase de problemas.

Inhibición de la proteasa del HIV: el método SSm resultó ser una estrategia
muy eficaz para la resolución del problema de estimación de parámetros aso-
ciado a este modelo. Sin embargo, el análisis de identificabilidad a posteriori
y los intervalos de confianza calculados demostraron que el buen ajuste de
los datos experimentales no es siempre garantı́a de una buena calibración del
modelo. De hecho, cuando los modelos presentan problemas de identificabi-
lidad, los parámetros estimados para un conjunto de datos no serán capaces
de reproducir el comportamiento del modelo en condiciones experimentales
diferentes.

Función de las caspasas en la apoptosis: como en el caso del modelo ante-


rior, el métodos SSm encontró un conjunto de parámetros que ajustan bien los
datos experimentales en un tiempo de cálculo reducido. Sin embargo, los pro-
blemas de identificabilidad a posteriori detectados no permiten asegurar que
estos parámetros sean capaces de reproducir el comportamiento del sistema
en condiciones experimentales diferentes.

Ruta bioquı́mica en tres pasos: este problema, especialmente costoso desde


el punto de vista computacional, permitió comparar la eficacia de distintas
metodologı́as demostrando la eficacia de las estrategias hı́bridas frente a los
métodos estocásticos puros. Además, el diseño óptimo de nuevos experimentos
permitió mejorar la precisión de los parámetros estimados a la vez que se redujo
el esfuerzo experimental.

Cinética de la glucosa en pacientes diabéticos: el método SSm permitió ob-


tener un buen ajuste de los datos experimentales para todos los pacientes a
estudio. La validación del modelo con otros conjuntos de datos experimentales
Conclusiones 179

no empleados para la calibración confirmó que el modelo evaluado es capaz de


describir las dinámicas observadas bajo el protocolo experimental considerado.
Parte V

Apéndices
Apéndice A

Ejemplo de fichero de entrada


para el entorno GOSBio

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% USER MUST INTRODUCE HERE PROBLEM RELATED DATA: %
% --> SIMULATION DATA %
% --> OPTIMIZATION RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% User may change the name of the function according to his/her necessities
% Please, remember to save the file as name_function.m
function[problem_input,ivp_solver,opt_solver,results]=mendes_input_data;

% problem_input.folder: folder to keep problem related files.


problem_input.folder=’Mendes’;

% Folder to keep all output files:


% General input report for a particular run.
% Optimizer report.
% Plots: Best fit and Convergence curve when available
results.folder=’results_SSm_noise_5_run_1’;

% problem_input.report: file to keep input/output information for each different run


results.report=’results.m’;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ANALYSIS TO BE PERFORMED %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ’PE’ Parameter estimation
% ’OED’ Optimal experimental design
% ’prior_analysis’ Performs: Ranking of parameters and local a priori identifiability analysis
% ’post_analysis’ Performs practical identifiability analysis
% ’all’ Performs a priori analysis, OED and a posteriori analysis
problem_input.task=’PE’;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% MODEL RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% results.n_states: number of state variables.
problem_input.n_states=8;

183
184 Apéndice A. Ejemplo de fichero de entrada para el entorno GOSBio

% ODES/DAES describing the system may be supplied in the following manners:


% 1: fcn.f: Fortran file, as follows
% SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
% IMPLICIT DOUBLE PRECISION (A-H,O-Z)
% DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
% YDOT=F(...) OR M*YDOT=F(...)
% RETURN
% END
% DAE solution may be approached using RKF45 or RADAU5.
% Note that fcn.f will vary with the solver
% 2: fcn.m: Matlab file as follows,
% function yteor = fcn(t,y,par)
% DAE system will be solved using ode15s
% 3: problem_input.ydot: a "char" type vector including the equations.
% Code will generate fortran files DAE solution may be
% approached using RKF45 or RADAU5
% 4: function yteor = fcn(t,y,par,u)
problem_input.model_type=3;

problem_input.ydot=char(...
’ydot(1)=par(28)*y(3)*(1.0d0/par(29))*(u(1)-y(1))/(1.0d0+(u(1)/par(29))+(y(1)/par(30))),...
-par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33)))’,...
’ydot(2)=par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33))),...
-par(34)*y(5)*(1.0d0/par(35))*(y(2)-u(2))/(1.0d0+(y(2)/par(35))+(u(2)/par(36)))’,...
’ydot(3)=par(19)*y(6)/(par(20)+y(6))-par(21)*y(3)’,...
’ydot(4)=par(22)*y(7)/(par(23)+y(7))-par(24)*y(4)’,...
’ydot(5)=par(25)*y(8)/(par(26)+y(8))-par(27)*y(5)’,...
’ydot(6)=par(1)/(1.0d0+(u(2)/par(2))**par(3)+(par(4)/u(1))**par(5))-par(6)*y(6)’,...
’ydot(7)=par(7)/(1.0d0+(u(2)/par(8))**par(9)+(par(10)/y(1))**par(11))-par(12)*y(7)’,...
’ydot(8)=par(13)/(1.0d0+(u(2)/par(14))**par(15)+(par(16)/y(2))**par(17))-par(18)*y(8)’);

% problem_input.y0: fixed initial conditions


problem_input.y0= [1.4190 9.3464e-1 4.0e-1 3.6409e-1 2.9457e-1 6.6667e-1 5.7254e-1 4.1758e-1];

% Initial conditions for the parametric sensitivities. This matrix will be zero unless the
% initial condition for a particular state depends on any parameter
problem_input.sens0=zeros(problem_input.n_states,problem_input.n_par);

% problem_input.n_par: number of model parameters (initial conditions not included here)


problem_input.n_par=36;

% problem_input.par: vector of parameters (nominal values)


problem_input.par=[1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0,...
1.0 0.1 1.0 0.1 0.1 1.0 0.1 0.1 1.0 0.1 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0];

% problem_input.n_theta_par: number of parameters to be considered


problem_input.n_theta_par= 36;

% problem_input.index_theta_par: index of parameters to be considered within vector par


problem_input.index_theta_par=[1 : 1 : 36];

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% INPUT DATA TO CALCULATE THE OBJECTIVE FUNCTION. EXPERIMENTAL DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_exp: number of experiments
problem_input.n_exp=16;

for iexp=1:problem_input.n_exp
Apéndice A. Ejemplo de fichero de entrada para el entorno GOSBio 185

% Measured states for experiment


% n_obs{iexp}: number of measured states for each experiment
problem_input.n_obs{iexp}=8;

% problem_input.ms includes the vector of states, or functions of states,


% to be measured. Note the brackets { } used.
problem_input.ms{iexp}=char(’ms(:,1)=y(:,1)’,...
’ms(:,2)=y(:,2)’,...
’ms(:,3)=y(:,3)’,...
’ms(:,4)=y(:,4)’,...
’ms(:,5)=y(:,5)’,...
’ms(:,6)=y(:,6)’,...
’ms(:,7)=y(:,7)’,...
’ms(:,8)=y(:,8)’);

% problem_input.n_theta_y0: number of initial conditions to be estimated


problem_input.n_theta_y0{iexp}=0;

% problem_input.index_theta_y0: index of initial conditions to be estimated


problem_input.index_theta_y0{iexp}=[];

% problem_input.y0{i}: vector of fixed initial conditions


problem_input.exp_y0{iexp}=problem_input.y0;

% n_m: Number of measurements


problem_input.n_m{iexp}=21;

% problem_input.t_in{i}: initial process time

problem_input.t_in{iexp}=0;

% problem_input.t_f{i}: final process time

problem_input.t_f{iexp}=120;

% problem_input.t_m{iexp}: Sampling times, for non equidistant measurements


% problem_input.t0{iexp}: initial sampling time >= t_in{iexp}
problem_input.t0{iexp}=problem_input.t_in{iexp};

% Equidistant measurements
problem_input.t_m{iexp}=[0:6:120];

% measurement_type:
% ’sim’: the code will generate a pseudo_data, using par0, rel_error, and tm
% ’real’: the code will use real data, rel_error must be fixed to 1 in this case
%
problem_input.measurement_type=’sim’;

% problem_input.noise_type: for simulated experimental data


% 1: exp_data= yteor*(1+rel_error*rand)
% 0: exp_data= yteor+rel_error*rand (suitable for normalized values)
%
problem_input.noise_type=1;

% exp_data{i}: to be defined only in case measurement_type=’real’, is a matrix N_m x n_m_states,


% where the different columns correspond to the state measurements

% problem_input.rel_error: relative error introduced to pseudo-measurements.


186 Apéndice A. Ejemplo de fichero de entrada para el entorno GOSBio

% For the case experimental data is provided this value should be fixed to 1.0
problem_input.rel_error{iexp}=0.05;

% problem_input.fobj_norm:
% 1: to normalize objective function with max experimental data.
% 0: no normalization is applied problem_input.
problem_input.fobj_norm=1;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% OBJECTIVE FUNCTION FOR OPTIMAL EXPERIMENTAL DESIGN %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.fobj_type: Function of the FIM to be minimized
% A_optimality = trace(inv(FIM))
% A_modified = -trace(FIM) (maximize trace(FIM))
% D_optimality = -det(FIM) (maximize det(FIM))
% E_optimality = -min(abs(eig(FIM))) (maximize min(eig(FIM)))
% E_modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))

problem_input.fobj_type=’D_optimality’;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% CONTROL RELATED DATA FOR EACH EXPERIMENT {i} %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_u: number of control variables >=1 for experiment {i}:1-n_exp
problem_input.n_u=2;

% problem_input.n_con: number of control steps >=1 for experiment {i}:1-n_exp


problem_input.n_con{iexp}=1;

% problem_input.u: control variable for experiment {i}:1-n_exp


S_list = [0.1 0.1 0.1 0.1 0.46416 0.46416 0.46416 0.46416 2.1544 2.1544 2.1544 2.1544 10 10 10 10];
P_list = [0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1];

problem_input.u{iexp}(1,:)=S_list(iexp);
problem_input.u{iexp}(2,:)=P_list(iexp);

% t_con: temporal control switching points for experiment {i}:1-n_exp


% t_con(n_con)=tf
% problem_input.t_con=[];
problem_input.t_con{iexp}=[120.0];

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% ODE SOLVER RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Select the solver to be used from the following alternatives
% radau5: BDF based method suitable also for DAEs
% rkf45 : Runge-Kutta-Fehlberg ODE Solver
% ode15s: MATLAB code to be used when fcn.m is provided
% odessa: BDF based method suitable for parametric sensitivity analysis
ivp_solver.name= ’radau5’;

% rtol/atol: integration tolerances


ivp_solver.rtol = 1.0D-6;
ivp_solver.atol = 1.0D-6;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% NLP SOLVER RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Apéndice A. Ejemplo de fichero de entrada para el entorno GOSBio 187

% Select the solver to be used from the following alternatives


% simulate: will perform a simulation for the initial guess provided by user
% DE: Differential Evolution (Rainer and Storm, 1997)
% SRES: Stochastic Ranking Evolutionary Search (Runarsson and Yao, 2000)
% SSm: Scatter Search, Matlab version, J. Egeas - SSm beta 2.5
% only_local
% multistart

opt_solver.name=’SSm’;
opt_solver.n_starts=100; % To be used in multistart
opt_solver.local_solver=’n2fb’; % To be used in multistart or only_local

% opt_solver.par_guess/par_min/par_max: Initial guess/lower/upper bounds for the parameters


opt_solver.par_guess=[500 500 5 500 5 500 500 500 5 500 5 500 500 500 5 500 5 500 500 500,...
500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 ];

opt_solver.par_min=[1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12,...
1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 ,...
1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12];

opt_solver.par_max=[1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3,...
10. 1.e3 10. 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3,...
1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3];

% opt_solver.y0_guess/y0_in/y0_max:
% initial guess/lower/upper bounds for the initial conditions to be estimated
opt_solver.y0_guess{iexp}=[];
opt_solver.y0_min{iexp}=[];
opt_solver.y0_max{iexp}=[] ;

% opt_solver.u_guess/u_min/u_max: Initial guess/lower/upper bounds for the controls


opt_solver.u_guess{iexp}(1,:)=S_list(iexp);
opt_solver.u_guess{iexp}(2,:)=P_list(iexp);
opt_solver.u_min{iexp}(1,:)=ones(1,problem_input.n_con{iexp})*0.05;
opt_solver.u_min{iexp}(2,:)=ones(1,problem_input.n_con{iexp})*0.05;
opt_solver.u_max{iexp}(1,:)=ones(1,problem_input.n_con{iexp})*10.0;
opt_solver.u_max{iexp}(2,:)=ones(1,problem_input.n_con{iexp})*10.0;

% opt_solver.t_f{iexp}/tf_min/tf_max
opt_solver.tf_guess{iexp}=[120];
opt_solver.tf_min{iexp}=[120];
opt_solver.tf_max{iexp}=[120];

end %iexp

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% OUTPUT RELATED DATA %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Names for the figures. The name of opt and ivp solvers will be added to the names provided here
results.fit_plot=’fit_plot’;
results.convergence_curve=’conv_curve’;
results.histogram=’histogram’; results.residuals_plot=’residuals’;
results.correlation=’correlation_matrix’;

return
Parte VI

Bibliografı́a
Bibliografı́a

[1] J. Abadie y J. Carpentier. Optimization, capı́tulo: Generalization of the


Wolfe Reduced Gradient Method to the case of Nonlinear Constraints. Aca-
demic Press, New York, 1969.

[2] M. A. Abramson. Pattern Search Algorithms for Mixed Variable Gene-


ral Constrained Optimization Problems. Tesis doctoral, Houston, Texas, Rice
University, 2002.

[3] M.M. Ali, C. Storey y A. Törn. Application of stochastic global optimiza-


tion algorithms to practical problems. J. of Opt. Th. and Appl., 95(3):545–563,
1997.

[4] S. P. Asprey y S. Macchietto. Designing robust optimal dynamic experi-


ments. J. of Biotechnology, 12(4):545–556, 2002.

[5] A. C. Atkinson y W. G. Hunter. The design of experiments for parameter


estimation. Technometrics, 10:271–289, 1968.

[6] S. Audoly, G. Bellu, L. D’Angio, M.P. Saccomani y C. Cobelli. Global


identifiability of nonlinear models of biological systems. IEEE Trans Biome-
dical Engineering., 48(1):55–65, 2001.

[7] B. M. Averick, R. G. Carter y J. J. More. The minpack-2 test problem


collection. Technical Report ANL/MCS-TM-273, Argonne National Labora-
tory., 1991.

[8] C. T. H. Baker, G. A. Bocharov, C. A. H. Paul y F. A. Rihan.


Computational modelling with functional differential equations: Identification,
selection, and sensitivity. Applied Numerical Mathematics, 53:107–129, 2005.

[9] M. Balaban. Effect of volume change in foods on the temperature and mois-
ture content predictions of simultaneous heat and moisture transfer models.
Journal of Food Process Engineering, 12:67–88, 1989.

191
192 Bibliografı́a

[10] E. Balsa-Canto. Algoritmos Eficientes para la Optimización Dinámica de


Procesos Distribuidos. Tesis doctoral, Universidad de Vigo, 2001.

[11] E. Balsa-Canto, A. A. Alonso y J. R. Banga. Microwave heating of


foods: Model predictive control using reduced order models. En ACoFoP IV
(Automatic Control of Food and Biological Processes), Göteborg, Sweden, Sep-
tiembre 1998.

[12] E. Balsa-Canto, J. R. Banga y A. A. Alonso. A novel, efficient and relia-


ble method for thermal process design and optimization. Part II: applications.
J. of Food Engineering, 52:225–247, 2002.

[13] E. Balsa-Canto y M. Rodriguez-Fernandez. GOSBio- Part II: Optimal


experimental design for nonlinear dynamic systems, with applications in Sys-
tems Biology. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.

[14] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martı́n. Degradation


kinetics of protein digestibility and available lysine during thermal processing
of tuna. Journal of Food Science, 57(4):913–915, 1992.

[15] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martı́n. Kinetics of


thermal degradation of thiamine and surface color in canned tuna. Zeitschrift
fur lebensmittel-untersuchung und-forchung, 197(2):127–131, 1993.

[16] J. R. Banga, A. A. Alonso y R. P. Singh. Stochastic dynamic opti-


mization of batch and semicontinuous bioprocesses. Biotechnology Progress,
13(3):326–335, 1997.

[17] J. R. Banga, E. Balsa-Canto, Moles C.G. y A. A. Alonso. Dynamic


optimization of bioprocesses: Efficient and robust numerical strategies. J. of
Biotechnology, 117:407–419, 2005.

[18] J. R. Banga, R. P. Martı́n, J. M. Gallardo y J. J. Casares. Opti-


mization of thermal processing of conduction-heated canned foods: Study of
several objective functions. J. Food Engineering, 14(1):25–51, 1991.

[19] J. R. Banga y W. D. Seider. Global optimization of chemical processes


using stochastic algorithms, páginas 563–583. Kluwer Academic Pub., Dordre-
cht, The Netherlands, 1996.

[20] J. R. Banga y R. P. Singh. Optimization of the air drying of foods. J.


Food Eng., 23:189–211, 1994.
Bibliografı́a 193

[21] J.R. Banga, E. Balsa-Canto, C.G. Moles y A.A. Alonso. Improving


food processing using modern optimization methods. Trends Food Sci. Tech.,
14:131–144, 2003.

[22] J.R. Banga, C.G. Moles y A.A. Alonso. Frontiers In Global Optimiza-
tion., capı́tulo: Global optimization of bioprocesses using stochastic and hybrid
methods., páginas 45–70. Nonconvex Optimization and Its Applications, vol.
74. Kluwer Academic Publishers, 2003.

[23] J.R. Banga, K.J. Versyck y J. F. Van Impe. Computation of opti-


mal identification experiments for nonlinear dynamic process models: an sto-
chastic global optimization approach. Industrial and Engineering Chemistry
Research., 41:2425–2430, 2002.

[24] D. M. Bates y D. G. Watts. Nonlinear Regression Analysis and its Appli-


cations. Wiley, 1988.

[25] M.S. Bazaraa, H. D. Sherali y C.M. Shetty. Nonlinear Programming:


Theory and Algorithms. John Wiley & Sons, Inc., New York, 1993.

[26] R. Bellazzi, G.Ñucci y C. Cobelli. The subcutaneous route to insulin–


dependent diabetes therapy. IEEE Engineering in Medicine and Biology Ma-
gazine, 20(1):54–64, 2001.

[27] R. Bellman. Dynamic Programming. Princeton University Press, Princeton,


New Jersey, 1959.

[28] B.W. Bequette. A critical assessment of algorithms and challenges in the


development of a closed–loop artificial pancreas. Diabetes Technology & The-
rapeutics, 7(1):28–47, 2005.

[29] W. C. Bevier, H. Zisser, C. Palerm, D. A. Finan, D. E. Seborg,


F.J. Doyle, III, A. Wollitzer y L. Jovanovic. Calculating the insulin to
carbohydrate ratio using the hyperinsulinemic euglycemic clamp — a novel
use for a proven technique. Diabetes Care, enviado, 2006.

[30] H. G. Beyer y H. P. Schwefel. Evolution strategies - a comprehensive


introduction. Natural Computing, 1:352, 2002.

[31] H.G. Beyer. Toward a theory of evolution strategies: Self-adaptation. Evo-


lutionary Computation, 3 (3):311–347, 1996.
194 Bibliografı́a

[32] L.T. Biegler. Solution of dynamic optimization problems by succesive qua-


dratic programming and orthogonal collocation. Comp. and Chem. Eng.,
8(3/4):243–248, 1984.

[33] H. Bock. Progress in Scientific Computing, vol. 2, capı́tulo: Recent advances


in parameter identification for ordinary differential equations., páginas 95–121.
Deuflhard, P., Hairer, E. (Eds.) Birkhäuser, Boston, 1983.

[34] H. Bock. Randwertproblemmethoden zur Parameteridentifizierung in Syste-


men Nichtlinearer Differentialgleichungen. Tesis doctoral, Universität Bonn,
1987.

[35] E. Bonabeau, M. Dorigo y G. Theraulaz. Swarm intelligence: from


natural to artificial systems. Oxford University Press, New York, 1999.

[36] E. Bonabeau, M. Dorigo y G. Theraulaz. Inspiration for optimization


from social insect behaviour. Nature, 406:39–42, 2000.

[37] G. E. P. Box, W. G. Hunter, J. F. MacGregor y J. Erjavec. Some


problems associated with the analysis of multiresponse data. Technometrics,
15:33–51, 1973.

[38] M.J. Box. The occurrence of replications in optimal designs of experiments


to estimate parameters in non-linear models. Journal of the Royal Statistical
Society, Series B, 30:290–302, 1968.

[39] M.J. Box. Some experiences with a non-linear experimental design criterion.
Technometrics, 12:569–589, 1970.

[40] S. Brooks. A discussion of random methods for seeking maxima. Operations


Research, 6:244251, 1958.

[41] S. Bruin y K.C.A.M. Luyben. Advances in drying, Vol. I, capı́tulo: Drying


of food materials: A review of recent developments. New York: Hemisphere
Publishing Corp., 1980.

[42] R. Brun, P. Reichert y H.R. Kunsch. Practical identifiability analysis of


large environmental simulation models. Water Resources Research., 37:1015–
1030, 2001.

[43] A. E. Bryson y Y. C. Ho. Applied optimal control. Hemisphere Publishing


Corporation, New York, 1975.
Bibliografı́a 195

[44] M. J. Chappell, K. R. Godfrey y S. Vajda. Global identifiability of


the parameters of nonlinear-systems with specified inputs: A comparison of
methods. Mathematical Biosciences., 102(1):41–73, 1990.

[45] D. Corne, M. Dorigo y F. Glover. Adaptation in Natural and Artificial


Systems. The University of Michigan Press, 1975.

[46] D. Corne, M. Dorigo y F. Glover. New Ideas in Optimization. McGraw-


Hill, New York, 1999.

[47] G. B. Dantzig. Linear Programming and Extensions. Princeton University


Press, 1963.

[48] A.K. Datta. Computer-aided engineering in food process and product design.
Food Technology, 52:44, 1998.

[49] R. A. DeFronzo, J. D. Tobin y R. Andres. Glucose clamp technique: a


method for quantifying insulin secretion and resistance. American journal of
physiology: Endocrinology and metabolism, 237(3):14–23, Septiembre 1979.

[50] D. Degenring, C. Froemel, G. Dikta y R. Takors. Sensitivity analysis


for the reduction of complex metabolism models. Journal of Process Control.,
14:729–745, 2004.

[51] J.E. Dennis, D.M. Gay y R.E. Welsch. Algorithm 573, NL2SOL - an
adaptive nonlinear least-squares algorithm. ACM Trans. Math. Software,
7:369–383, 1981.

[52] Diabetes Control and Complications Trials Research Group. The


effect of intensive treatment of diabetes on the development and progression
of long–term complications in insulin–dependent diabetes mellitus. The New
England Journal of Medicine, 329:977–986, 1993.

[53] T. J. DiCiccio y J. P. Romano. A review of bootstrap confidence intervals


(with discussion). Journal of Royal Statistics Society, Series B, 50(3):338–370,
1988.

[54] D. Dochain y P. A. Vanrolleghem. Dynamical Modelling and Estimation


in Wastewater Treatment Processes. IWA Publishing, London, 2001.

[55] S. Dokos y N. H. Lovell. Parameter estimation in cardiac ionic models.


Progress in Biophysics and Molecular Biology, 85:407–431, 2004.
196 Bibliografı́a

[56] E. D. Dolan, J. J. More y T. S. Munson. Benchmarking optimization


problems with COPS 3.0. Technical Report ANL/MCS-TM-273, Argonne Na-
tional Laboratory., 2004.

[57] J. Donaldson y R. Schnabel. Computational experience with confidence


regions and confidence intervals for non-linear least squares. Technometrics,
29(1):67–82, 1987.

[58] M. Dorigo, V. Maniezzo y A. Colorni. The ant system: Optimization by a


colony cooperaing agents. IEEE Transactions on Systems, Man & Cybenetics
B, 26(2):29–41, 1996.

[59] G. T. Dunkan. An empirical study of jackknife constructed confidence re-


gions in nonlinear regression. Technometrics, 20:123–129, 1978.

[60] A.M. Dunker. The decoupled direct method for calculating sensitivity coef-
ficients in chemical kinetics. Journal of Chemical Physics, 81:2385–2393, Sep-
tember 1984.

[61] T. D. Durance. Improving canned food quality with variable retort tempe-
rature processes. Trends in Food Sci. & Technol., 8(4):113–118, 1997.

[62] T. F. Edgar y D. M. Himmelblau. Optimization of Chemical Processes.


1988.

[63] B Efron. The jackknife, the bootstrap, and other resampling plans. Series
in Applied Mathematics, SIAM, 38:91, 1982.

[64] J. A. Egea, M. Rodriguez-Fernandez, J. R. Banga y R. Marti. Scatter


Search for chemical and bio-process optimization. Journal of Global Optimi-
zation, 2006. En publicación.

[65] L. Eiselein, H.J. Schwartz y J.C. Rutledge. The challenge of type 1


diabetes mellitus. ILAR Journal, 45(3):231–236, 2004.

[66] W. R. Esposito y C. A. Floudas. Global optimization of nonconvex pro-


blems with differential-algebraic constraints. En S. Pierucci, editor, Procee-
dings ESCAPE-10, páginas 73–78. Elsevier Science, 2000.

[67] R. Fisher. Design of experiments. Oliver and Boyd Ldt., Edinburgh, 1935.

[68] R. Fletcher. Nonlinear Optimization, capı́tulo: Methods for Nonlinear Cons-


traints. Academic Press, 1982.
Bibliografı́a 197

[69] C.A. Floudas. Deterministic Global Optimization: Theory, Methods and Ap-
plications. Kluwer Academics, The Netherlands, 2000.

[70] L.J. Fogel, A.J. Owens y M.J. Walsh. Artificial intelligence through
simulated evolution. Wiley, New York, 1966.

[71] R.E. Fuguitt y J. E. Hawkins. Rate of thermal isomerization of α-pinene


in the liquid phase. J. A. C. S., 69:461, 1947.

[72] M. Fussenegger, J. E. Bailey y J. Varner. A mathematical model of


caspase function in apoptosis. Nat. Biotechnol., 18:768–774, 2000.

[73] K.G. Gadkar, R. Gunawan y F.J. Doyle III. Iterative approach to model
identification of biological networks. BMC Bioinformatics, 6:155, 2005.

[74] M.S.G. Garcia, E. Balsa-Canto, A.A. Alonso y J.R. Banga. Compu-


ting optimal operating policies for the food industry. J. Food Eng., 74(1):13–23,
2006.

[75] R. L. Garote, E. R. Silva y R. A. Bertone. Kinetic parameters for thermal


inactivation of cut green beans lipoxygenase calculated using unsteady-state
methods. International Journal of Food Science and Technology, 36:377–385,
2001.

[76] P. E. Gill, W. Murray y M. A. Saunders. SNOPT: An SQP algo-


rithm for large-scale constrained optimization. Siam Journal on Optimization.,
12(4):979–1006, 2002.

[77] P. E. Gill, W. Murray, M. A. Saunders y M. H. Wight. User’s guide for


npsol 5.0: a FORTRAN package for nonlinear programming. Informe Técnico
SOL 86-1, Systems Optimization Laboratory, Standford University, 1998.

[78] P. E. Gill, W. Murray y M. H. Wright. Practical Optimization. Academic


Press, New York, 1981.

[79] F. Glover. Heuristics for integer programming using surrogate constraints.


Decision Sciences, 8-1:156–166, 1977.

[80] F. Glover. Artificial Evolution, Lecture Notes in Computer Science, volúmen


1363, capı́tulo: A Template for Scatter Search and Path Relinking, páginas
13–54. Springer-Verlag, 1998.

[81] F. Glover y M. Laguna. Tabu Search. Kluwer, MA, 1997.


198 Bibliografı́a

[82] K. R. Godfrey y J. J. DiStefano III. Identification and System Parame-


ter Estimation, capı́tulo: Identifiability of model parameters, páginas 89–114.
Pergamon Press, Oxford, 1985.

[83] D.E. Goldberg. Genetic Algorithms in Search, Optimization & Machine


Learning. Addison Wesley Longman, 1989.

[84] G.C. Goodwin y R.L. Payne. Dynamic system identification: Experiment


design and data analysis. Acadamic Press, New York, 1977.

[85] F. H. Grant III y J.J. Solberg. Variance reduction techniques in stochastic


shortes route analysis: Application procedures and results. Mathematics and
Computers in Simulation, 25:366–375, 1983.

[86] K. Grijspeerdt y P. Vanrolleghem. Estimating the parameters of the


baranyi model for bacterial growth. Food. Microbiol., 16(6):593–605, 1999.

[87] C. Guus, E. Boender y H.E. Romeijn. Handbook of Global Optimization,


capı́tulo: Stochastic Methods. Kluwer, 1995.

[88] E. Hairer y G. Wanne. Solvind Ordinary Differential Equations II: Stiff


and Differential Algebraic Problems. Springer-Verlag, 1996.

[89] D. V. Hinkley. Bootstrap methods. Journal of Royal Statistics Society,


Series B, 50(3):321–337, 1988.

[90] K. Holmström y M.M. Edvall. Modeling Languages in Mathematical Opti-


mization, capı́tulo: The Tomlab Optimization Environment, páginas 369–378.
Kluwer Academic Publishers, 2004.

[91] R. Hooke y T. A. Jeeves. An automatic method for finding the greatest


or least value of a function. The Computer Journal, 3(3):175–184, 1960.

[92] R. Hooke y T. A. Jeeves. “Direct Search” solution of numerical and sta-


tistical problems. J. Assoc. Comput. Mach., 8:212–229, 1961.

[93] W. Horbelt, J. Timmer y W. Melzer. Differential equations and appli-


cations, capı́tulo: Estimating parameters in Nonlinear Differential Equations
with Application to Physiological Data. G. Osipenko, ed., 1998.

[94] R. Horst y P.M. Pardalos. Handbook of Global Optimization. Kluwer


Academic, 1995.
Bibliografı́a 199

[95] R. Hovorka, V. Canonico, L.J. Chassin, U. Haueter, M. Massi-


Benedetti, M.O. Federici, T.R. Pieber, H.C. Schaller, L. Schaupp,
T. Vering y M.E. Wilinska. Nonlinear model predictive control of glucose
concentration in subjects with type 1 diabetes. Physiological Measurement,
25(4):905–20, Agosto 2004.

[96] W. G. Hunter y J. F. McGregor. The estimation of common parame-


ters from several responses: Some actual examples. Department of Statistics,
University of Winsconsin, 1967.

[97] J. A. Jacquez y P. Greif. Numerical parameter identifiability and estima-


bility: Integrating identifiability, estimability, and optimal sampling desing.
Mathematical Biosciences., 77:201–227, 1985.

[98] K. S. Jayaraman y D. K. Das Gupta. Dehydration of fruits and


vegetables–recent developments in principles and techniques. Drying Tech-
nology, 10(1):1–50, 1992.

[99] U. Jeppsson. Modelling Aspects of Wastewater Treatment Processes. Tesis


doctoral, Lund Institute of Technology, 1996.

[100] W.J. Karnavas, P. Sanchez y A.T. Bahill. Sensitivity analyses of conti-


nuous and discrete systems in the time and frequency domains. IEEE Trans.
Syst. Man. Cybernetics., SCM-23:488–501, 1993.

[101] K. Khaw, N. Wareham, R. Luben, S. Bingham, S. Oakes, A. Welch


y N. Day. Glycated haemoglobin, diabetes, and mortality in men in Norfolk
cohort of European Prospective Investigation of Cancer and Nutrition (EPIC-
Norfolk). British Medical Journal, 322(7277):15–18, 2001.

[102] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. Optimization by simulated


annealing. Science, 220:671–680, 1983.

[103] P. Kuzmic. Program dynafit for the analysis of enzyme kinetic data: appli-
cation to hiv proteinase. Analytical Biochemistry, 237:260–273, 1996.

[104] P.J.M. Laarhoven y E.H.L. Aarts. Simulated annealing: theory and ap-
plications. Reidel Publishing Company, Dordrecht, 1987.

[105] M. Laguna y Marti R. Scatter Search: Methodology and Implementations


in C. Kluwer Academic Publishers, The Netherlands, 2003.
200 Bibliografı́a

[106] J. R. Leis y M. A. Kramer. Sensitivity analysis of systems of differential


and algebraic equations. Comp. & Chem. Eng., 9(3):93–96, 1985.

[107] J.R. Leis y M.A. Kramer. ODESSA - an ordinary differential-equation


solver with explicit simultaneous sensitivity analysis. ACM Transactions on
Mathematical Software., 14(1):61–67, 1988.

[108] M. K. Lenz y D. B. Lund. Experimental procedures for determining des-


truction kinetics of food components. Food Technology, 34(2):51–55, 1980.

[109] L. Ljung. System Identification: Theory for the User. Prentice Hall, Engle-
wood Cliffs, New Jersey, 1999.

[110] L. Ljung y T. Glad. On global identifiability for arbitrary model parame-


trizations. Automatica, 30 (2):265–276, 1994.

[111] R. Luus. Application of dynamic programming to high-dimensional non-


linear optimal control problems. Int. J. Control, 52(1):239–250, 1990.

[112] R. Luus. Optimization of fed-batch fermentors by iterative dynamic pro-


gramming. Biotechnol. Bioeng., 41:599–602, 1993.

[113] K. Ch. A. M. Luyben, J. K. Liou y Bruin S. Enzyme degradation during


drying. Biotechnol. Bioeng., 24:533–552, 1982.

[114] S. Marsili-Libelli, S. Guerrizio y N. Checchi. Confidence regions of


estimated parameters for ecological systems. Ecological Modelling., 165:127–
146, 2003.

[115] J. Matyas. Random optimization. Automation Remote Control, 26:246253,


1965.

[116] L. Mayor y A. M. Sereno. Modelling shrinkage during convective drying


of food materials: a review. Journal of Food Engineering, 61(3):373–386, 2004.

[117] P. Mendes y D.B. Kell. Non-linear optimization of biochemical pathways:


Applications to metabolic engineering and parameter estimation. Bioinforma-
tics, 14 (10):869–883, 1998.

[118] Z. Michalewicz y D.B. Fogel. How to Solve it: Modern Heuristics. Springer-
Verlag, Berlin, 2000.
Bibliografı́a 201

[119] C. G. Moles, A. S. Lieber, J. R. Banga y K. Keller. Advances in Soft


Computing: Engineering Design and Manufacturing, capı́tulo: Global Optimi-
zation of Climate Control Problems Using Evolutionary and Stochastic Algo-
rithms. Springer-Verlag, Heidelber, 2003a.

[120] C.G. Moles. Optimización global de procesos de la industria alimentaria y


biotecnológica. Tesis doctoral, Universidade de Vigo, 2003.

[121] C.G. Moles, P. Mendes y J.R. Banga. Parameter estimation in bio-


chemical pathways: a comparison of global optimization methods. Genome
Research., 13:2467–2474, 2003b.

[122] A. Munack. Biotechnology, a Multi-volume Comprehensive Treatise, Vol. 4,


capı́tulo: Optimization of Sampling, páginas 251–264. K. Schügerl, 1991.

[123] P. Muntner, R.P. Wildman, K. Reynolds, K. B. Desalvo, J. Chen


y V. Fonseca. Relationship between HbA1c level and peripheral arterial
disease. Diabetes Care, 28(8):1981–1987, Agosto 2005.

[124] H. B. Nahor, N. Scheerlinck, R. Verniest, J. De Baerdemaeker y


B. M. Nicolaı̈. Optimal experimental desing for the parameter estimation
of conduction heated foods. Journal of Food Engineering., 48:109–119, 2001.

[125] H.B. Nahor, N. Scheerlinck, J.F. Van Impe y B.M. Nicolaı̈. Opti-
mization of the temperature sensor position in a hot wire probe set up for
estimation of the thermal properties of foods using optimal experimental de-
sign. J. Food Eng., 57(1):103–110, 2003.

[126] J. A. Nelder y R. Mead. A simplex method for function minimization.


The Computer Journal, 7:308–313, 1965.

[127] A. Neumaier, O. Shcherbina, W. Huyer y T. Vinko. A comparison of


complete global optimization solvers. Mathematical Programming, 103(2):335–
356, 2005.

[128] F. Ollivier. Le problème de l’identifiabilité structurelle globale: étude théori-


que, méthodes effectives et bornes de complexité. Tesis doctoral, École
Polytéchnique, Paris, France, Junio 1990.

[129] Expert Committee on the Diagnosis y Classification of Diabetes Me-


llitus. Report of the expert committee on the diagnosis and classification of
diabetes mellitus. Diabetes Care, 26(1):5–20, 2003.
202 Bibliografı́a

[130] I. H. Osman y G. Laporte. Metaheuristics: A bibliography. Annals of


Operations Research, 63:513623, 1996.

[131] C. C. Pantelides, D. Gritsis, K. R. Morison y R. W. H. Sargent.


The mathematical modelling of transient systems using differential-algebraic
equations. Comp. & Chem. Eng., 12(5):449–454, 1988.

[132] I. Papamichail y C.S. Adjiman. A rigorous global optimization algorithm


for problems with ordinary differential equations. Journal of Global Optimi-
zation, 24:1–22, 2002.

[133] K. J. Park. Diffusional model with and without shrinkage during salted fish
muscle drying. Drying Technology, 16(3-5):889–905, 1998.

[134] R.S. Parker, F.J. Doyle III y N.A. Peppas. The intravenous route to
blood glucose control. IEEE Engineering in Medicine and Biology Magazine,
20(1):65–73, 2001.

[135] R.K. Pearson. Outliers in process modeling and identification. IEEE Tran-
sactions on Control Systems Technology, 10(1):55–63, 2002.

[136] B. Petersen. Calibration, Identifiability and Optimal Experimental Design of


Activated Sludge Models. Tesis doctoral, Universiteit Gent, 2000.

[137] B. Petersen, K. Gernaey y P.A. Vanrolleghem. Practical identifiabi-


lity of model parameters by combined respirometric-titrimetric measurements.
Water Science and Technology., 43:347–355, 2001.

[138] J. Pinter. Global Optimization in Action. Continuous and Lipschitz Opti-


mization: Algorithms, Implementations and Applications. Kluwer Academics,
Netherlands, 1996.

[139] H. Pohjanpalo. System identifiability based on the power series expansion


of the solution. Mathematical Biosciences., 41:21–33, 1978.

[140] E. Polak. Computational Methods in Optimization. Academic Press, New


York, 1971.

[141] P. K. Polisetty, E. O. Voit y E. P. Gatzke. Identification of metabolic


system parameters using global optimization methods. Theoretical Biology
and Medical Modelling, 3:4, 2006.
Bibliografı́a 203

[142] L. S. Pontryagin, V. G. Boltyanskii, R. V. Gamkrelidze y E. F.


Mishchenko. The Mathematical Theory of Optimal Processes. John Wiley
& Sons, Inc., New York, 1962.

[143] M. J. D. Powell. An efficient method for finding the minimum of a function


of several variables without calculating derivatives. Computer Journal, 7:155–
162, 1964.

[144] Ph. Preux y E.-G. Talbi. Towards hybrid evolutionary algorithms. Intl.
Trans. in Op. Res., 6:557–570, 1999.

[145] M Quenouille. Approximate tests for correlation in time series. Journal of


Royal Statistics Society, Series B, 11:18–84, 1949.

[146] H.S. Ramaswamy, G.B. Awuah y B.K. Simpson. Heat transfer and
lethality considerations in aseptic processing of liquid/particle mixtures: A
review. Crit. Rev. in Food Sci. Nutr., 37(3):253–286, 1997.

[147] H. S. Rasmaswamy, F. R. van de Boort y S. Ghazala. An analysis of


TDT and Arrhenius methods for handling process and kinetic data. Journal
of Food Science, 54, 1989.

[148] L.A. Rastrigin y Y. Rubinstein. The comparison of random search and


stochastic approximation while solving the problem of optimization. Automa-
tic Control, 2:2329, 1969.

[149] G. V. Reklaitis, A. Ravindran y K. M. Ragsdel. Engineering Opti-


mization: Methods and Applications. John Wiley & Sons, Inc., New York,
1983.

[150] A. H. G. Rinnooy-Kan y G. T. Timmer. Stochastic global optimization


methods. Part I: Clustering methods. Mathematical Programming, 39:27, 1987.

[151] M. Rodriguez-Fernandez, A. A. Alonso y J. R. Banga. Robust para-


meter estimation in heat and mass transfer models of food processing. Inter-
national Conference on Engineering and Food 9 (ICEF 9), 2004.

[152] M. Rodriguez-Fernandez y E. Balsa-Canto. GOSBio- Part I: Parameter


estimation in nonlinear dynamic systems, with applications in Systems Bio-
logy. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.
204 Bibliografı́a

[153] M. Rodriguez-Fernandez, P. Mendes y J.R. Banga. A hybrid approach


for efficient and robust parameter estimation in biochemical pathways. BioSys-
tems, 83:248–265, 2006.

[154] W. C. Rooney y L. T. Biegler. Incorporating joint confidence regions into


design under uncertainty. Computers and Chemical Engineering, 23:1563–
1575, 1999.

[155] I.I. Ruiz-Lopez, A.V. Cordova, G.C. Rodriguez-Jimenes y M.A.


Garcia-Alvarado. Moisture and temperature evolution during food drying:
effect of variable properties. Journal of Food Engineering, 63(1):117–124, 2004.

[156] T.P. Runarsson y X. Yao. Search biases in constrained evolutionary op-


timization. IEEE Transactions on Systems, Man and Cybernetics, 35:233243,
2005.

[157] T.P. Runarsson y Xin Yao. Stochastic ranking for constrained evolutionary
optimization. IEEE Transactions on Evolutionary Computation, 4:284–294,
2000.

[158] I. Saguy y M. Karel. Modeling of quality deterioration during food proces-


sing and storage. Food Technology, 34:78–85, 1980.

[159] A. Saltelli, K. Chan y E.M. Scott. Sensitivity Analysis. John Wiley &
Sons, Inc., New York, 2000.

[160] W.E. Schiesser. The Numerical Method of Lines. Academic Press, New
York, 1991.

[161] K. Schittkowski. Numerical Data Fitting in Dynamical Systems - A Practical


Introduction with Applications and Software. Kluwer Academic Publishers,
2002.

[162] H. P. Schwefel. Evolution and optimum seeking. Wiley, New York, 1995.

[163] G. A. F. Seber. Multivariate Observations. Wiley, New York, 1984.

[164] G.A.F. Seber y C.J. Wild. Non Linear Regression. Wiley, New York, 1989.

[165] L. F. Shampine, H. A. Watts y S. M. Davenport. Solving non-stiff


ordinary differential equations-the state of the art. SIAM Review, 18:376–411,
1976.
Bibliografı́a 205

[166] S. Simal, C. Rossello, A. Berna y A. Mulet. Drying of shrinking cylinder-


shaped bodies. Journal of Food Engineering, 37:423–435, 1998.

[167] R. Smith, G. Dullerud, S. Rangan y K. Poolla. Model validation for


dynamically uncertain systems. Mathematical Modeling of Systems, 3:43–58,
1997.

[168] E. D. Sontag. For differential equations with r parameters, 2r+1 experiments


are enough for identification. Nonlinear Science, 12:553–583, 2002.

[169] S. M. Stigler. Gauss and the invention of the least-squares. Annals of


Statistics, 9(4):465–474, 1981.

[170] R. Storn y K. Price. Differential evolution - a simple and efficient heuristic


for global optimization over continuous spaces. J. Global. Optim., 11:341–359,
1997.

[171] M. Sugimoto, S. Kikuchi y M. Tomita. Reverse engineering of bio-


chemical equations from time-course data by means of genetic programming.
BioSystems, 80:155–164, 2005.

[172] E.-G. Talbi. A taxonomy of hybrid metaheuristics. Journal of Heuristics,


8:541564, 2002.

[173] J. Timmer. Modeling noisy time series: physiological tremor. Int. J. Bifur-
cation Chaos, 8(7):1505–1516, 1998.

[174] J. Timmer, W. Horbelt, M. Bünner, M. Ciofini y R. Meucci. Sto-


chaos: Stochastic and Chaotic Dynamics in the Lakes, capı́tulo: Estimating
Parameters in Differential Equations with Application to Laser Data. Ameri-
can Institute of Physics, Melvilley, NY, USA, 2000.

[175] I. B. Tjoa y L. T. Biegler. Simultaneous solution and optimization stra-


tegies for parameter estimation of differential-algebraic equation systems. In-
dustrial and Engineering Chemistry Research, 30(2):376, 1991.

[176] A. Törn, M. Ali y S. Viitanen. Stochastic global optimization: Problem


classes and solution techniques. Journal of Global Optimization, 14:437, 1999.

[177] A. A. Törn. Global optimization as a combination of global and local search.


En Proceedings of Computer Simulation Versus Analytical Solutions for Busi-
ness and Economic Models, 1973.
206 Bibliografı́a

[178] UK Prospective Diabetes Study Group. Intensive blood–glucose con-


trol with sulphonylureas or insulin compared with conventional treatment and
risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet,
352:837–853, 1998.

[179] S. Vajda, K. R. Godfrey y H Rabitz. Similarity transformation approach


to structural identifiability of nonlinear models. Mathematical Biosciences.,
93:217–248, 1989.

[180] A. Van Loey, A. Fransis, M. Hendrickx, G. Maesmans y P. Tobba-


ck. Kinetics quality changes of green peas and white beans during thermal
processing. Journal of Food Engineering, 24:361–377, 1995.

[181] P. A. Vanrolleghem y K. J. Keesman. Identification of biodegrada-


tion models under model and data uncertainty. Water Science Technology,
33(2):91–105, 1996.

[182] P.A. Vanrolleghem y D. Dochain. Advanced Instrumentation, data inter-


pretation, and control of biotechnological process., capı́tulo: Bioprocess Model
Identification, páginas 251–318. Kluwer Academic Publishers, 1998.

[183] G. C. Vansteenkiste y J. A. Spriet. Progress in Modelling and Simula-


tion, capı́tulo: Modelling ill-defined systems, páginas 11–38. Academic Press,
London, 1982.

[184] V. S. Vassiliadis. Computational Solution of Dynamic Optimization Pro-


blems with General Differential-Algebraic Constraints. Tesis doctoral, Imperial
College, University of London, London, U.K., Julio 1993.

[185] K. Versyck. Dynamic Input Design for Optimal Estimation of Kinetic Para-
meters in Bioprocess Models. Tesis doctoral, Katholieke Universiteit Leuven,
Mayo 2000.

[186] K. Versyck, K. Bernaerts, Geeraerd A.H. y J. Van Impe. Introducing


optimal experimental desing in predictive modeling: A motivating example.
Int. J. Food. Microbiol., 51:39–51, 1999.

[187] E. O. Voit y J. Almeida. Decoupling dynamical systems for pathway iden-


tification from metabolic profiles. Bioinformatics, 20:1670–1681, 2004.

[188] K. M. Waananen, J. B. Litchfield y M. R. Okos. Classification of drying


models for porous solids. Drying Technology, 11(1):1–40, 1993.
Bibliografı́a 207

[189] E. Walter y L. Pronzato. Identification of Parametric Models from Expe-


rimental Data. Springer, 1997.

[190] F.S. Wang y J.P. Chiou. Optimal control and optimal time location pro-
blems of differential-algebraic systems by differential evolution. Ind. Eng.
Chem. Res., 36(12):5348–5357, 1997.

[191] S. Wild, G. Roglic, A. Green, R. Sicree y H. King. Global prevalence


of diabetes: estimates for the year 2000 and projections for 2030. Diabetes
Care, 27(5):1047–1053, 2004.

[192] M.E. Wilinska, L.J. Chassin, H.C. Schaller, L. Schaupp, T.R. Pieber
y R. Hovorka. Insulin kinetics in type–1 diabetes: continuous and bolus de-
livery of rapid acting insulin. IEEE Transactions on Biomedical Engineering,
52(1):3–12, 2005.

[193] D.H. Wolpert y W.G. Macready. No free lunch theorems for optimization.
IEEE Transactions on Evolutionary Computation, 1:67–82, 1997.

[194] Y. Ye. Interior algorithms for linear, quadratic and linearly constrained non-
linear programming. Tesis doctoral, Department of ESS, Stanford University,
1987.

[195] D. E. Zak, G. E. Gonye, J. S. Schwaber y F. J. Doyle III. Importance of


input perturbations and stochastic gene expression in the reverse engineering
of genetic regulatory networks: Insights from an identifiability analysis of an
in silico network. Genome Research., 13:2396–2405, 2003.
Parte VII

Publicaciones
Publicaciones 211

Publicaciones en revistas internacionales


Rodriguez-Fernandez, M., Mendes, P. y Banga, J. R. A hybrid ap-
proach for efficient and robust parameter estimation in biochemical pathways.
BioSystems, 83:248-265, 2006.

Banga, J. R., Balsa-Canto, E., Rodriguez-Fernandez, M. y Alonso,


A. A. Model calibration in Systems Biology. BioForum Europe, 9:42-43, 2005.

Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheuris-


tic for parameter identification in nonlinear dynamic biological systems. BMC
Bioinformatics, 7:483, 2006.

Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.


Scatter Search for chemical and bio-process optimization. Journal of Global
Optimization, 2006. En imprenta, disponible en formato electrónico.

Rodriguez-Fernandez, M., Balsa-Canto, E., Egea, J. A. y Banga, J.


R. Identifiability and robust parameter estimation in food process modeling:
application to a drying model. Journal of Food Engineering, 2006. Enviado.

Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Optimal


design of dynamic experiments for improved estimation of kinetic parameters
of thermal degradation. Journal of Food Engineering, 2006. Enviado.

Contribuciones a congresos
Balsa-Canto, E., Rodriguez-Fernandez, M., Alonso, A. A. y Banga,
J. R. Optimal Identification in Systems Biology. Applications in Cell Signa-
ling. AIChE Annual Meeting, 12-17 Noviembre, 2006, San Francisco, Estados
Unidos.

Palerm, C. C., Rodriguez-Fernandez, M., Bevier, W. C., Zisser, H.,


Banga, J.R., Jovanovic, L. y Doyle III, F. J. Robust Parameter Estima-
tion in a Model for Glucose Kinetics in Type 1 Diabetes Subjects. Engineering
in Medicine and Biology Conference, 30 Agosto - 3 Septiembre, 2006, Nueva
York, Estados Unidos.

Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Iden-


tification in Nonlinear Dynamic Process Models. Second CTS Workshop, 10-12
Julio, 2006, Paris, Francia.
212 Publicaciones

Rodriguez-Fernandez, M., Palerm, C. C., Bevier, W. C., Zisser, H.,


Jovanovic, L. y Doyle III, F. J Robust Parameter Estimation in a Model for
Glucose Kinetics in Type 1 Diabetes Patients. American Diabetes Association
66th Scientific Sessions, 9-13 Junio, 2006, Washington DC, Estados Unidos.

Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheu-


ristics for parameter estimation and optimal experimental design in Systems
Biology. First International Symposium on Systems Biology, 1-2 Junio, 2006,
Murcia, España.

Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Compu-


tational Design of Optimal Dynamic Experiments in Systems Biology: a Case
Study in Cell Signaling. First International Symposium on Systems Biology,
1-2 Junio, 2006, Murcia, España.

Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.


Optimización de procesos quı́micos y biotecnológicos mediante búsqueda dis-
persa. IV Congreso Español sobre Metaheurı́sticas, Algoritmos Evolutivos y
Bioinspirados (MAEB 05), 13-16 Septiembre, 2005, Granada, España.

Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel Metaheu-


ristics for Parameter Estimation in Nonlinear Dynamic Biological Systems.
European Conference on Mathematical and Theoretical Biology - ECMTB05,
18-22 Julio, 2005, Dresden, Alemania.

Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Pa-


rameter Estimation in Nonlinear Dynamic Process Models. European Sym-
posium on Computer Aided Process Engineering: ESCAPE-15, 29 Mayo - 1
Junio, 2005, Barcelona, España.

Rodriguez-Fernandez, M., Moles, C.G., Mendes, P. y Banga, J. R.


A Hybrid Approach for Efficient and Robust Parameter Estimation in Bio-
chemical Pathways. 5th International Conference on Systems Biology (ICSB
2004), 9-13 Octubre, 2004, Heidelberg, Alemania.

Rodriguez-Fernandez, M., Banga, J. R. y Alonso, A. A. Parameter


Estimation in Heat and Mass Transfer Models. First CTS Workshop, 1-3 Julio,
2004, Coimbra, Portugal.

Banga, J.R., Balsa-Canto, E., Moles, C. G., Garcia, S., Sendin, O. H.,
Rodriguez-Fernandez, M. y Alonso, A. A. Advances in the Optimization
Publicaciones 213

of Industrial Food Processing. FOODSIM’2004, 16-18 Junio, 2004, WICC-


WIR, Wageningen, Holanda.

Fernandez, C.V., Garcia, M.R., Rodriguez-Fernandez, M., Balsa-


Canto, E., Banga, J.R. y Alonso, A.A. On Systematic Model Reduction
Techniques for Dynamic Optimization and Robust Control of Distributed Pro-
cess Systems. European Symposium on Computer Aided Process Engineering
(ESCAPE-14), 16-19 Mayo, 2004, Lisboa, Portugal.

Rodriguez-Fernandez, M., Alonso, A. A y Banga, J. R. Robust Pa-


rameter Estimation in Heat and Mass Transfer Models of Food Processing.
International Conference on Engineering and Food 9 (ICEF 9), 7-11 Marzo,
2004, Montpellier, Francia.

Das könnte Ihnen auch gefallen