Beruflich Dokumente
Kultur Dokumente
NACIONAL
ESCUELA SUPERIOR DE INGENIERA MECNICA Y
ELCTRICA
UNIDAD CULHUACAN
SECCION DE ESTUDIOS DE POSGRADO E INVESTIGACION
ELABORACIN DE LAS FUNCIONES DE REFERENCIA
PARA EL DIAGNOSTICO DE TURBINAS DE GAS EN BASE A
POLINOMIOS Y REDES NEURONALES.
T E S I S
QUE PARA OBTENER EL GRADO DE:
MAESTRA EN CIENCIAS DE INGENIERIA EN MICROELECTRONICA
PRESENTA:
ING. CLAUDIA FERNANDA VILLARREAL GONZLEZ
DIRECTOR: DR. IGOR LOBODA
II
AGRADECIMIENTOS.
Antes que todo quiero agradecer a dios por estar viva
y sana para poder lograr mis objetivos, tambin
agradezco a mis padres Patricia Gonzlez Garca y
Fernando Villarreal Snchez por el apoyo; adems sin
la disciplina que ellos me ensearon, sera ms
difcil concluir mis estudios.
Gracias
al
Instituto
Politcnico
Nacional,
institucin donde estoy estudiando desde el nivel
medio superior, por abrirme las puertas para estudiar
y trabajar.
En particular agradezco a la ESIME Culhuacn por el
apoyo econmico de un semestre y al apoyo acadmico
en la realizacin de mi trabajo de tesis.
Gracias al Dr. Igor Loboda y a mis compaeros: Ivan,
Abelardo, Adrian y Jess por el apoyo y paciencia que
me brindaron durante mis estudios de posgrado.
III
Resumen
El trabajo descrito en esta tesis intenta mejorar el modelo de estado normal de un motor de
turbina de gas. Podemos definir una turbina de gas como un objeto complejo que basa su
funcionamiento en las leyes de termodinmica y mecnica de fluidos y necesita un
diagnstico detallado.
Enfocamos nuestra investigacin a los mtodos del diagnstico paramtrico. La primera
etapa de este diagnstico es encontrar el modelo matemtico que describe a la turbina de
gas en buen estado y que permite describir las fallas repentinas y mecanismos graduales de
envejecimiento de las turbinas de gas. Este modelo de estado normal, mejor conocido
como la funcin de referencia, es una funcin en la cual variables monitoreadas en
turbinas de gas dependen de las variables controladas y las ambientales. Sin embargo, no
es tarea fcil determinar una funcin adecuada de referencia a partir de mediciones, debido
a la cantidad de errores en las mismas.
En esta tesis se estudian y se comparan dos mtodos diferentes para obtener la funcin de
referencia. El primero usa polinomios. Despus de encontrar los coeficientes desconocidos
con los datos de entrenamiento de un motor de turbina de gas, probamos la funcin
polinomial encontrada con otra porcin de datos registrados en el mismo motor.
El segundo incluye una red neuronal artificial para describir la funcin de referencia. Se
eligi una red perceptrn multicapa con tres capas de neuronas: una de entrada, una oculta
y una de salida. La red es supervisada y se entren con un conjunto de datos de entrada y
de salida. Durante el entrenamiento se modifican las conexiones (pesos) entre neuronas de
diferentes capas de tal manera que se minimiza la distancia entre la salida actual de la red
y la salida deseada. As, la red entrenada obtiene la capacidad de describir el
comportamiento del motor.
Cabe mencionar que con el objetivo de optimizar la red se hicieron clculos numerosos
con diferentes condiciones de entrenamiento y varias estructuras de la red. En particular,
en estos clculos modificamos los datos de entrada, el tipo de su normalizacin, el
algoritmo de entrenamiento, nmero de pocas de entrenamiento, nmero de nodos en la
capa oculta y funciones de transferencia de las seales en la red. Al comparar las
variaciones mencionadas, hemos encontrado la mejor variacin de la red, en particular el
algoritmo de entrenamiento: Levenberg-Marquardt con la regularizacin bayesiana.
La comparacin de los dos mtodos mencionados en los datos de validacin ha
demostrado que est mejor variacin de la red neuronal no tiene una exactitud mejor que
los polinomios. Sin embargo, la funcin de referencia con los polinomios es ms simple y
por eso se recomienda para el uso prctico en los sistemas reales de monitoreo de turbinas
de gas.
IV
Abstract
The study presented in this thesis tries to enhance a model of a healthy gas turbine. A gas
turbine can be defined as a complex system based on thermodynamics and flow mechanics
and as a machine that requires to be diagnosed as profound as possible.
The study is devoted to the methods of so called parametric diagnostics, the first stage of
which is to define the model of the motor in a good (healthy) condition. Such model
allows describing gas turbine abrupt faults and gradual degradation mechanisms. The
model known as a baseline model is a function in which monitored gas path variables
depend on engine controlled variables and ambient conditions. However, it is a
challenging problem to create an adequate baseline model on the basis of measured data
because of a number of measurement errors.
In this thesis two different methods to obtain the baseline function are studied and
compared. The first method uses polynomials. After finding their unknown coefficients
with training data of a gas turbine engine, the determined polynomial function is validated
on another data portion of the same engine.
The second includes an artificial neural network for baseline function description. The
perceptron with three layers: an input, hidden layer, and an output, has been chosen. This
network was trained on known input and output data. During the training process, the
connections (weights) between neurons of different layers were modified in the manner
that minimizes the distance between the actual network output and the desired output
(target). Thus, the trained network obtains the capacity to describe the engine behavior.
It is worth to mention that numerous calculations under different training conditions and
with various network structures have been made with the objective to optimize the
network. In particular, in these calculations we varied input data, their normalization
mode, training algorithm, number of training epochs, a hidden layer neuron quantity, and
network signals transfer functions. As a result of the comparison of different network
variations, the best network variation with optimal values for each factor mentioned before
was found. In particular, the Levenberg-Marquardt algorithm with Bayesian regularization
was selected as the best training option.
The comparison of two chosen methods on validation data has demonstrated that the best
network variation does not exceed the polynomials in diagnosis accuracy. Moreover, the
polynomial baseline function is easier to compute. That is why it is recommended for
practical use in real gas turbine monitoring systems.
Introduccin
Las turbinas de gas son mquinas trmicas complejas que convierten energa qumica a
mecnica. El objetivo de la turbina de gas es producir grandes cantidades de energa, por
ejemplo, para mover un generador elctrico o impulsar un avin.
El motor de turbina de gas tiene tres elementos principales que son el compresor, la
cmara de combustin y la turbina que en conjunto tienen un cierto rango de operacin. S
trabajan fuera del lmite de operacin pueden sufrir daos severos en sus componentes,
como por ejemplo grietas y fisuras en los alabes del compresor y de la turbina.
Se puede evitar estos problemas realizando mantenimiento preventivo y correctivo; el
primer mantenimiento es capaz de prevenir accidentes o fallas posibles; por lo tanto hay
que darle mayor importancia. Sin embargo, para realizar ambos mantenimientos hay que
detener la maquina donde los paros implican excesivos gastos econmicos ya que estos
pueden durar hasta semanas.
Una solucin a este problemas es el monitoreo permanente de variables como la
temperatura en la salida de la turbina. Con el conjunto de mediciones podemos realizar un
anlisis y manipulacin de datos para identificar donde est la falla y ahorrar un tiempo
considerable de revisin en el paro. Esta herramienta se conoce como diagnostico
paramtrico. [21], [23], [24] y [29].
El presente trabajo consiste en obtener un modelo del comportamiento de la turbina de gas
en buenas condiciones. Este modelo se determina con el uso de dos herramientas:
polinomios y redes neuronales artificiales. Para entrenar la red neuronal se usan los datos
simulados por un modelo termodinmico y los reales. Despus, las herramientas se
comparan con nuevos datos reales.
El objetivo es escoger entre polinomios y la red neuronal una herramienta que es mejor
para aproximar los datos del motor de turbina de gas en buen estado. Se mantiene la
hiptesis que la red puede arrojar mejores resultados por su alta flexibilidad. [19], [20] y
[27]
VI
CONTENIDO
CAPITULO 1. Turbinas de gas, diagnstico y mantenimiento.
1.1. Descripcin de turbinas de gas.
1.2. Aplicaciones de las turbinas de gas.
1.3. Aplicaciones en Mxico.
1.4. Mantenimiento de turbinas de gas.
1.5. Diagnstico de turbinas de gas.
1.5.1. Mtodos Fsicos.
1.5.2. Mtodos paramtricos.
1
2
13
14
15
18
19
21
30
31
32
40
41
44
45
47
48
49
52
62
80
81
81
83
86
90
92
93
95
CONCLUSIONES.
97
ANEXOS.
101
VII
CAPITULO
1.
TURBINA
DE
MONITOREO Y DIAGNSTICO.
GAS,
El compresor axial acelera un fluido de trabajo (aire) para que despus pase por un
difusor donde saldr con un nivel de presin bastante alto. Al fluido lo acelera un alabe
rotatorio conocido como rotor, e incrementa su presin un alabe estacionario conocido
como estator. Lo anterior se desarrolla en una sola etapa, pero el compresor tiene
3
bastantes etapas. Se tiene una fila adicional de alabes gua (alabes de entrada) para que
el flujo siga una direccin axial y no se vaya a desviar entrando con un ngulo de ataque
a la primera etapa del compresor. Existen tambin alabes estacionarios a la salida del
compresor cuyo objetivo es controlar la velocidad que entra a la cmara de combustin.
En el compresor axial el aire pasa de una etapa a la siguiente, en cada etapa se
incrementa la presin. Aproximadamente se logra una relacin final de presiones de
17:1.
Como toda turbo-maquina, un compresor axial puede ser descrito por coordenadas
polares (figura 1.4); donde Z representa la longitud de la flecha, r es el radio de la flecha
y q es el ngulo de rotacin del alabe.
La superficie del alabe es curva con una zona convexa y una zona cncava. A la zona
cncava se le conoce como zona de presin y la zona convexa es la zona de succin. La
lnea de cuerda del alabe es la lnea dibujada sobre el eje vertical en la direccin de la
cuerda (figura 1.6). En esta imagen podemos apreciar las diferentes variables que
intervienen en el giro del alabe El ngulo de inclinacin q es el ngulo de rotacin del
alabe.
La distancia S es la distancia entre alabes. La solidez es la razn entre la cuerda y la
distancia entre alabes (c/s) y es una medida de indicacin entre los efectos de
interferencia entre alabes. Un rango de exactitud aceptable de solidez es de 0.5 a 0.7. b1,
es el ngulo de entrada y b2 es el ngulo de salida de flujo formados por la vertical y la
lnea de inclinacin. Aunque idealmente el aire entra y sale con los mismos ngulos a
los que giran los alabes, en la prctica esto no ocurre as y el aire saldr a un ngulo a1 y
a2 conocidos como Angulo de ataque de entrada y salida respectivamente que si
alcanzan un valor mximo ocasionarn inestabilidad a lo largo del compresor.
4
La velocidad de entrada del flujo que atraviesa al compresor se puede entender mejor si
nos auxiliamos de un diagrama (figura 1.6) conocido como triangulo de velocidades. El
aire atraviesa el alabe rotatorio con una velocidad V y un ngulo a1 que acta junto con
la velocidad tangencial (U) para producir la velocidad relativa W que forma un ngulo
a2 con la vertical. Al pasar por el estator entrara con una velocidad V2 formando un
ngulo a3 con la vertical, las componentes de esta velocidad tangencial U y la velocidad
relativa W2.
(1.1).
Se requieren cuatro partculas de oxgeno para quemar una de metano. Los productos de
la combustin son una partcula de dixido de carbono y una de agua.
La cmara de combustin est compuesta por tres zonas:
La zona de recirculacin. Su funcin es evaporar, parcialmente calentar y preparar
el combustible.
Zona de llama. Idealmente todo el combustible estar quemado al final de esta
zona.
Zona de dilucin. Su funcin es mezclar el gas caliente con el aire diluido.
El gas que sale de la mezcla deber tener una temperatura y velocidad adecuadas. La
temperatura a la entrada de la cmara de combustin depende de la relacin de presiones
en el compresor, carga y tipo de motor; y si la turbina es regenerativa o no.
Normalmente el desempeo de la cmara de combustin depende de tres factores:
eficiencia, prdida de presin y una temperatura de salida baja.
La perdida de presin es el problema ms importante porque afecta el consumo del
combustible. La perdida de presin usualmente tiene un rango del 2% al 8% de presin
esttica. Est perdida es igual a un decrecimiento en la eficiencia del compresor. El
resultado de un incremento en el consumo de combustible y baja salida de potencia
afectada por el tamao y peso del motor.
Otro problema importante durante la combustin es la formacin de xido ntrico. La
reaccin qumica que produce xido ntrico es:
2 N + 5O + H 2O
2 NO + 3O + H 2 O
2 HNO
(1.2).
Algunas turbinas basadas en sus objetivos incorporan dos compresores y dos turbinas
con ejes diferentes. En este caso la primera turbina (de mayor presin) maneja al ltimo
compresor y la ltima turbina maneja al primer compresor.
Las turbinas de gas tienen elementos importantes para su funcionamiento conocidos
como accesorios. Estos elementos no son parte de la operacin en la conversin de
energa y sin embargo son necesarios por ejemplo para el suministro de combustible.
Ejemplos de estos accesorios son:
10
11
Motores de impulso mecnico. Pueden ser dispositivos de impulso mecnico para uso
pesado, uso mediano y aeroderivativas (basadas en motores de aviacin) y se aplican
como generadores elctricos, bombeo mecnico y propulsin marina. Estos motores
pueden tener un rbol de salida independiente, un rbol con conexin longitudinal y
un rbol doble longitudinal. Cuando el rbol est conectado a la turbina se le conoce
como conexin en caliente y cuando est conectado al compresor se le conoce como
conexin final en fro. Las figuras 1.12 y 1.13 muestran ambos esquemas
respectivamente.
12
para suministrar una menor potencia y la turbina de gas para aportar una mayor
velocidad.
En las plantas de potencia de turbinas de gas, la relacin de presiones del compresor
(llamada razn de trabajo) es muy alta. Ms de la mitad del trabajo de salida de la
turbina es usado para manejar el compresor. La situacin empeora cuando la eficiencia
isoentrpica en la turbina y el compresor disminuyen. En contraste las turbinas de vapor
disminuyen un porcentaje muy pequeo la razn de trabajo. Sin embargo, no es
sorprendente que un lquido sea comprimido en plantas de vapor en lugar de gas, y el
trabajo de flujo estacionario sea proporcional al volumen especfico del fluido de
trabajo.
Una planta con una alta razn de trabajo requiere turbinas ms largas para suministrar
potencia al compresor. Las turbinas de gas son ms largas que las turbinas de vapor para
la misma potencia neta de salida.
Turbinas de Zihuatanejo: empresa que provee los siguientes servicios: anlisis, diseo,
drafting, publicaciones tcnicas e ilustraciones y desarrollo de mtodos.
Estos servicios son desarrollados a travs de los grupos:
1. Diseo y anlisis.
2. Modelado de slidos y drafting.
3. Publicaciones tcnicas.
4. Desarrollo de mtodos.
Siemens de Mxico: Empresa dedica a dar los siguientes servicios: reparaciones,
modernizaciones, asistencia tcnica en sitio o servicios completos de operacin y
mantenimiento.
Uno los servicios que ofrece esta empresa es la modernizacin y mejoras de turbinas de
gas. Esto es realizado con el uso de materiales ms resistentes, revestimiento con
tecnologa avanzada, arreglos de sellos mejorados, flujos de enfriamiento optimizados
donde se puede mejorar el grado de eficiencia de la turbina y prolongar la vida til.
ITR forma parte de una red mundial de lderes en la Industria Aeronutica, empresa que
se dedica al desarrollo e investigacin que es una de las ms reconocidas en los sectores
de transporte areo, Ingeniera, Fabricacin y Mantenimiento de Turbinas de gas. En
Mxico ofrece los siguientes servicios. [6]
Mantenimiento y reparacin de motores
Ingeniera de Diseo y Desarrollo
Fabricacin de componentes
Grupo Sentry empresa afiliada a Sentry Intercontinental LTD de Inglaterra se dedica
principalmente a la comercializacin de turbinas de gas industriales Rolls- Royce para
los sectores de petrleo y gas, as como la generacin de energa elctrica incluyendo
plantas de cogeneracin. Tambin se dedica a comercializacin de refacciones para
turbinas industriales y aeronuticas.
Entradas de filtros.
Sistemas de escape.
Sistemas de control y monitoreo con indicadores de luces.
La inspeccin diaria requiere al menos una hora para realizarse de manera adecuada. Los
intervalos entre inspecciones dependen de las condiciones de la turbina de gas.
Generalmente los fabricantes proporcionan guas para determinar los intervalos de
presin que se basan en la temperatura de gas, tipo y calidad del combustible utilizado y
nmero de interrupciones.
La primera inspeccin menor con la turbina trabajando es el punto de referencia ms
importante que se almacenara. Todos los datos deben ser comparados cuidadosamente
con la informacin de la instalacin de la turbina para acertar si alguna configuracin
cambi, desalineamiento o un desgaste excesivo ha ocurrido durante la operacin. Las
inspecciones siguientes son igual de importantes desde la verificacin de las
recomendaciones del fabricante hasta ayudar a establecer las condiciones de operacin.
Cuando establezcamos el tiempo para realizar mantenimientos mayores, el departamento
de operacin y los ingenieros de manufactura deben planear la inspeccin en base a los
datos de medicin. Antes de poner fuera de servicio a la turbina, se tomara un tiempo
para realizar una prueba en presencia del ingeniero de manufactura. Estas pruebas usan
como referencia la medicin de presin y temperatura, cuyas variables servirn como
grado de comparacin con pruebas idnticas que se van a realizar con la planta fuera de
servicio. Las pruebas operacionales finalizaran con un exceso de velocidad que indicar
a que mecanismo se prestar ms atencin durante el paro de la mquina.
18
COMPRESOR
Componente
Alabes
rotatorios
estacionarios
Disco
Pernos
Falla
Causa
CAMARA DE COMBUSTION
Componente
Falla
Causa
Boquilla
Componente
Falla
Causa
Alabes rotatorios
Alabes Estacionarios
Carcasa
Tubos de flama
Piezas de transicin
TURBINA
Discos
Los parmetros del conducto de flujo dependen del funcionamiento del rgimen el cul
es determinado por las condiciones de entrada y control U y el estado tcnico de la
turbina de gas descrito por
Los mtodos paramtricos se clasifican segn el tipo de parmetros medidos en:
o
o
o
o
o
o
La diagnosis de los motores de turbina de gas se basa en los modelos diagnsticos, los
cuales establecen la relacin entre el estado actual del motor y las variables medidas.
Un requisito principal es que los modelos diagnsticos simulen las fallas del motor. Los
modelos del conducto de flujo tienen fundamento en la teora de turbomaquinas. Se
pueden clasificar de acuerdo a su descripcin matemtica:
Modelos de caja negra (nivel uno).
GC = C 0 + C1TE + C 2 PE + C3 n PA + C 4 nPA + C5 nPATE
(1.3).
dY = HdQ
(1.4).
r
r
r r r
Q = arg min Y * - Y (Q, U
(1.5).
(1.6).
Donde
es el signo de la norma de vector. El procedimiento de la identificacin del
modelo no lineal forma el fundamento de los algoritmos diagnsticos ms completos y
complejos.
El modelo universal y esquema generalizado de la turbina de gas son las bases del software
del modelo no lineal. El modelo permite realizar clculos como el clculo de la caracterstica
de estrangulacin y clculo de la matriz de coeficientes de influencia.
23
(1.7 ).
HN =
NC
-1
N Th mec - DN T
(1.8).
(1.9).
24
(1.10).
(B )
ql
dH i q
dX i l
(1.11).
n = n 0 1 + a
P 1 - P 10
P - P 20
+c
+b 2
DP 1
DP 2
(1.12).
Donde:
n 0 es el valor inicial de la caracterstica.
P1 , P 2 , P 10 yP 20 Cantidades actuales y bsicas de los argumentos.
a, b y c Coeficientes constantes.
r
Yi
presentan las derivadas particulares y pueden ser determinadas
Q j
por la formula:
Yi - Yi 0
Y
i0
Q j - Q j0
Q j 0
(1.13).
Tenemos que calcular el rgimen estacionario 1+r veces: una vez con todos los
parmetros iniciales Q j 0 y r veces con las variaciones alternas de r parmetros de las
caractersticas.
25
y * - yn
, donde yn es la norma de parmetro.
yn
(1.14).
yi = yi -1 + a ( yi - yi -1 ) = a (1 - a ) i +k yk
(1.15a ).
k =1
(1.15b ).
yi + yi -1 + ...... + yi- n +1
n
(1.16).
4) Criterio-R.
.
n-
r=
(y
k +1
k =1
n
(y
- yk ) 2
, donde
- y)
y=
1 n
yk
n k =1
(1.17a ).
k =1
r > [r ]
(1.17b).
(1.18).
dQ = H -1dY *
(1.19).
d Q = A-1 H T Wd Y *
(1.20).
(1.21).
f ( Z * / D J ) P( DJ )
Q
f (Z * / D
(1.22).
)P(DJ )
J =1
yi * - y0 i
y0 i
(1.23).
29
CAPITULO 2.
ARTIFICIALES.
REDES
30
NEURONALES
2.1 Introduccin.
Uno de los grandes enigmas que ha preocupado al hombre desde tiempos ancestrales es
el de su propia naturaleza. Cules son las caractersticas que nos hacen humanos, que
tiene el hombre que no tienen el resto de los animales, que nos hace nicos entre
todos los seres vivos. Este enigma ha venido asociado con el de la inteligencia, pues
dentro de la naturaleza humana est el ser inteligente, y esta es una caracterstica que
distingue absolutamente a nuestra especie. Es por esto por lo que el estudio de la
inteligencia ha fascinado a filsofos y cientficos desde siempre y ha sido un tema
recurrente en tratados y libros, y sin embargo no se han producido avances
significativos. [9]
A medida que la ciencia y la tecnologa han ido avanzando, el objetivo se ha ido
perfilando: uno de los retos ms importantes a los que se enfrenta el ser humano de
nuestra generacin es el de la construccin de sistemas inteligentes. Aqu, sistema
puede ser entendido como cualquier dispositivo fsico o lgico capaz de realizar la
tarea requerida. Este es precisamente el objetivo de la disciplina cientfica conocida
con el nombre de Inteligencia Artificial.
Dentro de la Inteligencia Artificial se pueden distinguir dos grandes reas. Una se
ocupa de la construccin de sistemas con caractersticas que se puedan definir como
inteligentes. A este campo se le denomina Inteligencia Artificial Simblica. En este
caso, se define el problema a resolver y se disea el sistema capaz de resolverlo
siguiendo esquemas prefijados por la disciplina. Los Sistemas Expertos siguen este
esquema: se introducen una serie de reglas lgicas que recogen el conocimiento de un
experto sobre una materia, y mediante mecanismos de inferencia parecidos a los que
empleamos al razonar, se sacan conclusiones.
Frente a esta perspectiva se encuentra la otra gran rea de la Inteligencia Artificial, la
Subsimblica. En este caso no se realizan diseos a alto nivel de sistemas capaces de
resolver los problemas utilizando las tcnicas de la disciplina, sino que se parte de
sistemas genricos que van adaptndose y construyndose hasta formar por s mismos
un sistema capaz de resolver el problema. Esto quedar ms claro con un ejemplo. Una
perspectiva simblica consiste en el estudio de los mecanismos de razonamiento
humano a alto nivel, cmo nos enfrentamos a un problema, cmo lo abordamos y
resolvemos; y se elaboran programas que realizan las mismas tareas.
Cuanto mejor haya podido entenderse la forma de razonar humana, ms eficiente ser el
sistema producido a la hora de resolver los problemas planteados. La perspectiva
subsimblica trata de estudiar los mecanismos fsicos que nos capacitan como seres
inteligentes, frente a los programas de computador clsicos que son simples autmatas
31
que obedecen rdenes muy concretas. El mecanismo fundamental que capacita a los
seres vivos para la realizacin de tareas sofisticadas no preprogamadas directamente es
el sistema nervioso. Desde este punto de vista la perspectiva subsimblica trata de
estudiar los mecanismos de los sistemas nerviosos, del cerebro, as como su estructura,
funcionamiento y caractersticas lgicas, con la intencin de disear programas basados
en dichas caractersticas que se adapten y generen sistemas capaces de resolver
problemas. Es en este campo donde se encuadran las Redes de Neuronas Artificiales.
Salidas
Figura 2.1: Esquema de una unidad de proceso tpica.
32
La Figura 2.1 muestra un modelo que representa esta idea. Aqu un grupo de entradas x1,
x2,, xn son introducidas en una neurona artificial. Estas entradas, definidas por un
vector X, corresponden a las seales de la sinapsis de una neurona biolgica. Cada seal
se multiplica por un peso asociado w1, w2,, wn antes de ser aplicado el sumatorio
etiquetado por S. Cada peso corresponde a la fuerza de una conexin sinptica, es decir
el nivel de concentracin inica de la sinapsis, y se representa por un vector W.
El sumatorio, que corresponde al cuerpo de la neurona, suma todas las entradas
ponderadas algebraicamente, produciendo una salida que se denomina E, as:
E = x1 w1 + x2 w2 + .......... xn wn
(2.1).
( 2.2).
Las seales E son procesadas adems por una funcin llamada funcin de activacin o
de salida T, que produce la seal de salida de la neurona S. Dependiendo de la funcin
F, habr distintos modelos de autmatas; por ejemplo:
Modelo computacional
Lineal: S = KB con K constante.
Umbral: S = 1 si E >=q , S = 0 si E <=q; siendo q el umbral constante.
Cualquier funcin: S = F (I); siendo F una funcin cualquiera.
En la Figura 2.2 se muestra un ejemplo de una unidad tpica de proceso de una Red
Neuronal Artificial. A la izquierda se ve una serie de entradas a la neurona; cada una
llega de la salida de otra neurona de la red. Una vez calculada la salida de una neurona,
como se ha explicado en el apartado anterior, esta se propaga, va conexiones de salida,
a las clulas destino. Todas las conexiones de salida reciben el mismo valor de salida.
33
toda la red, se producir un vector de salida, cuyos componentes son cada una de las
clulas de salida.
As pues, el esquema de funcionamiento de una Red de Neuronas por capas como la de
la Figura 2.2 puede describirse mediante la ecuacin:
r
S = F ( F ( F ( F ( X .W1 ).W 2 ).W3 ).W 4 )
(2.3).
Donde W1, W2, W3 y W4 son los pesos de la primera a la cuarta capa; F es la funcin de
activacin idntica en todas las neuronas; X es el vector de entrada a la red, y S es el
vector de salida que la red produce. W son matrices de conexiones entre las capas de la
red, y por lo tanto se trata de multiplicaciones de matrices. La funcin de activacin F
desempea un papel importante en un esquema de Red de Neuronas.
A continuacin se describen las funciones de activacin ms populares. [10]
Funciones lineales: son funciones que dan salida lineal:
f ( x ) = x, x R
( 2.4).
Funciones escaln: son funciones que dan una salida binaria dependiente de si el valor
de entrada est por encima o por debajo del valor del umbral. Ejemplos de estas
funciones son la funcin signo, sgn(x), y la funcin escaln estndar, (x), funciones
definidas como:
- 1 si x < 0
sgn( x) =
1 en otro caso,
0, si x < 0
1 en otro caso.
q ( x) =
(2.5).
La figura 2.3 compara las funciones de activacin lineal y signo. La funcin lineal da
una respuesta gradual de la entrada, mientras que la funcin umbral no lineal determina
un umbral objetivo de disparo para la actividad. En este caso, la funcin neuronal
resulta.
35
Funciones sigmoidales. Son funciones montonas acotadas que dan una salida gradual
no lineal para las entradas. Las funciones sigmoidales ms populares son:
1. La funcin logstica de 0 a 1.
f c ( x) =
1
1 - e -cx
36
( 2.6).
Al utilizar esta funcin de activacin dar una salida gradual entre 0 y 1 para las
entradas.
2.
( 2.7).
Con esta funcin de activacin dar una salida gradual de 1 a -1 para las entradas.
Arquitectura
Las neuronas se pueden organizar en capas conectadas por varios tipos de uniones
incluyendo conexiones hacia adelante, laterales y hacia atrs:
1. Conexiones hacia delante: Conectan neuronas de una capa con neuronas de la capa
siguiente (ver figura 2.2). Cada una de estas conexiones implica una composicin
funcional entre las funciones de activacin de las correspondientes neuronas y, como se
ver ms adelante, da a la red neuronal la capacidad de reproducir una amplia clase de
funciones no lineales.
2. Conexiones laterales: conectan neuronas de la misma capa. Junto con el caso simple
de redes de una sola capa (ver figura 2.7), este tipo de conexin se usa generalmente en
capas competitivas, donde cada nodo se conecta a s mismo mediante un peso positivo
(excitante) y a los dems nodos de la capa con pesos negativos (inhibitorios).
37
3. Conexiones hacia atrs (o recurrentes): incorporadas a las redes para tratar modelos
dinmicos y temporales, es decir, modelos con memoria (figura 2.8).
38
Capa de salida de una red neuronal. Una unidad se dice que est en la capa de salida de
una red neuronal (X, U), si es la salida de al menos una unidad procesadora de U y no es
la entrada de ninguna unidad procesadora de U.
Capas intermedias u ocultas de una red neuronal. Una unidad se dice que est en la capa
intermedia de una red neuronal (X, U), si es la entrada de al menos una unidad
procesadora de U y, al mismo tiempo, es la salida de al menos una unidad procesadora
de U.
Aprendizaje.
Una de las principales propiedades de la RNA es una capacidad de aprendizaje a partir
de unos datos. Una vez que ha sido elegida la arquitectura de red para un problema
particular, los pesos de las conexiones se ajustan para codificar la informacin contenida
en un conjunto de datos de entrenamiento.
Validacin.
Una vez que ha terminado el proceso de aprendizaje y los pesos de la red neuronal han
sido calculados, es importante comprobar la calidad del modelo resultante. Por ejemplo,
en el caso del aprendizaje supervisado, una medida de calidad puede dar en trminos de
los errores entre los valores de salida y los obtenidos por la red neuronal. Algunas
medidas estndar del error son:
1. La suma de los cuadrados de los errores (Sum of Square Errors, SSE), definida como
r
b p - b*p
( 2.8).
p =1
2. La raz cuadrada del error cuadrtico medio (Root Mean Square Error, RMSE)
definida como:
3.
El error mximo,
n
e = max b p - b p
p =0... N
39
(2.10).
Tambin es deseable realizar una validacin cruzada para obtener una medida de la
calidad de prediccin del modelo. Con este propsito, los datos disponibles se pueden
dividir en dos partes: una parte destinada al entrenamiento de la red y otra parte a la
comprobacin. Cuando el error de comprobacin es mucho mayor que el error de
entrenamiento, entonces se produce un problema de sobre ajuste durante el proceso de
entrenamiento.
2.3. Clasificacin.
Existen cuatro tipos redes neuronales: las redes no supervisadas, supervisadas, hibridas y
reforzadas. En las primeras no conocemos los valores de salida y las neuronas se van
descartando de acuerdo a los valores que obtienen.
En el aprendizaje supervisado se presenta a la red un conjunto de patrones junto con
la salida deseada e iterativamente sta ajusta sus pesos hasta que la salida tiende a ser
la deseada utilizando para ello informacin detallada del error que comete en cada
paso. Ejemplos de estas redes son: Perceptron, Adaline-Madaline, Perceptron
Multicapa, Correlacin en cascada, Mquina de Boltzmann, LVQ ,GRNN y Support
Vector Machines
En el aprendizaje no supervisado consiste en la estimacin de la funcin densidad de
probabilidad para distribuir patrones pertenecientes al espacio de entrada a partir de
muestras. En este tipo de aprendizaje se presentan a la red multitud de patrones sin
adjuntar la respuesta deseada, la red estima la probabilidad con la regla de
aprendizaje a partir de la cual pueden reconocerse regularidades en el conjunto de
entradas, extraer rasgos o agrupar patrones segn su similitud. Dentro de esta
clasificacin se encuentran Hopfield y mapas de Kohonen.
En el aprendizaje hibrido coexisten dos tipos de aprendizaje, supervisado y no
supervisado, las cuales tienen lugar normalmente en distintas capas de neuronas. Las
redes de base radial caen en este grupo y tienen la caracterstica de que la capa oculta
trabaja con aprendizaje no supervisado.
El aprendizaje reforzado se sita en medio del aprendizaje supervisado y no
supervisado. Como en el primero se emplea informacin sobre el error cometido,
pero en este caso existe una nica seal de error que representa un ndice global del
rendimiento de la red, es decir, solo se indica lo bien o mal que est actuando. Como
40
( 2.11).
a = f wi p - hard lim s wi p
i
(2.12).
Los valores de los pesos determina el funcionamiento de la red, estos valores se pueden
fijar o adoptar utilizando diferentes algoritmos de entrenamiento de la red.
El proceso de entrenamiento el perceptron se expone a un conjunto de patrones de
entrada y los pesos de la red son ajustados de forma que al final de entrenamiento se
obtengan salidas esperadas para cada unos de esos patrones de entrada.
El algoritmo de entrenamiento del perceptron puede resumirse en los siguientes pasos:
1. Se inicializa la matriz de pesos y el valor de la ganancia, por lo general se asignan
valores aleatorios a cada uno de los pesos wi y al valor b.
2. Se presenta el primer patrn a la red, junto con la salida esperada en forma de pares
entrada/salida.
3. Se calcula la salida de la red por medio de
a = f ( w1 p1 + w2 p 2 + b)
(2.13).
4. Cuando la red no retorna la salida correcta, es necesario alterar el valor de los pesos,
tratando de llevarlo hasta p y as aumentar las posibilidades de que la clasificacin sea
correcta, una posibilidad es adicionar p a w haciendo que el vector w apunte en la
direccin de p, y de esta forma despus de repetidas presentaciones de p a la red, w se
aproximar asintticamente a p; este es el procedimiento adoptado para la regla de
aprendizaje del perceptron.
Antecedentes del algoritmo retropropagacin.
Dado que existe un enorme abanico de estructuras existentes, solo nos limitaremos a
hablar sobre el algoritmo de retropropagacin en el cual se basa la red que utilizamos
para reconocimiento de patrones. Esta red no permite realizar un diagnstico en una
turbina de gas
42
El primer algoritmo de entrenamiento para redes multicapa fue desarrollado por Paul
Verbos en 1974, ste se desarrollo en un contexto general, para cualquier tipo de redes,
siendo las redes neuronales una aplicacin especial, razn por la cual algoritmo no fue
aceptado dentro de la comunidad de desarrolladores de redes neuronales. Fue solo hasta
mediados de los 80 cuando el algoritmo Backpropagation (retropropagacin)
redescubierto.
Uno de los grandes avances logrados con la Backpropagation es que esta red aprovecha
la naturaleza paralela de las redes neuronales para reducir el tiempo requerido por un
procesador secuencial para determinar la correspondencia entre unos patrones dados.
Adems el tiempo de desarrollo de cualquier sistema que se est tratando de analizar se
puede reducir como consecuencia de que la red puede aprender el algoritmo correcto sin
alguien tenga que reducir por anticipado el algoritmo en cuestin.
43
44
3.1. Introduccin.
En el capitulo uno describimos el objeto de estudio y porque es importante evitar un mal
funcionamiento, tambin se mencionaron los mtodos fsicos y paramtricos que nos
permiten identificar fallas y el estado actual del motor.
El monitoreo basado en la condicin y la teora del diagnstico es importante para tener
una mayor seguridad operacional, reducir la cantidad y severidad de las fallas, as como
minimizar el costo del mantenimiento de la maquinaria. Se define como la recoleccin e
interpretacin inteligente de datos para predecir fallas. [12]
La teora del diagnstico abarca tres etapas que son: etapa preliminar del clculo de las
desviaciones a travs de la funcin de referencia, monitoreo (deteccin de fallas),
diagnstico mismo (identificacin de fallas) y pronstico.
En este trabajo de tesis consideramos la etapa preliminar, que sirve como referencia a
otros modelos que involucran fallas y puede reducir costos considerablemente porque
podemos ahorrar tiempo y dinero en pruebas de un motor piloto.
El modelo elegido describe las variables del conducto de flujo y tiene fundamento en la
teora de turbomaquinas. El modelo que se mencionara en este captulo es del tipo caja
negra y puede tener por ejemplo la siguiente estructura:
GC = C 0 + C1TE + C 2 PE + C 3 n PA + C 4 n PA 2 + C 5 n PA T E
(3.1).
termodinmico en una turbina de gas, las variables monitoreadas que definen el vector Y
dependen de las condiciones de operacin (variables de control y condiciones
aproximar los datos del modelo termodinmico y comprobar su efectividad con datos
reales.
En contraste con la interpolacin, la aproximacin busca encontrar una funcin que este
cerca en cierta medida de los datos de partida, pero no tiene que coincidir con el valor
exacto de los mismos. La mayora de los mtodos de aproximacin se basan en
minimizar una norma o distancia entre la funcin actual (o los datos que la representan)
y su aproximacin.
Existen numerosos mtodos para aproximar funciones de varias variables. Por ejemplo,
se tienen los mtodos ms clsicos empleando polinomios, series de Fourier, o Splines;
y otros ms modernos que emplean Wavelets, funciones de base radial, Splines
multivariables o funciones Ridge.
Una Red Neuronal Artificial al ser una asociacin de pares entrada-salida se puede
interpretar como una funcin. De tal forma que si una red neuronal es capaz de aprender
con un mnimo error cualquier conjunto de datos, ser un aproximador universal de
funciones.
De los mtodos anteriores, en esta tesis aplicamos el mtodo de polinomios y las redes
neuronales artificiales para obtener la funcin de referencia. El objetivo del captulo es
explicar el desarrollo de ambas herramientas para obtener la funcin de referencia.
El polinomio contiene tres elementos que son un vector de variables independientes, un
vector de variables dependientes y los coeficientes que las relacionan. Para encontrar los
coeficientes consideramos aproximar el conjunto de vectores U e Y que se obtuvieron
por medio de un modelo termodinmico. El algoritmo para obtener los coeficientes del
polinomio es conocido como mnimos cuadrados.
La red neuronal como se defini en el captulo dos es un modelo artificial y sistemtico
basado en las redes biolgicas; aunque no significa que pueda imitar el comportamiento
real de las neuronas del cerebro. Esta representacin puede tener dos o ms niveles
llamados capas. Para este trabajo la red neuronal utilizada para el clculo fue un
perceptrn multicapa con tres capas: la capa de entrada cuyas neuronas son los
elementos del vector U, la capa oculta cuyo nmero no est definido inicialmente y la
capa de salida cuyas neuronas forman el elemento Y. El algoritmo de entrenamiento es
conocido como retropropagacin o regla delta. Con la misma base de datos usada para el
clculo de coeficientes del polinomio, se entreno a la red neuronal para variar los pesos.
Al terminar el ajuste de todos los pesos de la red, con diversas modificaciones en todos
los parmetros de la red, se introducen valores reales para comprobar la exactitud de la
red.
El algoritmo para obtener los coeficientes del polinomio es conocido como mnimos
cuadrados. En la red neuronal es conocido como retropropagacin o regla delta.
46
Y - Y0
Y0
(3.2).
entrenada hay que modificar los pesos. En la red neuronal hay que calcular el nmero de
neuronas en la capa oculta, la cantidad de pocas para alcanzar el error mnimo, el cual
se asigno de 18x10-6. Adems, entrenamos la red con funciones de transferencia
unipolar, bipolar y lineal. Con cada una de las funciones de transferencia utilizamos
diecisiete variantes del algoritmo de retropropagacin definidas en matlab.
No
1
2
3
4
5
6
7
Nomenclatura
npa
Pc
Tt
Tc
Pt
Pt
ntpa
Nombre
Velocidad del rotor de presin alta
Presin del compresor
Temperatura de la turbina de presin alta
Temperatura del compresor
Presin de la turbina de presin alta
Presin de la turbina de potencia
Velocidad de Rotacin de la turbina de potencia
48
No
1
2
3
4
Nomenclatura
Gc
ntp
Ta
Pa
Nombre
Caudal de combustible
Velocidad de rotacin de la turbina de potencia
Temperatura ambiental
Presin ambiental
(3.3).
(3.4).
49
(3.5).
(3.6).
[
n
r r
yij - Vi* A j
(3.7).
i =1 j =1
(3.8).
uc = u - u pr < u - v
(3.9).
Los vectores upr-v y u-upr son ortogonales, porque el primero est en V y el segundo en
V ^ . Por tanto, se puede aplicar el teorema de Pitgoras expresado en (3.10):
u - u pr
+ u pr - v = (u - u pr ) + (u pr - v ) = u - v
(3.10).
(3.11).
Esta solucin del MMC requiere un exceso de los datos de entrada. Por consiguiente,
tenemos que cumplir la condicin (nm)> (mk) o n>k. La solucin (3.11) asegura
errores aleatorios reducidos de las estimaciones, si comparamos con la solucin:
A = (V ) -1 Y
(3.12).
que se tiene para el caso n=k, cuando el nmero de ecuaciones se iguala al nmero de las
variables desconocidas.
Al poner la estimacin A . en la ecuacin (3.5), tenemos la funcin de referencia
La siguiente herramienta para crear la funcin de referencia y la principal en la presente
investigacin es la llamada redes neuronales artificiales.
51
i =1
j =1
F ( x1 , K , x p ) = a ij ( w ji x j -q j )
(3.13).
52
(3.14).
53
A pesar de la capacidad de aplicacin que comprende una red neuronal, es una estructura
compleja. Por eso, se examinaran cada uno de sus elementos en este captulo, tambin se
menciona el procedimiento matemtico que implica el algoritmo de entrenamiento, mejor
conocido como regla delta generalizada.
La retropropagacin estndar es un algoritmo de descenso del gradiente, como la regla de
aprendizaje de Widrow Hoff, que establece el movimiento de los pesos hacia el gradiente
negativo de la funcin definida por la red. Hay un gran nmero de variantes para el
mtodo de retropropagacin, basados en tcnicas estndar de retropropagacin, por
ejemplo: el mtodo de Newton y el gradiente conjugado. El toolbox de matlab utiliza ms
de una optimizacin, por lo que es importante describir primero detalladamente el mtodo
de retropropagacin estndar.
En la aplicacin de retropropagacin, distinguimos dos fases de clculo. La primera fase,
que se refiere a la propagacin hacia adelante y la segunda fase es la propagacin hacia
atrs.
En el clculo hacia delante los pesos sinpticos permanecen inalterados y las funciones de
las seales de la red son calculadas neurona por neurona. [9]
Para entender cmo se propagan los valores de entrada hacia delante consideremos la
figura 3.3 que muestra un perceptrn multicapa con C capas, C-2 capas ocultas y nc
neuronas en la capa c, para c=1,2,..,C. El peso de la conexin de la neurona i de la
capa c a la neurona j de la capa c+1 es wijC . Los componentes del vector de umbrales de la
54
capa c son uiC . Denominaremos las entradas como xi = ai1 , salidas aic de la capa oculta c y
aiC = yi salidas globales de la ltima capa.
Los valores con los que se activan las neuronas de la capa de entrada con las seales del
exterior y se expresan como el vector X=(x1, x2, . , xn).
Las neuronas ocultas se encargan de procesar la informacin recibida aplicando una
funcin de activacin, que se explico en el capitulo dos; y puede ser sigmoidal, tangente
hiperblica o lineal:
f ( x) =
Funcin sigmoidal
1
1 + e-x
f ( x) =
(3.15).
1 - e- x
1 + e-x
f ( x) = x
(3.16).
(3.17).
j =1
55
(3.18).
Las activaciones en la capa de salida son similares a las neuronas en la capa oculta; con la
diferencia que son salidas globales de toda la red. La funcin puede ser tambin
sigmoidal o lineal y el argumento es la sumatoria de los productos de las activaciones en
la ultima capa oculta por los pesos ms el umbral. La activacin se calcula en (3.19):
nc -1
para i = 1,2,........, nc
(3.19).
j =1
1 nc
( si (n) - yi ( n)) 2
2 i=1
(3.20).
(3.21).
1
N
E ( n)
n=1
56
(3.22).
e( n)
wCji -1
e(n)
wkjC -2
(3.23).
(3.24).
(3.25).
57
(3.26).
=
f
(
w Cji -1a Cj -1 + uiC )a Cj -1
C -1
w ji (n)
j =1
(3.27).
nC -1
j =1
j =1
(3.28).
El gradiente local puntual requiere cambios en los pesos sinpticos. De acuerdo con
(3.28) el gradiente local d j (n) para la salida de la neurona j es igual al producto de la seal
de error ej(n) y la derivada de la funcin de activacin asociada.
Sustituyendo en (3.25), encontramos la expresin para actualizar los pesos de la capa de
salida.
e(n)
= d iC (n) a Cj -1 ( n)
wCji -1
(3.29).
De las ecuaciones anteriores podemos notar que un factor clave involucrado en el clculo
del ajuste de pesos Dw ji (n) es la seal de error ej(n) a la salida de la neurona j. En este
contexto, debemos identificar dos casos distintos, dependiendo en que parte de la red est
localizada la neurona j. En el primer caso estar localizada en la capa de salida.
Este caso es el ms simple porque cada nodo de la salida de la red est alimentado con la
respuesta deseada, hacindose abiertamente importante para el clculo asociado con la
seal de error. En el segundo caso, la neurona j est localizada en la capa oculta. Cada
una de las neuronas ocultas no son accesibles, pero comparten la responsabilidad de los
errores en la capa de salida de la red. La pregunta, sin embargo, consiste en como castigar
o premiar a las neuronas de la capa oculta la parte de su responsabilidad. A este problema
lo conocemos como problema de crdito-asignacin y es una forma elegante de propagar
hacia atrs la seal de error de la red (Viuela y Galvn: 54).
CASO 1: La neurona j se localiza en la capa de salida.
Cuando la neurona j se encuentra en la capa de salida de la red, es alimentada
directamente con la respuesta deseada. Por lo tanto usamos la ecuacin (3.21) para
calcular la seal de error asociada con est neurona. Despus de determinar ej(n), es fcil
usar (3.28) para obtener el gradiente d i (n) .
58
C -2
wkj
wkj
i =1
(3.30).
Para calcular la derivada de la salida yi(n) respecto al peso wkjC -2 , hay que considerar que
el peso solo influye en la neurona j de la capa C-1.
nC -1
a Cj -1
yi ( n)
C -1 C -1
C
C -1
= f ( w ji a j + u i ) w ji
wkjC -2
wkjC -2
j =1
(3.31).
(3.32).
La derivada de la neurona j de la capa oculta C-1 con respecto al peso que la conecta con
C-2 la calculamos en (3.33).
a Cj -1
wkjC -2
nC - 2
59
(3.33).
Nuevamente podemos definir un gradiente local para las neuronas de la capa C-1 en la
expresin (3.34).
nC - 2
nC
k =1
i =1
d j C -1 ( n) = f ( wkjC -2 a kC -2 + u Cj -1 ) d iC ( n) wCji -1
(3.34).
A partir de 3.34 podemos generalizar el gradiente local para las neuronas de la capa
oculta como sigue:
nc
nc +1
k =1
i =1
(3.35).
1
N
Dw ji (n) = n=1
E (n)
a
=
N n=1 w ji ( n)
N
N
e j (n)
e (n) w
j
n =1
ji
( n)
(3.36).
Modo Lotes. En el modo por lotes, le red actualiza los pesos despus de la
presentacin de todos los ejemplos de entrenamiento, es decir, despus de una
poca los pesos y umbrales cambian sus valores. Para una poca, definimos la
funcin costo como el error cuadrtico medio, ecuacin (3.22). Para una tasa de
aprendizaje constante h , la regla delta define el ajuste de los pesos sinpticos:
Dw ji = -a
Eav
a
=w ji
N
e (n)
j
n =1
e j ( n)
w ji
(3.37).
Comparando la ecuacin (3.36) con la (3.37), observamos con facilidad las diferencias.
Desde un punto de vista operacional, en tiempo real, es preferible el modo serial, porque
requiere menor capacidad de almacenamiento para cada conexin sinptica. Sin embargo,
los patrones son presentados a la red de manera aleatoria, el uso de actualizacin de pesos
patrn por patrn hace que la bsqueda en el espacio de pesos sea de naturaleza
estocstica, lo cual ocasiona que el algoritmo quede atrapado en un mnimo local. En
cambio, el entrenamiento por lotes posee mayor exactitud en la estimacin del gradiente.
En la presente investigacin, entrenamos a la red neuronal por lotes debido a que el
tiempo de ejecucin es ms rpido y aprovechar procedimientos de aprendizaje ms
eficientes definidos en matlab.
Cuando entrenamos a la red neuronal propuesta consideramos dos funciones de
activacin o transferencia no lineales, ambas funciones tienen un rango de salida
limitado; [0,1] para el caso del sigmoide logartmico y [-1,1] para la tangente hiperblica.
Sin embargo, las salidas deseadas asociadas a las entradas tienen un rango de [- , ] ,
rango que ocasiona conflicto al entrenar la red.
61
Por lo tanto, al entrenar a la red neuronal se normalizo el rango, es decir, acotar el rango
del conjunto de vectores Y al rango [0,1] con respecto al valor menor y mayor de todos
los ejemplos de salidas deseadas.
Una vez ajustados los pesos de la red se procede a probar su funcionamiento con
ejemplos ajenos a la etapa de educacin; pero se obtendrn salidas con valores de 0 a 1, a
dichas salidas se aplica un proceso de normalizacin inverso para ampliar el intervalo
respecto a los valores originales de la etapa de entrenamiento. La etapa de normalizacin
que acabamos de describir se le conoce como preprocesamiento y posprocesamiento.
Despus de establecer la arquitectura y detallar el mtodo de aprendizaje de la red es
importante destacar los elementos que se pueden cambiar, los cuales son: cantidad de
neuronas en la capa oculta, numero de pocas, definicin inicial de pesos y umbrales,
funciones de activacin, algoritmo de entrenamiento y finalmente, rango de
normalizacin durante el preprocesamiento y el posprocesamiento.
En la seccin siguiente se describen las instrucciones para programar el polinomio y la
red neuronal en matlab, tambin cada una de las variantes del algoritmo de retropropagacin que matlab ofrece como funciones para entrenar la red.
62
330 vectores.
r
Y
4096 vectores.
r
U
r
U
r
Y
63
Para abrir un archivo de texto en matlab se utiliza la funcin fopen. Para describir dicha
funcin analicemos el siguiente cdigo:
fid=fopen('base.txt','rt');
El indicador fid es un valor de retorno que sirve como identificador del fichero. Los
argumentos de la funcin son el nombre del archivo junto con la extensin, encerrado con
comillas simples. El archivo debe guardarse en el mismo directorio que el programa, en
caso contrario debemos escribir la ruta. Al lado derecho del nombre del archivo, separado
con comas, se escriben entre comillas simples las letras que indican las acciones
permitidas para el archivo, por ejemplo:
'r'
'w'
'a'
'r+'
'w+'
'a+'
'W'
'A'
Leer.
Sobrescribir (crea el archivo si no existe).
Adjuntar (escribir a continuacin).
Leer y escribir (no crea el archivo).
Truncar o crear para leer y escribir.
Leer y adjuntar (crea el archive si no existe).
Escribir.
Adjuntar sin sobrescribir.
Para poder manipular los valores numricos del archivo base en matlab, es necesario
pasarlos a una matriz como se muestra en el siguiente cdigo:
UYT=fscanf(fid,'%g',[kuy,krb]); % reading the U and Y information
La funcin de la instruccin fscanf es leer los datos para retornarlos a un arreglo o matriz
y en general tiene la siguiente sintaxis:
[var1,var2,]=fscanf(fid, cadena de control ,size)
Donde fid es el identificador del fichero, size es un vector opcional para indicar el tamao
del vector o matriz a leer. La cadena de control va encerrada entre apstrofos simples, y
contiene el formato para las variables, por ejemplo:
%s
%d
%f
%lf
En este caso escogimos el formato g que se refiere a elementos reales de la matriz con
valores enteros y de punto flotante.
Para separar los datos de entrada y salida de la matriz UYT y formar la matriz que
contiene las variables del polinomio se utilizaron diversas rutinas con ciclos for. La
matriz de variables de polinomios la nombramos A y a la matriz que almaceno los
clculos de los coeficientes la nombramos X.
El cdigo siguiente aplica las ecuaciones (3.11) y (3.12) al clculo de los coeficientes:
ky=7;
for k=1:ky
X(:,k)=A\Y(:,k);
YE(:,k)=A*X(:,k);
DY(:,k)=(Y(:,k)-YE(:,k))./YE(:,k);
end;
Para crear la red neuronal mostrada en la figura 3.2 en matlab se programa la siguiente
instruccin:
65
nx=minmax(U');
net=newff(nx,[13,7],{'tansig','logsig'},'trainc');
net.trainParam.goal=0.0002;
net.trainParam.epochs=1500;
net.trainParam.show=35;
La funcin newff se refiere una arquitectura perceptrn multicapa que utiliza el algoritmo
de retropropagacin para su entrenamiento y tiene como argumentos: nx, el cual es el
valor de retorno de la funcin minmax (funcin que toma el valor mximo y mnimo de
cada neurona de entrada para tener una mejor distribucin de los ejemplos); a
continuacin entre parntesis cuadrados se especifica el numero de neuronas de las capas
ocultas y la capa de salida (separada cada capa por comas); entre corchetes se especifica
la funcin de transferencia de cada capa y finalmente entre comillas simple el algoritmo
de entrenamiento utilizado por toda la red neuronal, por ejemplo trainlm.
En la instruccin anterior la capa oculta y la capa de salida utilizan como funcin de
transferencia a la tangente hiperblica y la sigmoide lgica respectivamente.
El entrenamiento de la RNA se realiza por medio de la instruccin:
[net,tr]=train(net,U',Ynorm);
libres como pesos y umbrales de la red se actualizan despus de que transcurre una poca,
o sea por lotes.
Durante la ejecucin de esta funcin los pesos y umbrales son actualizados en la
direccin negativa del gradiente. Los siete parmetros asociados a esta funcin son:
epochs, show, goal, time, min_grad, max_fail, lr.
El parmetro lr se refiere a la tasa de aprendizaje y es importante tomarlo en cuenta
porque si es muy pequeo ser muy lenta la convergencia de la funcin de error hacia un
mnimo, sin embargo, si el parmetro lr es grande puede causar inestabilidad en el
algoritmo.
e(n)
+ hDw( n - 1)
w
(3.38).
(3.39).
n-1
e( n - 1)
e(t )
+ hDw(n - 2) = -a h n -1-t
w
w
t =0
(3.40).
e(t )
w
(3.41).
El cambio del peso actual es funcin de los gradientes de las iteraciones anteriores. Por lo
tanto, si la derivada parcial del error respecto a los pesos cambia de signo en iteraciones
consecutivas, la suma compensa este cambio con un incremento en el peso ms suave,
evitando oscilaciones bruscas. Por otra parte, si la derivada parcial del error conserva el
mismo signo en iteraciones consecutivas, el momento procura un cambio mayor en el
peso, con el fin de acelerar la convergencia del algoritmo.
1 nC
e(n) = [si (n ) - yi (n)]
2 i =1
(3.42).
Aunque la funcin de error definida en (3.42) es igual a la funcin de error del algoritmo
estndar, el espacio de parmetros involucra a otra tasa de aprendizaje. Denotemos a ji (n)
el parmetro de tasa de aprendizaje que depende de w ji (n) para la iteracin n. Aplicando
la regla de cambio a e(n) podemos escribir:
e( n) e(n) yi ( n)
=
a ji
yi ( n) a ji ( n)
68
(3.43).
e(n - 1)
w ji (n - 1)
(3.44).
e( n - 1) c-1
]a j + u cj )
w ji (n - 1)
(3.45).
yi (n ) = f ( [ w ji (n - 1) - a ji (n)
j =1
= f ( w ji ( n)a Cj -1 + u Cj )( )a j
a ji ( n)
w ji ( n - 1)
j =1
(3.46).
(3.47).
donde ei(n) es la seal de error. Entonces, usando la derivada parcial de (3.46) y (3.47) en
(3.43) y reagrupando trminos, escribimos la ecuacin 3.48:
nC -1
e( n - 1) C -1
e(n)
= -[ si ( n) - yi (n)] f ( w ji (n)a Cj -1 + u Cj ) a j
a ji ( n)
j =1
w ji (n - 1)
(3.48).
69
(3.49).
Ahora estamos listos para formular una regla para la actualizacin en la tasa de
aprendizaje que se ejecuta escalonadamente en la superficie de error. Especficamente, el
ajuste aplicado a a ji (n) es:
Da ji (n + 1) = -g
e(n)
e( n) e(n - 1)
=g
a ji (n)
w ji (n ) w ji (n - 1)
(3.50).
donde g es una constante positiva, llamada parmetro de control de paso escalonado para
el proceso de adaptacin de la tasa de aprendizaje. Haremos dos observaciones
importantes:
Cuando la derivada de la superficie de error con respecto a los pesos tiene el
mismo signo algebraico en dos iteraciones consecutivas, el ajuste Da ji (n + 1) tiene
un valor positivo. El proceso de adaptacin, por consiguiente, incrementa la tasa de
aprendizaje para el peso wji. Respecto al aprendizaje de retropropagacin, la
direccin crecer ms rpido.
Cuando la derivada de la superficie de error con respecto a los pesos sinpticos
cambia de signo en dos iteraciones consecutivas, el ajuste Da ji (n + 1) ser negativo.
Respecto a la retropropagacin avanzar ms lento. Este proceso de aprendizaje es
conocido como regla delta-delta.
El mtodo anterior tiene un problema significativo. Si el gradiente conserva el mismo
signo pero el cambio en magnitud es pequeo entre dos iteraciones consecutivas, el ajuste
positivo aplicado a la tasa de aprendizaje implica una variacin muy pequea en los
pesos. Tambin, tiene signos opuestos, pero una diferencia significativa en las
magnitudes entre iteraciones, se aplicara un ajuste muy grande a los pesos. Bajo estas
circunstancias, es difcil establecer un valor adecuado del parmetro calculado g .
Esta limitacin de la regla delta-delta motivo crear una regla que unificar los algoritmos
del momento y la tasa de aprendizaje.
Si a ji (n) denota la tasa de aprendizaje. La regla de actualizacin de la tasa de aprendizaje
es la siguiente:
k
Da ji (n + 1) = - ba ji ( n)
si S ji (n - 1) D ji ( n) > 0
si S ji (n - 1) D ji ( n) < 0
en otro caso
70
(3.51).
e( n)
w ji (n)
S ji (n ) = (1 - x ) D ji (n - 1) + xS ji (n - 1)
(3.52).
(3.53).
donde x es una constante positiva. La cantidad D ji (n) es el valor actual del gradiente. La
variable S ji (n) es la suma promediada exponencialmente de valores actuales y pasados
del gradiente, con x como base y la iteracin n es el exponente. El procedimiento de tasa
de aprendizaje adaptativa es llamado regla delta-palanca-delta.
1
h jidwidw j + componentes de orden mas grande
2 i j
(3.54).
E
wi
2E
w j wi
(3.55).
(3.56).
1
1
h ji dwidw j = dwT H dw
2 i j
2
(3.57).
problema porque incorpora una formula entre la direccin y el gradiente del vector.
Fletcher y Reeves aplicaron la primera propuesta. El gradiente conjugado garantiza
localizar el mnimo de una funcin cuadrtica de N variables en N pasos. Para una
funcin no cuadrtica, como la de error cuadrtico medio, en el perceptron multicapa, son
mas de N pasos y necesita un criterio de convergencia.
Si p(n) es la direccin del vector en la iteracin n del algoritmo. Entonces la regla de
actualizacin de pesos es:
w(n + 1) = w( n) + a (n) p (n)
(3.58).
(3.59).
(3.60).
donde b (n) es un parmetro variable con el tiempo, las reglas para determinarlo tienen
argumentos como el gradiente actual y el pasado. La formula de Fletcher-Reeves se
muestra en la siguiente ecuacin:
b (n) =
g T ( n + 1) g (n + 1)
g T (n) g (n)
(3.61).
g T ( n + 1)[ g ( n + 1) - g ( n)]
g T (n ) g ( n)
73
(3.62).
(3.63).
(3.64).
Aunque matlab ya tiene la mejor rutina predefinida para cada funcin, es posible
cambiarla con el parmetro srchFcn s lo deseamos. [18]
1
DwT HDw
2
(3.65).
(3.66).
(3.67).
Trainlm (Levenberg-Marquardt).
Al igual que el mtodo quasi-Newton, el algoritmo Levenberg-Marquardt fue diseado
para aproximar velozmente el entrenamiento de segundo orden sin tener que calcular la
matriz hessiana. Cuando la funcin de costo toma la forma de suma de cuadrados (tpica
en la retropropagacin), entonces la matriz hessiana se puede aproximar como:
H = JTJ
75
(3.68).
y el gradiente se aproxima a:
g = J Te
(3.69).
donde J es la matriz jacobiana que contiene las primeras derivadas de los errores de la red
con respecto a los pesos, y el vector de errores de la red es e. La matriz jacobiana se
calcula con tcnicas de retropropagacin estndar, menos complejas que los clculos de
la matriz hessiana.
Para aproximar la matriz hessiana el algoritmo de Levenberg-Marquardt actualiza los
pesos con la siguiente formula de Newton:
w(n + 1) = w( n) - [ J T J + mI ]-1 J T e
(3.70).
(3.71).
Por lo tanto, el jacobiano completo no tiene que existir, todo, al mismo tiempo. Podemos
aproximar el hessiano sumando subterminos. Si un trmino ha sido calculado ya puede
ser borrado.
Cuando usamos trianlm en matlab el parmetro mem_reduc determina cuantas filas de la
matriz jacobiana son calculadas en cada submatriz. Si mem_reduc, entonces el Jacobiano
se calculara completo y no habr reduccin de memoria. Si mem_reduc es 2, solo la
76
mitad del Jacobiano ser utilizado para los clculos. Entonces ahorraremos espacio a
comparacin del jacobiano completo.
1
N
ei2 (n) =
n=1
1
N
[s (n) - y (n)]
(3.72).
n =1
(3.73).
1 N 2
w j ( n)
n n=1
(3.74).
Esta funcin causa que la red tenga pesos y umbrales ms pequeos, y obliga a la red a
generar una curva ms suave e impedir la sobre educacin.
La regularizacin compleja tiene su origen en las tcnicas de podado que definimos
anteriormente. En el diseo de un perceptron multicapa por cualquier mtodo,
construimos un modelo no lineal de un fenmeno fsico responsable de una relacin de
entrada-salida para ejemplos de la red. En la medida que la red es de naturaleza esttica,
necesitamos una medida apropiada de ajuste entre el modelo y los datos observados. Esto
implica que a no ser que tengamos informacin anterior, el proceso deber incluir un
criterio que implique complejidad en el modelo. Los criterios diferentes que consideran la
complejidad del modelo, tienen un objetivo comn descrito en la siguiente frmula:
Criterio de complejidad funcin de penalizacin de
=
+
de mod elo
probabilidad complejidad de mod elo
(3.75).
(3.76).
El primer trmino Ec (w) es la funcin de error estndar, la cual depende de la red y los
datos de entrada. La funcin de optimizacin de retro propagacin estndar es el error
cuadrtico medio. El segundo trmino Ec (w) es la penalizacin, que depende de la red
misma, pero su evaluacin se extiende a los pesos sinpticos. Para la presente discusin,
l es el parmetro de regularizacin, importante en la penalizacin respecto a la medida
de rendimiento. Cuando l es cero, nos basta entrenar a la red con los ejemplos, a medida
que l aumenta, crece la importancia en considerar la funcin de penalizacin. En la
prctica, el proceso de decaimiento de pesos ayuda a que el parmetro de regularizacin
actu en ambos casos.
Despus de entrenar a la red con los datos del archivo base, es necesario probar su
aprendizaje, en este caso con los datos del archivo export. Para verificar su efectividad en
matlab lo hacemos con la siguiente instruccin sim:
PB=sim(net,UStr);
78
79
80
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
10
0.25380
0.25854
0.06892
0.18040
0.10522
0.06809
0.12798
0.53751
0.23773
0.16020
0.05719
0.05682
0.34993
0.12122
0.51071
0.12048
0.07554
0.53259
0.09807
0.07666
3.86537
2.73437
0.11730
0.09478
0.12496
0.19406
0.11364
0.06473
0.1378
0.10090
11
0.04329
0.06074
0.04535
0.07035
0.10678
0.22728
0.07285
0.14637
0.28837
0.78037
0.08572
0.05389
0.10105
0.05448
0.07669
0.04567
0.04938
0.05079
0.14584
0.09867
0.04675
0.04827
0.09292
0.87830
0.09185
0.05712
0.06634
0.06344
0.05714
0.13317
82
12
0.04444
0.21877
0.08565
0.04128
0.04468
0.15641
0.09551
0.03992
0.04610
0.04083
0.03915
0.05307
0.12691
0.06601
0.81892
0.03847
0.05609
0.12124
0.12625
0.07614
4.5855
0.06891
0.07595
16.5938
0.16579
0.08861
0.05449
0.11821
0.04592
0.11906
13
0.206882
0.086346
1.40216
0.045776
0.397115
0.400441
0.049793
0.140262
0.120828
0.088285
0.078973
0.046101
0.110234
0.093641
0.046146
0.14712
0.039706
0.182618
0.114534
0.061768
0.059190
0.098242
0.061816
0.81165
0.053365
0.221868
0.061859
0.093992
0.053240
0.135739
Fig. 4.1.-Grafica comparativa de resultados con polinomios y red neuronal con 12 neuronas en la
capa oculta y entrenamiento en 250 pocas.
T
r
a
i
n
c
g
b
2
T raincgb
0.00302
1500
30
2.25
TTrraaiinnccggff
3
0.00231
1500
30
2.3
T
r
a
i
n
c
g
p
4
T raincgp
0.00882
1213
12
2
TTrraaiinnggdd
5
0.13456
5513
20
5
T
r
a
i
n
g
d
m
6
Train gdm 0.20874
1500
20
4.39
TTrraaiinnggddaa
7
0.06025
450
15
4.1
T
r
a
i
n
g
d
x
8
Train gdx
0.12971
1000
25
4.2
TTrraaiinnoossss
9
0.07436
320
12
0.98
T
r
a
i
n
s
c
g
10
T rainscg
0.03208
550
14
0.89
TTrraaiinnllm
11
m
0.00020
250
15
14.02
0.19223
TTrraaiinnbbrr
12
250
7
13.54
(sse)
Analizando los resultados de la tabla, los algoritmos trainlm y trainbr resultaron los ms
adecuados como se esperaba, aunque sean ms lentos que los dems. Los algoritmos de
gradientes conjugados terminaron el entrenamiento despus de un nmero corto de
pocas y estuvieron muy lejos de alcanzar el error. Finalmente, los algoritmos que se
basan en modificar la tasa de aprendizaje como traingd alcanzaron resultados regulares
despus de un nmero muy grande de pocas y con demasiados nodos en la capa oculta.
La funcin trainbr tuvo la ventaja de alcanzar una desviacin menor que otras funciones
con un menor nmero de nodos en la capa oculta, en esta caso siete.
En las figuras 4.2 y 4.3 se muestran las grficas comparativas del modelo de estado
normal que se obtuvo entrenando a la red neuronal con los algortimos de LevenbergMarquardt y regulacin bayesiana respectivamente.
84
Fig. 4.2.-Grafica comparativa entre polinomios y red neuronal entrenada con funcin trainlm.
Fig. 4.3.-Grafica comparativa entre polinomios y red neuronal entrenada con funcin trainbr.
85
Fig. 4.4.-Grafica comparativa entre polinomios y red neuronal entrenada con funcin de
transferencia bipolar.
87
Fig. 4.5. Resultados entrenado una red neuronal con el algoritmo de retropropagacin (regulacin
bayesiana) y funciones (pureline).
Fig. 4.6. Resultados entrenado una red neuronal con el algoritmo de retropropagacin (regulacin
bayesiana) y funciones (pureline sin normalizar).
88
Figura 4.7. Resultados entrenando una red neuronal con el algoritmo de retropropagacion (regulacin
bayesiana) y funciones (tansig y logsig) modificando los argumentos de logsig
89
Figura 4.8. Resultados entrenando una red neuronal con el algoritmo de retropropagacion
(regulacin bayesiana) y funciones (logsig y tansig) modificando los argumentos de tansig.
En el cdigo llamamos a las capas 1 y 2 de la red para que la funcin de inicio sobre los
parmetros sea igual a la que escribimos entre comillas simples .
90
Las grficas comparativas de desviaciones quedaron con resultados muy similares para
las cuatro funciones que proporcionan valores iniciales en pesos y umbrales. Para
establecer un criterio de cules eran los mejores valores de pesos y umbrales se calculo el
error sse.
Tabla 4.3:Inicializacin de parmetros libres vs error sse.
METODO
SSE
initzero
0.19898
initwb
0.23796
initnw
0.241568
rands
0.223248
midpoint
0.207156
En la figura 4.9 se ilustra la grfica para las desviaciones con la funcin del sse ms
pequeo, es decir initzero, donde los pesos y umbrales se actualizan con valores iniciales
igual a cero.
Fig. 4.9. Resultados entrenando una red neuronal con pesos y umbrales inicializados todos a cero
91
Fig. 4.10. Resultados con red neuronal educada con el algoritmo de parada temprana para 2 muestras
de entrenamiento
92
93
94
CONCLUSIONES GENERALES.
Pues, dentro del desarrollo de la tesis los siguientes trabajos cientficos han sido
ejecutados.
En el primer captulo se describi el funcionamiento termodinmico de la turbina de gas,
as como cada uno de los componentes que la integran. Se concluye que todos los
componentes de la turbina de gas requieren un monitoreo permanente de su
comportamiento por razones de seguridad, econmicas y debido a los procesos complejos
a que son sometidos. Se introduce el rea de diagnostico paramtrico de los motores de
turbina de gas el cual permite analizar el comportamiento de un motor sin detener su
funcionamiento. Este tipo de diagnstico involucra la funcin de referencia en la
simulacin de las fallas del motor. Se llama funcin referencia o modelo de estado
normal porque describe una turbina de gas en buenas condiciones. Este modelo es una
funcin vectorial que relaciona las variables medidas en el conducto de flujo con las de
control y aire ambiental. Las fallas y el deterioro del motor afectan al estado del motor y
a sus mediciones en el conducto de flujo pero no afectan a tal modelo. Por lo tanto, las
diferencias entre las variables medidas y las computadas por esta funcin (podemos
llamar estas diferencias como desviaciones) son buenas indicadores de fallas y se usan
ampliamente en el diagnstico de turbinas de gas.
Hemos escogido dos mtodos diferentes del clculo del modelo para investigar y escoger
el mejor mtodo. El primer mtodo usa las redes neuronales descritas en el capitulo dos.
Las redes neuronales artificiales son modelos matemticos de las redes neuronales
biolgicas. Su objetivo es imitar las capacidades que tienen el hombre y los animales de
reconocer objetos e interpretar estmulos. Para poder implementar estos modelos es
necesario considerar que la neurona es un pequeo procesador con capacidades limitadas
a comparacin de las computadoras actuales. Sin embargo al trabajar muchas ellas en un
conjunto son capaces de resolver problemas muy serios. Se escogi una red llamada el
perceptron multicapa. Este tipo de redes es utilizado frecuentemente para aproximar
funciones complejas por eso se espera que el perceptron describa bien el comportamiento
de turbinas de gas.
El captulo tres describe el segundo mtodo de la formacin de la funcin de referencia.
Este mtodo involucra polinomios para describir la funcin deseada y el mtodo de
mnimos cuadrados para calcular los coeficientes desconocidos de los polinomios usando
datos registrados en un motor para girar un compresor centrifugo en tuberas de gas
95
natural. El captulo tambin describe algoritmos que realizan los dos mtodos para formar
la funcin de referencia as como los programas correspondientes elaborados en el
ambiente de Matlab. Adems se analizaron las variantes del algoritmo de entrenamiento
de la red neuronal.
En el captulo cuatro se presentan los resultados de comparacin entre la funcin de
referencia con polinomios y la con el preceptrn multicapa. La comparacin consisti en
graficar y comparar visualmente las desviaciones computadas contra el tiempo de
operacin por las dos versiones de la funcin.
Se describi cada una de las modificaciones que se realizaron para mejorar los resultados
de la red neuronal artificial. Se observ un comportamiento un poco diferente en estas
modificaciones, sin embargo, el algoritmo de regulacin bayesiana fue el mejor algoritmo
de entrenamiento. Casi en todos los casos se observ una mejor calidad de las
desviaciones computadas por los polinomios. Por lo tanto, podemos concluir que los
polinomios tienen en general una mejor exactitud, a excepcin del caso de la
modificacin de la red con el algoritmo de regulacin bayesiana y funcin de
transferencia bipolar, en el cual, ambas herramientas tienen una exactitud igual.
As llegamos finalmente a la siguiente conclusin: la red neuronal seleccionada,
perceptron multicapa, no puede sobrepasar los polinomios en la exactitud de la
descripcin del comportamiento del motor analizado. Adems, es necesario tener en
cuenta que el perceptron es una herramienta de mayor complejidad y costo
computacional. Por lo tanto, para formar la funcin de referencia en sistemas reales de
monitoreo de turbinas de gas, se recomienda aplicar los polinomios a pesar de lo que las
redes neuronales son ms usadas actualmente.
96
REFERENCIAS.
[1]
[2]
[3]
Tony Giampaolo. The Gas Turbine Handbook: Principles and Practices. Prentice
Hall. 1997.
[4]
[5]
http://www.igsa.com.mx/
[6]
http://www.siemens.com.mx/
[7]
[8]
Loboda, Igor. Notes: Construction of Gas Turbine Plants and Engines. National
Aerospace University of Ukraine, 2002.
[9]
[10] Bonifacio Martn del Bro, Alfredo Sanz Molina, Redes neuronales y Sistemas
Difusos. Alfaomega Grupo Editor, Mxico, 2001.
[11] James A. Anderson. Redes Neuronales. Alfaomega, 2007.
[12] Loboda I., Yepifanov S., Feldshteyn Y. Deviation problem in gas turbine
health monitoring. Proceedings of IASTED International Conference on Power
and Energy Systems (PES2004), Clearwater Beach, Florida, USA, pp. 335340.
97
[13] Loboda I., Yepifanov S., Feldshteyn Y. Diagnostic analysis of maintenance data o
fault gas turbine for driving an electric generator. ASME Turbo Expo 2009:
International
Technical
Congress
Power
for
Land
Sea
& Air, Orlando, Florida, USA, June 812, 2009, 12p., ASME Paper No. GT2006
0176.
[14] Villarreal Gonzlez C.F., Loboda I., Trahyn Amescua I.K. Aplicacin de las redes
neuronales en modelo de estado normal para el diagnstico de turbinas de gas.
Memorias del 5to Congreso Internacional de Ingeniera Electromecnica y
Sistemas, ESIME, IPN, Mxico, D.F., 10-14 noviembre de 2008, 6p, ISBN 978-607-414-049-1.
[15] Villarreal Gonzlez C.F., Loboda I., Trahyn Amescua I.K. Anlisis de una red
neuronal en la aplicacin a la funcin de referencia de una turbina de gas.
Congreso de Instrumentacin SOMI XXIV, Mrida, Yucatn., 14-16 octubre de
2009, 11 p, 274-CVG.
[16] Nakos George, Joyner David. Algebra lineal con aplicaciones. International
Thomson Editores.
[17] Haykin Simon. Neural Networks A comprehensive foundation. IEEE PRESS,
1994.
[18] http://www.mathworks.com/products/neuralnet/
[19] Ehsan Mesbahi Mohsen Assadi et al. A unique technique for vaporative gas
turbine (EvGT) parameters. IGTI/ASME Turbo Orlaens, USA, 7p., ASME Paper
2001-GT-0008.
[20] Mohsen Assadi Ehsan, Mesbahi, et al. A novel correction technique for simple
gas turbine parameters. IGTI/ASME Turbo Expo 2001, June 4-7, 2001, New
Orlaens, USA, 7p., ASME Paper 2001-GT-0008.
[21] Magnus Fast, Mohsen Assadi, Andrew Pike, Peter Breuhaus. Different condition
monitoring models for gas turbines by means of artificial neural networks.
IGTI/ASME Turbo Expo 2009, June 8-12, 2009, Orlando, Florida, USA, 11p.,
ASME Paper GT2009-59364.
98
[22] Kacprzynski Gregory J., Michael Gumina, Michael J. Roemer, Daniel E. Caguiat,
Thomas R. Galie, Jack J. McGroarty (2001). A prognostic modelling approach for
predicting recurring maintenance for shipboard propulsion system. Proceedings of
ASME Turbo Expo 2001, New Orleans, LA USA, 7p., 2001-GT-0218.
.
[23] Roemer Michael J., Kacprzynski Gregory J. (2000). Advanced diagnostics and
prognostics for gas turbine engine risk assessment. IGTI/ASME Turbo Expo, May
8-11, Munich, Germany, 10p., 2000-GT-30.
[24] Bryce Lord TransCanada Pipelines Ltd, Joshua Bennett Idax Incorporated.
Equipment health monitoring failure mode characteristics case study. 17th
National Petroleum Show, Calgary, Canada June 12th to 15th, 2000, 25p.
[25] Orlando J. Illi, Frank L. Greitzer, Lars J. Kangas, Tracy J. Reeve. An artificial
neural network system for diagnosing gas turbine engine fuel faults. 48th Meeting
of the Mechanical Failures Prevention Group, Wakefield, MA, April 19-22, 1994,
9p.
[26] S.O.T. Ogaji, Y. G. Li, Suresh Sampath, Riti Singh. Gas path fault diagnosis of a
turbofan engine from transient data using artificial neural networks. IGTI/ASME
Turbo Expo 2003, June 16-19, 2003, Atlanta, Georgia, USA, 10p., ASME Paper
GT2003-38423.
[27] Praveen Shankar, Rama K. Yedavalli. A neural network based adaptive observer
for turbine engine parameter estimation. IGTI/ASME Turbo Expo 2006, May 811, 2006, Barcelona, Spain, 9p., ASME Paper GT2006-90603.
[28] Suresh Sampath, Riti Singh. An integrated fault diagnostics model using genetic
algorithm and neural networks. Journal of Engineering for Gas Turbines and
Power -- January 2006 -- Volume 128, Issue 1, pp. 49-56.
[29] C. Romessis, K. Mathioudakis. Bayesian network approach for gas path fault
diagnosis. Journal of Engineering for Gas Turbines and Power -- January 2006 -Volume 128, Issue 1, pp. 64-72.
99
100
ANEXO A.
PROGRAMAS
101
Esta seccin contiene los programas base que se utilizaron en el clculo de la funcin de
la funcin de referencia. Se aplicaron modificaciones al algoritmo de retropropagacin,
las funciones de transferencia de las capas oculta y de salida, numero de neuronas en la
capa oculta y procedimientos de normalizacin.
PROGRAMA 1
Clear;
kuy=11; ku=4; ky=7; kcoef=15; tk=273.15;
ntk=[2 7 8 10]; ktk=4;
npol1=[5 1 2 3 4 1 1 1 2 2 3 1 2 3 4];
npol2=[5 5 5 5 5 2 3 4 3 4 4 1 2 3 4];
d1=330; d2=4091;
% Modelo con mtodos numricos
fid=fopen('base.txt','rt');
krb=-2;
while ne(1,feof(fid))
tmpline=fgets(fid);
krb=krb+1;
end;
fclose(fid);
% Measured parameter input
fid=fopen('base.txt','rt');
tmpline=fgets(fid); % skip line
tmpline=fgets(fid); % skip line
UYT=fscanf(fid,'%g',[kuy,krb]); % reading the U and Y information
fclose(fid);
UY=UYT';
% Matrix formation
for k=1:ktk
UY(:,ntk(k))=UY(:,ntk(k))+tk;
end;
%UY(:,8)=UY(:,8)*sqrtt0./sqrt(UY(:,2)); % Temperature correction
for k=1:ku
U(:,k)=UY(:,k);
U2(:,k)=UY(:,k); %MODIFICACION DE PROGRAMA ORIGINAL
end;
u1=ones(krb,1);
U2(:,ku+1)=u1;
for k=1:kcoef
A(:,k)=U2(:,npol1(k)).*U2(:,npol2(k));
end;
% RRRRREDES NNNNEURONALES
for k=1:ky
Y(:,k)=UY(:,k+ku);
end;
nx=minmax(U');
102
net=newff(nx,[13,7],{'tansig','logsig'},'trainbr');
net.trainParam.goal=0.00018;
net.trainParam.epochs=260;
net.trainParam.show=35;
Yt=Y';
for i=1:ky
Ypmn(i)=min(Yt(i,:));
Ypmx(i)=max(Yt(i,:));
dif(i)=Ypmx(i)-Ypmn(i);
for j=1:d1
Ynorm(i,j)=(Yt(i,j)-Ypmn(i))/dif(i);
end
end
[net,tr]=train(net,U',Ynorm);
y5y2=Y(:,5)./Y(:,2);
% Model coefficients, model parameters and errors
for k=1:ky
X(:,k)=A\Y(:,k);
YE(:,k)=A*X(:,k);
DY(:,k)=(Y(:,k)-YE(:,k))./YE(:,k);
end;
[dymx,nymx]=max(DY);
[dymn,nymn]=min(DY);
sdy=std(DY,1,1);
% File size
fid=fopen('export.txt','rt');
krs=-2;
while ne(1,feof(fid))
tmpline=fgets(fid);
krs=krs+1;
end;
fclose(fid);
% Measured parameter input
fid=fopen('export.txt','rt');
tmpline=fgets(fid); % skip line
tmpline=fgets(fid); % skip line
UYST=fscanf(fid,'%g',[kuy,krs]); % reading the U and Y information
fclose(fid);
% Matrix formation
UYS=UYST';
for k=1:ktk
UYS(:,ntk(k))=UYS(:,ntk(k))+tk;
end;
%UYS(:,8)=UYS(:,8)*sqrtt0./sqrt(UYS(:,2)); % Temperature correction
for k=1:ku
US(:,k)=UYS(:,k);
US2(:,k)=UYS(:,k); %MMMMMMODIFICACION DE LAS REDES NEURONALES
end
Utr=U';
PB2=sim(net,Utr);
for j=1:ky
103
for k=1:d1
PBorigen2(j,k)=(PB2(j,k)*dif(j))+Ypmn(j);
end
end
PBorigentr2=PBorigen2';
for k=1:ky
YS(:,k)=UYS(:,k+ku);
end;
%%%%%%%%%%%%L A P R U E B A%%%%%%%%
YSt=YS';
for i=1:ky
YpmnEX(i)=min(YSt(i,:));
YpmxEX(i)=max(YSt(i,:));
difEX(i)=YpmxEX(i)-YpmnEX(i);
for j=1:d2
YnormEX(i,j)=(YSt(i,j)-YpmnEX(i))/difEX(i);
end
end
UStr=US';
PB=sim(net,UStr);
for nn=1:ky
Ypmndb(nn)=min(Ypmn(nn),YpmnEX(nn));
Ypmxdb(nn)=max(Ypmx(nn),YpmxEX(nn));
difdb(nn)=Ypmxdb(nn)-Ypmndb(nn);
end
for j=1:ky
for k=1:d2
PBorigen(j,k)=(PB(j,k)*difdb(j))+Ypmndb(j);
end
end
PBorigentr=PBorigen';
%%%%%%%**************la prueba********%%%%%%%%%%%%%%%
u1s=ones(krs,1);
US2(:,ku+1)=u1s;
for k=1:kcoef
AS(:,k)=US2(:,npol1(k)).*US2(:,npol2(k));
end;
for k=1:ky
YS(:,k)=UYS(:,k+ku);
end;
YStr=YS';
for k=1:7
DYrn2(:,k)=(YS(:,k)-PBorigentr(:,k))./PBorigentr(:,k);
end;
[dymx,nymx]=max(DYrn2);
[dymn,nymn]=min(DYrn2);
sdy=std(DYrn2,1,1);
for k=1:ky
DYrn2(:,k)=(YS(:,k)-PBorigentr(:,k))./PBorigentr(:,k);
end;
[dymx,nymx]=max(DYrn2);
104
[dymn,nymn]=min(DYrn2);
sdy=std(DYrn2,1,1);
for k=1:ky
DYrn1(:,k)=(Y(:,k)-PBorigentr2(:,k))./PBorigentr2(:,k);
end;
[dymx,nymx]=max(DYrn1);
[dymn,nymn]=min(DYrn1);
sdy=std(DYrn1,1,1);
% Model parameters and errors
for k=1:ky
YES(:,k)=AS*X(:,k);
DYS(:,k)=(YS(:,k)-YES(:,k))./YES(:,k);
TMP(:,k)=YS(:,k)-YES(:,k);
end;
DSUMM=(DYS(:,2)-DYS(:,3)+DYS(:,4)+DYS(:,5)-DYS(:,6))/5; %Integral cryterion
[dymxs,nymxs]=max(DYS);
[dymns,nymns]=min(DYS);
sdys=std(DYS,1,1);
% Plot variable
t=1:krs;
%
SECONDARY MODEL FORMATION AND APPLICATION
tc0=1700; dtc=700; kcc=2;
if tc0+dtc<krs
% verification of an existance of long export file
tc=tc0+1:tc0+dtc;
ic=1:dtc;
%nyc=1:kcc; ncc(nyc)=[1 2 3 4 5 6 7 8 9 10 11 12 13 14 15];
nyc=1:kcc; ncc(nyc)=[1 5];
YC(ic,:)=YS(tc,:)-YES(tc,:);
AC(ic,nyc)=AS(tc,ncc);
for k=1:ky
XC(:,k)=AC\YC(:,k);
YCE(:,k)=AC*XC(:,k);
DYC(:,k)=YC(:,k)-YCE(:,k);
end;
ASC(:,nyc)=AS(:,ncc);
for k=1:ky
DYESC(:,k)=ASC*XC(:,k);
YESC(:,k)=DYESC(:,k)+YES(:,k);
DYSC(:,k)=(YS(:,k)-YESC(:,k))./YESC(:,k);
end;
DCSUMM=(DYSC(:,2)-DYSC(:,3)+DYSC(:,4)+DYSC(:,5)-DYSC(:,6))/5; %Integral cryterion
end
t2=1:d1;
figure(2)
subplot(2,2,1);
plot(t2,DY(:,3),t2,DY(:,4),t2,DY(:,6)); %t,DYS(:,1),t,DYS(:,2),t,DYS(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Polinomios: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
subplot(2,2,2);
105
plot(t,DYS(:,3),t,DYS(:,4),t,DYS(:,6)); %t,DYrn2(:,1),t,DYrn2(:,2),t,DYrn2(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Polinomios: Validacin');
legend('Tt','Tc','Pt');
grid on;
subplot(2,2,3);
plot(t2,DYrn1(:,3),t2,DYrn1(:,4),t2,DYrn1(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
t2=1:d1;
subplot(2,2,4);
plot(t,DYrn2(:,3),t,DYrn2(:,4),t,DYrn2(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Validacin');
legend('Tt','Tc','Pt');
grid on;
PROGRAMA 2
clear;
kuy=11; ku=4; ky=7; kcoef=15; tk=273.15;
ntk=[2 7 8 10]; ktk=4;
npol1=[5 1 2 3 4 1 1 1 2 2 3 1 2 3 4];
npol2=[5 5 5 5 5 2 3 4 3 4 4 1 2 3 4];
d1=330; d2=4091;
d11=d1/2;
earlystoppign=1
%
PRIMARY MODEL FORMATION
% Modelo con mtodos numricos
fid=fopen('base.txt','rt');
krb=-2;
while ne(1,feof(fid))
tmpline=fgets(fid);
krb=krb+1;
end;
fclose(fid);
% Measured parameter input
fid=fopen('base.txt','rt');
tmpline=fgets(fid); % skip line
tmpline=fgets(fid); % skip line
UYT=fscanf(fid,'%g',[kuy,krb]); % reading the U and Y information
fclose(fid);
UY=UYT';
% Matrix formation
for k=1:ktk
UY(:,ntk(k))=UY(:,ntk(k))+tk;
end;
106
for i=1:d11
UYM(i,:)=UY(i,:);
end
d11ex=d11+1;
for j=d11ex:d1
UYM2(j-165,:)=UY(j,:);
end
for k=1:ku
U(:,k)=UYM(:,k);
U2(:,k)=UYM(:,k); %MODIFICACION DE PROGRAMA ORIGINAL
end;
for k=1:ku
Umit(:,k)=UYM2(:,k);
U2mit(:,k)=UYM2(:,k); %MODIFICACION DE PROGRAMA ORIGINAL
end;
u1=ones((krb/2),1);
U2(:,ku+1)=u1;
for k=1:kcoef
A(:,k)=U2(:,npol1(k)).*U2(:,npol2(k));
end;
% RRRRREDES NNNNEURONALES
for k=1:ky
Y(:,k)=UYM(:,k+ku);
end;
for k=1:ky
Ymit(:,k)=UYM2(:,k+ku);
end;
%entrenamiento con mitad de base de datos....................
nx=minmax(U');
net=newff(nx,[7,7],{'tansig','logsig'},'trainbr');
net.trainParam.goal=0.00015;
net.trainParam.epochs=251;
net.trainParam.show=35;
Yt=Y'
for i=1:ky
Ypmn(i)=min(Yt(i,:));
Ypmx(i)=max(Yt(i,:));
dif(i)=Ypmx(i)-Ypmn(i);
for j=1:d11
Ynorm(i,j)=(Yt(i,j)-Ypmn(i))/dif(i);
end
end
Ytmic=Ymit';
for i=1:ky
Ymdpmn(i)=min(Ytmic(i,:));
Ymdpmx(i)=max(Ytmic(i,:));
difmd(i)=Ymdpmx(i)-Ymdpmn(i);
for j=1:d11
Ynormd(i,j)=(Ytmic(i,j)-Ymdpmn(i))/difmd(i);
end
end
107
%................early stoppipign.................%%%%%%
if earlystoppign==1
val.P=Umit';
val.T=Ynormd;
[net,tr]=train(net,U',Ynorm,[],[],val);
else
[net,tr]=train(net,U',Ynorm);
end
y5y2=Y(:,5)./Y(:,2);
% Model coefficients, model parameters and errors
for k=1:ky
X(:,k)=A\Y(:,k);
YE(:,k)=A*X(:,k);
DY(:,k)=(Y(:,k)-YE(:,k))./YE(:,k);
end;
[dymx,nymx]=max(DY);
[dymn,nymn]=min(DY);
sdy=std(DY,1,1);
% File size
fid=fopen('export.txt','rt');
krs=-2;
while ne(1,feof(fid))
tmpline=fgets(fid);
krs=krs+1;
end;
fclose(fid);
% Measured parameter input
fid=fopen('export.txt','rt');
tmpline=fgets(fid); % skip line
tmpline=fgets(fid); % skip line
UYST=fscanf(fid,'%g',[kuy,krs]); % reading the U and Y information
fclose(fid);
% Matrix formation
UYS=UYST';
for k=1:ktk
UYS(:,ntk(k))=UYS(:,ntk(k))+tk;
end;
%UYS(:,8)=UYS(:,8)*sqrtt0./sqrt(UYS(:,2)); % Temperature correction
for k=1:ku
US(:,k)=UYS(:,k);
US2(:,k)=UYS(:,k); %MMMMMMODIFICACION DE LAS REDES NEURONALES
end
%simulacion uno.....................................
Utr=U';
PB2=sim(net,Utr);
for j=1:ky
for k=1:d11
PBorigen2(j,k)=(PB2(j,k)*dif(j))+Ypmn(j);
end
end
PBorigentr2=PBorigen2';
108
%simulacion dos.....................................
Ytmic=Ymit';
for i=1:ky
Ymdpmn(i)=min(Ytmic(i,:));
Ymdpmx(i)=max(Ytmic(i,:));
difmd(i)=Ymdpmx(i)-Ymdpmn(i);
for j=1:d11
Ynormd(i,j)=(Ytmic(i,j)-Ymdpmn(i))/difmd(i);
end
end
Umtr=Umit';
PB2mit=sim(net,Umtr);
for j=1:ky
for k=1:d11
PBorigenm(j,k)=(PB2mit(j,k)*difmd(j))+Ymdpmn(j);
end
end
PBorigentrm=PBorigenm';
u1sm=ones(d11,1);
Umit(:,ku+1)=u1sm;
for k=1:kcoef
ASM(:,k)=Umit(:,npol1(k)).*Umit(:,npol2(k));
end;
for k=1:ky
Ysgmt(:,k)=ASM*X(:,k);
DYMTS(:,k)=(Ymit(:,k)-Ysgmt(:,k))./Ysgmt(:,k);
Tdifmt(:,k)=Ymit(:,k)-Ysgmt(:,k);
end;
for k=1:ky
YS(:,k)=UYS(:,k+ku);
end;
%%%%%%%%%%%%L A P R U E B A%%%%%%%%
YSt=YS';
for i=1:ky
YpmnEX(i)=min(YSt(i,:));
YpmxEX(i)=max(YSt(i,:));
difEX(i)=YpmxEX(i)-YpmnEX(i);
for j=1:d2
YnormEX(i,j)=(YSt(i,j)-YpmnEX(i))/difEX(i);
end
end
UStr=US';
PB=sim(net,UStr);
for nn=1:ky
Ypmndb(nn)=min(Ypmn(nn),YpmnEX(nn));
Ypmxdb(nn)=max(Ypmx(nn),YpmxEX(nn));
difdb(nn)=Ypmxdb(nn)-Ypmndb(nn);
end
for j=1:ky
for k=1:d2
PBorigen(j,k)=(PB(j,k)*difdb(j))+Ypmndb(j);
end
109
end
PBorigentr=PBorigen';
%%%%%%%**************la prueba********%%%%%%%%%%%%%%%
u1s=ones(krs,1);
US2(:,ku+1)=u1s;
for k=1:kcoef
AS(:,k)=US2(:,npol1(k)).*US2(:,npol2(k));
end;
for k=1:ky
YS(:,k)=UYS(:,k+ku);
end;
YStr=YS';
for k=1:7
DYrn2(:,k)=(YS(:,k)-PBorigentr(:,k))./PBorigentr(:,k);
end;
[dymx,nymx]=max(DYrn2);
[dymn,nymn]=min(DYrn2);
sdy=std(DYrn2,1,1);
for k=1:ky
DYrn3(:,k)=(Ymit(:,k)-PBorigentrm(:,k))./PBorigentrm(:,k);
end;
[dymx,nymx]=max(DYrn3);
[dymn,nymn]=min(DYrn3);
sdy=std(DYrn3,1,1);
for k=1:ky
DYrn1(:,k)=(Y(:,k)-PBorigentr2(:,k))./PBorigentr2(:,k);
end;
[dymx,nymx]=max(DYrn1);
[dymn,nymn]=min(DYrn1);
sdy=std(DYrn1,1,1);
% Model parameters and errors
for k=1:ky
YES(:,k)=AS*X(:,k);
DYS(:,k)=(YS(:,k)-YES(:,k))./YES(:,k);
TMP(:,k)=YS(:,k)-YES(:,k);
end;
DSUMM=(DYS(:,2)-DYS(:,3)+DYS(:,4)+DYS(:,5)-DYS(:,6))/5; %Integral cryterion
[dymxs,nymxs]=max(DYS);
[dymns,nymns]=min(DYS);
sdys=std(DYS,1,1);
t=1:krs;
%
SECONDARY MODEL FORMATION AND APPLICATION
tc0=1700; dtc=700; kcc=2;
if tc0+dtc<krs
% verification of an existance of long export file
tc=tc0+1:tc0+dtc;
ic=1:dtc;
%nyc=1:kcc; ncc(nyc)=[1 2 3 4 5 6 7 8 9 10 11 12 13 14 15];
nyc=1:kcc; ncc(nyc)=[1 5];
YC(ic,:)=YS(tc,:)-YES(tc,:);
AC(ic,nyc)=AS(tc,ncc);
110
for k=1:ky
XC(:,k)=AC\YC(:,k);
YCE(:,k)=AC*XC(:,k);
DYC(:,k)=YC(:,k)-YCE(:,k);
end;
ASC(:,nyc)=AS(:,ncc);
for k=1:ky
DYESC(:,k)=ASC*XC(:,k);
YESC(:,k)=DYESC(:,k)+YES(:,k);
DYSC(:,k)=(YS(:,k)-YESC(:,k))./YESC(:,k);
end;
DCSUMM=(DYSC(:,2)-DYSC(:,3)+DYSC(:,4)+DYSC(:,5)-DYSC(:,6))/5;
end
t2=1:d11;
figure(2)
subplot(2,3,1);
plot(t2,DY(:,3),t2,DY(:,4),t2,DY(:,6)); %t,DYS(:,1),t,DYS(:,2),t,DYS(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Polinomios: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
subplot(2,3,2);
plot(t2,DYMTS(:,3),t2,DYMTS(:,4),t2,DYMTS(:,6)); %t,DYMTS(:,1),t,DYMTS(:,2),t,DYMTS(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Polinomios: Validacion');
legend('Tt','Tc','Pt');
grid on;
subplot(2,3,3);
plot(t,DYS(:,3),t,DYS(:,4),t,DYS(:,6)); %t,DYS(:,1),t,DYS(:,2),t,DYS(:,3),
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Polinomios: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
subplot(2,3,4);
plot(t2,DYrn1(:,3),t2,DYrn1(:,4),t2,DYrn1(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
subplot(2,3,5);
plot(t2,DYrn3(:,3),t2,DYrn3(:,4),t2,DYrn3(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Validacion2');
legend('Tt','Tc','Pt');
grid on;
111
subplot(2,3,6);
plot(t,DYrn2(:,3),t,DYrn2(:,4),t,DYrn2(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Validacion');
legend('Tt','Tc','Pt');
grid on;
PROGRAMA 3
clear;
kuy=11; ku=4; ky=7; kcoef=15; tk=273.15;
ntk=[2 7 8 10]; ktk=4;
npol1=[5 1 2 3 4 1 1 1 2 2 3 1 2 3 4];
npol2=[5 5 5 5 5 2 3 4 3 4 4 1 2 3 4];
d1=750; d2=4091;
d11=d1/2;
fid=fopen('export.txt','rt');
krs=-2;
while ne(1,feof(fid))
tmpline=fgets(fid);
krs=krs+1;
end;
fclose(fid);
% Measured parameter input
fid=fopen('export.txt','rt');
tmpline=fgets(fid); % skip line
tmpline=fgets(fid); % skip line
UYST=fscanf(fid,'%g',[kuy,krs]); % reading the U and Y information
fclose(fid);
% Matrix formation
UYS=UYST';
for k=1:ktk
UYS(:,ntk(k))=UYS(:,ntk(k))+tk;
end;
%UYS(:,8)=UYS(:,8)*sqrtt0./sqrt(UYS(:,2)); % Temperature correction
for k=1:ku
US(:,k)=UYS(:,k);
end
for i=1:150
USed(i,:)=US(i,:);
end
for j=1000:1100
USed(j-849,:)=US(j,:);
end
%UScomp=setdiff(US,USed,'rows');
for i=151:999
UScomp(i-150,:)=US(i,:);
end
for j=1101:4091
UScomp(j-251,:)=US(j,:);
112
end
for k=1:ky
YS(:,k)=UYS(:,k+ku);
end;
for i=1:150
YSed(i,:)=YS(i,:);
end
for j=1000:1100
YSed(j-849,:)=YS(j,:);
end
%UScomp=setdiff(US,USed,'rows');
for i=151:999
YScomp(i-150,:)=YS(i,:);
end
for j=1101:4091
YScomp(j-251,:)=YS(j,:);
end
.......ccccccccccffff.........entrenamiento con mitad de base de datos....................
nx=minmax(USed');
net=newff(nx,[8,7],{'tansig','logsig'},'trainbr');
net.trainParam.goal=0.000035;
net.trainParam.epochs=244;
net.trainParam.show=35;
Yt=YSed';
for i=1:ky
Ypmn(i)=min(Yt(i,:));
Ypmx(i)=max(Yt(i,:));
dif(i)=Ypmx(i)-Ypmn(i);
for j=1:251
Ynorm(i,j)=(Yt(i,j)-Ypmn(i))/dif(i);
end
end
[net,tr]=train(net,USed',Ynorm);
%simulacion uno.....................................
Utr=USed';
PB2=sim(net,Utr);
for j=1:ky
for k=1:251
PBorigen2(j,k)=(PB2(j,k)*dif(j))+Ypmn(j);
end
end
PBorigentr2=PBorigen2';
%simulacion dos.....................................
Ytmic=YScomp';
for i=1:ky
Ymdpmn(i)=min(Ytmic(i,:));
Ymdpmx(i)=max(Ytmic(i,:));
difmd(i)=Ymdpmx(i)-Ymdpmn(i);
for j=1:3840
Ynormd(i,j)=(Ytmic(i,j)-Ymdpmn(i))/difmd(i);
end
113
end
Umtr=UScomp';
PB2mit=sim(net,Umtr);
for j=1:ky
for k=1:3840
PBorigenm(j,k)=(PB2mit(j,k)*difmd(j))+Ymdpmn(j);
end
end
PBorigentrm=PBorigenm';
for k=1:ky
DYrn2(:,k)=(YSed(:,k)-PBorigentr2(:,k))./PBorigentr2(:,k);
end;
for k=1:ky
DYrn3(:,k)=(YScomp(:,k)-PBorigentrm(:,k))./PBorigentrm(:,k);
end;
t=1:251;
t2=1:3840;
figure(2)
subplot(1,2,1);
plot(t,DYrn2(:,3),t,DYrn2(:,4),t,DYrn2(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Entrenamiento');
legend('Tt','Tc','Pt');
grid on;
subplot(1,2,2);
plot(t2,DYrn3(:,3),t2,DYrn3(:,4),t2,DYrn3(:,6)); %t,DYrn1(:,1),t,DYrn1(:,2),t,DYrn1(:,3),
hold on;
xlabel('tiempo (horas)');
ylabel('Desviaciones');
title('Redes Neuronales: Validacion');
legend('Tt','Tc','Pt');
grid on;
114
ANEXO B.
PUBLICACIONES.
115
Instituto Politcnico Nacional, ESIME Culhuacn, Mxico, D.F., Av. Santa Ana, 1000, C.P. 04430
Telfono:(55) 5624 2000 ext.73254, E-mail: loboda@calmecac.esimecu.ipn.mx
I. INTRODUCCION
Las turbinas de gas han dominado en la generacin de
energa elctrica y lo seguirn haciendo por muchas
dcadas. Estas plantas de generacin de potencia se
caracterizan por un nivel elevado de potencia y altos costos
de combustible. Un monitoreo permanente en tiempo real
puede minimizar impacto econmico de un paro inesperado
o fallo. Algunas organizaciones han reportado un ahorro en
116
(vector U )
No
1
2
Nomenclatura
Gc
n tp
3
4
Ta
Pa
II. METODOLOGA
Las investigaciones de este artculo se aplicaron a una
instalacin de turbina de gas de dos rotores y de turbina de
potencia (motor turboeje con turbina libre). Se usa para
accionar un compresor centrfugo en tuberas de gas natural.
La instalacin fue presentada en las investigaciones por su
modelo termodinmico y una base de datos medidos durante
el mantenimiento. Las variables medidas en el conducto de
flujo se difieren en las de control y las monitoreadas. Segn
el proceso termodinmico en una turbina de gas, las
Nombre
Caudal de combustible
Velocidad de rotacin de la turbina de
potencia
Temperatura ambiental
Presin ambiental
Y0 = F0 (U ) .
(1)
Y)
No
1
2
3
4
5
6
7
Nomenclatura
n pa
Pc
Tt
Tc
Pt
Pt
n tpa
Nombre
dY =
*
Y * - Y0 (U )
(2)
Y0 (U )
117
(3)
Y = F (U , Q) .
Esta funcin es calculada como un sistema de
ecuaciones algebraicas que reflejan las condiciones del
trabajo conjunto de los componentes de la turbina de gas en
los regmenes estacionarios.
Para el uso del modelo (3) como funcin de referencia,
es necesario precisar el modelo con los datos del motor en
buenas condiciones, es decir encontrar la estimacin
r
Q = Q 0 que acerque el modelo al los datos. El modelo
(4)
Y 0 = F0 (U , Q 0 )
ser la funcin necesaria de referencia o modelo de
estado normal.
Aunque el uso directo del modelo complejo (4) en el
clculo de numerosas desviaciones parece demasiado
complicado. Debido a ello propusimos en [12] usar este
modelo para generar los datos de entrenamiento para otras
herramientas matemticas ms simples. El uso del modelo
A = ( U*U) -1 U *Y ,
+ c5 PaTa + c6 Pa ntp + c7 Pa Ga +
+ c8Ta ntp + c9Ta Gc + c10 ntp Gc +
C. Redes neuronales
Pn ( x) = a0 + a1 x + ....an xn =
(a x
k
k =0
5)
(10)
Y0.
Los polinomios de grado mximo n
(9)
B. Polinomios
(6)
118
119
III. RESULTADOS
ambas herramientas
contaminacin.
describen
igualmente
bien
la
710
0.25380
1
0.25854
2
0.06892
43
0.18040
2
0.10522
4
0.06809
14
0.12798
4
0.53751
7
0.23773
9
0.16020
9
0.05719
47
0.05682
94
0.34993
3
0.12122
1
0.51071
7
0.12048
2
0.07554
53
0.53259
6
0.09807
58
0.07666
8
3.86537
2.73437
0.11730
3
0.09478
15
0.12496
2
0.19406
4
0.11364
0.06473
76
0.1378
0.10090
8
Nmero de nodos NN
11
12
0.043294 0.04444
6
0.218773
0.060740
6
0.045355
0.085653
6
9
0.070359
0.041288
9
6
0.106783 0.044684
4
0.227283 0.156417
0.072853
5
0.146378
0.288374
0.78037
0.085725
2
0.053898
0.101054
0.054488
7
0.076694
5
0.045679
5
0.049382
7
0.050797
0.095511
4
0.039929
9
0.046107
5
0.040839
7
0.039153
1
0.053076
8
0.126915
0.066013
2
0.818928
0.038479
3
0.056096
9
0.121247
0.145849
0.098670
0.046750
0.048273
7
0.092927
1
0.878309
0.126256
0.076147
5
4.5855
0.091858
3
0.057125
3
0.066343
9
0.063449
0.165796
0.088610
2
0.054494
1
0.118214
0.057145
4
0.133177
0.045922
9
0.119061
0.068911
4
0.075958
6
16.5938
Nota:
120
13
0.206882
0.0863464
1.40216
0.0457762
0.397115
0.400441
0.0497931
0.1402626
0.120828
0.0882855
0.0789731
0.0461012
0.110234
0.0936413
0.0461464
0.14712
0.0397065
0.182618
0.114534
0.0617683
0.0591907
0.09824201
0.061816
0.81165
0.0533651
0.221868
0.0618592
0.0939929
0.0532404
0.135739
IV. DISCUCIONES
Despus de una serie de ensayos de la red neuronal
perceptrn multicapa variando el nmero de iteraciones
entrenamiento y de neuronas escondidas, nos hemos llegado
a los resultados prcticamente iguales a los de polinomios
computados por el mtodo de mnimos cuadrados. Eso
quiere decir que la funcin de referencia (una generalizacin
de las caractersticas de estrangulacin y las climticas) de
la instalacin analizada es relativamente simple, los
polinomios son suficientes para describirla y la herramienta
ms compleja, perceptron multicapa no puede realizar su
ventaja potencial de flexibilidad elevada.
Aunque el perceptrn multicapa) es un aproximador
universal de funciones tiene todava la desventaja del
conocimiento a priori del numero de nodos ocultos y de la
complejidad de su algoritmo de entrenamiento comparando
con el mtodo matricial de encontrar los coeficientes de los
polinomios.
As, los polinomios parecen ser una herramienta
adecuada para describir la funcin de referencia y calcular
las desviaciones en sistemas de monitoreo de turbinas e gas.
Sin embargo, esta conclusin es preliminar. La
investigacin conducida ha demostrado existen algunas
posibilidades del mejoramiento de la funcin de referencia
con redes neuronales. Tambin hay que extender la
comparacin ejecutada para una instalacin con turbina libre
en otros tipos de turbinas de gas.
V. CONCLUSIONES
As, la formacin de desviaciones, la cual presenta un
problema importante del diagnstico de turbinas de gas, ha
sido considerada en este artculo. La red neuronal perceptron
multicapa fue propuesta, realizada en Matlab y comparada
con polinomios para el clculo de las desviaciones.
La motivacin para realizar este trabajo fue que se
esperaba que la red neuronal pudiera aproximar mejor la
funcin de referencia porque la red tiene ms grados de
libertad.
Despus de realizar numerosas variantes de clculos y
grficas comparativas llegamos a la siguiente conclusin:
ambas herramientas comparadas tienen prcticamente la
misma exactitud sin embargo la red neuronal es una
herramienta ms compleja que un polinomio, por lo tanto
ser ms factible aproximar la funcin de referencia y
calcular las desviaciones con polinomios. Esta conclusin
necesita una comprobacin ms amplia y hay que continuar
las investigaciones en esa rea.
AGRADECIMIENTOS
Las investigaciones de este artculo han sido soportadas
por el Instituto Politcnico Nacional de Mxico (proyecto de
investigacin 20080974).
121
122
REFERENCIAS
1. Kacprzynski Gregory J., Michael Gumina, Michael J.
Roemer, Daniel E. Caguiat, Thomas R. Galie, Jack J.
McGroarty (2001). A prognostic modelling approach for
predicting recurring maintenance for shipboard propulsion
system. Proceedings of ASME Turbo Expo 2001, New
Orleans, LA USA, 7p.
2. Roemer Michael J., Kacprzynski Gregory J. (2000).
Advanced diagnostics and prognostics for gas turbine engine
risk assessment. IGTI/ASME Turbo Expo, May 8-11,
Munich, Germany, 10p.
3. Bryce Lord TransCanada Pipelines Ltd, Joshua Bennett
Idax Incorporated. Equipment health monitoring failure
mode characteristics case study. 17th National Petroleum
Show, Calgary, Canada June 12th to 15th, 2000, 25p.
4. Frank L. Greitzer, Lars J. Kangas, Kristine M. Terrones,
Melody A. Maynard, Bary W. Wilson, Ronald A.
Pawlowski, Daniel R. Sisk, and Newton B. Brown. Gas
turbine engine health monitoring and prognostics.
International Society of Logistics (SOLE) 1999 Symposium,
Las Vegas, Nevada, August 30 September 2, 1999, 7p.
5. H. I. H. Saravanamuttoo, B. D. MacIsaac,
Thermodynamic models for pipeline gas turbine diagnostics.
ASME Journal of Engineering for Power, 1983, Vol. 105,
pp.875-884 ASME Paper No.83-GT-235
6. Hans DePold, Jason Siegel, Allan Volponi, Jonthan Hull.
Validation of diagnostic data with statistical analysis and
embedded knowledge. IGTI/ASME Turbo Expo 2003, June
123
124
Instituto Politcnico Nacional, ESIME Culhuacn, Av. Santa Ana 1000, col. San Francisco Culhuacn,
Mxico, D.F. 044300
leydassss@yahoo.com.mx;
iloboda@ipn.mx;
ivan_t_a@yahoo.com.mx
RESUMEN
Para monitorear las variables medidas en el conducto de flujo de un motor de turbina de gas es necesario
describir el comportamiento del motor en buenas condiciones, es decir, determinar la funcin de referencia.
Las desviaciones computadas como diferencias entre valores medidos y valores de referencia pueden servir
como buenos indicadores de la calidad de esta funcin. En el artculo presente se estudian las redes
neuronales en la aplicacin a la funcin de referencia y se comparan con polinomios en la misma aplicacin.
Un modelo termodinmico del motor y una base de datos reales son fuentes de los datos para determinar y
verificar la funcin. A travs de esta funcin se calcularon las desviaciones para ambas herramientas, tanto
redes como polinomios, y se compararon las grficas de desviaciones para varias variaciones en las redes
aplicadas. El anlisis de todas las grficas ha demostrado que las redes, a pesar de de sus caractersticas
altas de aproximacin de datos, no pueden sobrepasar los polinomios en la descripcin del motor de turbina
de gas analizado.
1 INTRODUCCION
Las turbinas de gas son dispositivos mecnicos muy importantes para la economa del pas. Tienen una
infinidad de aplicaciones, por ejemplo: aviacin, generacin de energa elctrica, bombeo de petrleo y
compresin de gas natural.
Por la naturaleza y complejidad de los motores de turbina de gas resulta tardado y costoso detectar y
corregir alguna falla. Sin embargo, existen diferentes sistemas automatizados de monitoreo, los cuales
permiten detectar e identificar las fallas de turbina de gas en un tiempo reducido. De tal manera se puede
bajar drsticamente el nivel de fallos serios. El trabajo de los sistemas mencionados se basa en un
tratamiento diagnstico de los parmetros medidos en los motores de turbina de gas.
124
125
El presente trabajo analiza los parmetros medidos en el conducto de flujo de una turbina de gas, tales
como: temperaturas y presiones en el conducto de flujo, velocidades de rotacin y caudal de combustible.
Para analizar los parmetros medidos y concluir el estado del sistema por medio de este anlisis es
necesario compararlos con los valores de referencia de un motor en buenas condiciones despus de la
fabricacin o un mantenimiento. Estos valores dependen de las condiciones de operacin del motor. Por
ende para describir todas variables de referencia del motor en buenas condiciones se necesita una funcin
vectorial - funcin de referencia - que tiene el vector de las condiciones de operacin como argumentos. Las
diferencias entre los valores medidos y la funcin de referencia son conocidas como desviaciones. Estas
desviaciones por un lado cambian gradualmente a causa de diferentes mecanismos de degradacin de
turbinas de gas (por ejemplo, contaminacin de compresores), por otro lado son afectadas por errores de la
funcin misma. Por lo tanto las graficas de las desviaciones no slo demuestran los efectos de degradacin
sino tambin reflejan la calidad de la funcin de referencia.
En nuestros estudios previos [1-3] usamos la herramienta de polinomios para aproximar la funcin de
referencia necesaria. Dado que las redes neuronales artificiales son conocidas como aproximadores
perfectas, en este artculo se investigan las redes en la aplicacin a la funcin de referencia para el
diagnstico de un motor de turbina de gas. Durante la investigacin se analizan diferentes modificaciones de
la red y se comparan con los polinomios.
2 ENFOQUE UTILIZADO
Desviaciones
El objetivo del diagnostico paramtrico de turbinas de gas es realizar un monitoreo constante de los
parmetros medidos y en caso de una falla detectarla e identificarla ms pronto posible. La eficiencia de un
sistema automatizado de diagnstico depende en la mayor parte de la calidad de las desviaciones. Para una
variable medida y monitoreada Y * , la desviacin relativa puede ser calculada de acuerdo a la expresin
dY * =
Y * - Y0 (U )
(1)
Y0 (U )
donde el valor de referencia Y0 es una funcin del vector U de condiciones de operacin de una turbina de
gas. Las funciones individuales Y0 (U ) computadas para cada variable monitoreada se unen en la funcin
vectorial de referencia como se muestra en la siguiente ecuacin
Y0 = F (U ) = Y0 (U ) .
(2)
En los previos estudios usamos ampliamente la herramienta de los polinomios para formar la funcin (2) en
base de datos registrados de turbinas de gas durante su operacin. Se ha demostrado en [1] que los
polinomios completos del segundo orden describen satisfactoriamente el comportamiento de motores en
diferentes regmenes de operacin (puntos de operacin). Por lo tanto, los polinomios se emplean como la
base de comparacin en el anlisis de las redes neuronales presentado en este artculo.
125
126
Para una variable monitoreada la funcin de referencia, por ejemplo, de cuatro argumentos, se describe a
travs del polinomio completo del segundo orden como
(3)
Con motivo de presentar toda la funcin vectorial, podemos generalizar la expresin (3) en la forma
siguiente:
Y0* = V * A ,
(4)
donde Y0* es el vector rengln de variables monitoreadas de dimensin m, V * es el vector rengln kdimensional que une todos los componentes 1, u1 , u2 ,...u32 , u42 y la matriz A (km) incorpora los coeficientes
ai para todas m variables monitoreadas. Obviamente, el numero de ecuaciones m en el sistema lineal (4) no
es suficiente para estimar (mk) coeficientes desconocidos. A fin de obtener ms datos, involucramos en los
y U
correspondientes Y (nm) y V (nk). Con las matrices nuevas, la ecuacin (4) se transforma en
Y = VA .
(5)
Para estimar los coeficientes desconocidos de la matriz A se aplica el mtodo de mnimos cuadrados
(MMC). El MMC consiste en encontrar tales estimaciones que minimizan la suma de errores cuadrados
n
i =1
yij - Vi* A j .
j =1
(6)
Con la condicin de minimizacin, el sistema de ecuaciones lineales (5) tiene la solucin siguiente bien
conocida:
A = (V *V ) -1 V *Y .
(7)
Esta solucin del MMC requiere un exceso de los datos de entrada. Por consiguiente, tenemos que cumplir
la condicin (nm)>(mk) o n>k. La solucin (7) asegura errores aleatorios reducidos de las estimaciones si
comparar con la solucin
A = (V ) -1 Y
(8)
que se tiene para el caso n=k, cuando el nmero de ecuaciones se iguala al nmero de las variables
desconocidas.
126
127
Y0* = V * A .
(9)
Ahora con la expresin (9) se tiene un modelo de turbina de gas listo para aplicarse a cualquier punto de
operacin nuevo dado por el vector U (recuerde que V * se determina simplemente a travs de U ) y
computar el vector Y0* de las caractersticas de la turbina. A su vez, los valores conocidos Y0 permiten el
clculo de las desviaciones (1).
La siguiente herramienta para crear la funcin de referencia y la principal en la presente investigacin es la
llamada redes neuronales artificiales.
La funcin de referencia (4), adems de encontrarse por medio de polinomios tambin se puede aproximar a
travs de una red. Aunque en el pasado las redes neuronales artificiales tenan el objetivo general de un
procesamiento de nivel ms bajo, por ejemplo, reconocimiento de patrones e inteligencia artificial; existen
teoremas [4] que demuestran que redes como el perceptron multicapa y la red de base radial, puedan
aproximar varias funciones matemticas.
Para el presente estudio hemos recogido el perceptrn multicapa que se entrena con el algoritmo de
retropropagacin. La estructura de la red utilizada se muestra en la figura 1. Como podemos ver, es una red
neuronal con 3 capas: La primera es la capa de entrada donde cada seal es un elemento del vector U de
las condiciones de operacin de turbinas de gas. A su vez, las salidas de estas se propagan con los pesos
de la matriz W1 hacia la capa oculta que se activa con una funcin sigmoide de transferencia. De manera
semejante las salidas de la capa oculta se propagan con los pesos de la matriz W2 a los nodos de salida.
En ellos se suman y a travs de la funcin de transferencia forman las seales de salida, elementos del
127
128
El algoritmo que entrena a la red neuronal se basa en la biologa de humanos donde la memoria a corto y
largo plazo est asociada con las fuerzas entre las clulas presinapticas y postsinapticas. De esta manera
tenemos que ir modificando los valores de los pesos hasta que mediante el procesamiento no lineal (o lineal)
de cada capa obtengamos el valor deseado de la salida Y0 . El desarrollo del algoritmo de retropropagacin
para el entrenamiento del perceptron ha impulsado una difusin amplia de esta red. El objetivo del
entrenamiento de retropropagacin es encontrar tales valores de todos pesos que minimizan la diferencia
(error promedio e) entre las salidas deseadas de la red y las actuales para todos los datos de la muestra de
entrenamiento. Esta muestra consta de los mismos datos que las matrices V y Y usadas para calcular los
coeficientes de polinomios. De este punto de vista podemos tratar el entrenamiento como el problema de la
minimizacin de la funcin e( W1 , W2 ) en el espacio multidimensional de todos los pesos desconocidos.
Ambas herramientas descritas arriba, tanto la red entrenada como el polinomio con los coeficientes
determinados, tienen que someterse a pruebas en datos diferentes de los de entrenamiento.
Primero, se forma la muestra de validacin en la base de estos datos. Segundo, para todos los datos de la
muestra se calculan dos series de las desviaciones, una con los polinomios y la otra con las redes. Tercero,
se grafican en paralelo ambas series contra el tiempo de operacin. En estas grficas podemos considerar
los errores aleatorios en las desviaciones en el fondo de los cambios sistemticos causados por la
contaminacin del compresor. Debido a que los errores dependen primeramente de la adecuacin de la
funcin de referencia, pueden ser buenos indicadores de la calidad de la funcin. Por ltimo, se comparan
estas dos grficas correspondientes a los polinomios y las redes para concluir sobre la utilidad de las redes.
128
129
La seccin siguiente describe las condiciones de los clculos para formar y probar las funciones de
referencia basadas en los polinomios y las redes.
3 CONDICIONES DE CALCULOS
La investigacin del presente artculo se aplic a un motor de turbina de gas de dos ejes y de turbina libre de
potencia. El motor se aplica para accionar un compresor centrfugo de gas natural. Las tablas 1 y 2
describen las variables medidas en este motor.
Nomenclatura
Nombre
npa
Pc
Tt
Tc
Pt
Pt
ntpa
Nomenclatura
Nombre
Gc
Caudal de combustible
ntp
Ta
Temperatura ambiental
Pa
Presin ambiental
El motor fue presentado en el artculo por su modelo termodinmico y una base de datos medidos en campo.
El conjunto de los vectores U e Y 0 obtenidos con el modelo en 330 puntos de operacin del motor
constituye una variacin de la muestra de entrenamiento. Otra variacin incluye datos reales de la base. La
muestra de validacin se compuse slo con los datos reales. La muestra incluye 4096 puntos de operacin
(porciones de datos) registradas cada hora durante un ao de operacin. El registro cubre dos periodos de
contaminacin del compresor con un lavado entre ellos.
129
130
4 MODIFICACIONES ANALIZADAS Y SUS RESULTADOS
En el artculo [3] empezamos a aplicar el perceptron multicapa para describir el comportamiento de turbinas
de gas. Hemos encontrado que el percepron tiene prcticamente la misma exactitud, sin embargo pero
nunca sobrepasa los polinomios en la descripcin de las turbinas de gas. Hemos llegado tambin a la
conclusin que el algoritmo de entrenamiento con mejores resultados fue el de retropropagacin bayesiana y
en el presente artculo continuamos trabajando con el mismo algoritmo. Para encontrar las ptimas
condiciones para la red seleccionada, hemos elaborado en Matlab ocho modificaciones nuevas del algoritmo
bsico de clculo de la funcin de referencia y las desviaciones. En estas modificaciones se cambian las
tcnicas de preprocesamiento de los datos de entrenamiento y las funciones de transferencia usadas, as
como se aplica la opcin de entrenamiento parada temprana (early stopping) y los datos reales para la
muestra de entrenamiento. A continuacin se detallan las modificaciones:
Modificacin 1. En el algoritmo bsico usado en [3] los datos de la salida de la red se normalizan dentro del
rango (0,1) ya que la funcin de transferencia logsig se cambia dentro del mismo rango. La modificacin
actual consiste en la normalizacin dentro del rango reducido (0.1, 0.9) para mejorar la aproximacin de los
datos de entrada.
Modificacin 2. En lugar de la funcin logsig se aplica la funcin purelin la cual cambia linealmente y no
tiene lmites. La normalizacin de los datos dentro del rango (0,1) se conserva como en el algoritmo bsico.
Modificacin 3. Se aplica la funcin purelin pero los datos de la salida de la red no se normalizan.
Modificacin 4. Se aplica la funcin bipolar tansig que se vara dentro de los lmites (-1,1). Los datos se
normalizan dentro los mismos lmites.
Modificacin 5. Se aplica la funcin tansig pero los datos se normalizan dentro del rango reducido (0.9,0.9).
Modificacin 6. Se introducen nodos adicionales llamados umbrales en adicin a las matrices de pesos W1
y W2 . El aumento del nmero total de pesos significa una flexibilidad mayor de la red y un mejoramiento
potencial de la aproximacin de los datos.
Modificacin 7. El algoritmo bsico emplea una sola muestra de entrenamiento. La modificacin actual
aplica la opcin del entrenamiento conocida como parada temprana (Early Stopping). Esta variacin consiste
en entrenar la red con dos muestras; una para entrenar la red y otra para verificarla dentro del mismo
proceso de entrenamiento. Para poder aplicar este algoritmo la muestra de entrenamiento original de 330
porciones de datos fue dividida en dos fragmentos iguales de 165 porciones. Las matrices de pesos W1 y
W2 se obtienen en los datos del primer fragmento y el entrenamiento termina cuando empieza a crecer el
130
131
Hay que mencionar que en las modificaciones 1-6 slo cambiamos el clculo de las redes dejando el
cmputo de los polinomios y las desviaciones correspondientes sin correcciones. Sin embargo, las
modificaciones 7 y 8 relacionadas con variaciones en los datos de entrenamiento influyen al clculo de
ambas herramientas.
La figura 2 muestra los resultados obtenidos para la Modificacin 1 del algoritmo de clculo de la funcin de
referencia y las desviaciones. Se dan las desviaciones obtenidas con tanto los polinomios como las redes
neuronales y aplicadas a los datos de la muestra de entrenamiento y la de validacin. Para estos cuatro
casos el formato de grficas es el mismo: desviaciones de tres variables monitoreadas especificadas en la
Tabla 1 contra el tiempo de operacin t. Se puede considerar las desviaciones de la parte izquierda de la
figura como errores de aproximacin de los datos de entrenamiento por las herramientas correspondientes.
Podemos ver que las redes tienen los errores algunas veces ms grandes. La parte derecha presenta el de
las desviaciones computadas con los datos de validacin. Para la opcin de polinomios, podemos ver
tendencias claras del cambio gradual de las desviaciones a causa de la contaminacin del compresor y un
cambio brusco en el punto del lavado t = 920 horas. Con respecto a las redes, sus desviaciones tienen
fluctuaciones elevadas y capaces de esconder a veces los efectos de la contaminacin.
En la figura 3 se dan las grficas de desviaciones para todas ocho modificaciones analizadas. Para cada
modificacin, slo resultados de la aplicacin de las redes neuronales a los datos de entrenamiento son
presentados. Comparando las graficas de diferentes modificaciones podemos constatar lo siguiente: 1) la
calidad de las desviaciones (relacin "seal sistemtico - ruido") para la Modificacin 5 es aproximadamente
la misma que la de la Modificacin 1; 2) en las Modificaciones 1, 4 y 6 baja la calidad; 3) las Modificaciones
3, 7 y 8 tienen la peor calidad de las desviaciones (las fluctuaciones aleatorias prcticamente esconden los
efectos sistemticos de la contaminacin). Al comparar las figuras 2 y 3, se puede agregar que en ninguna
modificacin del algoritmo las redes sobrepasan los polinomios.
De otras grficas no presentadas en este artculo tambin podemos concluir que en la muestra de
entrenamiento los polinomios siempre tenan mejor exactitud.
CONCLUSIONES
As, en este artculo ha sido considerado el anlisis de las redes neuronales en comparacin con los
polinomios en la misma aplicacin a la descripcin de turbinas de gas. La motivacin para realizar este
trabajo fue que se esperaba que la red neuronal pudiera describir mejor el comportamiento de los motores
porque las redes potencialmente tienen mejor flexibilidad.
La red neuronal perceptron multicapa fue propuesta y analizada. A travs de ambas herramientas, las redes
y los polinomios, fue realizado en Matlab el clculo de la funcin de referencia y las desviaciones para las
variables monitoreadas de un motor de turbina de gas. Las redes fueron estimadas por el medio de las
grficas de las desviaciones construidas para ambas herramientas.
Despus de realizar numerosas modificaciones del clculo mencionado y analizar para todas las
modificaciones las grficas comparativas, llegamos a la siguiente conclusin: la red seleccionada no puede
sobrepasar los polinomios en la exactitud de la descripcin del comportamiento del motor analizado.
Adems, la red neuronal es una herramienta ms compleja en su uso que un polinomio. Estas conclusiones
comprueban los resultados de comparaciones previas de las herramientas para describir parmetros de
131
132
turbinas de gas. Sin embargo, tenemos que continuar estos estudios ya que se tiene la informacin que las
redes neuronales artificiales describen perfectamente el comportamiento de las plantas de potencia ms
complejas, tales como las del ciclo combinado.
AGRADECIMIENTOS
Las investigaciones de este artculo han sido soportadas por el Instituto Politcnico Nacional de Mxico
(proyecto de investigacin 20091273).
REFERENCIAS
1. Loboda I., Yepifanov S., Feldshteyn Y. Deviation problem in gas turbine health monitoring, Proceedings of
IASTED International Conference on Power and Energy Systems (PES-2004), Clearwater Beach, Florida,
USA, pp. 335-340.
2. Loboda I., Yepifanov S., Feldshteyn Y. Diagnostic analysis of maintenance data of a gas turbine for driving
an electric generator, ASME Turbo Expo 2009: International Technical Congress Power for Land Sea &
Air, Orlando, Florida, USA, June 8-12, 2009, 12p., ASME Paper No. GT2009-60176.
3. Villarreal Gonzlez C. F., Loboda I., Trahyn Amescua I. K. Aplicacin de las redes neuronales en modelo
de estado normal para el diagnstico de turbinas de gas, Memorias del 5to Congreso Internacional de
Ingeniera Electromecnica y de Sistemas, ESIME, IPN, Mxico, D.F., 10-14 noviembre de 2008, 6p,
ISBN 978-607-414-049-1.
4. Bonifacio Martn del Bro, Alfredo Sanz Molina. Redes neuronales y sistemas difusos. Alfaomega Grupo
Editor, Mxico, 2001, 399p.
132
133
133
134
Fig.3. Desviaciones de todas las Modificaciones 1-8. Redes neuronales aplicadas a los datos de
entrenamiento.
134
135
UDK 621.43.004.62
IGOR LOBODA*, YAKOV FELDSHTEYN**,
CLAUDIA FERNANDA VILLARREAL GONZLEZ*
*National Polytechnic Institute, School of Mechanical and Electrical Engineering, Mexico
**Compressor Controls Corporation, USA
DIAGNOSTIC ANALYSIS OF GAS TURBINE HOT SECTION
TEMPERATURE MEASUREMENTS
Temperatures measured in a hot section of gas turbines are very important for a gas path analysis. A
suite of parallel thermocouples are usually installed in the same gas path station in order to compute
a filtered and averaged temperature quantity for its further use in control and diagnostic systems.
However, in spite of the preliminary treatment, the resulting quantity is not completely free from
errors. To eliminate or reduce the errors, the present paper analyzes anomalies in the behaviour of
each thermocouple of an industrial gas turbine engine. To that end, time graphs of both measured
magnitudes themselves and their deviations from reference magnitudes are plotted. In order to draw
sound conclusions, the analysis is conducted on a large volume of the data collected for three
particular engines.
Key words: gas turbine, gas path analysis, thermocouples, field data, temperature recording errors.
135
136
Nomenclature
Abbreviations
Measured value
EGT
GPA
max
Maximum value
HPT
med
Mean value
PT
Power turbine
Temperature
PTT
Total value
T_PT
1. Introduction
Scalar parameters and vectors
dTpt
dTt
Maximal deviation
d0
Signal-to-noise ratio
dY
time)
e
e1 , e 2 , e 3
136
137
to be very informative diagnostic parameters
[1,2,8]. Life usage algorithms of the hot section,
which is the most critical part of the engine, also
employ these temperatures [10]. In such
applications, the gas temperature in each hot
section measurement station is commonly
computed by averaging the data of particular
thermocouple probes. However, temperature
profiles contain additional valuable information
on the performances of a burner and turbines. For
this reason, gas temperature profile monitoring [3]
became an integral part of modern diagnostic
systems.
As noted in many papers, for example, in [5],
thermocouple probes as well as other gas path
sensors can deteriorate with time or present abrupt
malfunctions. Such errors can be significant and
impact on control and diagnosis techniques. That
is why it is desired that the techniques take into
account possible errors in input information.
Sensor fault accommodation procedures,
which mitigate a negative effect of sensor errors
on a control system and allow the control to be
tolerant to them, are proposed [for example, 7].
With respect to the diagnostic techniques,
some options are considered to take into
consideration possible sensor errors and faults. A
sensor-fault-tolerant diagnosis tool is proposed
[6]. Another option is the multipoint method
described for instance in [5]. It compensates a
sensor error impact by increasing input
information through data collection in many
different operating points. Additionally, many
GPA techniques of today detect and identify
sensor faults [see, for instance, 4,5,6], thus
extending
traditional
engine
component
diagnosis over a gas path measurement system.
138
the deviations has been found to be a good
procedure to detect and localize sensor problems.
dY =
*
Y * - Y0 (U )
(1)
Y0 (U )
139
A difference e S = dY * - dY can be considered
as an error. If we designate the maximum
deviation dY as d 0 , the signal-to-noise ratio
d 0 = d 0 s (e S ) ,
(2)
(3)
139
140
141
random errors of the deviations dTt1 and dTt2
over the whole analyzed period can be induced by
greater noise of the first and second EGT probes.
The dTt1 fluctuations in the time interval 1900 2600 are probably results of frequent incipient
faults of the first probe. Large dTt7 spikes near the
time point t = 4900 can certainly be considered as
consequences of great single faults of the seventh
probe. However, deviation shifts around the point
t = 3351 present the most interest for the current
analysis. The shifts look like a washing result but
they have opposite directions. This case will be
considered in section 4.3.
Let us now consider the PTT deviations
plotted in Fig.3. Comparing this figure with Fig.2,
one can see that the behaviours of new and
previous deviations are different. The PTT
deviations of particular probes seem to be very
similar. All of them properly reflect the fouling
and washings as well as have shifts at the time
point t = 3351. Only small anomalies of each
particular deviation can be detected. That is why
the deviations of mean temperature dTptmed look
like deviations of each particular probe. The
conclusion can be drawn from this analysis that
the thermocouple probes installed behind the
power turbine (PT) have more stable
performances than the probes behind the high
pressure turbine (HPT). This may be explained by
a higher HPT temperature level.
141
142
142
143
143
144
3.3. Direct Temperature Analysis
It is also useful to compare the deviations of
mean EGT and PTT quantities. As can be seen in
Fig.2 and Fig.3, behaviours of the deviations
dTtmed and dTptmed are different. Although these
figures are not sufficient to conclude what
deviation is better in a diagnostic sense (for
example, on the basis of the signal-to-noise ratio
(2)), this issue has been investigated in [2]. In
spite of more reliable PTT probes, the conclusion
was drawn that general quality of the EGT
deviations is slightly higher.
Detailed deviation analysis performed for all
three engines has also demonstrated that, in
addition to the mentioned case at the point 3351,
there can be other irregularities in deviations of
particular probes that can not be explained by
probe faults. The shifts induced by the washings
give an example of such irregularities. They
should be equal but can indeed differ by 30%. We
may see this effect by comparing the dTt5 and
dTt9 shifts induced by the second washing on
engine 1 (Fig.2, t = 1916) or the dTpt1 and dTpt6
displacements due to the first washing (Fig.3, t =
803). Other irregularity case can be seen in Fig.2
at the point 1380. Some deviations (for example,
dTt11) are positively displaced at this point while
some others have negative shifts or no changes
(see the deviation dTt4).
145
145
146
146
147
Table 1: Averaged characteristics of
thermocouple probes
Engine
Dt
e T max
D T max
EGT
800
4.0
100
PTT
490
1.5
20
1024526
EGT
720
2.0
100
PTT
475
1.5
17
1-4621
EGT
700
2.0
70
PTT
465
1.5
18
Gas
temperature
1
74-4914
147
148
4.1. Single Outliers
Although the database data were filtered and
averaged before recording, some cases of
single thermocouple probe faults have been
found. Graphs (a) and (b) in Fig. 6 illustrate
them. Observing two 25% spikes in graph (a)
and a 50% spike in graph (b), we can conclude
with no doubt that they are results of faults of
the corresponding EGT probes: the seventh
probe of engine 1 and the first probe of engine
3. We can also see that such large outliers are
easily detectable and the used filtering
algorithm should be modified to exclude them.
Opposite spike directions in the graphs
probably indicate different thermocouple fault
origins.
A greater number of small outliers have
been revealed as well. Graph (c) in Fig. 6, where
EGT measurements for engine 1 are shown,
helps to demonstrate these hidden errors. As
can be seen here, two abnormal shifts in probe
10 data are distinguishable against common
regular behaviour of the other probes. These
small outliers of 10 degrees (1.5%) hardly
exceed a normal noise level. Consequently, it
will be more difficult to automatically detect
and exclude them.
148
149
a)
b)
d)
c)
Fig. 6. EGT probes' errors ( a) single gross errors, engine 1 ; b) single gross errors, engine 3;
c) single small errors, engine 1; d) correlated small anomalies, engine 3)
149
150
The next case to analyze is related with the
influence of a power plant operating point on
EGT and PTT profiles.
4.2. Anomalies induced by operating
condition changes
Any considerable change of engine
operating conditions (power set parameter
above all) causes the corresponding shift of hot
section
temperatures.
Such
significant
temperature changes, in their turn, can
potentially give new information on the
behaviour of particular probes in different parts
of a total measurement range.
The available EGT and PTT data have been
observed to find out interesting cases of
operating condition influence. Two revealed
cases are presented by graphs (a) and (b) in
Fig.8. In the left part of graph (a), a mean EGT is
maintained at the approximately constant level
of 730C, then the temperature level is rapidly
reduced up to 585C, and finally it is recovered
to 755C in the right part. A mean PTT in graph
(b) behaves in a similar manner.
150
151
a)
b)
Fig. 7. Influence of engine operating point
( a) EGT, engine 1; b) PTT, engine 2)
151
152
These common and large temperature variations are accompanied by small but visible changes of the
measurement distribution inside of a total spread DT . For example, it can be seen in graph (a) illustrating
EGT probe behaviour that in the left and right parts of the graph the curve of probe 1 is situated higher
than the curve of probe 5. However, in the central part, where temperatures are reduced, the curves'
positions are apposite. As a result, relative curve positions have been changed by 30C or 4.5%.
Other example can be seen in graph (b), where PTT probe curves are presented. Before the point t =
339.5, where the temperature level drops, the third probe occupies the highest position among all probes.
It goes to the lowest position then and finally almost comes back to its highest position after the point t =
340.5, when a temperature level is partly recovered. In this example, the curve position of probe 3 has
been changed by 15C (3.3%) relatively a mean temperature T_PT.
The described distortions in the distribution of thermocouple probe data can not be classified as
random thermocouple errors because the anomalies are obviously related with operating condition
changes. Other possible interpretation implies a systematic probe error that varies due to temperature
magnitude variations. However, this error as well as a total error should be within the limit 1% for
thermocouples in good condition. So, a variable systematic error may only be responsible for a part of the
4% measurement distortion that is why another explanation should be added. As a result of the
performed analysis, the next explanation is accepted as principle: the profile of real temperatures slightly
varies with the change of operating conditions.
Now we revert to the mentioned above case of engine 1 deviation shifts at the time point t = 3351.
To make clear this case, direct temperature measurements will be studied in the next section on the basis
of the same temperature graphs as analysed in subsections 4.1 and 4.2.
152
153
b) At this point, shifts of opposite directions are also observable in most of particular deviations dTti of
EGT probes (see Fig.2). PTT deviations dTti are synchronously shifted at the same point (Fig.3).
c) A measurement distribution between EGT probes is perturbed at the same point and a new
temperature profile is then conserved constant.
Taking into account all this information, we think that there is no unique explanation for the studied
case and the following interpretation, which includes some probable causes, is proposed. It seems to us
that the engine has undergone an unplanned service work including some actions. A part of them, for
example, unplanned compressor washing, could return gas path temperatures and pressures to their
healthy engine values. The others, for instance, clogged fuel nozzles washing or thermocouples
recalibration, could change the EGT measurement profile. This explanation of the analyzed case is
supported by the fact that the engine was out of operation 42 calendar days before the mentioned
operating time point.
The results obtained by thermocouple probe data analysis and the perspectives of their applications
are discussed in the following section.
153
154
5. Discussions
A primary visual analysis of gas temperature measurements has been conducted in two previous
sections. It needs some clarification and generalization and three issues are additionally discussed below:
a) quality of the measurements, b) perspectives of gas temperature profile monitoring, and c)
effectiveness of the present visual temperature analysis.
Gas temperature measurement quality depends on thermocouple accuracy and reliability and can
correspondingly be assessed by a noise level e T max and a number of error cases revealed. Coming back to
Table 1, we can see that EGT and PTT probes have approximately equal accuracy levels for all engines
excepting engine 1, which has a two times worse EGT accuracy. It is also worth to repeat the statement
made in subsection 3.3 that the measurements of all considered engines are equally exact with the same
exception.
As to the probe reliability, the probe fault cases have been revealed in EGT data only and the most of
them correspond to engine 1. Summing up the discussion on common measurement quality, we can state
that the EGT measurements are a little worse than PTT ones and engine 1 temperature measurements are
the worst among three engines under analysis.
The deviation curves of Fig.2 help to indicate particular probes that are responsible for low quality of
engine 1 EGT measurements. Elevated fluctuations in the deviations dTt1 and dTt2 point at elevated errors
of probes 1 and 2. Moreover, it can be seen that the deviations of probes 1, 2, 9, and 11 differ from the
other deviations in the reflection of compressor fouling and washings. Specific behaviour of the deviations
of the enlisted probes can also be explained by elevated measurement errors of these probes: erroneous
data included in reference sets could result in inadequacy of the corresponding reference functions and
abnormal behaviour of the deviations.
Perspectives of monitoring of EGT and PTT profiles are the next issue to be discussed. It can be seen
in Fig.4 and Fig.5 and it is typical for all analysed data that, in general, measurements of particular
thermocouple probes change synchronously. This means that the configuration of temperature profiles
behind the HPT and PT is altered a little by variations of engine operating conditions. It is a good promise
for performing effective temperature profile monitoring. The hypothesis that the EGT profile has been
changed at the point t = 3351 due to the service work carried out is an additional confirmation of profile
monitoring utility: since the profile varies because of the supposed fuel nozzle washing, it is also sensible
to nozzle clogging. One more proof of EGT profile sensibility to hot section faults is that the EGT profile
nonuniformity is, in average, five times higher than the PTT nonuniformity (see to the parameter DT in
Table 1). For these reasons, the monitoring of the EGT profile seems to be more effective than the PTT
profile monitoring.
In any case, it will be a challenge to create effective profile monitoring algorithms. Such algorithms
should be sophisticated enough in order to reliably distinguish four situations: normal probe noise, probe
faults, normal temperature profile variations (random or systematic), and profile changes due to hot
section faults (gradual or abrupt). If the faults have been detected, their correct identification is desirable
as well.
154
155
However, an effective fault detection and identification will not come easily. The temperature profile
monitoring may become complicated because, as determined in subsection 4.2, variable operating
conditions can change a little the profile. Moreover, as shown in subsection 4.1, slight random profile
variations are also possible. As a result, we could not always give a unique explanation for the
measurement anomalies analyzed in the present paper and we sometimes supposed both hot section
faults and sensor errors.
Having mentioned the uncertainty in our explanations, it is the moment to discuss the last issue effectiveness of the present gas temperature analysis on the basis of deviation and temperature plots. The
used graphical tools were useful for determining common characteristics of thermocouple probe
behaviour such as a level of normal measurement noise. It is worth to mention that the used graphs have
allowed a direct noise estimating for each engine on its real data. The graphical tools also helped to detect
many interesting cases of measurement anomalies and to get convincing explanations for a part of them.
These tools were useful in the interpretation of the other cases although some uncertainty remained. To
better explain these cases, additional tools are required, including statistical treatment of temperature
measurements. Such tools should be able to determine individual signatures for each of the enlisted above
four situations to be recognized. If that is the case and such signatures are available, the development of
effective algorithms for temperature profile monitoring will be only the matter of time. Proceeding with
the present analysis, we plan to apply new tools to analyze thermocouple probe measurements in order to
determine the basis of effective temperature profile monitoring.
Conclusions
In the present paper, the analysis has been performed of gas temperature measurements by
thermocouple probe suites installed behind the HPT and PT. Field data of a power plant for generating
electricity were attracted. In order to find out and analyse cases of abnormal measurement behaviour,
both temperature deviations and temperature themselves were plotted and tracked for all probes
mounted in a power plant hot section. In order to thoroughly study thermocouple measurements and
draw sound conclusions on measurement behaviour, the temperature analysis was performed on the data
recorded on three particular engines during one year of their operation. This off-line analysis of historic
data yielded important diagnostic information about possible thermocouple faults and hot part
malfunctions. The analysis allowed estimating some characteristics of normal thermocouple probe behaviour
and revealed a number of cases of probe data abnormalities. The cases that are the most interesting from a
diagnostic point of view were explored in detail and explanations were given for them. For example, some
sensor malfunctions were discovered. It was also revealed that gas temperature profiles have, in general, a
stable form although it can be slightly altered by variations in engine operating conditions. A greater
importance of EGT profile monitoring was shown as well. In general, we think that the paper can
contribute in the development of effective algorithms for temperature profile monitoring. In addition to
the analysis performed and conclusions drawn, the detailed graphs of the paper may give new useful
information for experienced gas turbine analysts and performance engineers.
The visual thermocouple data analysis conducted in the paper has demonstrated its general
effectiveness; we have rapidly tracked a lot of information and studied many interesting cases. However,
155
156
we could not find a unique correct explanation for some of them. The point is that the displays of hot
section faults and hidden sensor malfunctions can be vary similar.
The present paper can only be considered as the first attempt to analyze thermocouple data. The
visual qualitative analysis performed should be accompanied by quantitative estimations. If there is no
simple way to achieve higher measurement accuracy, we need to better distinguish between hot
section and sensor problems. That is why we are thinking about other advanced graphical tools and
statistical methods to be applied to the gas turbine thermocouple data.
Acknowledgments
The work has been carried out with the support of the National Polytechnic Institute of Mexico
(research project 20091273).
156
157
References
1. Loboda I. Deviation problem in gas turbine health monitoring / I. Loboda, S. Yepifanov, Y. Feldshteyn .
Proc. IASTED International Conference on Power and Energy Systems, USA, 2004. 6p.
2. Loboda I. Diagnostic analysis of maintenance data of a gas turbine for driving an electric generator /
I. Loboda, S. Yepifanov, Y. Feldshteyn . Proc. ASME Turbo Expo 2009: International Technical Congress
Power for Land Sea & Air, Orlando, Florida, USA, 2009, 12p.
3. Tsalavoutas A. Combined advanced data analysis method for the constitution of an integrated gas
turbine condition monitoring and diagnostic system / A. Tsalavoutas, K. Mathioudakis, N. Aretakis, A.
Stamatis. Proc. ASME Turbo Expo 2000, Munich, Germany, 2000. 8p.
4. Romesis C. Setting up of a probabilistic neural network for sensor fault detection including operation
with component fault / C. Romesis, K. Mathioudakis // Journal of Engineering for Gas Turbines and Power.
2003. Vol. 125, Issue 3. pp. 634-641.
5. Kamboukos Ph. Multipoint non-linear method for enhanced component and sensor malfunction
diagnosis / Ph. Kamboukos, K. Mathioudakis. Proc. ASME Turbo Expo 2006, Barcelona, Spain, 2006. 9p.
6. Borguet S. A sensor-fault-tolerant diagnosis tool based on a quadratic programming approach / S.
Borguet, O. Leonard. Proc. ASME Turbo Expo 2007, Montreal, Canada, 2007. 10p.
7. Randal T. R. Integrated in-flight fault detection and accommodation: a model-based study / T. R.
Randal, K. F. Goebel, N. H. Eklund, B. J. Brunell. Proc. ASME Turbo Expo 2005, Reno-Tahoe, Nevada, USA,
2007. 9p.
8. Mathioudakis K. Assessment of the effectiveness of gas path diagnostic schemes / K. Mathioudakis, Ph.
Kamboukos // Journal of Engineering for Gas Turbines and Power. 2006. Vol. 128, Issue 1. pp. 57-63.
9. J. C. Hernandez Gonzalez. Development of normal state model for gas turbine performance monitoring
/ J. C. Hernandez Gonzalez, I. Loboda, C. De La Cruz Alejo. Memorias del 3er Congreso Internacional de
Ingenieria Electromecanica y de Sistemas, Mexico, 2002. pp. 243 246.
10. Benvenuti E. Innovative gas turbine performance diagnostics and hot parts life assessment
techniques / E. Benvenuti. Proceedings of the Thirtieth Turbomachinery Symposium, Texas A&M University,
Houston, Texas, USA, 2001. pp.23-31.
11. Fairbairn G.W. Performance testing and monitoring of compressor units / G.W. Fairbairn, J.R. Nisbet,
I.C. Robertson. Proc. 52nd Autumn Meeting of the Institution of Gas Engineers, London, England, 1986. 32p.
12. Bryce L. Equipment health monitoring failure mode characteristics case study / L. Bryce, Bennett J.
17th National Petroleum Show, Calgary, Canada, 2000. 25p.
157