Beruflich Dokumente
Kultur Dokumente
142
143
Parece que existen bastantes estrategias claras sobre como cambiar las fuerzas en la direccin
correcta, mientras que los cambios en las interconexiones son mas difciles de definir, porque
suelen tener efectos radicales en el comportamiento de la red, especialmente en lo concerniente a
la operacin secuencial y las funciones jerrquicas.
6.2.1.2. Aplicaciones
Las redes neuronales forman una teora computacional emergente que puede utilizarse en gran
nmero y variedad de aplicaciones. Se pueden desarrollar redes neuronales en un periodo de
tiempo razonable y pueden realizarse tareas concretas mejor que con otras tecnologas
convencionales, incluyendo los sistemas expertos. Cuando se implementan mediante hardware
(redes neuronales con chips VLSI), presentan una alta tolerancia a fallos del sistema y
proporcionan un grado de paralelismo en el proceso de datos muy grande. Esto hace posible
insertar redes neuronales de bajo coste en sistemas existentes y recientemente desarrollados.
Hay muchos tipos diferentes de redes neuronales, cada uno de los cuales tiene una aplicacin
particular ms apropiada. A continuacin se muestran algunos ejemplos
obtencin de modelos de retina (Biologa)
identificacin de candidatos para posiciones especficas (Empresa)
previsin del tiempo (Medio ambiente)
valoracin del riesgo de los crditos (Finanzas)
identificacin de falsificaciones (Finanzas)
inspeccin de calidad (Manufacturacin)
control de produccin en lneas de proceso (Manufacturacin)
lectores de rayos X (Medicina)
clasificacin de las seales de radar (Militar)
creacin de armas inteligentes (Militar).
Este trabajo est enfocado hacia el campo de reconocimiento de patrones, es decir, se introducen
una serie de variables de entrada (intensidad, velocidad,...) y se obtienen varias variables de
salida como por ejemplo la tensin inducida en una lnea. Sern estas variables de salida las que
tendrn que ser estimadas en la fase de aprendizaje de la red neuronal. Para este estudio se
emplear el modelo de red neuronal Backpropagation, la cual ser descrita en el apartado 6.2.2.
144
145
(6.1)
146
a) Arquitectura
La arquitectura o topologa de una red neuronal, consiste en la organizacin y disposicin de
las neuronas formando capas o agrupaciones de neuronas ms o menos alejadas de la entrada
y salida de la red. En este sentido los parmetros fundamentales de la red son: el nmero de
capas, el nmero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre
neuronas.
Cuando se realiza una clasificacin de la red en trminos topolgicos, se suele distinguir entre
las redes con una sola capa o nivel de neuronas y las redes con mltiples capas (2, 3, etc.).
b) Mecanismo de aprendizaje
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a
una informacin de entrada. Los cambios que se producen durante el proceso de aprendizaje
se reducen a la destruccin, modificacin y creacin de conexiones entre las neuronas. En los
sistemas biolgicos existe una continua creacin y destruccin de conexiones. En los modelos
de redes neuronales artificiales, la creacin de una nueva conexin implica que el peso de la
misma pasa a tener un valor distinto de cero.
Durante el proceso de aprendizaje los pesos de las conexiones de la red sufren
modificaciones, por tanto se puede afirmar que este proceso ha terminado (la red ha
aprendido) cuando los valores de los pesos permanecen estables
dw ij
dt
=0
(6.2)
147
Estos criterios determinan lo que se conoce como regla de aprendizaje de la red. De forma
general se suelen considerar dos tipos de reglas: las que responden a lo que habitualmente se
conoce aprendizaje supervisado, y las correspondientes a un aprendizaje no supervisado. La
diferencia fundamental entre ambos tipos estriba en la existencia o no de un agente externo
(supervisor) que controle el proceso de aprendizaje de la red.
Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en
considerar si la red puede aprender durante su funcionamiento habitual o si el aprendizaje
supone la desconexin de la red, es decir, su inhabilitacin hasta que el proceso termine. En el
primer caso, se tratara de un aprendizaje ON LINE, mientras que el segundo es lo que se
conoce como aprendizaje OFF LINE.
Cuando el aprendizaje es OFF LINE, se distingue entre una fase de aprendizaje o
entrenamiento y una fase de operacin o funcionamiento, existiendo un conjunto de datos de
entrenamiento y un conjunto de datos de test o prueba que sern utilizados en la
correspondiente fase. En las redes con aprendizaje OFF LINE, los pesos de las conexiones
permanecen fijos despus que termina la etapa de entrenamiento de la red. Debido
precisamente a su carcter esttico, estos sistemas no presentan problemas de estabilidad en
su funcionamiento.
En las redes con aprendizaje ON LINE no se distingue entre fase de entrenamiento y de
operacin, de tal forma que los pesos varan dinmicamente siempre que se presente una
nueva informacin del sistema. En este tipo de redes, debido al carcter dinmico de las
mismas, el estudio de la estabilidad suele ser un aspecto fundamental del estudio.
c) Tipo de asociacin entre las informaciones de entrada y salida
Existen dos formas primarias de realizar la asociacin entre entrada/salida que se
corresponden con la naturaleza de la informacin almacenada en la red. Una primera sera la
denominada heteroasociacin, que se refiere al caso en que la red aprende parejas de datos
(6.3)
de tal forma que cuando se le presenta una informacin de entrada Ai, deber responder
generando la correspondiente salida asociada Bi. La segunda se conoce como autoasociacin,
donde la red aprende ciertas informaciones A1,A2,...,An, de tal forma que cuando se le
presenta una informacin de entrada realizar una autocorrelacin, respondiendo con uno de
los datos almacenados, el ms parecido al de la entrada.
Estos dos mecanismos de asociacin dan lugar a dos tipos de redes neuronales: las redes
heteroasociativas y las autoasociativas. Una red heteroasociativa podra considerarse aquella
que computa cierta funcin, que en la mayora de los casos no podr expresarse
analticamente, entre un conjunto de entradas y un conjunto de salidas, correspondiendo a
cada posible entrada una determinada salida. Por otra parte, una red asociativa es una red cuya
principal misin es reconstruir una determinada informacin de entrada que se presenta
incompleta o distorsionada (le asocia el dato almacenado ms parecido).
En realidad estos dos tipos de modelos de redes no son diferentes en principio, porque una red
heteroasociativa puede ser siempre reducida a una autoasociativa mediante la concatenacin
de una informacin de entrada y su salida (respuesta) asociada, para obtener la informacin de
entrada de la red autoasociativa equivalente.
148
La Tabla 6.1 muestra los modelos de red neuronal ms conocidos dentro del campo de aplicacin
del reconocimiento de patrones y las caractersticas ms relevantes de cada uno segn la
clasificacin que se ha desarrollado.
Tabla 6.1. Caractersticas de los modelos de redes neuronales.
MODELO
DE RED
TPM
Backpropagation
Boltzman
Machine
Cauchy
Machine
ART
ON LINE/
OFF LINE
APRENDIZAJE
SUPERVISADO/
NO
SUPERVISADO
2 capas
Feedforward
Conexiones laterales
Off
No supervisado
n capas
Feedforward
Off
TOPOLOGA
ASOCIACIN
INFORMACIN
DE ENTRADA Y
SALIDA
Competitivo
Heteroasociacin
Analgica
Supervisado
Correccin
error
Heteroasociacin
Analgica
Off
Supervisado
Estocstico,
Hebbiano,
Correccin
error
Heteroasociacin
Binaria
Off
No supervisado
Estocstico
Heteroasociacin
E: analgica
S: binaria
On
No supervisado
Competitivo
Heteroasociacin
Analgica
REGLA
1 capa
Conexiones laterales
3 capas
Feedforward
1 capa
Conexiones laterales
3 capas
Feedforward
2 capas
Feedforward
/Feedback
Conexiones laterales
149
salida. A continuacin, estos errores se transmiten hacia atrs, partiendo de la capa de salida,
hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida,
recibiendo el porcentaje de error aproximado a la participacin de la neurona intermedia de la
salida original. Este proceso se repite capa por capa, hasta que todas las neuronas de la red hayan
recibido un error que describa su aportacin relativa al error total. Basndose en el valor del error
recibido, se reajustan los pesos de conexin de cada neurona, de manera que la siguiente vez que
se presente el mismo patrn, la salida est ms cercana a la deseada.
En la etapa de entrenamiento, este tipo de red neuronal es capaz de adaptar los pesos de las
neuronas de las capas intermedias con el objetivo de minimizar el error entre un conjunto de
patrones dados como ejemplo y sus salidas estimadas. En la etapa de validacin, se aplica esa
misma relacin a nuevos patrones de entrada no utilizados durante el proceso de entrenamiento.
Esta es una de las caractersticas ms importantes de las redes neuronales. Se entiende como
capacidad de generalizacin a la facilidad que tiene una red neuronal de dar salidas satisfactorias
a entradas que el sistema no ha visto nunca en su fase de entrenamiento. En general, la red debe
encontrar una representacin interna que le permita generar las salidas deseadas cuando se le dan
las entradas de entrenamiento, y que pueda aplicar, adems, a entradas no presentadas durante la
etapa de aprendizaje para clasificarlas segn las caractersticas que compartan con los ejemplos
de entrenamiento.
6.2.2.2. Proceso de aprendizaje de la red neuronal
6.2.2.2.1. Algoritmo de entrenamiento
En una red Backpropagation existe una capa de entrada con n neuronas, una capa de salida con
m neuronas y al menos una capa oculta de neuronas internas. Cada neurona de una capa (excepto
las de entrada) recibe entrada de todas las neuronas de la capa anterior y enva su salida a todas
las neuronas de la capa posterior (excepto las de salida). No hay conexiones hacia atrs
(feedback) ni conexiones laterales entre neuronas de la misma capa. La figura 6.3 muestra la
estructura general.
A continuacin se presentan los pasos y frmulas a utilizar para aplicar el algoritmo de
entrenamiento.
1) Se inicializan los pesos de la red con valores pequeos aleatorios.
2) Se presenta un patrn de entrada, Xp (xp1,xp2,...,xpn), y se especifica la salida deseada que debe
generar la red (d1,d2,...,dm). Si por ejemplo la red es utilizada como un clasificador todas las
salidas sern cero, salvo una, que ser la de la clase a la que pertenece el patrn de entrada.
3) Se calcula la salida actual de la red. Para ello se presentan las entradas a la red y se va
calculando la salida que presenta cada capa hasta llegar a la capa de salida (y1,y2,...,ym). Los
pasos seran los siguientes
se calculan las entradas netas para las neuronas ocultas procedentes de las neuronas de
entrada; para una neurona j oculta
(h)
(h)
net (h)
pj = w ji x pi + j
i
(6.4)
150
en donde el ndice h se refiere a magnitudes de la capa oculta (hidden), el subndice p, al psimo vector de entrenamiento, j a la j-sima neurona oculta, y es el umbral de activacin
de la neurona y puede ser opcional; el ndice i se vara entre 1 y el nmero de neuronas de
la capa de entrada.
se calculan las salidas de las neuronas ocultas
y pj = f j(h) (net (h)
pj )
(6.5)
se realizan los mismos clculos para obtener las salidas de las neuronas de salida (output)
(o)
(o)
net (o)
pk = w kj y pj + k
(6.6)
(6.7)
(6.8)
(6.9)
151
Los umbrales internos de las neuronas se adaptan de forma similar, considerando que estn
conectados con pesos desde entradas auxiliares de valor constante.
5) Se actualizan los pesos. Para ello, se utiliza el algoritmo recursivo, comenzando por las
neuronas de salida y trabajando hacia atrs hasta llegar a la capa de entrada, ajustando los
pesos de la siguiente forma
para los pesos de las neuronas de la capa de salida
(o)
(o)
w (o)
kj ( t + 1) = w kj ( t ) + w kj ( t + 1)
(6.10)
(o)
w (o)
kj ( t + 1) = pk y pj
(6.11)
(6.12)
(h)
w (h)
ji ( t + 1) = pj x pi
(6.13)
... + w ji (t ) w ji ( t 1)
(6.14)
1 m
2
(d pk y pk )
2 k =1
(6.15)
152
Nmero de capas ocultas: Un aumento del nmero de capas de neuronas ocultas se traduce en
un cambio en la estructura de la red, pudindose obtener resultados diferentes. Generalmente
con una capa oculta es suficiente. En una red neuronal sin capas ocultas normalmente solo se
pueden tener relaciones lineales entre la entrada y la salida.
Condiciones iniciales: Una mejora en las condiciones iniciales de pesos y umbrales da la
posibilidad de que se alcance un mnimo global y no uno local. Diferentes condiciones
iniciales pueden hacer que se alcancen diferentes mnimos, y por tanto diferentes resultados.
Nmero de iteraciones: Un nmero elevado de ellas significa un entrenamiento lento.
Mediante control de los otros parmetros se puede conseguir que la red entrene con un
nmero ms reducido de iteraciones. Recurdese que el objetivo del entrenamiento de una red
neuronal es adaptar los pesos y los umbrales de las neuronas para as minimizar el error entre
un conjunto de patrones dados como ejemplo y sus salidas estimadas. La figura 6.4 muestra
un ejemplo de superficie de error tpico con una funcin de transferencia sigmoidal logstica.
Patrones de entrada y salida: Un aumento del nmero de patrones de entrada y salida hace que
la red tenga un mejor aprendizaje, y que por tanto cuando se muestren a la red datos
desconocidos (diferentes de los utilizados en el entrenamiento) el error en el clculo de las
salidas sea ms pequeo. Sin embargo, cuanto mayor sea el nmero de datos ms largo es el
proceso de aprendizaje de la red neuronal. Es muy importante hacer un estudio previo de los
datos para evitar confusiones a la red neuronal. Cuanto ms definidos estn los datos ms
rpido aprender la red.
Tasa de aprendizaje: La tasa de aprendizaje es la encargada de acelerar el proceso de
aprendizaje. Se suelen escoger valores pequeos, empezando con una tasa constante.
Lgicamente es deseable que, hasta alcanzar el mnimo, el entrenamiento sea rpido mientras
que en el entorno del mnimo sea lento para poder alcanzarlo plenamente. Por este motivo se
utiliza una tasa de aprendizaje variable, adaptativa a lo largo del proceso de entrenamiento.
Momento: Contrarresta las posibles inestabilidades que se crean en la variacin de los pesos,
y es importante porque reduce la posibilidad de caer en un mnimo local, adems puede
acelerar enormemente el proceso.
153
(6.16)
c
+d
1 + exp{ a(x + b)}
(6.17)
Con d=0 y c=1 se tiene una funcin sigmoidal que toma los valores asintticos 0 y 1.
Ajustando estos parmetros se pueden obtener salidas deseadas por el usuario.
La funcin de transferencia sigmoidal tangencial hiperblica es similar a la anterior, aunque
en este caso la salida tambin puede ser negativa. Esta funcin responde a la expresin
exp{2a ( x + b)} 1
+ d
f ( x ) = c
exp{2a (x + b)} + 1
(6.18)
Con d=0 y c=1 se tiene una funcin sigmoidal que toma los valores asintticos -1 y 1.
Las figuras 6.9 y 6.10 muestran la importancia de adaptar la pendiente de estas funciones. Al
disminuir la pendiente hay ms probabilidad de que las salidas no sean las asintticas.
154
155
156
Las directrices a seguir para el correcto ajuste del intervalo de las entradas netas pueden ser
1) Normalizar las entradas netas simtricamente, es decir, tomando como extremos 1 y -1
2) Aumentar el intervalo de dichas entradas hasta obtener un error mnimo.
(6.19)
Los datos normalizados caen dentro del intervalo {0,1} en el caso de que los datos originales
sean positivos, si tambin son negativos caern dentro del intervalo {-1,1}.
.
Figura 6.11. Funcin de transferencia log-sigmoidal (completa/b=1).
157
158
Mtodo 2: MNIMO-MXIMO
El procedimiento a seguir es bastante parecido al anterior:
1) Se busca el mximo y el mnimo del vector DATOS(i)
2) Se normalizan los datos segn la relacin
DATOS _ norm(i) =
DATOS(i) - Min
Max Min
(6.20)
Estos datos normalizados caen dentro del intervalo {0,1} sean cuales sean los datos
originales. No obstante es importante destacar que en los datos normalizados siempre habr
un valor que ser 0 y otro que ser 1.
Mtodo 3: MEDIA-DESVIACIN TIPO
Con este mtodo se pueden obtener datos normalizados dentro del intervalo {-1,1} o dentro
del intervalo {0,1}. Inicialmente se calcula
DATOS _ norm(i) =
DATOS(i)
(6.21)
Los datos normalizados caen dentro del intervalo {-k1,k2}. Ntese que k1 y k2 son nmeros
reales positivos, y que y son la media y la desviacin tipo de los datos de entrada,
respectivamente. Para que los datos normalizados caigan dentro del intervalo {-1,1}, se dividen
por el mayor de k1 o k2. Para que los datos normalizados caigan dentro del intervalo {0,1} se
hace lo siguiente:
1) A los datos normalizados se les suma el mayor de k1 y k2. Ahora estos datos caen dentro
del intervalo {0,k3}, siendo k3=k1+k2.
2) Los datos normalizados se dividen por k3, obtenindose as el intervalo de {0,1}.
159
160
161
162
SALIDA
Tipo descarga
0
1
0
0
1
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
1
0
0
0
0
1
0
1
0
0
0
0
0
0
163
164
a) Estudio previo. Se pretenden conseguir unas buenas condiciones iniciales para el estudio
del intervalo de las entradas netas y el de la pendiente de la funcin de transferencia. Tras
varios entrenamientos, se han escogido las condiciones iniciales de pesos y umbrales que
dan el mnimo error global. Los dos prximos estudios se realizarn con 1000 iteraciones.
b) Ajuste del intervalo de las entradas netas de la funcin de transferencia. Se aumenta el
intervalo de dichas entradas hasta que se alcanza un mnimo. Solo ajustando el intervalo de
las entradas netas se consiguen muy buenos resultados. Recurdese que todava no se han
ajustado los parmetros principales de la red. Se acepta que las entradas de la red neuronal
se encuentren dentro del intervalo [-32,32].
c) Ajuste de la pendiente de la funcin de transferencia. Se vara la pendiente de la funcin de
transferencia hasta encontrar el mnimo error. Es importante destacar que aunque hay dos
funciones de transferencia, las pendientes de dichas funciones se variarn por igual. Del
estudio se deduce que una variacin de la pendiente no disminuye el error.
2) Se vara el nmero de neuronas de la capa oculta. Se han realizado 2 estudios con cada
estructura diferente, uno a 1000 iteraciones para buscar unas buenas condiciones iniciales, y
otro ms largo, a 10000 iteraciones, para encontrar un buen mnimo. Se ha llegado a la
conclusin de que un aumento de neuronas ocultas (de 4 a 6) no slo mejora los resultados
sino que adems acelera enormemente el proceso. Por ejemplo, mientras que con 4 neuronas
ocultas el mnimo global se encuentra a ms de 100000 iteraciones, con 6 neuronas ocultas un
error bastante ms pequeo se consigue en menos de 1000 iteraciones.
3) Se aade una capa ms de neuronas ocultas y se mantiene constante el nmero de neuronas de
la primera capa. En este caso, con una capa ms de neuronas ocultas el entrenamiento se
ralentiza considerablemente. Adems, no se consiguen mejores resultados.
4) Del estudio anterior se concluye que una estructura de red neuronal aceptable es la siguiente
primera capa oculta: 6 neuronas
funciones de transferencia: log-sigmoidal.
A continuacin se intentarn ajustar los parmetros propios de la fase del aprendizaje tales
como el momento y la tasa de aprendizaje. Es importante resaltar que con estos ajustes
(incluido el del momento) el error puede disminuir, aunque de forma poco sensible.
a) Tasa de aprendizaje. El entrenamiento se realiza con una tasa de aprendizaje variable, ya
que despus de realizar una serie de pruebas con diferentes valores de este parmetro se
admite que una tasa de aprendizaje constante empeora los resultados. Adems se llega
tambin a la conclusin de que el valor adoptado durante el entrenamiento por los
diferentes parmetros que componen la tasa de aprendizaje variable es ptimo.
b) Ajuste del momento. El valor actual (0.9) es aceptable.
5) La estructura final de la red escogida, ver figura 6.17, con todos sus parmetros ajustados es
la siguiente
165
Validacin
A continuacin se valida la red neuronal analizando su comportamiento con datos que no han
sido utilizados en el proceso de entrenamiento. La validacin de esta red neuronal se realiza con
2000 patrones. En los grficos de la figura 6.19 se puede observar el error cometido en el clculo
de las salidas y el ajuste de las salidas con los valores de los pesos y umbrales ptimos
conseguidos en el entrenamiento de la red neuronal. De estos grficos se deduce que tan solo
unos pocos patrones, 13, son confundidos por la red neuronal. Esto significa que la red clasifica
correctamente en ms de un 99 % de los casos. La Tabla 6.4 muestra las salidas calculadas para
estos patrones.
166
SALIDA
DESEADA
SALIDA
CALCULADA
Error (%)
1.55
2.34
2.91
2.03
3.77
SALIDA
DESEADA
SALIDA
CALCULADA
Error (%)
95.50
65.19
90.04
99.76
69.60
87.57
99.99
54.74
96.99
86.36
99.87
79.04
96.48
167
168
169
a) Intensidad de la descarga
Los valores de la intensidad de la descarga se generan siguiendo el procedimiento visto en el
apartado 5.3.1 del captulo 5.
b) Distancia perpendicular entre la lnea y la descarga
El valor de esta distancia se genera de forma aleatoria, entre 0 m y 500 m, considerando una
distribucin uniforme.
c) Velocidad de retorno del rayo
El valor de la velocidad de retorno del rayo se genera de forma aleatoria, entre 30000 km/s y
150000 km/s, suponiendo una distribucin uniforme.
d) Altura de la lnea
Se han utilizado los valores de 5 m, 8 m, 11 m, 14 m y 17 m, en el entrenamiento de la red
neuronal. Con los dos valores extremos, 5 m y 17 m, se cubre la totalidad de lneas de
distribucin.
e) Tipo de descarga
Se utiliza la expresin (4.2) para saber si una descarga, caracterizada por los parmetros que
componen la entrada de la red neuronal (I,y,v,h), es directa (t = 1) o indirecta (t = 0).
f) Sobretensin que aparece en la lnea
Se utiliza la expresin (4.6) para calcular la tensin que aparece en la lnea si la descarga es
directa a los conductores de fase, y la expresin (4.20) si la descarga es directa a tierra.
Entrenamiento
La Tabla 6.5 muestra una parte de los datos utilizados en el entrenamiento. El proceso seguido se
detalla a continuacin.
1) Se fijan los siguientes parmetros
1 capa de neuronas ocultas
4 neuronas en la capa oculta
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
Una diferencia muy importante respecto a la aplicacin estudiada en el apartado anterior son
las funciones de transferencia utilizadas con esta red neuronal. Puesto que la salida ms
importante de la red neuronal es la que calcula las tensiones, se ha escogido como funcin de
transferencia global la denominada funcin de aproximacin (funcin tan-sigmoidal en las
diferentes capas ocultas y funcin lineal en la capa de salida). Se ha demostrado que esta
arquitectura de red neuronal es capaz de aproximar cualquier funcin con un nmero finito de
discontinuidades y precisin arbitraria. Cuanto ms compleja sea la funcin ms neuronas
sern necesarias para poder aproximarla.
170
Intensidad
(m)
5
5
5
5
5
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
17
17
17
17
17
17
17
17
(kA)
1
1
1
1
200
63
56
19
53
34
152
139
41
44
78
41
58
30
34
27
59
6
10
92
35
29
38
33
14
17
40
61
33
18
10
20
59
46
21
21
78
36
48
49
19
24
12
12
31
13
Distancia
descarga - lnea
(m)
0
0
500
500
0
300
474
67
203
335
214
242
416
480
145
277
156
489
240
376
33
61
471
55
494
95
90
69
205
179
400
49
446
69
222
175
328
307
207
330
440
204
143
159
94
296
386
124
134
402
SALIDAS
Velocidad
(km/s)
30000
150000
30000
150000
30000
141534
134736
77057
78053
149545
68439
124134
139549
59657
60652
132145
51039
131538
34022
82476
127945
66066
37615
142365
86894
145569
40431
132751
86288
110321
56453
147171
61259
130003
32269
122137
56836
43630
93298
132746
73465
56447
102262
87842
67014
67621
104471
79831
67439
55616
Tipo
descarga
1
1
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Tensin
(kV)
207.23
207.23
0.32
0.41
41446.53
68.51
37.96
81.18
74.01
33.26
198.40
247.97
43.90
34.82
201.87
64.45
136.95
26.85
50.38
28.01
13596.17
39.88
7.26
21228.74
27.93
137.88
153.91
207.96
27.15
40.86
37.70
14033.48
27.89
114.46
16.57
63.23
85.53
69.79
52.57
35.36
87.18
84.85
214.07
191.18
118.80
48.89
19.74
59.17
135.80
18.71
171
a) Estudio previo. Tanto ste como los prximos estudios se realizarn con 1000 iteraciones.
Por ahora, el objetivo es conseguir unas buenas condiciones iniciales para el estudio del
intervalo de las entradas netas y el de la pendiente de las funciones de transferencia. Se
guardan los pesos y los umbrales que dan el mnimo error. Se comprueba que en este punto
todava existe un error considerable en el clculo de las salidas.
b) Ajuste del intervalo de las entradas netas de las funciones de transferencia. A diferencia del
ejemplo anterior, en este caso se concluye que aumentando el intervalo de dichas entradas
no se modifica en absoluto el mnimo alcanzado.
c) Ajuste de la pendiente de la funcin de transferencia. Se varan por separado las pendientes
de las funciones de transferencia. En este caso, una variacin en el valor de dichas
pendientes disminuye notablemente el mnimo conseguido. Se mantienen como valores
ptimos un valor unidad para la pendiente de la funcin tan-sigmoidal, y un valor de 0.1
para la funcin lineal. Se observa claramente que la capa de neuronas tan-sigmoidales es la
que acta como clasificador, y la capa de neuronas lineales es la que termina adaptando las
tensiones.
2) Variacin del nmero de neuronas de la primera capa oculta. Se han realizado 2 estudios con
cada estructura diferente, uno a 1000 iteraciones para buscar unas buenas condiciones
iniciales, y otro ms largo, a 10000 iteraciones, para encontrar un buen mnimo. En este caso,
se ha aumentado hasta 10 el nmero de neuronas y los resultados apenas han mejorado.
3) Variacin del nmero de neuronas de la segunda capa oculta. Se aade una capa ms de
neuronas ocultas y se mantiene constante en 4 el nmero de neuronas de la primera capa. Se
comienzan a conseguir mejores resultados con el aumento del nmero de neuronas de esta
segunda capa. A la vista de los resultados conseguidos se prefiere aumentar el nmero de
neuronas de la primera capa oculta para as poder aumentar el nmero de neuronas de la
segunda capa. Se prueban diferentes estructuras, la que mejor se adapta tiene 14 neuronas en
la primera capa oculta y 12 neuronas en la segunda capa oculta.
4) Del estudio anterior se concluye que la estructura de red neuronal ajustada es la siguiente
primera capa oculta: 14 neuronas
segunda capa oculta: 12 neuronas
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida).
A continuacin se intentarn ajustar los parmetros propios de la fase del aprendizaje tales
como el momento y la tasa de aprendizaje. Tal como se coment durante el entrenamiento del
ejemplo, con estos ajustes el error disminuir poco.
a) Tasa de aprendizaje. Se comprueba que una tasa de aprendizaje adaptativa va mejor que
una constante, y que los parmetros actuales son aceptables.
b) Ajuste del momento. Se comprueba que el valor actual (0.9) es aceptable.
5) La estructura final de la red con todos sus parmetros ajustados es la siguiente, ver figura 6.21
172
Figura 6.21. Arquitectura de la red neuronal (Mtodo de Rusck con lneas sin apantallar).
173
Validacin
La validacin de esta red neuronal se realiza con 6000 patrones que no han intervenido en el
proceso de entrenamiento. Se han utilizado 1000 patrones para cada altura de la lnea (5 m, 8 m,
10 m, 11 m, 14 m y17 m). La altura de 10 m no ha sido utilizada durante el entrenamiento de la
red neuronal.
Los grficos de las figuras 6.23, 6.24, y 6.25 muestran para tres alturas diferentes el error
cometido en el clculo de ambas salidas y el ajuste de las salidas con los valores de los pesos y
umbrales ptimos conseguidos en el entrenamiento de la red neuronal. Se puede observar que en
ms del 99 % de los casos el error cometido en el clculo de tensiones se encuentra por debajo
del 2 %. En unos pocos casos el error puede llegar a alcanzar el 10 %, y esto ocurre cuando la
red neuronal muestra confusin en la clasificacin de descargas.
174
175
176
177
178
179
hc2 (m)
hc3 (m)
xc1 (m)
xc2 (m)
xc3 (m)
-1
-3
-1
-3
Lnea
11
11
11
-1
horizontal
11
11
11
-3
14
14
14
-1
14
14
14
-3
17
17
17
-1
17
17
17
Lnea
10
12
vertical
11
13
15
14
16
18
e) Tipo de descarga
Se utiliza la expresin (4.2) para saber si una descarga, caracterizada por los parmetros que
componen la entrada de la red neuronal (I,tf,y,v,hc1,hc2,hc3,xc1,xc2,xc3), es directa (t = 1) o
indirecta (t = 0).
f) Sobretensin que aparece en la lnea
Se utiliza la expresin (4.6) para calcular la tensin que aparece en la lnea si la descarga es
directa a los conductores de fase, y la expresin (4.46) si la descarga es directa a tierra.
Entrenamiento
El objetivo no es repetir todos los pasos que se realizaron en el entrenamiento de la red neuronal
del apartado anterior (mtodo de Rusck), sino verificar que la estructura final obtenida en aquel
estudio es tambin adecuada en este estudio. La Tabla 6.7 muestra una parte de los datos
utilizados en el entrenamiento.
La estructura de red neuronal utilizada ha sido la siguiente
2 capas de neuronas ocultas, con 14 y 12 neuronas respectivamente
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
180
Altura
conductor 2
Altura
conductor 3
(m)
(m)
(m)
5
5
5
8
8
8
11
11
11
11
14
14
14
14
17
17
17
5
5
5
8
8
8
8
11
11
11
11
5
5
5
8
8
8
11
11
11
11
14
14
14
14
17
17
17
7
7
7
10
10
10
10
13
13
13
13
5
5
5
8
8
8
11
11
11
11
14
14
14
14
17
17
17
9
9
9
12
12
12
12
15
15
15
15
SALIDAS
Distancia
al eje
conductor 1
(m)
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Intensidad
Tiempo
de frente
(kA)
-1
-1
-1
-3
-3
-3
-1
-1
-1
-1
-1
-1
-1
-1
-3
-3
-3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
3
3
3
1
1
1
1
1
1
1
1
3
3
3
0
0
0
0
0
0
0
0
0
0
0
84
53
22
26
26
35
56
14
38
32
30
36
7
21
12
47
46
19
31
26
10
13
30
30
25
18
71
61
(
s)
3.0
4.0
4.0
5.5
3.0
3.0
5.5
4.0
6.0
6.5
4.0
2.0
3.5
8.0
4.0
6.0
6.0
2.5
5.0
3.5
2.5
1.5
3.0
7.0
2.5
7.0
1.5
2.5
Distancia
descarga
- lnea
(m)
377
328
94
146
467
81
148
81
1
66
330
417
426
112
319
316
206
185
288
166
20
327
453
282
215
313
477
145
Velocidad
Tipo
descarga
(km/s)
144526
48847
106585
103137
130097
103224
92466
128948
40498
132818
148007
70709
71680
94621
78217
78665
110840
81739
116289
50056
35702
98577
66939
136151
84226
91809
119058
37554
Tensin
(kV)
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
34.69
115.21
23.07
29.43
19.69
87.67
104.59
24.54
9433.73
34.19
26.25
203.89
25.14
36.44
46.82
120.53
79.47
65.51
23.95
131.66
2541.86
52.52
101.95
16.40
131.32
24.96
192.61
1091.42
181
Figura 6.26. Arquitectura de la red neuronal (Mtodo de Chowdhuri con lneas sin apantallar).
182
Validacin
La validacin de esta red neuronal se ha realizado con 6000 patrones que no han intervenido en
el proceso de entrenamiento. Se han utilizado 1000 patrones para cada una de las
configuraciones de lnea mostradas en la Tabla 6.8.
Los grficos de las figuras 6.28, 6.29, y 6.30 muestran los resultados obtenidos para 3 de las
configuraciones anteriores. Los resultados obtenidos con las otras configuraciones son similares.
Las conclusiones de este estudio son similares a las que se obtuvieron con el mtodo de Rusck.
En general el error cometido en el clculo de tensiones se encuentra por debajo del 2 %, aunque
cuando la red neuronal presenta confusin en la clasificacin de descargas el error es mayor.
Tabla 6.8. Variables altura y distancia al eje de la lnea.
Lnea
horizontal
Lnea
vertical
hc1 (m)
hc2 (m)
hc3 (m)
xc1 (m)
xc2 (m)
xc3 (m)
-1.5
1.5
10
10
10
-2
17
17
17
-3
10
12
14
14
16
18
183
184
Figura 6.28. Validacin de la red neuronal. Lnea horizontal, altura = 10 m, distancia entre conductores ms externos = 4 m.
185
Figura 6.29. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m.
186
Figura 6.30. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m
187
188
Tabla 6.9. Variables altura de los conductores, altura del cable de tierra,
distancia al eje de los conductores y resistencia de puesta a tierra. Lnea horizontal.
hc1 (m)
hc2 (m)
hc3 (m)
xc1 (m)
xc2 (m)
xc3 (m)
hct (m)
R (
)
5
5
5
5
5
5
5
5
5
5
5
5
8
8
8
8
8
8
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
14
14
14
14
14
17
17
17
17
17
17
17
17
17
17
17
17
5
5
5
5
5
5
5
5
5
5
5
5
8
8
8
8
8
8
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
14
14
14
14
14
17
17
17
17
17
17
17
17
17
17
17
17
5
5
5
5
5
5
5
5
5
5
5
5
8
8
8
8
8
8
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
14
14
14
14
14
17
17
17
17
17
17
17
17
17
17
17
17
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
-3
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
-3
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
-3
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
-3
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
-3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
1
1
1
3
3
3
3
3
3
1
1
1
1
1
1
3
3
3
3
3
3
1
1
1
1
1
1
3
3
3
3
3
3
1
1
1
1
1
1
3
3
3
3
3
3
1
1
1
1
1
1
3
3
3
3
3
3
6.5
6.5
6.5
8.0
8.0
8.0
6.5
6.5
6.5
8.0
8.0
8.0
9.5
9.5
9.5
11.0
11.0
11.0
9.5
9.5
9.5
11.0
11.0
11.0
12.5
12.5
12.5
14.0
14.0
14.0
12.5
12.5
12.5
14.0
14.0
14.0
15.5
15.5
15.5
17.0
17.0
17.0
15.5
15.5
15.5
17.0
17.0
17.0
18.5
18.5
18.5
20.0
20.0
20.0
18.5
18.5
18.5
20.0
20.0
20.0
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
189
Tabla 6.10. Variables altura de los conductores, altura del cable de tierra,
distancia al eje de los conductores y resistencia de puesta a tierra. Lnea vertical.
hc1 (m)
hc2 (m)
hc3 (m)
xc1 (m)
xc2 (m)
xc3 (m)
hct (m)
R (
)
5
5
5
5
5
5
5
5
5
5
5
5
8
8
8
8
8
8
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
14
14
14
14
14
7
7
7
7
7
7
7
7
7
7
7
7
10
10
10
10
10
10
10
10
10
10
10
10
13
13
13
13
13
13
13
13
13
13
13
13
16
16
16
16
16
16
16
16
16
16
16
16
9
9
9
9
9
9
9
9
9
9
9
9
12
12
12
12
12
12
12
12
12
12
12
12
15
15
15
15
15
15
15
15
15
15
15
15
18
18
18
18
18
18
18
18
18
18
18
18
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
10.5
10.5
10.5
12.0
12.0
12.0
10.5
10.5
10.5
12.0
12.0
12.0
13.5
13.5
13.5
15.0
15.0
15.0
13.5
13.5
13.5
15.0
15.0
15.0
16.5
16.5
16.5
18.0
18.0
18.0
16.5
16.5
16.5
18.0
18.0
18.0
19.5
19.5
19.5
21.0
21.0
21.0
19.5
19.5
19.5
21.0
21.0
21.0
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
10
40
70
190
Entrenamiento
Para entrenar la red neuronal se seguir la metodologa utilizada en el apartado 6.3.3, mtodo de
Chowdhuri, verificndose de esta manera que la estructura final obtenida cuando la lnea no tena
instalado un cable de tierra es tambin adecuada en este estudio. La Tabla 6.11 muestra una parte
de los datos utilizados en el entrenamiento.
191
Altura
conductor 2
Altura
Altura
conductor 3 cable de tierra
(m)
(m)
(m)
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
5
5
5
8
8
8
11
11
11
14
14
14
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
7
7
7
10
10
10
13
13
13
16
16
16
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
9
9
9
12
12
12
15
15
15
18
18
18
SALIDAS
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Resistencia
puesta a
tierra
(
)
Intensidad
(m)
Distancia
al eje
conductor 1
(m)
Velocidad
(kA)
Distancia
descarga lnea
(m)
6.5
6.5
6.5
9.5
9.5
9.5
12.5
12.5
12.5
15.5
15.5
15.5
15.5
20.0
20.0
20.0
12.0
12.0
12.0
13.5
13.5
13.5
18.0
18.0
18.0
21.0
21.0
21.0
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-1
-3
-3
-3
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1
1
1
1
1
1
1
1
1
1
1
1
1
3
3
3
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
10
10
10
10
10
10
70
70
70
70
70
70
70
40
40
40
10
10
10
40
40
40
70
70
70
40
40
40
38
46
50
42
70
52
22
54
29
15
6
18
25
23
33
28
122
24
59
31
18
36
19
29
40
95
23
55
27
176
484
144
50
114
419
312
65
269
486
392
456
320
359
325
125
262
250
162
141
145
455
348
399
137
273
261
67302
82717
105755
57624
102486
44807
79720
39058
58285
117063
65281
110143
52464
110411
82567
105604
83891
44443
81682
69564
88791
115639
35518
131650
125241
87428
47980
85219
Tipo
Tensin
descarga
(km/s)
(kV)
2
0
0
0
2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
217.06
32.36
13.45
53.68
385.25
82.67
14.68
45.40
120.15
21.61
3.95
17.58
18.23
33.25
40.44
40.29
229.72
19.82
54.80
55.04
38.93
78.91
15.01
37.63
44.07
331.19
36.85
99.70
192
Validacin
La validacin de esta red neuronal se ha realizado con 6000 patrones que no han intervenido en
el proceso de entrenamiento. Se han utilizado 1000 patrones para cada configuracin de lnea,
ver Tabla 6.12.
Los grficos de las figuras 6.34, 6.35, y 6.36 muestran los resultados obtenidos para 3 de las
configuraciones anteriores. Los resultados obtenidos con las otras configuraciones son similares.
Se puede observar que en la mayora de los casos el error cometido en el clculo de
sobretensiones no supera el 3%. Adems, en ms del 99 % de los casos la red neuronal no
presenta confusiones al clasificar las descargas.
193
Figura 6.32. Arquitectura de la red neuronal (Mtodo de Rusck con lneas apantalladas).
Tabla 6.12. Variables altura de los conductores, altura del cable de tierra,
distancia al eje de los conductores y resistencia de puesta a tierra.
Lnea
horizontal
Lnea
vertical
hc1 (m)
hc2 (m)
hc3 (m)
xc1 (m)
xc2 (m)
xc3 (m)
hct (m)
R (
)
-1.5
1.5
6.5
30
10
10
10
-2
11.5
50
17
17
17
-3
18.5
10
10.5
20
10
12
14
15.5
50
14
16
18
1.5
1.5
1.5
19.5
70
194
195
Figura 6.34. Validacin de la red neuronal. Lnea horizontal, altura conductores = 10 m, distancia entre conductores ms externos = 4 m,
altura cable de tierra = 11.5 m, resistencia de puesta a tierra = 50 .
196
Figura 6.35. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m, distancia horizontal conductores - cable de tierra = 1 m,
altura cable de tierra = 15.5 m, resistencia de puesta a tierra = 50 .
197
Figura 6.36. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m, distancia horizontal conductores - cable de tierra = 1.5 m,
altura cable de tierra = 19.5 m, resistencia de puesta a tierra = 70 .
198
Entrenamiento
Para entrenar la red neuronal se seguir la metodologa utilizada en los apartados anteriores. La
Tabla 6.13 muestra una parte de los datos utilizados en el entrenamiento.
La estructura de red neuronal utilizada ha sido la siguiente
2 capas de neuronas ocultas, con 14 y 12 neuronas respectivamente
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
El entrenamiento de esta red neuronal tiene los siguientes pasos
1) Estudio previo. Se guardan los pesos y los umbrales que dan el mnimo error.
2) Ajuste de la pendiente de las funciones de transferencia. Se mantiene un valor unidad para la
pendiente de la funcin tan-sigmoidal, y un valor de 0.3 para la funcin lineal.
3) Se entrena la red neuronal con la estructura comentada anteriormente y con las pendientes
ajustadas hasta que el error se estabiliza. La figura 6.37 muestra la arquitectura de la red,
mientras que la figura 6.38 muestra los resultados del entrenamiento obtenidos con esta red.
Aunque los resultados del entrenamiento han sido algo peores que con el mtodo de Rusck, se
puede observar que en general el error cometido en las dos salidas, clasificador y clculo de
tensiones, no supera el 5 %.
199
Altura
conductor 2
Altura
Altura
conductor 3 cable de tierra
(m)
(m)
(m)
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
5
5
5
8
8
8
11
11
11
14
14
14
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
7
7
7
10
10
10
13
13
13
16
16
16
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
9
9
9
12
12
12
15
15
15
18
18
18
SALIDAS
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Resistencia
puesta a
tierra
(
)
Intensidad
(m)
Distancia
al eje
conductor 1
(m)
8.0
8.0
8.0
9.5
11.0
11.0
12.5
12.5
12.5
15.5
15.5
17.0
17.0
20.0
20.0
20.0
10.5
12.0
12.0
15.0
15.0
15.0
16.5
16.5
18.0
21.0
21.0
21.0
-3
-3
-3
-1
-1
-1
-1
-3
-3
-1
-1
-1
-1
-1
-1
-1
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
3
3
3
1
1
1
1
3
3
1
1
1
1
1
1
1
1.5
1.5
1.5
0.5
0.5
0.5
0.5
0.5
0.5
1.5
1.5
1.5
70
70
70
10
10
40
40
10
10
40
40
70
70
40
40
40
40
40
70
10
10
10
40
40
40
70
70
70
29
136
66
52
18
11
92
44
42
18
30
34
17
33
22
10
23
21
68
30
150
9
59
20
22
78
142
56
(kA)
Tiempo Distancia
de frente descarga lnea
(m)
(
s)
9.0
3.0
3.5
2.0
4.5
6.5
9.0
2.0
2.0
5.0
6.5
3.0
3.5
1.5
9.0
4.0
10.5
9.0
6.0
2.0
6.0
2.0
1.5
5.5
1.5
5.5
8.0
2.5
377
147
161
432
488
132
169
171
14
411
463
303
196
358
486
269
251
418
115
129
95
485
279
205
394
265
450
362
Velocidad
Tipo
Tensin
descarga
(km/s)
76350
31777
61855
92757
46634
62081
61182
102868
136539
61905
48117
86004
79542
100006
61462
69497
33577
133333
82608
141703
38035
82897
109728
97807
78116
50988
57135
56223
(kV)
0
0
0
0
0
0
0
0
2
0
0
0
0
0
0
0
0
0
0
0
2
0
0
0
0
0
0
0
12.30
776.40
135.40
83.52
37.39
18.09
134.33
144.10
243.13
41.02
70.39
97.36
54.32
143.15
33.30
37.26
42.74
4.28
89.01
57.09
976.40
22.21
206.35
27.84
103.72
326.07
279.95
364.64
200
Validacin
La validacin de esta red neuronal se ha realizado con 6000 patrones que no han intervenido en
el proceso de entrenamiento. Se han utilizado las mismas 6 configuraciones de lnea que se
encuentran definidas en la Tabla 6.12.
Los grficos de las figuras 6.39, 6.40, y 6.41 muestran los resultados obtenidos para 3 de las
configuraciones anteriores. Los resultados obtenidos con las otras configuraciones son similares.
Los resultados han sido similares a los obtenidos con el mtodo de Rusck para lneas
apantalladas, aunque ahora la red neuronal es algo ms compleja. Los grficos apenas muestran
confusin por parte de la red neuronal en la clasificacin de descargas, y adems, en general el
error cometido en el clculo de las tensiones es inferior al 3 %.
Figura 6.37. Arquitectura de la red neuronal (Mtodo de Chowdhuri con lneas apantalladas).
201
202
Figura 6.39. Validacin de la red neuronal. Lnea horizontal, altura conductores = 10 m, distancia entre conductores ms externos = 4 m,
altura cable de tierra = 11.5 m, resistencia de puesta a tierra = 50 .
203
Figura 6.40. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m, distancia horizontal conductores - cable de tierra = 1 m,
altura cable de tierra = 15.5 m, resistencia de puesta a tierra = 50 .
204
Figura 6.41. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m, distancia horizontal conductores - cable de tierra = 1.5 m,
altura cable de tierra = 19.5 m, resistencia de puesta a tierra = 70 .
205
Entrenamiento
Para entrenar la red neuronal se seguir la metodologa utilizada en los apartados anteriores. La
Tabla 6.14 muestra una parte de los datos utilizados en el entrenamiento.
La estructura de red neuronal utilizada ha sido la siguiente
2 capas de neuronas ocultas, con 14 y 12 neuronas respectivamente
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
El entrenamiento de esta red neuronal se puede resumir en los siguientes pasos
1) Estudio previo. Se guardan los pesos y los umbrales que dan el mnimo error.
2) Ajuste de la pendiente de las funciones de transferencia. Se mantiene un valor unidad para la
pendiente de la funcin tan-sigmoidal, y un valor de 0.1 para la funcin lineal.
3) Se entrena la red neuronal con la estructura comentada anteriormente y con las pendientes
ajustadas hasta que el error se estabiliza. La figura 6.42 muestra la arquitectura de la red, y la
figura 6.43 muestra los resultados del entrenamiento obtenidos con esta red. Se puede
observar que en general el error cometido en las dos salidas, clasificador y clculo de
tensiones, se encuentra acotado por debajo del 10 %. Los resultados han sido algo peores que
cuando se supuso que la velocidad segua una distribucin uniforme, lo cual es lgico porque
la complejidad de la red neuronal ha aumentado.
206
Intensidad
(m)
5
5
5
5
5
5
5
5
5
5
8
8
8
8
8
8
8
8
8
8
11
11
11
11
11
11
11
11
11
11
14
14
14
14
14
14
14
14
14
14
17
17
17
17
17
17
17
17
17
17
(kA)
33
61
39
13
19
30
19
33
38
34
57
26
17
13
19
30
96
33
38
34
36
18
23
21
4
22
13
6
15
25
33
38
34
46
21
50
40
49
45
17
50
66
25
58
26
17
14
19
30
101
Distancia
descarga - lnea
(m)
180
268
86
45
376
122
99
357
346
250
92
312
130
231
194
440
417
175
164
68
354
416
76
151
457
44
363
96
427
173
172
161
65
200
117
264
193
354
428
234
138
25
99
405
492
311
44
375
253
97
SALIDAS
Velocidad
(km/s)
189164
221982
197870
136277
157425
182746
155906
189164
197139
190863
111845
78178
64567
56773
67218
83642
139184
88060
93326
89268
116477
86204
95400
91473
42008
93466
72761
49079
77999
100000
74647
79730
75699
86642
59537
90453
81175
89626
86204
53620
211598
225918
173205
219407
174348
151115
138325
157425
182746
245354
50
50
50
50
50
50
50
50
50
50
350
350
350
350
350
350
350
350
350
350
200
200
200
200
200
200
200
200
200
200
500
500
500
500
500
500
500
500
500
500
50
50
50
50
50
50
50
50
50
50
Tipo
descarga
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
1
Tensin
(kV)
40.82
54.27
101.66
57.21
10.51
53.11
38.91
20.60
24.88
30.39
187.30
23.17
35.92
15.28
26.36
19.22
74.09
54.53
66.72
144.39
42.36
17.17
119.03
54.39
3.16
5408.67
13.30
21.07
13.25
59.62
94.67
117.47
8800.07
115.11
84.04
96.56
102.19
70.56
53.11
33.27
287.43
17335.63
185.40
115.87
38.22
38.42
3572.99
36.08
87.48
26731.23
207
Figura 6.42. Arquitectura de la red neuronal (Mtodo de Rusck con lneas sin apantallar).
Validacin
La validacin de esta red neuronal se ha realizado con 10000 patrones que no han intervenido en
el proceso de entrenamiento. Se han utilizado 1000 patrones para cada combinacin de la altura
de la lnea y del parmetro W mostrada en la Tabla 6.15. Los grficos de las figuras 6.44, 6.45, y
6.46 muestran los resultados obtenidos para 3 de las configuraciones anteriores. Los resultados
obtenidos con las otras configuraciones son similares. Estos resultados muestran que en la
inmensa mayora de los casos el error cometido en el clculo de tensiones se encuentra por
debajo del 3 %, y que la red neuronal apenas muestra confusin en la clasificacin de descargas.
Tabla 6.15. Variables altura y parmetro W.
h (m)
5
8
8
10
10
11
14
14
17
17
W
50
200
500
350
500
50
200
500
350
200
208
209
210
211
212
Entrenamiento
Para entrenar la red neuronal se seguir la metodologa utilizada en los apartados anteriores. La
Tabla 6.16 muestra una parte de los datos utilizados en el entrenamiento.
La estructura de red neuronal utilizada ha sido la siguiente
2 capas de neuronas ocultas, con 14 y 12 neuronas respectivamente
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
El entrenamiento de esta red neuronal tiene los siguientes pasos
1) Estudio previo. Se guardan los pesos y los umbrales que dan el mnimo error.
2) Ajuste de la pendiente de las funciones de transferencia. Se mantiene un valor unidad para la
pendiente de la funcin tan-sigmoidal, y un valor de 0.1 para la funcin lineal.
3) Se entrena la red neuronal con la estructura comentada anteriormente y con las pendientes
ajustadas hasta que el error se estabiliza. La figura 6.47 muestra la arquitectura de la red, y la
figura 6.48 muestra los resultados del entrenamiento obtenidos con esta red. Tal y como
ocurri con el mtodo de Rusck, los resultados han sido algo peores que cuando se supuso
que la velocidad segua una distribucin uniforme. Ahora el error cometido en las dos salidas,
clasificador y clculo de tensiones, se encuentra acotado por debajo del 5 %.
213
Altura
conductor 2
Altura
conductor 3
(m)
(m)
5
5
5
8
8
8
11
11
11
14
14
14
17
17
17
5
5
5
8
8
8
8
11
11
11
14
14
14
5
5
5
8
8
8
11
11
11
14
14
14
17
17
17
7
7
7
10
10
10
10
13
13
13
16
16
16
SALIDAS
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Intensidad
Tiempo
de frente
(m)
Distancia
al eje
conductor 1
(m)
(kA)
5
5
5
8
8
8
11
11
11
14
14
14
17
17
17
9
9
9
12
12
12
12
15
15
15
18
18
18
-3
-3
-3
-1
-1
-1
-3
-3
-3
-3
-3
-3
-1
-1
-1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
3
3
3
1
1
1
3
3
3
3
3
3
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
83
32
34
62
41
38
54
20
86
29
70
18
24
40
60
9
29
27
16
38
25
80
22
67
4
25
15
46
(
s)
5.0
6.5
3.0
7.5
3.5
3.0
2.0
4.0
5.0
4.0
8.5
5.5
2.5
2.5
3.5
3.5
2.5
6.0
1.5
3.5
4.5
6.5
2.0
9.5
7.0
8.0
2.5
3.0
Distancia
descarga lnea
(m)
Velocidad
80
289
377
258
323
458
424
492
285
177
238
181
20
153
493
247
157
314
315
45
318
480
315
15
402
240
310
437
131025
86829
88667
99285
82120
79241
216173
160357
238306
106759
152753
86204
170848
200000
221565
60573
105950
103464
62725
93326
77460
129069
61588
102786
26726
99105
79241
129152
Tipo
descarga
(km/s)
Tensin
(kV)
350
350
350
500
500
500
50
50
50
200
200
200
50
50
50
200
200
200
350
350
350
350
500
500
500
200
200
200
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
1
0
0
0
0
18791.36
19.91
38.33
44.49
77.98
72.21
10.27
7.90
15.79
71.01
32.51
45.20
6351.99
35.27
15.21
29.15
68.44
21.19
127.84
9531.97
57.20
38.39
184.52
17349.94
27.40
36.56
91.04
77.82
214
Figura 6.47. Arquitectura de la red neuronal (Mtodo de Chowdhuri con lneas sin apantallar).
Validacin
La red neuronal se ha validado con 10000 patrones que no han intervenido en el proceso de
entrenamiento, con 1000 patrones para cada una de las configuraciones de lnea mostradas en la
Tabla 6.17. Los grficos de las figuras 6.49, 6.50, y 6.51 muestran los resultados obtenidos para
3 de las configuraciones anteriores. Los resultados obtenidos con las otras configuraciones son
similares. En general, el error cometido en el clculo de tensiones se encuentra por debajo del 3
%, y la red neuronal apenas muestra confusin en la clasificacin de descargas.
Tabla 6.17. Variables altura, distancia al eje de la lnea y parmetro W.
Lnea
horizontal
Lnea
vertical
hc1 (m)
5
10
10
17
17
5
5
10
10
14
hc2 (m)
5
10
10
17
17
7
7
12
12
16
hc3 (m)
5
10
10
17
17
9
9
14
14
18
xc1 (m)
-1.5
-2
-2
-3
-3
0
0
0
0
0
xc2 (m)
0
0
0
0
0
0
0
0
0
0
xc3 (m)
1.5
2
2
3
3
0
0
0
0
0
W
50
200
500
350
500
50
200
500
350
200
215
216
Figura 6.49. Validacin de la red neuronal. Lnea horizontal, altura = 10 m, distancia entre conductores ms externos = 4 m, W = 200.
217
Figura 6.50. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m, W = 500.
218
Figura 6.51. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m, W = 200.
219
220
Altura
conductor 2
Altura
Altura
conductor 3 cable de tierra
(m)
(m)
(m)
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
5
5
5
8
8
8
11
11
11
14
14
14
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
7
7
7
10
10
10
13
13
13
16
16
16
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
9
9
9
12
12
12
15
15
15
18
18
18
SALIDAS
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Resistencia
puesta a
tierra
(
)
Intensidad
(m)
Distancia
al eje
conductor 1
(m)
Velocidad
(kA)
Distancia
descarga lnea
(m)
6.5
6.5
6.5
11.0
11.0
11.0
14.0
14.0
14.0
15.5
15.5
15.5
15.5
20.0
20.0
20.0
12.0
12.0
12.0
15.0
15.0
15.0
16.5
16.5
16.5
21.0
21.0
21.0
-1.0
-1.0
-1.0
-1.0
-1.0
-1.0
-1.0
-1.0
-1.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
0.5
0.5
0.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
1.5
10
10
10
10
10
10
70
70
70
10
10
10
10
10
10
10
70
70
70
40
40
40
70
70
70
10
10
10
27
23
27
24
35
80
33
33
36
16
15
20
31
29
47
82
15
25
44
31
23
20
45
46
28
60
7
75
131
147
214
127
305
266
464
428
188
386
30
239
84
53
171
221
233
411
372
157
23
27
352
304
235
146
342
358
177647
168393
177647
75251
90453
129399
112902
112163
116477
62725
59835
69749
85574
180763
208826
236177
79241
99105
127395
72486
62254
58835
206474
207666
179743
98198
33985
108347
Tipo
descarga
(km/s)
Tensin
(kV)
50
50
50
350
350
350
200
200
200
350
350
350
350
50
50
50
200
200
200
500
500
500
50
50
50
500
500
500
0
0
0
0
0
0
0
0
0
0
2
0
0
2
0
0
0
0
0
0
2
2
0
0
0
0
0
0
31.54
23.47
19.26
38.14
24.38
69.35
22.96
24.44
61.38
13.22
83.41
27.14
123.92
166.63
154.07
220.55
15.95
15.38
32.39
61.87
326.95
290.62
64.03
76.00
56.35
192.08
7.78
100.29
221
Figura 6.52. Arquitectura de la red neuronal (Mtodo de Rusck con lneas apantalladas).
Validacin
La red neuronal se ha validado con 10000 patrones que no han intervenido en el proceso de
entrenamiento, con 1000 patrones para cada una de las configuraciones de lnea mostradas en la
Tabla 6.19. Los grficos de las figuras 6.54, 6.55, y 6.56 muestran los resultados obtenidos para
3 de las configuraciones anteriores. Los resultados obtenidos con las otras configuraciones son
similares. Al igual que en el entrenamiento, en general los errores correspondientes a ambas
salidas de la red neuronal, clasificador y clculo de tensiones, se encuentran por debajo del 10 %.
Tabla 6.19. Variables altura de los conductores, altura del cable de tierra,
distancia al eje de los conductores, resistencia de puesta a tierra y parmetro W.
Lnea
horizontal
Lnea
vertical
hc1 (m)
hc2 (m)
hc3 (m)
hct (m)
xc1 (m)
xc2 (m)
xc3 (m)
5
10
10
17
17
5
5
10
10
14
5
10
10
17
17
7
7
12
12
16
5
10
10
17
17
9
9
14
14
18
6.5
11.5
11.5
18.5
18.5
10.5
10.5
15.5
15.5
19.5
-1.5
-2
-2
-3
-3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1.5
2
2
3
3
0
0
0
0
0
R (
)
30
50
50
10
10
20
20
50
50
70
W
50
200
500
350
500
50
200
500
350
200
222
223
Figura 6.54. Validacin de la red neuronal. Lnea horizontal, altura conductores = 10 m, distancia entre conductores ms externos = 4 m,
altura cable de tierra = 11.5 m, resistencia de puesta a tierra = 50 , W = 200.
224
Figura 6.55. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m, distancia horizontal conductores - cable de tierra = 1 m,
altura cable de tierra = 15.5 m, resistencia de puesta a tierra = 50 , W = 500.
225
Figura 6.56. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m, distancia horizontal conductores - cable de tierra = 1.5 m,
altura cable de tierra = 19.5 m, resistencia de puesta a tierra = 70 , W = 200.
226
Entrenamiento
Para entrenar la red neuronal se seguir la metodologa utilizada en los apartados anteriores. La
Tabla 6.20 muestra una parte de los datos utilizados en el entrenamiento.
La estructura de red neuronal utilizada ha sido la siguiente
2 capas de neuronas ocultas, con 14 y 12 neuronas respectivamente
funciones de transferencia: tan-sigmoidal (capas ocultas), lineal (capa de salida)
tasa de aprendizaje variable, 0=0.25, i=1.01, d=0.6
momento =0.9.
El entrenamiento de esta red neuronal tiene los siguientes pasos
1) Estudio previo. Se guardan los pesos y los umbrales que dan el mnimo error.
2) Ajuste de la pendiente de las funciones de transferencia. Se mantiene un valor unidad para la
pendiente de la funcin tan-sigmoidal, y un valor de 0.3 para la funcin lineal.
3) Se entrena la red neuronal con la estructura comentada anteriormente y con las pendientes
ajustadas hasta que el error se estabiliza. La figura 6.57 muestra la arquitectura de la red, y la
figura 6.58 muestra los resultados del entrenamiento obtenidos con esta red. Se puede
observar que el error cometido por el clasificador se encuentra por debajo del 5 %, y que el
error cometido en el clculo de tensiones es inferior al 10 %.
227
Altura
conductor 2
Altura
Altura
conductor 3 cable de tierra
(m)
(m)
(m)
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
5
5
5
8
8
8
11
11
11
14
14
14
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
7
7
7
10
10
10
13
13
13
16
16
16
5
5
5
8
8
8
11
11
11
14
14
14
14
17
17
17
9
9
9
12
12
12
15
15
15
18
18
18
SALIDAS
Distancia
al eje
conductor 2
(m)
Distancia
al eje
conductor 3
(m)
Resistencia
puesta a
tierra
(
)
Intensidad
(m)
Distancia
al eje
conductor 1
(m)
6.5
6.5
6.5
11.0
11.0
11.0
12.5
12.5
12.5
17.0
17.0
17.0
17.0
20.0
20.0
20.0
12.0
12.0
12.0
15.0
15.0
15.0
16.5
16.5
16.5
19.5
19.5
19.5
-3.0
-3.0
-3.0
-1.0
-1.0
-1.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
-3.0
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
1.5
1.5
1.5
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
1.5
1.5
1.5
3.0
3.0
3.0
1.0
1.0
1.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
0.5
0.5
0.5
1.5
1.5
1.5
0.5
0.5
0.5
1.5
1.5
1.5
70
70
70
70
70
70
40
40
40
40
40
40
40
70
70
70
10
10
10
40
40
40
10
10
10
40
40
40
29
17
37
49
32
38
161
32
15
32
51
17
26
13
9
43
38
10
48
18
34
23
36
25
53
22
25
64
(kA)
Tiempo Distancia
de frente descarga lnea
(m)
(
s)
2.5
1.5
3.5
5.0
4.5
2.5
3.0
4.0
4.0
4.0
4.0
8.5
8.5
4.5
3.0
4.5
6.0
3.0
3.0
6.0
3.0
1.5
5.5
4.0
5.5
2.0
3.5
5.5
358
310
49
219
469
58
393
268
59
425
266
187
11
151
475
436
223
305
251
365
310
207
360
83
317
314
266
466
Velocidad
Tipo
Tensin
descarga
(km/s)
105950
82820
118535
210511
186508
196396
168214
86204
60816
86204
106528
63654
78889
136277
114354
203350
93885
50000
103705
85096
114354
95400
77242
64838
92477
165831
172039
224393
(kV)
200
200
200
50
50
50
350
350
350
350
350
350
350
50
50
50
350
350
350
200
200
200
500
500
500
50
50
50
0
0
2
0
0
2
0
0
0
0
0
0
2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
25.02
35.88
636.78
7.41
3.89
627.44
67.64
57.96
72.16
59.62
83.08
32.74
343.69
17.61
14.12
10.06
32.32
36.38
64.84
18.93
47.03
101.39
57.04
114.29
66.89
24.67
15.37
11.25
228
Validacin
Para validar esta red neuronal se ha seguido un procedimiento similar al utilizado con el mtodo
de Rusck. La red neuronal se ha validado con 10000 patrones que no han intervenido en el
proceso de entrenamiento, distribuyendo 1000 para cada una de las configuraciones de lnea
mostradas en la Tabla 6.19. Los grficos de las figuras 6.59, 6.60, y 6.61 muestran los resultados
obtenidos para 3 de las configuraciones anteriores. Los resultados obtenidos con las otras
configuraciones son similares. Los resultados de la validacin muestran que los errores
correspondientes a ambas salidas de la red neuronal, clasificador y clculo de tensiones, en
general se encuentran acotados por debajo del 10 %.
Figura 6.57. Arquitectura de la red neuronal (Mtodo de Chowdhuri con lneas apantalladas).
229
230
Figura 6.59. Validacin de la red neuronal. Lnea horizontal, altura conductores = 10 m, distancia entre conductores ms externos = 4 m,
altura cable de tierra = 11.5 m, resistencia de puesta a tierra = 50 , W = 200.
231
Figura 6.60. Validacin de la red neuronal. Lnea vertical, altura c1 =10 m, altura c2 =12 m, altura c3 =14 m, distancia horizontal conductores - cable de tierra = 1 m,
altura cable de tierra = 15.5 m, resistencia de puesta a tierra = 50 , W = 500.
232
Figura 6.61. Validacin de la red neuronal. Lnea vertical, altura c1 =14 m, altura c2 =16 m, altura c3 =18 m, distancia horizontal conductores - cable de tierra = 1.5 m,
altura cable de tierra = 19.5 m, resistencia de puesta a tierra = 70 , W = 200.