Beruflich Dokumente
Kultur Dokumente
BELM-PA
2012
1
Brigida Cristina Fernandes Batista
BELM-PA
2012
2
Brigida Cristina Fernandes Batista
Banca examinadora
___________________________________________
___________________________________________
__________________________________________________
___________________________________________
3
Dedicatria
4
Agradecimentos
minha me Ana Cristina pela pacincia e por sempre acreditar em mim, muitas vezes
mais que eu mesma. Agradeo a sua dedicao e preocupao com meu futuro.
Ao meu amigo Cristyan Pinheiro, que talvez, o maior responsvel por eu ter
ingressado neste mestrado, por seu incentivo, apoio e companheirismo em todas as fases
do curso.
A minha turma de mestrado de 2010, aos que continuaram at o fim e aos que mudaram
seus caminhos no decorrer desses anos, em especial as my friends Marly dos Anjos e
Juliana Nunes, pelo apoio e amizade.
Ao meu querido Wagner Vital, por sempre ter uma palavra de incentivo, por seu
companheirismo e apoio na realizao dessa etapa de minha vida.
Aos professores do ICEN, por todo o aprendizado e amizade adquiridos durante esses 6
anos e meio de estudos
Aos professores da banca, Arthur Almeida, Celsa Maranho, Marcus Rocha e Regivan
Nunes, pelo interesse e colaborao.
5
Sumrio
Resumo 9
Abstract 10
Introduo 11
1.1 Introduo.......................................................................................................14
1.4.1 - Feedforward.............................................................................................19
6
1.5.3 - Rede Perceptron de mltiplas camadas (PMC).......................................28
Captulo 2 METODOLOGIA 39
2.1 Introduo........................................................................................................39
Captulo 3 RESULTADOS 55
3.1 Introduo......................................................................................................55
7
3.3 - A Rede Neural para soluo de Edos de segunda ordem...............................63
Referncias Bibliogrficas 88
8
Resumo
Neste trabalho mostrado um mtodo para resolver ambas as equaes
diferenciais, ordinrias e parciais, utilizando uma rede neural artificial feedforward
como elemento fundamental de aproximao, cujos parmetros (pesos e bias) so
ajustados para minimizar uma funo erro apropriada. A rede neural implementada no
software MATLAB. Para treinar os parmetros foi utilizado o mtodo da descida mais
ngreme e mtodo de Levenberg-Marquardt, os quais precisaram do clculo do
gradiente. A soluo aproximada da equao diferencial escrita como a soma de dois
termos, o primeiro construdo para satisfazer as condies iniciais e de fronteira e o
segundo contm os parmetros ajustveis da rede. Foi feito uma comparao dos
problemas de edos de 1 ordem e o do sistema acoplado de edos com os mtodos de
Runge-Kutta e os problemas de edos de 2 ordem e as edps com o mtodo de
diferenas finitas.
9
Abstract
This work provides a method to solve ordinary and partial differential
equations, using feedforward artificial neural network approach as a fundamental
element, whose parameters (weights and biases) are adjusted to minimize an appropriate
error function. The neural network is implemented in MATLAB software. To train the
parameters we used the method of steepest descent and Levenberg-Marquardt
method, which required the calculation of the gradient. The approximate solution of the
differential equation is written as a sum of two terms, the first satisfies the initial and
boundary conditions and the second containing the adjustable parameters of the
network. A comparison was made of the problems of ODE's 1st order and the coupled
system of ODEs with Runge-Kutta methods and problems of ODE's 2nd order and
the PDE's with the finite difference method.
10
Introduo
A primeira publicao relacionada neurocomputao segundo (SILVA et al,
2010) aconteceu em 1943, atravs de um artigo elaborado por Walter Pitts e McCulloch
(1943), o primeiro matemtico e o segundo neurofisiologista. Foi neste artigo que
realizaram a primeira modelagem matemtica inspirada no neurnio biolgico,
resultando assim na primeira concepo de neurnio artificial.
Em 1949, o primeiro mtodo de treinamento para rede foi proposto por Donald
Hebb, a qual denominou-se de regra de aprendizagem de Hebb.
Em 1957 Frank Rosenblatt criou uma rede neural que foi batizada com o nome
Perceptron. Esta rede, segundo Ludwig Jr (2007), teve origem em uma simulao
computacional para a retina, o qual demonstrou como o sistema nervoso visual
reconhece padres. Aps esse episdio muitos pesquisadores da poca ficaram
incentivados a realizar pesquisas relacionadas a inteligncia artificial. Porm em 1969, a
neurocomputao sofreu um revs com a publicao de Marvin Minsky e Seymour e
Papert que provaram no trabalho intitulado Perceptrons- na introduction to
computational geometry, que redes neurais de uma nica camada, como a proposta por
Rosenblatt, no realizam classificaes de padres para classes no linearmente
separveis.
11
Milligen et al, (1995) propem um mtodo para resolver equaes diferenciais
baseado nas redes neurais, para demonstrar o potencial do mtodo, o mesmo aplicado
em um problema de equilbrio de plasma bidimensional ideal e concluem que os
presentes processos, relativamente simples, fornecem uma prova de princpio do poder
e possibilidades do mtodo proposto.
Shirvany et al, (2009) utilizaram uma rede neural tipo Perceptron de Mltiplas
Camadas (PMC) e Funo de Base Radial (FBR) para resolver ambos os tipos de
equaes diferenciais, ordinrias e parciais. Eles aplicaram o mtodo na equao no
linear de Schrondinger. Eles concluem que os resultados demonstram a ampla
aplicabilidade do mtodo e tambm mostram que o mtodo utilizado por eles
pode resolver equaes diferenciais de forma eficaz com menor nmero de parmetros
desconhecidos, em comparao com os mtodos convencionais.
12
Neste trabalho foi utilizado a mesma metodologia de Lagaris et al. (1998) para
resolver equaes diferenciais ordinrias e parciais, definidas em um domnio regular,
porm, aplica-se o mtodo de Levenberg-Marquardt e o mtodo da descida mais
ngreme para treinar a rede.
13
CAPTULO 1
REDES NEURAIS
1.1 - INTRODUO
14
A Figura 1.1 mostra o modelo de um neurnio biolgico com todos os seus
principais componentes.
Onde:
Sinais de entrada ;
15
So sinais ou medidas advindas do meio externo, que so anlogos aos
impulsos eltricos externos captados pelos dendritos do neurnio biolgico, esses sinais
representam valores assumidos pelas variveis de uma aplicao especfica.
Pesos sinpticos ;
So valores que iro ponderar cada uma das variveis de entrada da rede, esses
pesos por sua vez sero anlogos as ponderaes exercidas pelas junes sinpticas do
modelo biolgico.
Tem como funo agregar todos os sinais de entrada que foram ponderados
pelos respectivos pesos sinpticos a fim de produzir um valor de potencial de ativao
uma varivel que especifica qual ser o patamar apropriado para que o
resultado produzido pelo combinador linear possa gerar um valor de disparo em direo
sada do neurnio;
Funo de ativao { };
{
( )
16
Funes de ativao parcialmente diferenciveis.
Funo degrau ( ) {
Funo rampa
simtrica ( ) {
17
Funes de ativao totalmente diferenciveis.
Funo sigmoidal
( )
(logstica)
Funo tangente
hiperblica ( )
( )
Funo gaussiana ( )
Funo linear ( )
18
1.4 - ARQUITETURA DAS REDES NEURAIS E PROCESSO DE
TREINAMENTO.
Camada de entrada.
Camadas escondidas, intermedirias, ocultas ou invisveis.
Camada de sada.
Figura 1.3 - Neurnio artificial com quatro camadas com estrutura feedforward.
19
Figura 1.4 - Neurnio artificial com uma camada com estrutura recorrente.
20
1.4.3.4 Aprendizagem usando lote de padro-por-padro (on-line)
Neste tipo de aprendizagem ao contrrio da anterior (off-line), os ajustes dos pesos e
limiares so feitos aps a apresentao de cada amostra de treinamento. Portanto, aps a
execuo do passo de ajuste, a respectiva amostra pode ser descartada.
Figura 1.5 - Modelo de um neurnio artificial com n sinais de entrada e somente uma sada.
21
1.5.1.1 - Princpio de funcionamento do Perceptron.
Nota-se na Figura 1.5 que inicialmente cada uma das entradas { sero
ponderadas pelos pesos sinpticos { } a fim de quantificar a importncia de cada um
frente aos objetivos funcionais atribudos ao neurnio. Em seguida, o valor resultante da
soma de todas as entradas j devidamente ponderadas, adicionado ainda ao limiar de
ativao (bias) { }, repassado como argumento (potencial de ativao) para a funo
de ativao {u}, cujo resultado de retorno ser a sada { } produzida pelo Perceptron.
( )
{
( ) ( )
22
Em termos matemticos, a sada do perceptron, tendo-se como ativao a
funo sinal definida na seo (1.3.1), ser dada por:
Para o caso do Perceptron de duas entradas da Figura 1.6, a Figura 1.7 (a)
ilustra uma reta posicionada na fronteira de separabilidade de classes linearmente
separveis, em quanto que a Figura 1.7 (b) ilustra uma configurao em que as classes
no so linearmente separveis.
Figura 1.7 - (a) Ilustrao de fronteira de separao. Figura 1.7 - (b) Ilustrao de fronteira no
linearmente separvel.
O ajuste correto dos pesos sinpticos de uma rede permite que, dado um
conjunto de sinais de entrada, essa rede aps ter processado estes sinais de entrada
atravs de seus neurnios apresente a sada desejada, com um nvel de erro aceitvel.
Este ajuste obtido, iterativamente, por meio da regra de Hebb (SILVA et al, 2010).
23
A expresso que representa este processo a apresentada nas Equaes (1.3) e
(1.4) a seguir:
( ) ( )
( ) ( )
{ ( ) ( )
( ) ( )
Onde:
Como a mesma regra de ajuste aplicada tanto para os pesos sinpticos como
para o limiar, pode-se ento inserir o valor do limiar { } dentro do vetor de pesos
sinpticos. Portanto podemos representar as expresses anteriores (1.3) e (1.4) por uma
nica expresso vetorial dada por:
( ) ( )
( ) (1.5)
24
Figura 1.9 - Neurnio com n-sinais de entrada na rede Adaline.
{
( )
(1.6)
25
exemplo do conjunto, e iteraes locais, para com isso ajustar os pesos e limiar (bias) do
neurnio. Ou seja, esse mtodo utiliza a minimizao do erro quadrtico entre u e d com
o intuito de ajustar o vetor de pesos da rede.
( ) ( ) (1.7)
( ) ( )
( ) (1.8)
( ) ( )
( ) ( ( )) (1.9)
( ) ( )
( ) ( ( )) (1.10)
Com o objetivo de encontrar o valor timo para o erro quadrtico mdio dado,
aplica-se o operador gradiente em relao ao vetor de pesos w.
( )
( ) (1.11)
Assim,
( ) ( ) ( )
( ) ( ( )) ( ) (1.12)
Da,
( ) ( )
( ) ( ) (1.13)
Pois
( )
26
O treinamento do vetor de pesos deve ser efetivado em direo a um ponto de
mnimo, caminhando-se simplesmente no sentido oposto ao gradiente naquele ponto,
pois o objetivo da otimizao minimizar o erro quadrtico mdio. Por esse motivo a
variao a ser efetivada no vetor de pesos do Adaline dada por:
( ) (1.14)
27
1.5.3- Rede Perceptron de mltiplas camadas (PMC).
Pode-se observar atravs da Figura 1.10 que cada uma das entradas da rede,
representando os sinais advindos de determinada aplicao ser distribuda uma a uma
para os neurnios da camada seguinte, neste caso, as sadas dos neurnios da primeira
camada neural escondida sero as prprias entradas daqueles neurnios pertencentes a
segunda camada neural escondida, e assim sucessivamente. Ou seja, o perceptron de
mltiplas camadas funciona como uma sequncias de perceptrons simples
interconectados, tendo sempre sua propagao sendo feita da camada de entrada em
direo a camada de sada.
28
relacionado ao comportamento entrada/sada do sistema ser distribudo por todos os
neurnios constituintes do PMC.
29
conexes entre os neurnios da rede de acordo com o erro, ou seja, esta regra tem como
objetivo encontrar um conjunto de pesos e polarizaes que minimizem a funo erro.
Ser visto cada neurnios {j} pertencentes a uma das camadas {L} da
topologia ilustrada na Figura 1.11 como um perceptron simples como mostra a Figura
1.12:
30
Atravs das Figuras 1.11 e 1.12, assume-se ento a seguinte terminologia para
seus parmetros constituintes:
( )
1) So matrizes de pesos cujos elementos denotam o valor do peso
sinptico conectando o j-simo neurnio da camada (L) ao i-simo neurnio da camada
(L-1). Para a topologia ilustrada na Figura 1.11, tem-se:
( )
o peso sinptico conectando o j-simo neurnio da camada de sada ao
i-simo neurnio da camada 2;
( )
o peso sinptico conectando o j-simo neurnio da camada escondida 2
ao i-simo neurnio da camada 1;
( )
o peso sinptico conectando o j-simo neurnio da camada escondida 1
ao i-simo neurnio da camada de entrada.
( )
2) So vetores cujo os elementos denotam a entrada ponderada em relao
ao j-simo neurnio da camada L, os quais so definidos por:
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( )
3) So vetores cujos elementos denotam a sada do j-simo neurnio em
relao camada L, os quais so definidos por:
( ) ( )
( )
( ) ( )
( )
( ) ( )
( )
( ) ( ) ( )
31
Onde
( )
Onde ( ) o valor produzido pelo j-simo neurnio de sada da rede
considerando-se a k-sima amostra de treinamento, enquanto que ( ) o seu
respectivo valor desejado.
( )
( ) ( )
O objetivo determinar o gradiente , para aplicar a correo na
( )
matriz de pesos com o intudo de minimizar o erro entre a sada produzida pela
rede e sua respectiva sada desejada. De acordo com a regra da cadeia do calculo, pode
expressar esse gradiente como:
( ) ( )
( )
( ) ( ) ( ) ( ) (1.18)
( )
( )
( ) ( ) (1.20)
32
( )
( ) ( ) (1.21)
( ) ( ) ( )
( )
( ) ( )
( )
Logo, o ajuste da matriz de pesos deve ser efetuado em direo oposta ao
gradiente afim de minimizar o erro (mtodo da descida mais ngreme), ou seja:
( ) ( ) ( ) ( )
( ) (1.22)
Onde
( ) ( ) ( )
( ) ( ) definido como o gradiente local em relao ao j-
simo neurnio da camada de sada.
33
( ) ( )
( )
( ) ( ) ( ) ( ) (1.23)
( )
( )
( ) ( ) (1.25)
( ) ( ) ( )
( )
( ) ( ) ( ) ( ) ( ) (1.26)
( ) ( )
( )
Onde o valor da derivada parcial do argumento da parcela ( ) o
( )
prprio , ou seja:
( )
( ) ( ) (1.27)
( ) ( ) ( ) ( )
( )
( ) ( )
( )
Logo, o ajuste da matriz de pesos deve ser efetuado em direo oposta a
gradiente afim de minimizar o erro, ou seja:
( ) ( ) ( ) ( )
( ) (1.30)
34
Onde
( ) ( ) ( ) ( )
( ) ( ) definido como o gradiente local em
relao ao j-simo neurnio da segunda camada intermediria.
( ) (1.32)
( )
( )
( ) ( ) (1.33)
( ) ( ) ( )
( )
( ) ( ) ( ) ( ) ( ) (1.34)
( )
( ) ( ) (1.35)
35
Logo substituindo (1.36) em (1.35), obtm-se:
( ) ( )
( ) (1.37)
( ) ( ) ( )
( )
( ) ( )
( )
Logo, o ajuste da matriz de pesos deve ser efetuado em direo oposta a
gradiente afim de minimizar o erro (mtodo da descida mais ngreme), ou seja:
( ) ( ) ( )
( ) (1.38)
Onde
( ) ( ) ( ) ( )
( ) ( ) definido como o gradiente local em
relao ao j-simo neurnio da primeira camada intermediria.
Esse mtodo aplicvel em uma funo de custo que expressa como a soma
de erros quadrticos. Seja
36
( ) ()
()
( ) () [ ] ( )
( ) ( ) ( )( ) (1.39)
Onde ( ) o vetor
( ) ( ) ( ) ( )
( ) ( )
( )
( ) ( )
[ ]
( ) ( ) ( ) ( )
( ) { ( ) }
( ) ( ) ( )( ) ( )( )
Onde ( ( ))
37
( ) ( ) ( )( )
( ) ( ) ( ( ) ( )) ( ) ( )
( ) ( ) ( ( )( ) ) ( ) ( )
38
CAPTULO 2
METODOLOGIA
2.1- INTRODUO
( ( ) ( ) ( )) (2.1)
39
Sujeita a condies de fronteira (CF) ou condies iniciais (CI), como as
condies de Dirichlet e/ou Neumann, onde;
( )
Para obter uma soluo para a equao diferencial (2.1), assume-se uma
discretizao do domnio D num conjunto de pontos e de sua fronteira S em um
conjunto de pontos . Da o problema transformado no sistema de equaes a seguir.
( ( ) ( ) ( )) (2.2)
( ( ( ) ( ) ( ))) (2.3)
( ) ( ) ( ( )) (2.4)
40
( ) ( ) (2.6)
( )
{ ( ( )) } (2.7)
( )
( )
( )
Para o problema de valor inicial: ( ) e , a soluo aproximada
pode ser expressa como:
( ) ( ) (2.8)
( ) ( ) ( ) ( ) (2.9)
Nos dois casos acima de EDOs de segunda ordem o erro para ser minimizado
dada pela seguinte equao:
( ) ( )
{ ( ( ) )} (2.10)
( ) ( ) (2.12)
( )
{ ( )} (2.13)
41
Neste trabalho vamos utilizar apenas EDPs Elpticas.
( ) ( )
( ) (2.14)
( ) ( ) ( ) ( ) ( ) (2.15)
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) (2.16)
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) (2.18)
( ) ( )
{ ( )} (2.19)
Onde os ( ) so pontos em .
42
Figura 2.1- Perceptron de mltiplas camadas com uma unidade de sada.
( )
( )
Onde ( )e denota a derivada de k-ordem da sigmide.
( ) ( ) (2.20)
( )
{ ( ( )) } (2.21)
43
Tem-se que
( ) ( )
( ) (2.22)
( )
{ ( ) ( ( ))} (2.23)
( )
Onde { ( ) ( ( ))}
Se,
( )
(2.25)
( )
(2.26)
( ( )) ( ( )) ( ) ( ( ))
( ) ( )
(2.27)
( ( ))
{ ( )
} (2.28)
Ento
( )
(2.30)
44
( )
(2.31)
( ( )) ( ( )) ( ) ( ( ))
( ) ( )
(2.32)
( ( ))
{ ( )
} (2.33)
Ento
( )
(2.35)
( )
(2.36)
( ( )) ( ( )) ( ) ( ( ))
( ) ( )
(2.37)
( ( ))
{ ( )
} (2.38)
45
( ) ( ) (2.39)
( ) ( ) ( ) ( ) (2.40)
E como foi visto em (2.10) a funo de custo para ser minimizada em ambos os
casos a seguinte:
( ) ( )
{ ( ( ) )} (2.41)
( )
{ ( )
( ) ( )
( ( ) )} (2.44)
( ) ( )
( ( ) )
} (2.45)
( ) ( ) ( )
Onde ( ) ( ( ) )
Como,
46
( )
(2.46)
( )
(2.47)
( )
(2.48)
( ) ( )
( ( ) ) ( ( ) )
( )
( ) ( )
( ( ) ) ( )
( )
(2.49)
Como o segundo termo da soma da equao (2.49) vai ser igual a zero em
ambas equaes deste trabalho, temos que substituindo (2.46), (2.47), (2.48) e (2.49) em
(2.45). Obtm-se a seguinte equao:
( )
( ( ) )
{ }
( )
( ) ( )
( ( ) )
} (2.50)
Como,
( )
(2.51)
47
( )
(2.52)
( )
(2.53)
( ) ( )
( ( ) ) ( ( ) )
( )
(2.54)
( )
( ( ) )
) }
( )
( ) ( )
( ( ) )
} (2.55)
Calculando tem-se:
( )
(2.56)
( )
(2.57)
48
( )
(2.58)
( ) ( )
( ( ) ) ( ( ) )
( )
(2.60)
Observe que quando se deriva a funo de custo para uma equao com as
condies de contorno de Dirichlet, substitui-se a equao (2.43) em (2.41) obtendo
ento;
( )
{ ( ) ( )
( ) ( )
( ) ( ( ) )} (2.61)
O gradiente de (2.61) em relao aos pesos da ultima camada, que dado por:
{ ( ) ( )
( )
( ( ) )
( ) }
( )
{ ( ) ( )(
( )
( ( ) )
) ( ) }
( )
49
{ ( ) ( )
( )
( ( ) )
( ) }
( )
Onde
( ) ( ) ( )
{ ( ) ( ) ( ) ( ( ) )}
( ) ( ) (2.62)
( )
{ ( )} (2.63)
Como
( ) ( )
( ) (2.64)
( )
{ ( ) ( )} (2.65)
Onde
( )
e { ( ) ( ( ) ( ) ( ))}, para
Tem-se que:
50
( ) ( )
{ (2.67)
( )
( )
{ (2.68)
( ( ) ( )) ( ( ) ( ))
( ) (2.69)
( )
{ [ ( ) ( )]
( ( ) ( ) ( ))
( )}
( )
Onde
Como,
( ) ( )
{ (2.71)
( )
( ) ( )
{ (2.72)
51
( ( ) ( )) ( ( ) ( ))
( ) (2.73)
( )
{ [ ( ) ( ) ( ) ]
( ( ) ( ) ( ))
( ) }
( )
Onde
( ) ( )
{ (2.75)
( )
( )
{ (2.76)
( ( ) ( )) ( ( ) ( ))
( ) (2.77)
( )
{ [ ( ) ( )]
( ( ) ( ) ( ))
( )}
( )
52
( ) ( ) ( ) ( ) ( ) (2.78)
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
( ) ( )
{ ( )} (2.79)
Onde os ( ) so pontos em .
( ) ( )
{ ( ) ( ) ( ) ( )
( ) ( ) (2.80)
e
( ) ( )
{ ( ) ( ) ( )( )
( ) ( ) (2.81)
Chamando de
( ) ( )
( ) ( )
( )( )
( ) ( )
( ) ( )
( ) ( )
( ) ( )
( ) ( )
( )
{ } (2.82)
53
( ) ( )
Onde { ( )}
Como;
( )
( ) (2.83)
( )
( ) (2.84)
( )
(2.85)
( ) ( )
( ) ( )
( )
{ } (2.86)
Onde
( )
( )
(2.87)
( )
( )
(2.88)
Sendo ( )
54
( )
(2.89)
( )
( )
( ) ( )
( )
{ } (2.90)
Como;
( )
( ) (2.91)
( )
( ) (2.92)
( )
(2.93)
( ) ( )
55
CAPTULO 3
RESULTADOS
3.1- INTRODUO
3.2.1 Problema 1
( )
( )
56
Figura 3.1 - Problema 1; Aproximao da soluo fornecida pela rede neural treinada com o mtodo da descida mais
ngreme
Figura 3.2 - Problema 1; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
As Figuras 3.1 e 3.2 mostram que a rede obteve uma aproximao to boa
quanto o mtodo de Runge-Kutta, alm disso, pode-se observar tambm que o mtodo
de Levenberg-Marquardt, nesta equao, teve uma melhor aproximao quando
comparado ao mtodo da descida mais ngreme.
57
mais ngreme e pelo mtodo de Mtodo de Levenberg-Marquardt respectivamente.
Pode-se observar que as mesmas reforam a anlise das figuras anteriores, a preciso do
mtodo de Levenberg-Marquardt se mostra superior ao mtodo da descida mais
ngreme, onde o desvio do mtodo de Levenberg-Marquardt prximo
enquanto que o da descida mais ngreme prximo a
Figura 3.3 - Problema 1; Desvio do Mtodo da Figura 3.4 Problema 1; Desvio do Mtodo de
Descida mais ngreme. Levenberg-Marquard
As Figuras 3.5, 3.6 e 3.7 mostram como a rede se comporta em uma malha
com mil pontos equidistantes, ou seja, em sua fase operacional, nesta fase os pesos e
bia, j devidamente treinados, so salvos e inseridos na rede e so propagados camada a
camada at a produo das respectivas sadas, no havendo atualizao dos pesos nessa
fase. Lembrando que a rede foi treinada em uma malha com 10 pontos equidistantes.
Figura 3.5 - Problema 1; Desvio obtido pelo mtodo da Descida mais ngreme e pelo mtodo de
Levenberg-Marquardt em uma malha de mil pontos.
58
A Figura 3.6 mostra a aproximao da soluo fornecida pela rede neural com
a soluo analtica exata de pontos fornecidos por uma rede treinada pelo mtodo da
Descida mais ngreme, em uma malha com mil pontos equidistantes.
Figura 3.6 - Problema 1; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme
De modo anlogo a Figura 3.7 mostra a mesma aproximao s que agora com
pontos de uma rede treinada pelo mtodo de Levenberg-Marquardt.
Figura 3.7 - Problema 1; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo de
Levenberg-Marquardt.
59
interessante observar que as Figuras 3.6 e 3.7 mostra que a rede no perde
preciso quando utilizado outros pontos, alm dos treinados, na fase operacional.
A Tabela 3.1 mostra a quantidade de pocas que cada mtodo utilizou com o
mesmo vetor de entradas e os mesmos pesos e bias iniciais ( ).
Tabela 3.1 - Problema 1; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt.
3.2.2 Problema 2
Onde ( ) e .
Figura 3.8 - Problema 2; Aproximao da soluo fornecida pela rede neural treinada com o mtodo da descida mais
ngreme
60
Figura 3.9 - Problema 2; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
Nas Figuras 3.8 e 3.9, observado, assim como Problema 1, que o mtodo de
Levenberg-Marquardt tem uma melhor preciso que o mtodo da descida mais ngreme.
As Figuras 3.10 e 3.11 por sua vez mostram o desvio da soluo exata
correspondente a malha de ponto de uma rede treinada pelo mtodo da Descida mais
ngreme e pelo mtodo de mtodo de Levenberg-Marquardt respectivamente.
Figura 3.10 - Problema 2; Desvio do Mtodo da Figura 3.11 - Problema 2; Desvio do Mtodo de
Descida mais ngreme. Levenberg-Marquardt..
61
De forma anloga a primeira equao, as Figuras 3.11, 3.12 e 3.13 mostram
como a rede se comporta em uma malha com mil pontos equidistantes.
Figura 3.11 - Problema 2; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
Figura 3.12 - Problema 2; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo de
Levenberg-Marquardt.
62
Nas Figuras 3.11 e 3.12 observa-se que a preciso do mtodo continua muito boa
quando se generaliza para uma malha com mil pontos, note que na Figura 3.12 quase
imperceptvel a diferena entre a soluo fornecida pela rede e a soluo analtica, o que
mostra que o mtodo de Levenberg-Marquardt tem uma melhor preciso comparado ao
mtodo da descida mais ngreme no problema 2.
Figura 3.13 - Problema 2; Desvio obtido pelo mtodo da Descida mais ngreme e pelo mtodo de
Levenberg-Marquardt.
Novamente, a Figura 3.13 refora a anlise feita nas figuras anteriores, o qual
mostra que o mtodo de Levenberg-Marquardt tem teve uma melhor aproximao neste
problema, quando comparado ao mtodo da descida mais ngreme.
Tabela 3.2 - Problema 2; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt
63
3.3 - A REDE NEURAL PARA SOLUO DE EDOs DE SEGUNDA
ORDEM:
3.3.1 Problema 3
( )
Figura 3.14 - Problema 3; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
64
Figura 3.15 - Problema 3; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
Nas Figuras 3.14 e 3.15 foi observado, que diferente dos problemas de
equaes diferenciais ordinrias de 1 ordem, o mtodo da descida mais ngreme possui
uma melhor preciso comparado ao mtodo de Levenberg-Marquardt. No problema 3
observa-se tambm que o mtodo de diferenas finitas teve uma preciso inferior aos
mtodos utilizado pela rede.
Figura 3.16 - Problema 3; Desvio do Mtodo da Figura 3.17 - Problema 3; Desvio do Mtodo de
Descida mais ngreme. Levenberg-Marquardt..
65
A Figura 3.18 mostra a aproximao do problema 3 da rede neural s que
agora para os dois pontos da condio de fronteira de Dirichlet, neste caso: ( ) e
( ) ( ) , . A forma neural desejada ( ) ( ) (
) ( ) dada pela equao (2.9).
Figura 3.18 - Problema 3; Aproximao da soluo fornecida pela rede neural do problema 3 com condio
de fronteira de Dirichlet.
66
Figura 3.19 - Problema 3; Desvio obtido pelo mtodo da Descida mais ngreme e pelo mtodo de
Levenberg-Marquardt.
Figura 3.20 - Problema 3; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
67
Figura 3.21 - Problema 3; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
As Figuras 3.20 e 3.21 reforam a anlise feita nas figuras anteriores, pois a
aproximao do mtodo da descida mais ngreme representado na Figura 3.20 mostra
uma aproximao melhor que a mostrada no mtodo de Levenberg-Marquardt na Figura
3.21.
Tabela 3.3 - Problema 3; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardtpara.
3.3.2 Problema 4
( )
68
Figura 3.22 Problema 4; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
Figura 3.23 Problema 4; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
69
Figura 3.24 Problema 4; Desvio do Mtodo da Figura 3.25 Problema 4; Desvio do Mtodo de
Descida mais ngreme. Levenberg-Marquardt.
Igualmente aos casos anteriores as Figuras 3.26, 3.27 e 3.28 mostram como a rede
se comporta em sua fase operacional em uma malha com mil pontos.
Figura 3.26 Problema 4; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
70
Figura 3.27 Problema 4; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
Observa-se nas Figuras 3.26 e 3.27 acima que o mtodo da descida mais ngreme
se mostra com uma melhor aproximao da soluo analtica.
Figura 3.28 - Problema 4; Desvio obtido pelo mtodo da Descida mais ngreme e pelo mtodo de
Levenberg-Marquardt
A Figura 3.28 esta de acordo com as anlises feitas anteriormente e refora que
o mtodo da descida mais ngreme teve uma melhor aproximao, pois como pode ser
observado o desvio do mesmo permanece bem prximo de 0.
71
Tabela 3.4 - Problema 4; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt.
3.4.1 Problema 5
( ) ( ( ))
{
( ) ( )
72
Figura 3.29 - Problema 5; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
Figura 3.30 - Problema 5; Aproximao da soluo fornecida pela rede neural treinada com o mtodo de Levenberg-
Marquardt.
Atravs das Figuras 3.29 e 3.30, fica claro que, no caso desse sistema acoplado,
a rede tem uma aproximao to boa quanto, em alguns pontos at melhor, que o
mtodo de Runge-Kutta, onde o mtodo de Runge-Kutta s vai obter uma boa
aproximao do problema quando a malha for refinada, enquanto que a rede permanece
com uma boa aproximao.
73
As Figuras 3.31 e 3.32 mostram o desvio da 1 equao do sistema e as Figuras
3.33 e 3.34 mostram o desvio da 2 equao do sistema.
Figura 3.31 - Problema 5; Desvio da 1 equao com Figura 3.32 - Problema 5; Desvio da 1 equao com
Mtodo da Descida mais ngreme. o Mtodo de Levenberg-Marquardt..
Figura 3.33 - Problema 5; Desvio da 2 equao com Figura 3.34 - Problema 5; Desvio da 2 equao com
Mtodo da Descida mais ngreme. o Mtodo de Levenberg-Marquardt..
As Figuras 3.31, 3.32, 3.33 e 3.34 mostram que ambos os mtodos se mostram
com uma boa aproximao, porm pode-se notar que os desvios mximos, de ambas as
equaes (1 e 2), com o mtodo de Levenberg- Marquardt menor em comparao com
os desvios mximos do mtodo da descida mais ngreme.
74
As Figuras 3.35, 3.36, 3.37 e 3.38 mostram como o sistema se comporta em
uma malha de 1000 pontos equidistantes sendo que, igual aos casos anteriores, somente
10 pontos foram treinados.
Figura 3.35 - Problema 5; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo da Descida
mais ngreme.
Figura 3.36 - Problema 5; Aproximao da soluo fornecida pela rede neural treinada pelo mtodo de
Levenberg-Marquardt..
Figura 3.38 - Problema 5; Desvio da 2 equao obtido pelo mtodo da Descida mais ngreme e pelo mtodo
de Levenberg-Marquardt.
76
Tabela 3.5 - Problema 5; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt.
3.5.1 Problema 6
( ) ( )
( ) ( ) ( ) ( ) ( )
( ) ( )
77
Figura 3.39 Problema 6; Soluo analtica da Edp.
Figura 3.40 Problema 6; Soluo fornecida pela Figura 3.41 Problema 6; Soluo fornecida pela
rede treinada com o mtodo da descida mais ngreme. rede treinada com o mtodo de Levenberg-
Marquardt.
78
Observa-se que praticamente impossvel fazer uma anlise de qual a melhor
aproximao, devido a similaridade das figuras, por isso foi feito a anlise dos desvios
correspondentes das mesmas, nas Figuras 3.43, 3.44, 3.45 e 3.46.
Figura 3.43 - Problema 6; Desvio obtido pelo mtodo da Descida mais ngreme.
79
Figura 3.45 - Problema 6; Desvio obtido pelo mtodo de diferenas finitas
Observa-se nas Figuras 4.43, 4.44 e 4.45 que a rede possui uma preciso to boa
quanto o mtodo de diferenas finitas, alm disso, nota-se, tambm, que o mtodo da
descida mais ngreme obteve uma melhor preciso comparada ao mtodo de Levenberg-
Marquardt, pois seu desvio mximo est prximo de enquanto que o mtodo de
Levenberg-Marquardt possui um desvio prximo a .
80
Figura 3.46 Problema 6; Soluo fornecida pelo mtodo da descida mais ngreme.
A Figura 3.46 mostra a capacidade de generalizao que a rede possui, pois, como
j foi dito, foram treinados de 10x10 e utilizamos esses pesos j treinados em uma
malha 500x500 e como observado a sua preciso continua a mesma. Este fato
observado tambm na Figura 4.47 a seguir que mostra que o desvio mximo obtido pelo
mtodo da descida mais ngreme, continua o mesmo na malha de 500x500 pontos.
Figura 3.47 - Problema 6; Desvio obtido pelo mtodo da Descida mais ngreme
Tabela 3.6 - Problema 6; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt.
Na Tabela 3.6 nota-se que o mtodo da descida mais ngreme possui um tempo
computacional bem maior que o mtodo de Levenberg-Marquardt e que por outro lado
foi visto na anlise das Figuras 3.43 e 3.44 que o mtodo da descida mais ngreme
possui melhor preciso comparado ao mtodo de Levenberg-Marquardt.
3.5.2 Problema 7
81
( ) ( ) ( )
( ) ( )
82
Figura 3.49 Problema 7; Desvio fornecido pelo mtodo da descida mais ngreme
83
Figura 3.51 Problema 7; Desvio fornecido pelo mtodo de Diferenas finitas
Observa-se nas Figuras 3.49, 3.50 e 3.51 que a rede possui uma preciso to boa
quanto o mtodo de diferenas finitas, em alguns casos at melhor, alm disso nota-se,
tambm, que ao contrario da Edp do problema 6, neste problema o mtodo de
Levenberg-Marquardt obteve uma melhor preciso comparada ao mtodo da descida
mais ngreme e ate mesmo ao de diferenas finitas, pois seu desvio mximo est
prximo de enquanto que o mtodo da descida mais ngreme possui um desvio
prximo a .
As Figuras 3.52 e 3.53 mostram que o problema continua com uma boa
aproximao em uma malha de 500x500.
84
Figura 3.53 - Problema 7; Desvio obtido pelo mtodo de Levenberg-Marquardt.
Tabela 3.7 - Problema 7; Quantidades de pocas dos mtodos da descida mais ngreme e Levenberg-Marquardt.
85
Abaixo ser mostrada, atravs das Tabelas 3.8, 3.9, 3.10 e 3.11, como a rede se
comporta com uma quantidade de neurnios, na camada oculta, inferior utilizada nos
treinamentos anteriores.
Tabela 3.8 - Convergncia de edos de 1 ordem (problema 1) para uma rede com neurnios menores que 10.
Tabela 3.9 - Convergncia de edos de 2 ordem (problema 3) para uma rede com neurnios menores que 10.
Tabela 3.10 - Convergncia do sistema acoplado de edos (problema 5) para uma rede com neurnios
menores que 10.
Tabela 3.11 - Convergncia de edps (problema 6) para uma rede com neurnios menores que 10.
86
M.Levenberg- Convergiu Convergiu Convergiu Convergiu
Marquardt (213-pocas) (45-pocas) (212-pocas) (1092-pocas)
Erro- Erro- Erro- Erro-
Mesmo com menos neurnios observamos que o mtodo da descida mais ngreme
sempre converge para resposta certa. No caso de edos de 1 ordem o mtodo de
Levenberg-Marquardt continua mais preciso que o mtodo da descida mais ngreme e
com a convergncia mais rpida, porm essa convergncia nem sempre garantida, pois
no para todos os pesos iniciais que a rede vai convergir com dois neurnios.
Para edos de 2 ordem o mtodo da descida mais ngreme se mostra com uma
preciso melhor em todos os casos citados na Tabela 3.9 comparado ao mtodo de
Levenberg-Marquardt.
87
Consideraes finais e trabalhos futuros
Este trabalho discute e avalia o mtodo de resoluo de equaes diferenciais
ordinrias e parciais atravs da utilizao de redes neurais artificiais, utilizando os
mtodos de Levenberg-Marquardt e o mtodo da descida mais ngreme para otimizao
da rede.
Foram feitos teste com menos neurnios na camada oculta, e verificou-se que,
na maioria dos casos, existe convergncia sem perda considervel de preciso. Porm,
no tentou-se encontrar configuraes timas ou considerar arquiteturas que contenham
mais de uma camada oculta. Um estudo sobre o efeito da arquitetura neural sobre a
qualidade da soluo pode ser uma questo a ser analisada futuramente.
88
89
Referncias Bibliogrficas
Aarts, L. P. and Veer, P. V. D. Neural Network Method for Solving Partial Differential
Equations.Neural Processing Letters 14: 261-271, 2001.
Haykin,S. Redes Neurais: Princpios e Prtica, 2 ed, Porto Alegre: Bookman, 2001.
Lagaris, I. E., Likas, A. end Fotiadis, D. I. Artificial Neural Networks for Solving
Ordinary and Partial Differential Equations. IEEE Trans. On Neural Networks, Vol
9, No. 5, September 1998.
McCulloch, W. S., Pitts. W. (1943); A logical calculus of the ideas immanent in nervous
activity. Bulletin of Mathematical Biophysics, vol. 5, pp. 115-133.
Shirvany, Y., Hayati, M. and Moradian, R. Multilayer perceptron neural networks with
novel unsupervised training method for numerical solution of the partial differential
equations. Applied Soft Computing 9: 20-29, 2009.
90