Beruflich Dokumente
Kultur Dokumente
Von Zuben
DCA/FEEC/Unicamp
Neurocomputing (Elsevier)
Livros:
1.
Arbib, M.A. (ed.) (2002) The Handbook of Brain Theory and Neural Networks, The MIT
Press, 2nd. edition, ISBN: 0262011972.
2.
Bertsekas, D.P. & Tsitsiklis, J.N. (1996) Neuro-Dynamic Programming, Athena Scientific,
ISBN: 1886529108.
3.
Bishop, C.M. (1996) Neural Networks for Pattern Recognition, Oxford University Press,
ISBN: 0198538642.
4.
Bishop, C.M. (2007) Pattern Recognition and Machine Learning, Springer, ISBN:
0387310738.
5.
Braga, A.P., de Carvalho, A.P.L.F. & Ludermir, T.B. (2007) Redes Neurais Artificiais
Teoria e Aplicaes, Editora LTC, 2a. edio, ISBN: 9788521615644.
6.
7.
Cherkassky, V. & Mulier, F. (2007) Learning from Data: Concepts, Theory, and Methods,
2nd edition, Wiley-IEEE Press, ISBN: 0471681822.
8.
9.
da Silva, I.N., Spatti, D.H. & Flauzino, R.A. (2010) Redes Neurais Artificiais Para Engenharia
e Cincias Aplicadas, Artliber Editora Ltda., ISBN: 9788588098534.
10. Dayan, P. & Abbot, L.F. (2001) Theoretical Neuroscience: Computational and Mathematical
Modeling of Neural Systems, The MIT Press, ISBN: 0262041995.
11. Duda, R.O., Hart, P.E. & Stork, D.G. (2000) Pattern Classification, 2nd edition, WileyInterscience, ISBN: 0471056693.
12. Edelman, G.M. (1988) Neural Darwinism: The Theory of Neuronal Group Selection, Basic
Books, ISBN: 0465049346.
13. Fausett, L. (2004) Fundamentals of Neural Networks: Architectures, Algorithms, and
Applications, Dorling Kindersley India, ISBN: 8131700534.
14. Fiesler, E. & Beale, R. (1996) Handbook of Neural Computation, Institute of Physics
Publishing, ISBN: 0750303123.
15. Gardner, H. (2011) Frames of Mind: The Theory of Multiple Intelligences, 3rd edition,
BasicBooks, ISBN: 0465024335.
16. Hassoun, M. (2003) Fundamentals of Artificial Neural Networks, A Bradford Book, ISBN:
0262514672.
17. Hastie, T., Tibshirani, R. & Friedman, J.H. (2001) The Elements of Statistical Learning,
Springer, ISBN: 0387952845.
18. Haykin, S. (2008) Neural Networks and Learning Machines, 3rd edition, Prentice Hall,
ISBN: 0131471392.
19. Hecht-Nielsen, R. (1990) Neurocomputing, Addison-Wesley Publishing Co., ISBN:
0201093553.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
20. Hertz, J., Krogh, A. & Palmer, R. (1991) Introduction to the Theory of Neural Computation,
Addison-Wesley, ISBN: 0201515601.
21. Kearns, M.J., Vazirani, U. (1994) An Introduction to Computational Learning Theory, The
MIT Press, ISBN: 0262111934.
22. Kohonen, T. (1989) Self-Organization and Associative Memory, 3rd edition, SpringerVerlag, ISBN: 0387513876. (1st Edition: 1984; 2nd edition: 1988)
23. Kohonen, T. (2000) Self-Organizing Maps, 3rd Edition, Springer, ISBN: 3540679219.
24. Luenberger, D.G. (1984) Linear and Nonlinear Programming, 2nd edition, Addison-Wesley,
ISBN: 0201157942.
25. Mackay, D.J.C. (2003) Information Theory, Inference and Learning Algorithms, Cambridge
University Press, ISBN: 0521642981.
26. Mardia, K.V., Kent, J.T., Bibby, J.M. (1980) Multivariate Analysis. Academic Press, ISBN:
0124712525.
27. Marsland, S. (2009) Machine Learning: An Algorithmic Perspective, Chapman and
Hall/CRC, ISBN: 1420067184.
28. Masters, T. (1995) Advanced Algorithms for Neural Networks: A C++ Sourcebook, John
Wiley and Sons, ISBN: 0471105880.
29. Minsky, M.L. (1988) The Society of Mind, Simon & Schuster, ISBN: 0671657135.
30. Minsky, M.L. & Papert, S.A. (1988) Perceptrons: Introduction to Computational Geometry,
Expanded edition, The MIT Press, ISBN: 0262631113. (1st edition: 1969)
31. Mitchell, T.M. (1997) Machine Learning, McGraw-Hill, ISBN: 0071154671.
32. Ripley, B.D. (2008) Pattern Recognition and Neural Networks, Cambridge University Press,
ISBN: 0521717701.
33. Rumelhart, D.E. & McClelland, J.L. (1986) Parallel Distributed Processing: Explorations in
the Microstructure of Cognition, volumes 1 & 2. The MIT Press, ISBN: 026268053X.
34. Schalkoff, R.J. (1997) Artificial Neural Networks, The McGraw-Hill Companies, ISBN:
0071155546.
35. Schlkopf, B. & Smola, A.J. (2001) Learning with Kernels: Support Vector Machines,
Regularization, Optimization, and Beyond, The MIT Press, ISBN: 0262194759.
36. Sutton, R.S. & Barto, A.G. (1998) Reinforcement Learning: An Introduction, The MIT Press,
ISBN: 0262193981.
37. Vapnik V.N. (1998) Statistical Learning Theory, Wiley-Interscience, ISBN: 0471030031.
38. Vapnik V.N. (1999) The Nature of Statistical Learning Theory, 2nd edition, Springer, ISBN:
0387987800.
39. Weigend, A.S. & Gershenfeld, N.A. (eds.) (1993) Time Series Prediction: Forecasting the
Future and Understanding the Past, Perseus Press, ISBN: 0201626020.
40. Wilson, R.A. & Keil, F.C. (eds.) (2001) The MIT Encyclopedia of the Cognitive Sciences,
The MIT Press, ISBN: 0262731444.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
2. Nmeros e nomenclatura
Descoberta do microscpio: ~1590
Descoberta da clula: ~1680
Clula como unidade constituinte dos seres vivos: ~1830
Constituintes bsicos do crebro so os neurnios: Ramn y Cajl, ~1909
O crebro humano pesa ~1,5 quilos e consome ~20% da energia do corpo;
100 gramas de tecido cerebral requerem ~3,5ml de oxignio por minuto;
O crebro humano apresenta ~1011 neurnios e ~1014 sinapses ou conexes, com uma
mdia de ~1000 conexes por neurnio, podendo chegar a ~10000 conexes.
Em seres humanos, 70% dos neurnios esto localizados no crtex;
Tipos de clulas neurais: horizontal, estrelada, piramidal, granular, fusiforme.
Classificao de acordo com a funo: sensoriais, motoras, intrnsecas.
~60m
(clula
piramidal);
Em termos fisiolgicos, um neurnio
uma clula com a funo especfica
de
receber,
informao
processar
a
outras
enviar
partes
do
organismo.
Um nervo formado por um feixe de
axnios, com cada axnio associado
a um nico neurnio;
Os nervos apresentam comprimentos
variados, podendo chegar a metros.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
Estrutura de um nervo
10
Alguns autores defendem que o crtex humano pode ser modelado na forma de uma
rede mundo pequeno (BASSETT & BULLMORE, 2006; SPORNS & HONEY, 2006;
SPORNS, 2010) ou ento uma rede complexa (AMARAL & OTTINO, 2004).
AMARAL, L. & OTTINO, J. (2004) Complex networks, The European Physical Journal B Condensed Matter and
Complex Systems, vol. 38, no. 2, pp. 147-162.
BASSETT, D.S. & BULLMORE, E. (2006) Small-world brain networks, Neuroscientist, vol. 12, no. 6, pp. 512-523.
SPORNS, O. & HONEY, C.J. (2006) Small worlds inside big brains, Proceedings of the National Academy of
Science, vol. 103, no. 51, pp. 19219-19220.
SPORNS, O. (2010) Networks of the Brain, The MIT Press, ISBN: 0262014696.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
11
KOLB, B & WHISHAW, I.Q. (2008) Fundamentals of Human Neuropsychology, Worth Publishers, 6th. edition,
ISBN: 0716795868.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
12
d
e
n
s
i
d
a
d
e
c
o
n
c
e
p
n
a
s
c
i
m
e
n
t
o
f
i
m
d
a
p
u
b
e
r
d
a
d
e
s
e
n
i
l
i
d
a
d
e
13
14
Voltando agora a ateno para o neurnio biolgico, pode-se afirmar que se trata de
uma clula especializada em transmitir pulsos eltricos, sendo que as suas principais
partes constituintes so:
Membrana celular: a pele da clula;
Citoplasma: tudo que est envolvido pela membrana;
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
15
16
prolongamentos
cito-
plasmticos, distribudos em
todas as direes. Funes:
prover
suporte
estrutural,
distncia
de
um
17
18
19
20
21
Vivacidade verbal
Vivacidade matemtico-lgica
Aptido espacial
Gnio cinestsico
Dons musicais
Aptido interpessoal (liderana e ao cooperativa)
Aptido intrapsquica (modelo preciso de si mesmo)
22
estmulo
sensores
Crebro
+
Redes Perifricas
atuadores
resposta
23
Esclerose
Alzheimer
Parkinson
24
Nos anos 60, psiclogos e antroplogos realizaram estudos com populaes do mundo
ocidental e outras isoladas, como nativos de Papua-Nova Guin, e concluram que
existem seis expresses corporais bsicas comuns a todos os povos, de qualquer raa,
origem ou etnia: felicidade, tristeza, surpresa, nojo, raiva e medo.
1
Em anos recentes, foi proposta uma nova teoria que procura entender o crebro a
partir de trs estruturas distintas, as quais, com a maturidade do indivduo, passam a
operar conjuntamente.
A primeira dessas estruturas o tronco cerebral, tambm denominado crebro
reptiliano. operacional no nascimento e responsvel por nossos reflexos e msculos
involuntrios, como o corao. o tronco cerebral, por exemplo, que nos faz piscar
quando objetos se aproximam dos nossos olhos.
1 Esta seo est baseada em contedos do livro de Philippa Perry, Como manter a mente s, The School of Life, 2012.
25
ou
hemisfrio
esquerdo.
Essas
duas
estruturas
tm
maior
desenvolvimento nos primeiros cinco anos de vida. Em nossos primeiros dois anos, o
hemisfrio direito muito ativo, enquanto que o esquerdo menos ativo. Nos anos
seguintes, o hemisfrio esquerdo inicia um perodo de notvel atividade.
O hemisfrio direito o mais influente em nossas emoes e instintos. Ele no apenas
se desenvolve primeiro, como tambm permanece no controle. As bases de nossa
personalidade j esto estabelecidas antes que o hemisfrio esquerdo tenha habilidade
para influenci-las.
Usamos o hemisfrio esquerdo para processar experincias em linguagem, para
articular nossos pensamentos e ideias e para elaborar planos de ao. Um cientista, por
exemplo, usa muito o hemisfrio esquerdo.
Muitas vezes, temos boas razes para fazer uma coisa sensata, mas acabamos fazendo
uma outra coisa mesmo assim. A sua parte sensata (o hemisfrio esquerdo) tem a
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
26
linguagem, com que dialogamos conosco, mas a outra parte (o hemisfrio direito)
parece ter o poder.
Essencialmente, o hemisfrio esquerdo explica/racionaliza (coloca em palavras) os
sentimentos do hemisfrio direito.
6. Crebro Eletrnico
Primeiro computador eletrnico de propsito geral: ENIAC (1946).
No princpio, os computadores eram chamados de crebros eletrnicos, pois
acreditava-se que eles representavam um caminho direto para a reproduo da
inteligncia.
Neurnios so de 6 a 7 ordens de magnitude mais lentos do que portas lgicas de
silcio (103 seg. 109 seg.)
Eficincia energtica:
27
28
29
7. Neurocomputao
muito comum a associao do conceito de computao com aquele predominante no
caso dos computadores com arquitetura do tipo von Neumann: algoritmos so
elaborados e, em seguida, implementados na forma de programas de computador a
serem executados.
No entanto, a computao realizada pelo crebro requer um outro tipo de definio,
que contemple processamento paralelo e distribudo, alm de aprendizado.
Uma arquitetura neurocomputacional baseada na interconexo de unidades de
processamento simples e similares, denominadas neurnios artificiais e dotadas de
grande poder de adaptao.
H uma diferena de paradigmas entre computadores com arquitetura do tipo
von Neumann e redes neurais artificiais (RNAs): os primeiros realizam processamento
e armazenagem de dados em dispositivos fisicamente distintos, enquanto RNAs usam
o mesmo dispositivo fsico para tal.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
30
representa
uma
das
poucas
alternativas
de
soluo
so:
31
Unidade Central de
Processamento
Computador
Registradores
I/O
Unidade de
Controle
UCP
Barramentos
Barramentos
internos
Memria
Unidade
Aritmtica e
Lgica
32
Todos os problemas
Problemas
factveis
Problemas computveis
33
34
35
N e tw o rk o f
n e u ro n s
N e u ro n
B ra in
S yn a p se
36
37
D endrites
S ynaptic
clefts
A x on
A x on hillock
M ielin sheath
C ell body
(som a)
38
39
40
41
42
43
44
45
46
47
Bombas de sdio e potssio: os ons de sdio que haviam entrado no neurnio durante
a despolarizao, so rebombeados para fora do neurnio mediante o funcionamento
das bombas de sdio e potssio, que exigem gasto de energia.
Para cada molcula de ATP empregada no bombeamento, 3 ons de sdio so
bombeados para fora e dois ons de potssio so bombeados para dentro da clula.
Esta etapa ocorre aps a faixa azul da figura anterior.
Neurnio perifrico
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
Neurnio do crtex
48
crtex
corresponde
superfcie
externa
do
crebro:
uma
estrutura
49
Ouvindo palavras
Lendo palavras
Falando palavras
Pensando em palavras
Functional magnetic resonance imaging or functional MRI (fMRI)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
50
51
52
53
54
9. Neurnio artificial
Modelo matemtico: Simplificaes da realidade com o propsito de representar
aspectos relevantes de um sistema em estudo, sendo que detalhes de menor
significncia so descartados para viabilizar a modelagem.
55
x2
xm
bk Limiar(bias)
wk1
Funo de
ativao
wk2
Entradas
x1
Pesos das
conexes
wkm
uk
yk
f(uk)
Sada
Juno
somadora
y
=
f
(
u
)
=
f
w
x
+
b
k
k
A sada do neurnio k pode ser descrita por: k
kj j
j =1
( )
yk = f (uk ) = f wkj x j = f w T x
j =0
56
e pu k
1
y = f (u k ) = pu
=
e k + 1 1 + e pu k
y
= pu k (1 u k ) > 0
u k
0.8
1
0.7
p=3
0.8
0.6
p=1.5
p=3
p=0.8
0.5
0.6
p=1.5
0.4
p=0.8
0.4
0.3
0.2
0.2
0.1
0
-5
0
-5
a)
b)
Figura 2 Funo logstica (a) e sua derivada em relao entrada interna (b)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
57
e pu k e pu k
y = f (u k ) = tanh( pu k ) = pu
e k + e pu k
y
= p (1 u 2k ) > 0
u k
2.5
1
p=2.2
2
p=1
0.5
p=0.6
p=2.2
1.5
p=1
p=0.6
-0.5
0.5
-1
-5
a)
0
-5
b)
Figura 3 Funo tangente hiperblica (a) e sua derivada em relao entrada interna (b)
58
v1- av2
av2
v2
av 2 v 1 av 2 ,
conduzindo a
av 2 , v1 av 2 = 0 .
Logo,
59
a v 2 , v1 a 2 v 2 , v 2 = 0 ,
permitindo obter a na forma
a=
v 2 , v1
v2 , v2 .
projv2 ( v1 ) =
v 2 , v1
v2
v2 , v2
60
0.8
1
0.8
0.6
f ( x)
j
f (vT x)
j
0.6
0.4
0.4
0.2
0
4
0.2
4
2
0
-4
-2
x2
-2
-2
-4
-4
(a)
f j (x) = e
0, 5x 2
T
f
(
v
x) = e
(b) j
x1
0, 5 [1 0 ] 1
x2
T
T
Figura 5 Funo de expanso ortogonal em que v = [1 0] e x =[ x1 x 2 ]
61
yj
wi0
w
ui
xij
yi
wij
w
Figura 6 Estabelecimento de conexo entre dois neurnios artificiais
62
v10
v11
+
y1
1
x1
v1m
w11
v20
w 12
^s
1
^s
r
y2
v21
+
xm
w10
w 1n
v2m
w r0
wr1
w r2
vn0
yn
vn1
+
w rn
vnm
( )
m
n
s k = wkj f v ji xi = wkj f vTj x = g k (x , ), k = 1,..., r
j =0
i =0
j =0
n
63
64
65
66
67
68
69
70
71
y = c0 + cn g (bn x + a n )
n =1
a1
u1
y1
1
c0
b1
c1
y
a2
c2
u2
y2
b2
a : deslocamento no eixo x
72
bias
73
0.6
0.4
0.4
0.2
0.2
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1
a+b+c+d
-1
0.6
0.6
0.4
0.4
0.2
bias
0.2
-0.2
-0.2
-0.4
-0.4
a+b
-0.6
-0.6
-0.8
a+b+c+d+e
-0.8
-1
-1
0.6
0.6
0.4
0.4
0.2
0.2
-0.2
-0.2
-0.4
-0.4
a+b+c
-0.6
-0.8
a+b+c+d+e+bias
-0.6
-0.8
-1
-1
74
75
m
n
sl = g (xl , ) = w j f v ji xli = w j f vTj xl
j =0
i =0
j =0
n
1
J ( ) =
N
(s l sl )
l =1
1
=
N
g
s
(
(
x
,
)
=
l
l
l =1
1
1
= w j f v ji xli sl =
N l =1 j = 0
N
i =0
w j f v j xl sl
l =1 j = 0
P
1
Sendo P a dimenso do vetor , ento tem-se que: J : .
P +1
A superfcie de erro definida por J ( ) reside no espao , sendo que deve-se
P
buscar em um ponto que minimiza J ( ) , supondo que se queira minimizar o erro
76
77
78
79
80
(a)
(b)
(c)
(d)
Figura 18 (a) Funo a ser aproximada (agora considerando apenas uma entrada); (b)
Amostras disponveis; (c) Resultado de um processo de aproximao com
sobretreinamento; (d) Resultado de um processo de aproximao sem sobretreinamento.
81
(a)
(b)
82
( x , x ) = (0,0) ou (1,1) y = 0
uma sada y {0,1} de maneira que: 1 2
( x 1 , x 2 ) = (1,0) ou (0,1) y = 1
(1,0)
(1,1)
y=0
y=1
x
(0,0)
(0,1)
83
w0
x1
w1
x2
w2
84
0.5
0
5
5
0
x2
0
-5
-5
x1
85
86
w10
1
w11
w12
x1
x2
w20
w0
z1
z2
w1
w2
w21
w22
87
As sadas da primeira camada (z1 e z2) podem ser consideradas como variveis
intermedirias utilizadas na gerao da sada y.
Do que j foi visto a respeito de um neurnio tipo perceptron, sabe-se que existem
pesos w1j (j=0,1,2) tais que (veja curva de separao L1 na Figura 24(a)):
(0,1) produza z1 = 1
(0,0),(1,0),(1,1) produza z1 = 0.
De forma similar, existem pesos w2j (j=0,1,2) tais que (veja curva de separao L2 na
Figura 24(a)):
(0,1),(0,0),(1,1) produza z2 = 1
(1,0) produza z2 = 0
88
L1
(0,1)
(1,1)
L3
(0,1)
(1,1)
L2
x
(1,0)
(0,0)
(a)
z
(0,0)
(b)
89
90
91
92
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
-1.0
-3
-2
-1
-3
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
-1.0
-3
-2
-1
-3
-2
-2
-1
-1
Figura 25 Dados amostrados, funo a ser aproximada e modelos de aproximao com diferentes
capacidades de generalizao
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
93
0.04
0.16
0.035
0.14
0.03
0.12
0.025
0.1
0.02
0.08
0.015
0.06
0.01
0.04
0.005
0.02
0
50
100
pocas
150
200
100
200
300
400
500
pocas
Figura 26 Ilustraes tpicas da evoluo, ao longo das pocas de treinamento, dos erros de
treinamento e de validao em treinamento supervisionado de redes MLP.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
94
95
e x n
f ( x*)
x
f ( x1*)
f ( x*) = x 2
M
f ( x*)
x
1
(x x *)T 2 f (x*)(x x *) + O (3)
2
2 f ( x*)
2
x
1
2
f ( x*)
2 f ( x*) = x 2 x1
2 f ( x*)
x x
n 1
Vetor gradiente
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
2 f ( x*)
2 f ( x*)
L
x1x 2
x1x n
2
f ( x*)
x 22
2
f ( x*)
L
x n2
Matriz hessiana
96
F4(x)
1
-1
-1
-2
-6
-2
-6
-3
F1(x)
F2(x)
-3
x
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
97
k +1 = k + passo * direo
Parte-se de uma condio inicial 0 e aplica-se iterativamente a frmula acima, sendo
que a direo depende da informao local de primeira e segunda ordem. Cada
proposta de algoritmo de otimizao vai diferir na forma de computar o passo e a
direo de ajuste, a cada iterao.
A figura a seguir apresenta uma classificao dos principais algoritmos empregados
para o treinamento supervisionado de redes neurais artificiais.
98
ESTRATGIAS DE TREINAMENTO
1a ORDEM
SEM DIFERENCIAO
BE
GA
SA
BP
2a ORDEM
GRAD
CG
N-LM
SCG
FR
PR
EMPRICOS
OSS
QN
DFP
QP
MOD .
BFGS
99
-5
-10
Mnimo local
-15
Mnimo global
-20
-2
-1.5
-1
-0.5
0.5
1.5
Figura 28 Exemplo ilustrativo de mnimos local e global (considerando uma nica varivel).
Note que algoritmos de 2a. ordem tendem a convergir mais rpido para os mnimos
locais, mas no se pode afirmar que eles convergem para mnimos de melhor
qualidade que aqueles produzidos pelos algoritmos de primeira ordem.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
100
101
w ( k + 1) = w (k ) J l (w (k ) );
k = k + 1;
Calcule J (w (k ) ) ;
102
J l (w ( k ) );
N
l =1
k = k + 1;
Calcule J (w (k ) ) ;
103
22. Referncias
ARBIB, M.A. (ed.) The Handbook of Brain Theory and Neural Networks, The MIT Press, 1998.
BATTITI, R. First- and Second-Order Methods for Learning: Between Steepest Descent and Newton's
Method, Neural Computation, vol. 4, no. 2, pp. 141-166, 1992.
BISHOP, C. Exact Calculation of the Hessian Matrix for the Multilayer Perceptron, Neural Comp., vol. 4,
no. 4, pp. 494-501, 1992.
CYBENKO, G. Approximation by superposition of sigmoidal functions, Mathematics of Control, Signals
and Systems, vol. 2, no. 4, pp. 303-314, 1989.
DAYAN, P., ABBOT, L.F. Theoretical Neuroscience: Computational and Mathematical Modeling of Neural
Systems, The MIT Press, 2001.
EDELMAN, G.M. Neural Darwinism: The Theory of Neuronal Group Selection, Basic Books, 1988.
GARDNER, H. Frames of Mind: The Theory of Multiple Intelligences, BasicBooks, 1983.
HAYKIN, S. Neural Networks: A Comprehensive Foundation, 2nd edition, Prentice-Hall, 1999.
HAYKIN, S. Neural Networks and Learning Machines, 3rd edition, Prentice Hall, 2008.
HEBB, D. O. The Organization of Behavior, Wiley, 1949.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
104
HINTON, G.E. Connectionist learning procedures, Artificial Intelligence, 40: 185-234, 1989.
HINTON, G. E. & SEJNOWSKI, T.J. Learning and relearning in Boltzmann machines, in D. E. Rumelhart,
J. L. McClelland & The PDP Research Group (eds.) Parallel Distributed Processing: Explorations in
the Microstructure of Cognition, MIT Press, vol. 1, pp. 282-317, 1986.
HOPFIELD, J.J. Neural networks and physical systems with emergent collective computational abilities,
Proceedings of the National Academy of Sciences of the U.S.A., vol. 79, pp. 2554-2558, 1982.
HORNIK, K., STINCHCOMBE, M., WHITE, H. Multi-layer feedforward networks are universal
approximators, Neural Networks, vol. 2, no. 5, pp. 359-366, 1989.
HORNIK, K., STINCHCOMBE, M., WHITE, H. Universal approximation of an unknown function and its
derivatives using multilayer feedforward networks, Neural Networks, vol. 3, no. 5, pp. 551-560, 1990.
HORNIK, K., STINCHCOMBE, M., WHITE, H., AUER, P. Degree of Approximation Results for Feedforward
Networks Approximating Unknown Mappings and Their Derivatives, Neural Computation, vol. 6, no.
6, pp. 1262-1275, 1994.
MCCULLOCH, W.S. & PITTS, W. A logical calculus of the ideas immanent in nervous activity, Bulletin of
Mathematical Biophysics, vol. 5, pp. 115-133, 1943.
MINSKY, M.L. The Society of Mind, Simon & Schuster, 1988.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 1)
105
MINSKY, M.L. & PAPERT, S.A. Perceptrons: Introduction to Computational Geometry, Expanded edition,
The MIT Press, 1988 (1st edition: 1969).
NERRAND, O., ROUSSEL-RAGOT, P., PERSONNAZ, L., DREYFUS, G. Neural Networks and Nonlinear
Adaptive Filtering: Unifying Concepts and New Algorithms. Neural Computation, vol. 5, no. 2, pp.
165-199, 1993.
MARR, D. A theory for cerebral neocortex, Proceedings of the Royal Society of London, Series B, 176:
161-234, 1970.
RAMN Y CAJAL, S. Histologie du systme nerveux de l'homme et des vertbr, A. Maloine, Paris, 1909.
RUMELHART, D.E. & MCCLELLAND, J.L. Parallel Distributed Processing: Explorations in the
Microstructure of Cognition, vols. 1 & 2, The MIT Press, 1986.
SCHALKOFF, R.J. Artificial Neural Networks, The McGraw-Hill Companies, 1997.
WIENER, N. Cybernetics, The MIT Press, 1948.
WILSON, R.A., KEIL, F.C. (eds.) The MIT Encyclopedia of the Cognitive Sciences, The MIT Press,
2001.
106