Sie sind auf Seite 1von 259

UNIVERSIDAD POLITECNICA

DE MADRID

ESCUELA TECNICA
SUPERIOR DE INGENIEROS INDUSTRIALES

CON COMPUTADOR
COMUNICACION

MEDIANTE SENALES
CEREBRALES.
A LA TECNOLOGIA DE LA
APLICACION

REHABILITACION.

Tesis Doctoral

Jose Luis Martnez Perez.


Ingeniero Industrial por la ETSII de Madrid

2009

DEPARTAMENTO DE AUTOMATICA,
INGENIER
IA ELECTRONICA

E INFORMATICA INDUSTRIAL

ESCUELA TECNICA
SUPERIOR DE INGENIEROS INDUSTRIALES

CON COMPUTADOR
COMUNICACION

MEDIANTE SENALES
CEREBRALES.
A LA TECNOLOGIA DE LA
APLICACION

REHABILITACION.

Tesis Doctoral

Autor:

Jose Luis Martnez Perez.


Ingeniero Industrial por la ETSII de Madrid

Director: Dr. Antonio Barrientos Cruz.


Doctor Ingeniero Industrial.

2009

Ttulo:

COMUNICACION CON COMPUTADOR MEDIANTE SENALES


A LA TECNOLOGIA DE LA
CEREBRALES. APLICACION

REHABILITACION.

Autor:
Jose Luis Martnez Perez.

Tribunal:

Presidente

Vocales

Ram
on Gal
an

XXXXXXX

Secretario

Suplentes

XXXXXXX

Acuerdan otorgar la calicaci


on de:

Madrid, XX de YY de 2008

A mi padre y madre: Luis y Eladia.

Resumen
Avances recientes en hardware para ordenadores personales y procesamiento de se
nal
ha hecho posible el uso de se
nales EEG u ondas cerebrales para comunicaci
on entre
personas y computadores. Pacientes que sufren de sndromes bloqueantes disponen ahora
de una nueva forma de comunicaci
on con el resto del mundo, pero incluso con las m
as
modernas tecnicas, estos sistemas a
un tienen tasas de comunicacion del orden de 2-3
actividades / minuto. En suma, los dispositivos existentes no son dise
nados con la idea de
exibilidad en mente, dando lugar a sistemas lentos que son difciles de mejorar.
Este proyecto explora la efectividad de las tecnicas de analisis en tiempo y en
frecuencia para la clasicaci
on de diferentes actividades mentales haciendo uso de
electroencefalografa (EEG). Se
nales EEG de de dos canales provenientes de varios
voluntarios han sido estudiadas durante la realizaci
on de tres tareas mentales (lnea
base, imaginaci
on de movimiento, actividad matem
atica). La distinci
on entre ellas en
clasicacion On-line es el principal objetivo del proyecto.
Diferentes metodos basados en representaciones temporales y frecuenciales han sido
considerados para la clasicaci
on entre las tareas mencionadas. Los resultados indican
la utilizaci
on de este metodo para ventanas de un tercio de segundo, distinguir las
caractersiticas de los datos, con porcentajes de acierto aceptables.

ix

Indice general
Lista de Figuras.

XV

Lista de Tablas.
1. Introducci
on.
1.1. La tecnologa de Interfaz Cerebro Computador.
1.1.1. Clasicaci
on de dispositivos ICC. . . . .
1.1.2. Componentes de un dispositivo ICC. . .
1.2. Aplicaci
on de la tecnologa ICC. . . . . . . . .
1.2.1. Ciencia de la rehabilitacion. . . . . . . .
1.2.2. Teleoperacion de robots industriales. . .
1.2.3. Sector militar. . . . . . . . . . . . . . .
1.2.4. Sector del ocio y entretenimiento. . . . .
1.3. Motivaciones de la tesis. . . . . . . . . . . . . .
1.3.1. Objetivos de la tesis. . . . . . . . . . . .
1.3.2. Aportaciones de la tesis. . . . . . . . . .
1.4. Estructura de la tesis. . . . . . . . . . . . . . .

XXI

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

1
1
3
5
9
10
11
11
11
12
12
13
14

2. Estado de la t
ecnica.
2.1. Fundamentos siol
ogicos. . . . . . . . . . . . . . . . . . . . .
2.1.1. Fisiologa. . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2. La neurona. . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3. El Sistema Nervioso. . . . . . . . . . . . . . . . . . . .
2.1.4. El Cerebro. . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Tecnicas para la adquisici
on de actividad cerebral. . . . . . .
2.2.1. Electroencefalografa. . . . . . . . . . . . . . . . . . .
2.2.2. Magnetoencefalografa. . . . . . . . . . . . . . . . . . .
2.2.3. Imagen cerebral mediante rayos X. . . . . . . . . . . .
2.2.4. Imagen cerebral mediante imagen nuclear. . . . . . . .
2.2.5. Imagen cerebral mediante tomografa computerizada. .
2.2.6. Imagen cerebral: MRI. . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

15
15
16
18
22
26
27
27
37
41
42
43
44

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.


INDICE GENERAL

XII

2.2.7. Imagen cerebral: SPECT. . . . . . . . . . . . . . . . . . . . . .


2.2.8. Imagen cerebral: Tomografa por Emision de Positrones (PET).
2.3. Referencias historicas sobre la tecnologa ICC. . . . . . . . . . . . . . .
2.4. Estado actual de la tecnologa. . . . . . . . . . . . . . . . . . . . . . .
3. Adquisici
on y procesamiento de se
nal EEG.
3.1. Acondicionamiento de la se
nal electroencefalograca. . . .
3.2. Muestreo, cuanticaci
on y codicacion de la se
nal EEG. .
3.3. Normalizaci
on y ventaneado. . . . . . . . . . . . . . . . .
3.4. Transformacion de la se
nal del espacio temporal al espacio
3.5. Obtencion del vector de caractersticas. . . . . . . . . . .
3.6. Deteccion de artefactos. . . . . . . . . . . . . . . . . . . .

. . . . . . .
. . . . . . .
. . . . . . .
frecuencial.
. . . . . . .
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

45
45
46
51

. . .
. . .
. . .
. .
. . .
. . .

57
59
60
60
64
65
65

4. Tipologa de clasicadores.
4.1. Metodos estadsticos : Comparaci
on de dos poblaciones. . . . . . . . . . . .
4.1.1. Introducci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2. Descripci
on del test de contraste de la igualdad de dos poblaciones. .
4.1.3. Procedimiento operacional. . . . . . . . . . . . . . . . . . . . . . . .
4.2. Metodos estadsticos: An
alisis por discriminantes lineales. . . . . . . . . . .
4.2.1. Introducci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. Referencia hist
orica. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.3. Discriminacion lineal cl
asica. . . . . . . . . . . . . . . . . . . . . . .
4.2.4. Discriminante lineal de Fisher. . . . . . . . . . . . . . . . . . . . . .
4.2.5. Procedimiento operacional. . . . . . . . . . . . . . . . . . . . . . . .
4.3. Clasicadores basados en redes neuronales. . . . . . . . . . . . . . . . . . .
4.3.1. Clasicador Perceptr
on Multicapa MLP. . . . . . . . . . . . . . . . .
4.3.2. Clasicador basado en red neuronal de tipo RBF. . . . . . . . . . . .
4.3.3. Clasicador basado en red neuronal de tipo PNN. . . . . . . . . . .
4.4. Clasicador bietapa basado en Modelo Oculto de Markov y RBF. . . . . . .
4.4.1. Descripci
on Modelo Oculto de Markov. . . . . . . . . . . . . . . . .
4.4.2. Soluci
on a los problemas canonicos. . . . . . . . . . . . . . . . . . .
4.4.3. Densidades de observaci
on continuas en MOM. . . . . . . . . . . . .
4.4.4. Tipos de Modelos Ocultos de Markov . . . . . . . . . . . . . . . . .
4.4.5. Consideraciones pr
acticas en la implementacion de Modelos Ocultos
de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.6. Descripci
on del algoritmo de clasicacion bietapa. . . . . . . . . . .
4.5. Clasicador basado en M
aquina de Soporte de Vectores. . . . . . . . . . . .
4.5.1. Introducci
on a las M
aquinas de Soporte de Vectores. . . . . . . . . .
4.5.2. Descripci
on del clasicador lineal optimo. . . . . . . . . . . . . . . .
4.5.3. Descripci
on del problema de optimizaci
on lineal. . . . . . . . . . . .
4.5.4. Margen blando. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67
68
68
71
74
77
77
78
78
80
82
83
85
94
102
104
104
107
114
115
122
125
129
129
130
131
133


INDICE GENERAL

4.5.5. Descripci
on del clasicador no lineal. . . . .
4.5.6. Comparaci
on entre M
aquinas de soporte
Neuronales. . . . . . . . . . . . . . . . . . .
4.5.7. Implementaciones. . . . . . . . . . . . . . .

XIII

. .
de
. .
. .

. . . . . . .
Vectores y
. . . . . . .
. . . . . . .

5. Procedimientos experimentales y aplicaci


on de demostraci
on.
5.1. Protocolo preparaci
on del usuario. . . . . . . . . . . . . . . . . .
5.2. Descripci
on del equipo de adquisici
on y procesamiento. . . . . . .
5.3. Descripci
on de las actividades cognitivas. . . . . . . . . . . . . .
5.4. Descripci
on del protocolo para el procedimiento O-line. . . . . .
5.5. Descripci
on del protocolo para el procedimiento On-line. . . . . .
5.6. Procedimientos experimentales de clasicacion. . . . . . . . . . .
5.6.1. Contraste estadstico de poblaciones. . . . . . . . . . . . .
5.6.2. An
alisis Discriminante Lineal. . . . . . . . . . . . . . . . .
5.6.3. Clasicadores basados en redes neuronales. . . . . . . . .
5.6.4. Clasicador bietapa RBF-MOM . . . . . . . . . . . . . .
5.6.5. Clasicador basado en M
aquinas de Soporte de Vectores.
5.7. Descripci
on de arquitectura dispositivo ICC. . . . . . . . . . . . .
5.7.1. Identicaci
on de actores. . . . . . . . . . . . . . . . . . . .
5.7.2. Descripci
on de casos de uso. . . . . . . . . . . . . . . . . .
5.7.3. Estructura de clases de analisis. . . . . . . . . . . . . . . .
5.7.4. Realizacion de los Casos de Uso. . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. . . . . 134
Redes
. . . . . 136
. . . . . 138

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

6. An
alisis y discusi
on de los resultados experimentales.
6.1. Resultados del metodo estadstico de comparaci
on de poblaciones. . . . .
6.1.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.1.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Resultados obtenidos aplicando la tecnica LDA. . . . . . . . . . . . . . . .
6.2.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.2.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Resultados obtenidos con clasicadores basados en redes neuronales. . . .
6.3.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.3.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4. Resultados obtenidos con clasicadores bietapa basados en redes neuronales
y Modelos Ocultos de Markov. . . . . . . . . . . . . . . . . . . . . . . . .

139
. 139
. 140
. 141
. 142
. 144
. 145
. 146
. 147
. 148
. 149
. 150
. 151
. 151
. 151
. 155
. 158
161
. 161
. 162
. 162
. 165
. 166
. 167
. 167
. 174
. 174
. 175
. 176
. 176
. 185
. 185
. 186
. 187

XIV

INDICE GENERAL

6.4.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .


6.4.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5. Resultados obtenidos con clasicadores basados en Maquinas de Soporte de
Vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.5.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6. Corolario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

187
189
189
189

.
.
.
.
.
.

190
190
204
204
205
206

7. Conclusiones y futuros desarrollos.


207
7.1. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
7.2. Futuros desarrollos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
A. Adquisici
on de se
nal.
A.1. Muestreo de se
nales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2. Cuanticacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3. Codicaci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B. Matriz de confusi
on.

213
. 213
. 215
. 217
219

Lista de Figuras
1.1. Representacion del sistema ICC . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Clasicacion de dispositivos ICC. . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Componentes de un sistema ICC. . . . . . . . . . . . . . . . . . . . . . . . .
2.1. Diagrama frenol
ogico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Neuronas. Ramon y Cajal. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Neuronas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Topologa de la celula neuronal. . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Tipos de neuronas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6. Tipos de sinapsis. (a - Axoaxi
onica. b - Axodendrtica . c - Axosomatica.)
2.7. Sistema Nervioso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8. Encefalo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9. Cabeza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10. Tronco encef
alico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11. Nervios craneales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12. Distribuci
on de las funciones de la corteza cerebral. . . . . . . . . . . . . .
2.13. Tecnicas de registro monopolar y diferencial. . . . . . . . . . . . . . . . .
2.14. Sistema electroencefalograco 10 - 20. . . . . . . . . . . . . . . . . . . . .
2.15. Electroencefalograma normal. . . . . . . . . . . . . . . . . . . . . . . . . .
2.16. Localizacion somatosensorial. . . . . . . . . . . . . . . . . . . . . . . . . .
2.17. Localizacion de potenciales auditivos evocados. . . . . . . . . . . . . . . .
2.18. Componentes de los potenciales auditivos evocados. . . . . . . . . . . . . .
2.19. Potenciales sensoriales evocados. . . . . . . . . . . . . . . . . . . . . . . .
2.20. Componentes de los potenciales visuales evocados. . . . . . . . . . . . . .
2.21. Intensidad de campos bio-magneticos. . . . . . . . . . . . . . . . . . . . .
2.22. Magnetocardiograma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.23. Magnetoencefalograma con campos magneticos auditivos inducidos. . . . .
2.24. Magnetoencefalograma con campos magneticos sensitivos inducidos. . . .
2.25. Rayos X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.26. Camara Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.27. Tomografa computerizada. . . . . . . . . . . . . . . . . . . . . . . . . . .
2.28. Tomografa computerizada. . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

2
4
5
16
17
18
19
20
21
22
22
23
24
25
27
29
30
31
33
34
35
36
36
38
39
39
40
41
42
43
43

LISTA DE FIGURAS

XVI

2.29. En MRI, la bobina de radio frecuencia excita las secciones en el eje Y . Un


receptor de RF mide la secciones en el eje X. . . . . . . . . . . . . . . . .
2.30. MRI tejidos blandos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.31. Tomografa por Emision de Positrones . . . . . . . . . . . . . . . . . . . .
2.32. Velocidad de transferencia de informaci
on en bits/min, variando el n
umero
de posibles elecciones N={2, 4, 8, 16 o 32}. . . . . . . . . . . . . . . . . .
2.33. Evoluci
on temporal del desarrollo de la tecnologa ICC. . . . . . . . . . .

. 52
. 56

3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
3.8.

Colocacion de los electrodos. . . . . . . . . . . . . . . . . . . . .


Esquema de conexionado electrico. . . . . . . . . . . . . . . . . .
Registro de se
nal tpico. . . . . . . . . . . . . . . . . . . . . . . .
Procedimiento de ventaneado de la se
nal. . . . . . . . . . . . . .
Ventanas de preprocesamiento Rectangular y Triangular. . . . . .
Ventanas de preprocesamiento: Blackman, Hamming y Hanning.
Ventanas de preprocesamiento: Kaiser y Tukey. . . . . . . . . . .
Efecto de derrame frecuencial. . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

58
58
59
61
62
63
63
63

4.1.
4.2.
4.3.
4.4.
4.5.
4.6.
4.7.

Proceso contraste de hip


otesis. . . . . . . . . . . . . . . . . .
Procedimiento operacional. . . . . . . . . . . . . . . . . . . .
Arquitectura de una red neuronal tipo perceptr
on multicapa.
Representacion perceptr
on. . . . . . . . . . . . . . . . . . . .
Funciones de activaci
on. . . . . . . . . . . . . . . . . . . . . .
Arquitectura general de una red MLP. . . . . . . . . . . . . .
Arquitectura de una red neuronal tipo RBF. . . . . . . . . . .
x

4.8. Funci
on de activacion, (x ) = e 2 2 . . . . . . . . . . . .
4.9. Comparaci
on clasicacion MLP vs RBF. . . . . . . . . . .
4.10. Arquitectura de una red neuronal tipo PNN. . . . . . . .
4.11. Representacion Modelo Oculto de Markov. . . . . . . . . .
4.12. Algoritmo adelante-atr
as. Procedimiento hacia delante.
4.13. Algoritmo adelante-atr
as. Procedimiento hacia atr
as. .
4.14. Representacion de la obtenci
on de t (i, j). . . . . . . . . .
4.15. Esquema del modelo erg
odico. . . . . . . . . . . . . . . . .
4.16. Esquema del modelo izquierda-derecha. . . . . . . . . . . .
4.17. Esquema del modelo rutas paralelas. . . . . . . . . . . . .
4.18. Esquema del modelo entrada-salida. . . . . . . . . . . . .
4.19. Algoritmo de clasicacion bietapa. . . . . . . . . . . . . .
4.20. Arquitectura de la red neuronal RBF. . . . . . . . . . . .
4.21. Entrenamiento de la red neuronal RBF. . . . . . . . . . .
4.22. Entrenamiento de los MOMs. . . . . . . . . . . . . . . . .
4.23. Funcionamiento MSV. . . . . . . . . . . . . . . . . . . . .
4.24. Seleccion del hiperplano optimo. . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. 44
. 44
. 45

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

68
76
85
86
87
88
94

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

96
100
102
104
109
109
112
115
116
116
117
126
127
128
128
129
131

LISTA DE FIGURAS

XVII

4.25. Separaci
on lineal: margen blando. . . . . . . . . . . . . . . . . . . . . . . . . 134
4.26. Separaci
on no lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.1. Localizacion de los electrodos. . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Componentes del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Flujograma procedimiento O-line. . . . . . . . . . . . . . . . . . . . .
5.4. Flujograma procedimiento On-line. . . . . . . . . . . . . . . . . . . . .
5.5. Procedimiento de procesamiento registros EEG. . . . . . . . . . . . . . . .
5.6. Procedimiento estadstico de comparacion de poblaciones. . . . . . . . . .
5.7. Procedimiento de aplicaci
on de la tecnica LDA. . . . . . . . . . . . . . . .
5.8. Procedimiento de aplicaci
on de clasicadores basados en redes neuronales.
5.9. Procedimiento de aplicaci
on del clasicador bietapa RBF-MOM. . . . . .
5.10. Procedimiento de aplicaci
on del clasicador basado en MSV. . . . . . . .
5.11. Casos de uso de la aplicacion. . . . . . . . . . . . . . . . . . . . . . . . . .
5.12. Interfaz de la aplicaci
on demostrador. . . . . . . . . . . . . . . . . . . . .
5.13. Interfaz de la aplicaci
on demostrador. . . . . . . . . . . . . . . . . . . . .
5.14. Diagrama de secuencia del caso de uso Puesta en marcha del sistema. . .
5.15. Diagrama de secuencia del caso de uso Deletrear palabra. . . . . . . . .
5.16. Diagrama de secuencia del caso de uso Finalizaci
on de la aplicaci
on. . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

140
141
142
144
145
146
147
148
149
150
151
152
157
158
159
160

6.1. Resultados de la comparaci


on de actividades cognitivas en el canal 1. . . .
6.2. Resultados de la comparaci
on de actividades cognitivas en el canal 2. . . .
6.3. O-line. Calculo matematico vs Imaginacion de movimiento. Proyec. sobre
X1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4. O-line. Calculo matematico vs Relax. Proyec. sobre X1 . . . . . . . . . . .
6.5. O-line. Imaginacion de movimiento vs Relax. Proyec. sobre X1 . . . . . .
6.6. On-line. C
alculo matematico vs Imaginacion de movimiento. Proyec. sobre
X1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.7. On-line. C
alculo matematico vs Relax. Proyec. sobre X1 . . . . . . . . . . .
6.8. On-line. Imaginaci
on de movimiento vs Relax. Proyec. sobre X1 . . . . . .
6.9. O-line. Calculo matematico vs Imaginacion de movimiento. Proyec. sobre
X2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.10. O-line. C
alculo matematico vs Relax. Proyec. sobre X2 . . . . . . . . . . .
6.11. O-line. Imaginacion de movimiento vs Relax. Proyec. sobre X2 . . . . . .
6.12. On-line. C
alculo matematico vs Imaginacion de movimiento. Proyec. sobre
X2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.13. On-line. C
alculo matematico vs Relax. Proyec. sobre X2 . . . . . . . . . . .
6.14. On-line. Imaginaci
on de movimiento vs Relax. Proyec. sobre X2 . . . . . .
6.15. Sujeto A. Canal 1. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.16. Sujeto A. Canal 2. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.17. Sujeto A. Canal 1 y 2. Clasicaciones correctas. . . . . . . . . . . . . . . .
6.18. Sujeto B. Canal 1. Clasicaciones correctas. . . . . . . . . . . . . . . . . .

. 163
. 164
. 168
. 168
. 169
. 169
. 170
. 170
. 171
. 171
. 172
.
.
.
.
.
.
.

172
173
173
177
177
178
178

XVIII

LISTA DE FIGURAS

6.19. Sujeto B. Canal 2. Clasicaciones correctas. . . . . . . . . . . . . . . . . .


6.20. Sujeto B. Canal 1 y 2. Clasicaciones correctas. . . . . . . . . . . . . . . .
6.21. Sujeto C. Canal 1. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.22. Sujeto C. Canal 2. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.23. Sujeto C. Canal 1 y 2. Clasicaciones correctas. . . . . . . . . . . . . . . .
6.24. Sujeto D. Canal 1. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.25. Sujeto D. Canal 2. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.26. Sujeto D. Canal 1 y 2. Clasicaciones correctas. . . . . . . . . . . . . . . .
6.27. Sujeto E. Canal 1. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.28. Sujeto E. Canal 2. Clasicaciones correctas. . . . . . . . . . . . . . . . . .
6.29. Sujeto E. Canal 1 y 2. Clasicaciones correctas. . . . . . . . . . . . . . . .
6.30. Porcentaje de clasicaciones correctas. Canal 1. Kernel gaussiano. . . . . .
6.31. Porcentaje de clasicaciones correctas. Canal 2. Kernel gaussiano . . . . .
6.32. Porcentaje de clasicaciones correctas. Canal 1. Kernel polin
omico. . . . .
6.33. Porcentaje de clasicaciones correctas. Canal 2. Kernel polin
omico. . . . .
6.34. Porcentaje de vectores soporte. Canal 1. Kernel gaussiano. . . . . . . . . .
6.35. Porcentaje de vectores soporte. Canal 2. Kernel gaussiano . . . . . . . . .
6.36. Porcentaje de vectores soporte. Canal 1. Kernel polin
omico. . . . . . . . .
6.37. Porcentaje de vectores soporte. Canal 2. Kernel polin
omico. . . . . . . . .
6.38. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano
P=1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.39. Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano
P=1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.40. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano
P=2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.41. Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano
P=2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.42. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano
P=3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.43. Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano
P=3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.44. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano
P=5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.45. Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano
P=5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.46. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano
P=10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.47. Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano
P=10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.48. Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico
P=2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

179
179
180
180
181
181
182
182
183
183
184
192
192
193
193
194
194
195
195

. 196
. 196
. 197
. 197
. 198
. 198
. 199
. 199
. 200
. 200
. 201

LISTA DE FIGURAS

6.49. Clasicaciones Correctas


P=2. . . . . . . . . . . .
6.50. Clasicaciones Correctas
P=3. . . . . . . . . . . .
6.51. Clasicaciones Correctas
P=3. . . . . . . . . . . .
6.52. Clasicaciones Correctas
P=4. . . . . . . . . . . .
6.53. Clasicaciones Correctas
P=4. . . . . . . . . . . .

XIX

vs.
. .
vs.
. .
vs.
. .
vs.
. .
vs.
. .

Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .

Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .

2. Kernel polinomico
. . . . . . . . . . . .
1. Kernel polin
omico
. . . . . . . . . . . .
2. Kernel polin
omico
. . . . . . . . . . . .
1. Kernel polin
omico
. . . . . . . . . . . .
2. Kernel polin
omico
. . . . . . . . . . . .

. 201
. 202
. 202
. 203
. 203

A.1. Cuanticacion uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

XX

LISTA DE FIGURAS

Lista de Tablas
2.1. Terminologa de formas de onda para EEG. . . . . . . . . . . . . . . . . . . 32
2.2. Componentes potenciales sensoriales evocados. . . . . . . . . . . . . . . . . 35
3.1. Tipos de ventanas de preprocesamiento considerados. . . . . . . . . . . . . . 62
3.2. Determinaci
on del vector de caractersticas. . . . . . . . . . . . . . . . . . . 65
4.1. Vector de caractersticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Funciones Kernel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3. Comparaci
on entre SVM y Redes Neuronales. . . . . . . . . . . . . . . . . . 137
6.1. Resultados voluntario AL01. . . . . . . . . . . . . . . . . .
6.2. Resultados voluntario RO01. . . . . . . . . . . . . . . . .
6.3. Resultados voluntario JA01. . . . . . . . . . . . . . . . . .
6.4. Resultados voluntario DA01. . . . . . . . . . . . . . . . .
6.5. Resultados voluntario RA01. . . . . . . . . . . . . . . . .
6.6. Resultados voluntario RA02. . . . . . . . . . . . . . . . .
6.7. Familia de funciones Kernel y par
ametros caractersticos.
6.8. Resultados Kernel gaussiano (P:1). . . . . . . . . . . . . .
6.9. Resultados Kernel gaussiano (P:2). . . . . . . . . . . . . .
6.10. Resultados Kernel gaussiano (P:3). . . . . . . . . . . . . .
6.11. Resultados Kernel gaussiano (P:5). . . . . . . . . . . . . .
6.12. Resultados Kernel gaussiano (P:10). . . . . . . . . . . . .
6.13. Resultados Kernel polin
omico (P:2). . . . . . . . . . . . .
6.14. Resultados Kernel polin
omico (P:3). . . . . . . . . . . . .
6.15. Resultados Kernel polin
omico (P:4). . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

188
188
188
188
188
188
190
196
197
198
199
200
201
202
203

B.1. Matriz de confusi


on del clasicador ideal. . . . . . . . . . . . . . . . . . . . 219
B.2. Matriz de confusi
on para un clasicador real. . . . . . . . . . . . . . . . . . 220

XXII

LISTA DE TABLAS

Captulo 1

Introducci
on.
1.1.

La tecnologa de Interfaz Cerebro Computador.

Desde el momento en que un ser humano nace, la interacci


on con el entorno que le rodea
se produce a traves de dos vas, una sensorial destinada a la percepci
on de dicho entorno,
y otra motora, con la que se modica dicho entorno a traves de movimientos, [Ratey 03].
Mediante un proceso de aprendizaje, [Webster 04], [Wang 08], iniciado incluso antes de
nacer, en el vientre materno se determinan los canales y bucles de se
nales electroqumicas
que permitir
an tanto la adquisici
on de informaci
on del entorno exterior, como el control
de los m
usculos con los que modicar dicho entorno, [Baker 89], [Jessell 91].
Siendo pues la percepci
on de informaci
on y el movimiento, los mecanismos de
interacci
on con el entorno fsico que nos rodea, no es de extra
nar que la pr
actica totalidad
de los actuales dispositivos de interfaz entre personas y maquinas necesiten alg
un tipo de
control muscular voluntario, aunque este sea mnimo como por ejemplo es el caso de los
dispositivos de comunicacion aumentada [Reilly 99], [Montoya 02].
Esta necesidad de movimiento impide que personas que hayan sufrido alg
un tipo
de accidente traum
atico, que afecte a su capacidad de movimiento, o con trastornos
neuromotores que se maniesten en episodios de bloqueo o par
alisis muscular, puedan
hacer uso de dichos mecanismos de comunicaci
on, sin embargo la mayora de personas con
este tipo de problemas mantienen intactas su sensacion corporal, vista y odo, as como
sus capacidades cognitivas [Arnao 97].
Por ello desde que en 1920, el Dr. Hans Berger demostrar
a la existencia de variaciones
de potenciales electricos en el cerebro asociadas a diferentes estados [Bronzino 95a],
[Webster 04], [Baker 89], la comunidad cientca ha buscado el modo de aplicar dicho
descubrimiento para obtener una va de comunicaci
on m
as directa entre el cerebro
humano y dispositivos mec
anicos externos, [Wolpaw 00b], [Wolpaw 03], [Pfurtscheller 00],
[Perelmouter 99], [McFarland 97], [Penny 99], [Birch 00], dando lugar al surgimiento de
la tecnologa de Interfaz Cerebro Computador, ICC1 , denida como una nueva va
de comunicaci
on entre personas y computadores, radicalmente diferente a las empleadas
en la actualidad, que utiliza canales de comunicaci
on independientes de los canales
de salida habituales del cerebro: sistema nervioso periferico y m
usculos [Wolpaw 00a],
1

En terminologa sajona esta tecnologa se conoce bajo las siglas BCI:Brain Computer Interface

Introducci
on.

[Wolpaw 02]. Lo cual la hace especialmente valiosa en areas como rehabilitacion


[Jacques 94], tratamiento de enfermedades nerviosas [Siegfried 97], realidad virtual o sector
militar, [NASA 08].
Como se puede comprobar en esta tesis, la tecnologa ICC involucra aspectos complejos,
como el control voluntario de la se
nal electroencefalograca tanto de neuronas individuales
como de centros neuronales en cualquiera de sus diferentes modalidades: potenciales
evocados, actividad neuronal espont
anea, desincronizaci
on y sincronizaci
on de ritmos
cerebrales; as mismo implica la detecci
on, medicion, interpretaci
on y clasicacion de dicha
actividad neuronal por medio de sistemas basados en microprocesadores, para as controlar
diferentes tipos de dispositivos como por ejemplo: pr
otesis neuronales, [Donchin 00],
[Isaacs 00], pr
otesis robotizadas, [Chapin 99], [Mahajan 98], sillas de ruedas electricas u
ordenadores personales, [Perelmouter 99], [Millan 03], sistemas de comunicacion verbal,
[Kumlbler 01].
Desde el punto de vista de interacci
on entre el ser humano y el dispositivo mecanico
externo, hay que considerar que en el bucle de control interact
uan dos componentes
adaptativos con capacidad de aprendizaje, por un lado la persona y por otro el propio
dispositivo de interfaz. Por lo que es preciso analizar el efecto que sobre la capacidad de
utilizaci
on del sistema tienen tanto el efecto de realimentaci
on de informaci
on al usuario,
como los cambios de estado de animo de este, [Holzapfel 98], [Sheikh 03].
Diferentes tecnicas de adquisicion y registro de actividad cerebral son empleadas en
ICC, [Wolpaw 03], [Barreno 97], [Rubio 00], como por ejemplo: la magnetoencefalografa
(MEG), la Tomografa por Emision de Positrones (PET), o la imagen de resonancia
magnetica funcional (fMRI); existiendo en la actualidad grupos de investigaci
on
trabajando sobre ellas. Sin embargo las tecnicas anteriores presentan bien el inconveniente
de tener constantes de tiempo muy altas, al quedar su funcionamiento ligado al ujo
sanguneo, caso de PET, fMRI e imagen optica; o bien requerir un equipamiento muy
costoso, [Laitinen 03]: MEG, PET, fMRI.En la actualidad la electroencefalografa es
la tecnica que por precio y tiempo de reaccion consigue mejores resultados [Birch 03],
[Birch 00], [Boriso 04], [Pfurtscheller 00].

Figura 1.1: Representaci


on del sistema ICC

1.1 La tecnologa de Interfaz Cerebro Computador.

1.1.1.

Clasicaci
on de dispositivos ICC.

Investigadores en ICC han adoptado diferentes aproximaciones, en muchos casos


novedosas y u
nicas, para la detecci
on de cambios voluntarios en la actividad cerebral
del sujeto, a partir del an
alisis de variaciones en los diferentes tipos de se
nales
electroencefalogracas, entre los que se encuentran la desincronizaci
on y posterior
sincronizaci
on de ritmos cerebrales, potenciales evocados o actividad cortical de neuronas
individuales.
La actividad electroencefalograca incluye una gran variedad de patrones o ritmos
diferentes que son identicados por su frecuencia, localizaci
on, morfologa y asociaci
on
con varios aspectos del funcionamiento cerebral [Jessell 91], [Baker 89], [Webster 04].
Se ha demostrado que las personas, y ciertos homnidos [Maynard 99], [Kennedy 97],
pueden aprender a controlar la amplitud de varios de estos ritmos cerebrales,
[Birbaumer 03], [Birbaumer 00], [Lauer 00], [Sheikh 03]. Ritmos y generaci
on de
diferentes tipos de potenciales son producidos en la zona senso-motora del cortex cerebral,
bien durante movimientos voluntarios, o bien cuando se imagina o prepara un movimiento,
[Penny 00]. Tecnicas avanzadas de procesamiento de se
nal permiten la detecci
on en lnea
de este fenomeno, dando lugar a que con su aprendizaje razonablemente r
apido, se
pueda controlar el movimiento de un cursor sobre la pantalla de un computador. La
combinaci
on de diferentes ritmos EEG puede ser empleada para controlar el movimiento
bidimensional de un cursor, [Wolpaw 00b]. Por otro lado, la estimulaci
on sensorial y
potenciales relacionados con la actividad motora asociada a movimientos reales o gurados,
da lugar a una compleja y rica actividad electroencefalogr
aca que involucra a una gran
cantidad de potenciales evocados que pueden ser usados en dispositivos de comunicaci
on
y control basados en la tecnologa ICC, dando lugar a diferentes clases dentro de las que
catalogar tanto a los dispositivos ICC como a las lneas de investigaci
on de las que parten.
Desde un punto de vista siol
ogico los dispositivos ICC se pueden clasicar en exogenos
o end
ogenos, vease gura 1.2, en el caso de los sistemas exogenos al usuario del sistema se le
suministran estmulos externos y se analiza la respuesta cerebral a los mismos. Un ejemplo
donde esta tecnica ha sido empleada con exito es con potenciales visuales evocados, P300, y
su empleo en sistemas para deletrear palabras, [Donchin 00]. Personas que sufren bloqueos
en su capacidad de respuesta o inicio de actividad, pueden utilizar potenciales evocados
lentos2 para por ejemplo deletrear palabras o en labores de control, siendo necesario un
proceso de aprendizaje condicionado.
Los dispositivos end
ogenos por el contrario, basan su funcionamiento en detectar y
reconocer determinados patrones de ondas cerebrales ligados a la voluntad del usuario, sin
que sea necesario proporcionar estmulos externos; un ejemplo en el que esta tecnica ha sido
utilizada con exito es con la deteccion de la desincronizaci
on y posterior sincronizacion
de ritmos o que se producen cuando el usuario imagina o planica movimientos,
[Scherer 04], [Wolpaw 03].
2

Los potenciales evocados lentos son la suma de potenciales de activaci


on ultralentos en las dendritas
de las neuronas corticales, surgen de diferentes capas del cortex cerebral.

Introducci
on.

Otro tipo de clasicaci


on con base siologica, se realiza atendiendo a la utilizaci
on de
determinadas estructuras cerebrales. Se catalogan como dispositivos ICC independientes
los que, como en el caso anterior, aprenden patrones de actividad con independencia
de la causa que los origine, y dispositivos dependientes los que detectan la activaci
on
de determinadas regiones del cerebro asociadas a salida de informacion del mismo, y
as detectar o inferir la voluntad del usuario. Un ejemplo de este tipo de dispositivos ICC
dependientes, seran los que determinan la direcci
on de la mirada del usuario partiendo
del an
alisis de potenciales visuales evocados, [Sutter 92]. En ambos casos es preciso que el
usuario realice un proceso de aprendizaje y adaptaci
on al sistema, siendo por lo general
mas laborioso para el caso de dispositivos endogenos, [Wolpaw 07].
Un u
ltimo tipo clasicaci
on viene dado por el tipo de electrodos empleados, existen
en este sentido dos grandes clases: electrodos superciales que se colocan sobre el
cuero cabelludo, y los implantables, [Hoogerwerf 94], [Isaacs 00], [Rousche 98]: epidurales,
subdurales, intracorticales. Los electrodos implantables, usados con exito en tecnicas de
estimulacion electrofuncional [Mahajan 98], presentan una mejor relaci
on se
nal ruido,
as como una mayor tasa en la velocidad de transferencia de informaci
on y una mejor
resoluci
on espacial, ya que pueden detectar la activaci
on o desactivaci
on de grupos
especcos de neuronas. Sin embargo presentan el inconveniente de requerir operaci
on
quir
urgica para su colocaci
on, y que con el tiempo la se
nal poco a poco va disminuyendo,
debido al efecto de rechazo por parte del sistema inmunol
ogico a elementos extra
nos, lo
cual da lugar a que la relaci
on se
nal ruido vaya deterior
andose [Kipke 03], [Schmidt 88],
[Williams 99]. Se ha demostrado que tanto animales, como pacientes humanos, con
electrodos implantados han sido capaces de controlar trenes de activaci
on de dos o m
as
neuronas de la zona motora del cortex, controlando un dispositivo de comunicaci
on,
[Robinson 00b]. Los electrodos superciales presentan el inconveniente de una menor
calidad de la se
nal registrada, por lo que para detectar variaciones de potencial electrico es
necesario que el n
umero de neuronas implicadas sea varios ordenes de magnitud superior
que para el caso de electrodos implantables, siendo por tanto mayor la extension de la
region del cerebro involucrada; sin embargo presentan la ventaja de no requerir operaci
on
quir
urgica en su utilizaci
on.

Figura 1.2: Clasicaci


on de dispositivos ICC.

1.1 La tecnologa de Interfaz Cerebro Computador.

1.1.2.

Componentes de un dispositivo ICC.

Con independencia de la tecnica de adquisici


on de se
nal encefalogr
aca utilizada, y sea
cual sea la tipologa del dispositivo en cuesti
on, todos los sistemas pueden enmarcarse en
un diagrama de bloques semejante al que aparece en la gura 1.3, [Schalk 04], [Wolpaw 07],
en cuyos bloques se considera:

Figura 1.3: Componentes de un sistema ICC.

Introducci
on.

1. Adquisici
on de se
nal encefalogr
aca. En este bloque se contempla el proceso a traves
del cual se procede a realizar la adquisici
on de se
nal cerebral. Comprende los procesos
de amplicaci
on de se
nal, ltrado anal
ogico, muestreo y cuanticaci
on.
En caso de utilizar un sistema electroencefalogr
aco como sistema de adquisicion,
para poder llegar a una aplicaci
on pr
actica, la se
nal adquirida, del orden de
microvoltios, ha de ser ltrada de otras fuentes de perturbaci
on como ruido ambiente,
actividad muscular y perturbaciones por movimiento, e incluso deben ir m
as alla,
puesto que deben permitir su empleo en ambientes ruidosos, a
un en el caso en
que las ordenes de mando sean dadas de forma poco frecuente, por lo que se
requerir
an algoritmos de deteccion robustos, en donde por ejemplo el efecto de
ventaneado sea considerado, [Wolpaw 02]. Debido a que es la se
nal captada la que
porta los mensajes del usuario, el objetivo de su an
alisis es la maximizacion de
la relaci
on se
nal frente al ruido, por lo que es preciso considerar las fuentes de
ruido m
as importantes, [McFarland 97], estas pueden ser tanto extraneuronales:
movimientos de los ojos, EMG, ruido electrico; como neuronales: cualquier otro tipo
de se
nales diferentes a las utilizadas para la comunicacion. La deteccion del ruido
y clasicacion presentan mayor dicultad cuando la se
nal de ruido es similar en
frecuencia, tiempo o amplitud a la se
nal deseada. Por ejemplo, analizando potenciales
evocados lentos, se comprueba que su espectro de frecuencia se sobrepone con el
espectro de movimiento de los ojos, igual ocurre cuando se analizan ritmos y se
producen movimientos musculares. Es preciso por tanto, tener suciente informacion
como para permitir discriminar entre se
nal y ruido. La actividad muscular puede
enmascarar la caracterstica de control EEG utilizada, incluso puede aparecer ruido
no muscular por actividad reeja en aquellos usuarios con falta total de control
muscular voluntario. En este caso, el ruido por causas no neuronales provoca una
degradaci
on en el rendimiento del dispositivo ICC, ya que disminuye la relacion se
nal
ruido. Es as mismo importante distinguir entre diferentes caractersticas neuronales.
El ritmo visual es una fuente de ruido, cuando se considera el ritmo como
caracterstica de control. Metodos de ltrado temporal y espacial pueden ayudar en
la distinci
on, se
nales de diferentes fuentes podran tener espectros frecuenciales y
distribuciones espaciales parecidas, [Florian 98]. Si el ruido, tanto neuronal como no
neuronal, puede ser identicado en lnea durante el transcurso del funcionamiento,
su impacto podra ser reducido o incluso eliminado. Por ejemplo un dispositivo
ICC controlado por potenciales corticales lentos, cuya entrada se vea contaminada
por movimientos oculares puede ser bien ltrada y restaurada, o bien rechazada,
[Birbaumer 00]. Esta aproximacion puede dar lugar a que el usuario aprenda a
reducir la producci
on de dicho ruido.
2. Preprocesamiento. Este bloque comprende las operaciones que se realizan sobre la
se
nal digitalizada, previas a la obtenci
on de los par
ametros que denen el segmento
temporal de se
nal analizado, por ejemplo: ltrado digital, conversi
on de dominio
temporal a dominio frecuencial, an
alisis de fase, etc.

1.1 La tecnologa de Interfaz Cerebro Computador.

En cuanto a las tecnicas empleadas para procesar la se


nal existen numerosas opciones
disponibles para el procesamiento de se
nal ICC. La decision del criterio a aplicar
vendr
a dado por la comparaci
on de medidas de velocidad y precisi
on en experimentos
en lnea.
Metodos de procesamiento de se
nal son importantes en el dise
no de sistemas ICC,
pero no resuelven todos los problemas. Pueden mejorar las relaci
on se
nal ruido, pero
no pueden tratar directamente con los cambios de la se
nal, por lo que el desarrollo de
la tecnologa ICC depende del manejo apropiado de la interacci
on adaptativa entre
el usuario y el sistema, as como en la seleccion del metodo de procesamiento de
se
nal adecuado.
3. Extracci
on de caractersticas. Para cada segmento temporal de se
nal analizado se
obtienen un conjunto de par
ametros que re
unen la informaci
on m
as relevante del
mismo y que permiten caracterizarle, [Galan 07]. La estimacion de par
ametros
en modelos autorregresivos es un metodo u
til para describir la actividad de
EEG, mostr
andose valioso en aplicaciones de la tecnologa ICC, [Pfurtscheller 00],
[Penny 00]. Los modelos AR por lo general asumen procesos gaussianos, [Birch 00].
Los residuos del modelo deben ser considerados y analizados debido a su gran
inuencia en la estimacion de los par
ametros del modelo. La estimacion de m
axima
probabilidad generalizada (GM) se muestra valiosa en aquellos casos en los que
existe una contaminacion aditiva de muestras fuera de la banda de consideraci
on.
Este metodo se basa en el ltro de Kalman modicado. Ambos metodos producen
resultados similares a la estimacion AR tpica, cuando los datos observados se
distribuyen seg
un gaussianas. Algoritmos Bayesianos pueden analizar la certidumbre
en la interpretaci
on de la voluntad del usuario por parte del sistema, [Penny 00]. Es
posible parar la comunicaci
on cuando el valor de la certidumbre es inferior a un valor
crtico, reduciendo errores en el rendimiento del sistema ICC.
4. Aprendizaje y clasicacion. En este bloque se consideran los mecanismos a traves
de los cuales, durante la fase de entrenamiento, se aprenden determinados patrones
cerebrales. Con posterioridad, en la fase de funcionamiento On-line, los segmentos
de se
nal cerebral son catalogados como pertenecientes a determinados patrones
cerebrales.
Es sin duda el componente crtico de todo sistema de Interfaz Cerebro Computador,
pues convierte la entrada electrosiologica del usuario en una se
nal de mando que
permite controlar dispositivos externos. De su tasa de acierto depende la efectividad
del sistema, [Obermaier 01b], la cual a su vez depende de la interaccion entre los
controladores adaptativos anteriormente mencionados: el usuario que codica las
ordenes al sistema ICC, y dicho sistema que reconoce las ordenes que hay en la

entrada y las traduce en ordenes de control del dispositivo. En la actualidad se


estan obteniendo velocidades de transferencia de informaci
on entre 5-25 bits/min,
[Penny 99].

Introducci
on.

Dispositivos de ICC diferentes utilizan diferentes algoritmos de traducci


on,
[Birbaumer 00], [Penny 00], [Muller 03b], basados en tecnicas lineales, [Garrett 03],
en tecnicas bayesianas, [Penny 00], en redes neuronales, [Wang 04] y en Modelos
Ocultos de Markov; sin embargo hasta la fecha no se tiene constancia de que haya
sido desarrollado un algoritmo de clasicaci
on que aune redes neuronales y modelos
ocultos de Markov, tal y como se hace en esta tesis.
Por algoritmos de traducci
on se entienden una serie de calculos que transforman las
caractersticas de la entrada derivadas del procesamiento de se
nal en comandos de
control del dispositivo. Los algoritmos de traducci
on adquieren la se
nal, extraen
las caractersticas que reeja el estado actual del usuario. bien del EEG o de
la actividad neuronal: individual o colectiva, y la transforman en comandos que
dependen del dispositivo al que se aplican. Dispositivos de ICC diferentes utilizan
diferentes algoritmos de traduccion, [Birbaumer 00], [Penny 00]. Cada algoritmo se
puede clasicar en terminos de tres caractersticas clave: funcion de transferencia,
capacidad de adaptaci
on y salida. La funci
on de transferencia puede ser lineal, por
ejemplo an
alisis de discriminantes lineales, ecuaciones lineales; o no lineal: redes
neuronales. El algoritmo puede ser o no adaptativo. Algoritmos adaptativos pueden
utilizar sencillas reglas hechas a mano o utilizar algoritmos mas sosticados de
aprendizaje por computador. La salida del algoritmo puede ser discreta: selecci
on
de letras o iconos, o continua: movimiento del cursor. La gran diversidad de los
algoritmos de traduccion entre los grupos de investigaci
on se debe en parte a la
diversidad de su aplicaci
on en la pr
actica. Sin embargo en todos los casos el objetivo
es maximizar el rendimiento y utilidad para la aplicaci
on elegida.
Cada algoritmo se puede clasicar en terminos de tres caractersticas clave: funcion
de transferencia, capacidad de adaptaci
on y salida. La funci
on de transferencia
puede ser lineal, por ejemplo an
alisis de discriminantes lineales, ecuaciones lineales;
o no lineal: redes neuronales. El algoritmo puede ser o no adaptativo. Algoritmos
adaptativos pueden utilizar sencillas reglas hechas a mano o utilizar algoritmos
mas sosticados de aprendizaje por computador. La salida del algoritmo puede ser
discreta: seleccion de letras o iconos, o continua: movimiento del cursor. La gran
diversidad de los algoritmos de traducci
on entre los grupos de investigaci
on se debe
en parte a la diversidad de su aplicaci
on en la pr
actica. Sin embargo en todos los
casos el objetivo es maximizar el rendimiento y utilidad para la aplicaci
on elegida.
5. Asociacion de dichas clases a ordenes de control de dispositivos externos. Este bloque
es el encargado de realizar la traducci
on de patrones cerebrales a comandos de control
de dispositivos externos.
Ademas de los bloques anteriores, en dispositivos ICC On-line, ha de existir un
bloque que permita supervisar el funcionamiento del dispositivo por parte del usuario,
como por ejemplo su activacion / desactivacion, o fase de funcionamiento en la que
se encuentra: adquisici
on de muestras iniciales, entrenamiento, funcionamiento on-line,
adaptacion.

1.2 Aplicaci
on de la tecnologa ICC.

1.2.

Aplicaci
on de la tecnologa ICC.

Como ya se ha indicado, los dispositivos ICC se basan en registrar y analizar la


actividad cerebral, bien mediante el uso de tecnicas electroencefalogracas, o bien mediante
otras tecnicas de deteccion.
En la actualidad esta tecnologa se encuentra en fase de desarrollo, por lo que
existen demostradores tecnologicos propuestos por los diversos grupos de investigaci
on,
por medio de los cuales es posible controlar el movimiento de un cursor en la pantalla
de un ordenador personal al objeto de poder seleccionar bien un icono o una letra
entre un grupo de candidatos, dando lugar a aplicaciones de teclados de conceptos o
deletreadores de palabras, [Wolpaw 07], [Wolpaw 02]. Sin embargo, a
un no se ha llegado
a realizar una comercializacion masiva de ning
un dispositivo de interfaz humana basado
en esta tecnologa, razones para ello son tanto el coste relativamente elevado de dise
no
y fabricaci
on de dicho dispositivo, como la elevada dependencia actual del usuario para
su buen funcionamiento, sin olvidar que la tasa de transferencia de informaci
on obtenida,
que a
un siendo u
til en casos de personas con problemas de comunicacion, no es todava
lo sucientemente elevada como para poder ser alternativa a los dispositivos de interfaz
tradicionales. La discusi
on del dise
no y desarrollo de dispositivos de interfaz basados
en tecnologa ICC inevitablemente se centra en las posibles aplicaciones, su eciencia,
seguridad y coste de programas especcos para aplicaciones particulares. Una vez que de
forma general se de respuesta a preguntas iniciales como: Con que ecacia se controla el
movimiento de un cursor? o Cu
al es la velocidad con la que podemos seleccionar una letra
entre veintiseis?, se podran considerar los nes a los que se puede destinar esta tecnologa
en la vida real, [Miner 98], [Sheikh 03], [Vidal 73], [McFarland 97].
Entre las diferentes tipologas de dispositivos ICC los primeros en desarrollarse han
sido los de tipo ex
ogeno, basados en el control de la amplitud de una determinada banda
de frecuencia en el registro del EEG en una zona cortical especca, por ejemplo ritmos
o en la zona sensomotora del cortex, [Kostov 00], [Penny 00], o potenciales evocados
ante estmulos especcos, ej. amplitud de los potenciales P300 producidos en respuesta a
intermitencia de destello en matrices de letras, [Donchin 00].
Sin embargo desde el punto de vista del usuario son preferibles los dispositivos ICC
end
ogenos, pues al no precisar de un entorno estructurado, es mayor la libertad de que
se dispone tanto en cuanto a la eleccion del momento en que se genera el patr
on cerebral
o idea asociada a un comando de dispositivo, como en cuanto a la seleccion de dichos
patrones. Una aplicaci
on basada en un dispositivo ICC end
ogeno permitira al usuario
mover el cursor a cualquier punto de un plano, mientras que un sistema ex
ogeno limitara
la eleccion a las opciones mostradas en un monitor.
Por otro lado los desarrolladores deben evitar la tendencia de preajustar o preasignar
los parametros de las herramientas y su aplicacion, como si de un ejercicio de optimizacion
se tratase. Cada dispositivo ICC debe optimizarse para cada usuario o grupo de usuarios.
Al mismo tiempo, el proceso de optimizaci
on debe ser lo mas objetivo y estandar posible.

10

Introducci
on.

Los objetivos deben ser claramente denidos, as como las necesidades hacia las que va
destinado, deseos y motivadores primarios, aplicaciones y utilizacion por parte del usuario,
para todo lo cual ser
a preciso el analisis comportamental del conjunto, incluido el usuario.
El desarrollo de ICC no s
olo debe incorporar principios tecnicos y electrosiologicos, sino
que tambien es preciso bases de aprendizaje bien denidas, [Florian 98], [Harrington 97].
Usuarios con una enfermedad progresiva, como por ejemplo Esclerosis Lateral
Amiotroca, ELA, podran utilizar dispositivos ICC que particularizaran sus
caractersticas de entrada al usuario y su salida controlar
a un interfaz convencional
de comunicaci
on aumentada, [Reilly 99], [Isaacs 00]. De tal modo que seg
un avance la
enfermedad, el usuario podra realizar una transicion suave, del uso del interfaz de
comunicacion aumentada est
andar al dispositivo ICC, [Jacques 94].
El desarrollo reciente y la aplicaci
on comercial de Freehand Functional Electrical
Stimulation system (FES) en Case Western Reserve University, Cleveland OH.,
demuestra las condiciones necesarias para el exito, [Lauer 00]. Estas condiciones incluyen:
estabilizacion de todos los aspectos de dise
no y documentaci
on, una poblaci
on de usuarios
bien denida, protocolos de entrenamiento normalizados, demostraci
on de la viabilidad de
aplicaciones especcas, medida de caractersticas de salida bien denidas que documenten
adecuadamente el uso y eciencia, asistencia regular en varios centros y la identicaci
on
de centros de fabricaci
on y estrategia de comercializacion. Todo lo cual requiere la
colaboraci
on de los usuarios y el convencimiento por parte de los mismos de que la
tecnologa empleada es u
til y segura. Es tambien precisa la cooperaci
on de profesionales
de centros de salud, los cuales deben convencerse de que la relacion benecio / riesgo es
favorable, que la tecnologa es segura y u
til, y que es igual o superior a las alternativas
actualmente disponibles. Por u
ltimo es preciso convencer a las compa
nas de seguros, que
a largo plazo la inversi
on realizada en este tipo de tecnologa sera recuperada con creces.
Pacientes que esten paralizados, o con da
no traum
atico que afecte a la medula
espinal, o pr
otesis en extremidades superiores, se podran beneciar de la aplicaci
on
de la tecnologa ICC, siempre y cuando sea segura y efectiva. Para ser justicable, un
sistema implantado debe ofrecer una sustancial ventaja funcional sobre la tecnologa de
comunicacion aumentada convencional o metodos ICC no invasivos.
Las areas de aplicaci
on en las que se propone la utilizaci
on de esta tecnologa son:

1.2.1.

Ciencia de la rehabilitaci
on.

El enfoque actual de las investigaciones en ICC se orienta principalmente hacia la


ciencia de la rehabilitacion, entendiendo por tal el desarrollo de conocimiento corporal,
recogido de una rigurosa investigaci
on clnica, permitiendo describir como la incapacidad
modica funciones siol
ogicas y anat
omicas especcas, y detalla los principios b
asicos por
los que funciones residuales o capacidades pueden ser medidas y utilizadas para recuperar
funciones en individuos con incapacidad, [Robinson 93].
Las aplicaciones hacia las que se destinan los dispositivos ICC son neuropr
otesis

1.2 Aplicaci
on de la tecnologa ICC.

11

que permitan ha personas paralizadas comunicarse bien con el entorno que les
rodea, [Birbaumer 03], [Robinson 00a], [Birbaumer 00], o bien con un entorno simulado,
[Bayliss 03], o mejorar su capacidad de movimiento ayudandose con dispositivos rob
oticos,
por ejemplo el control de movimiento de pr
otesis mecanicas de miembros perdidos, [Bai 01],
[Birch 00], [Kositsky 03]. Del mismo modo se han desarrollado prototipos para el control
de sillas de ruedas motorizadas, [Birch 00], [Millan 03], [Millan 04], [Gerstner 04].
Ademas de su empleo en casos de paralisis asociados con accidentes traumaticos,
Esclerosis Lateral Amiotroca, [Leeb 05], u otras enfermedades neurodegenerativas, la
tecnologa ICC ha sido propuesta como posible va de comunicaci
on afasia y otros
desordenes de comunicacion, como autismo, haciendo que la persona autista interaccione
con entornos virtuales 3D, cuya complejidad aumenta progresivamente aproxim
andose a
la real seg
un criterio del rehabilitador, [Birbaumer 00]. Mediante la prevenci
on de las
zonas de lenguaje comprometidas de la zona del cortex temporal-frontal, y por medio
del mecanismo de plasticidad cerebral, [Ratey 03], [Bronzino 95b], [Jessell 91], se podran
concebir mecanismos de comunicacion, siendo una alternativa efectiva para pacientes que
no puedan controlar el alfabeto, o un sistema de representaci
on pict
orica.
Como bancos de demostracion se han desarrollado prototipos que permiten el control
unidimensional y bidimensional de un cursor en la pantalla de un computador, empleando
los resultados obtenidos en aplicaciones para deletrear palabras y teclados de conceptos,
[Donchin 00], [Allison 03], [Bayliss 00], [Bianchi 03].

1.2.2.

Teleoperaci
on de robots industriales.

En el campo de la teleoperaci
on de dispositivos se han hecho demostradores
tecnologicos que eval
uan la aplicabilidad de la tecnologa ICC en la teleoperaci
on de robots
industriales, [Chapin 99], [Taylor 03], [HONDA 09].

1.2.3.

Sector militar.

El sector militar fue el que a traves de las investigaciones en bionica del Dr. J.J.Vidal,
en la decada de los 70, dio lugar al nacimiento de esta tecnologa, [Vidal 77].
En la actualidad la tecnologa ICC, basando en el efecto de realimentaci
on neuronal3 ,
se emplea en el entrenamiento avanzado de pilotos de combate para potenciar la
concentraci
on en misiones que requieren un alto nivel de alerta, as como la gestion y
evaluacion de riesgos en el menor tiempo posible, [NASA 08].

1.2.4.

Sector del ocio y entretenimiento.

En este area, compa


nas como IBVA (http://www.ibva.com), proponen el empleo de
dispositivos basados en tecnologa ICC como medio para el desarrollo de actividades l
udicocreativas, como la composicion de m
usica a traves del tratamiento de los ritmos cerebrales.
As mismo es de esperar que mediante la utilizacion de tecnicas basadas en
Neurofeedback, se desarrollen dispositivos de uso personal, que permitan ser aplicados
junto con tecnicas de relajacion al objeto de combatir los altos niveles de estres presentes
en la sociedad actual.
3

En ingles a esta tecnica se la denomina Neurofeedback

12

Introducci
on.

1.3.

Motivaciones de la tesis.

La presente tesis se enmarca dentro de la lnea que sobre bioingeniera y tele-rob


otica se
viene realizando por el Grupo de Rob
otica y Cibernetica de la Universidad Politecnica de
Madrid, dando lugar a tesis como: [Ferre 97], [Pe
nn 98], [Luengo 98], en el area de Interfaz
Hombre M
aquina y teleoperaci
on de dispositivos roboticos; o [Rocon 06], [Moreno 06], en
el area de bioengeniera en la aplicaci
on de exoesqueletos roboticos.
De manera particular esta tesis focaliza su centro de interes en el area de investigaci
on
y desarrollo de interfaces avanzados entre seres humanos y m
aquinas, siendo sus resultados
aplicables en campos como la teleoperacion de dispositivos externos, rob
otica asistencial
e ingeniera de rehabilitaci
on.

1.3.1.

Objetivos de la tesis.

Con esta tesis se pretende analizar la aplicabilidad actual de la tecnologa de


Interfaz Cerebro Computador, bajo el paradigma de sistema end
ogeno, empleando un
n
umero mnimo de electrodos superciales localizados sobre aquellas zonas encefalicas con
mayor poder de discriminaci
on, orientando su uso hacia aplicaciones de teleoperaci
on y
rehabilitaci
on, para lo cual se consideran los siguientes objetivos:
Descripci
on detallada de las bases siologicas en las que se basa la tecnologa ICC
en sus diferentes versiones.
Exposici
on, an
alisis y evaluaci
on, de las diferentes tecnicas de adquisicion de
actividad cerebral.
Comparaci
on de la capacidad de discriminaci
on de la se
nal electroencefalograca
registrada cuando el usuario realiza los diferentes tipos de actividades cognitivas
propuestas.
Explicaci
on, aplicaci
on y evaluaci
on de los algoritmos de clasicacion empleados.
Evaluaci
on de esta tecnologa en control de dispositivos externos genericos.
Inuencia de la realimentaci
on de informaci
on al usuario sobre la capacidad de
discriminaci
on.
Desarrollo de un demostrador que permita evaluar la aplicabilidad de la tecnologa
de Interfaz Cerebro Computador.
Evaluar la viabilidad de su utilizaci
on ambulante.

1.3 Motivaciones de la tesis.

1.3.2.

13

Aportaciones de la tesis.

De la consecucion de los objetivos anteriores se derivan las principales aportaciones de


la presente tesis:
Desarrollo de un demostrador, que siguiendo el paradigma de sistema end
ogeno,
emplea solo dos canales electroencefalogracos, localizados respectivamente sobre
las zonas encefalogracas de ambos hemisferios cerebrales con mayor capacidad de
discriminaci
on: C3 y C4.
Realizacion de bateras de experimentos, tanto fuera de lnea (O-line) como en
lnea (On-line), con usuarios reales, con cuyos resultados se puede analizar:
La capacidad de discriminaci
on de las muestras de los registros electroencefalogracos, adquiridos mientras los usuarios realizaban las actividades cognitivas
propuestas.
An
alisis que el efecto de ventaneado de la se
nal electroencefalograca tiene
sobre su capacidad de discriminaci
on, para lo cual se han empleado los siete
tipos de ventanas mas conocidos en procesamiento de se
nal [Proakis 97],
[Oppenheim 96]: rectangular, triangular, Blackman, Hamming, Hanning, Kaiser
y Tukey; identic
andose las que dan lugar a una mejor separabilidad.
Identicacion de aquellas caractersticas, basadas en componentes frecuenciales,
con mayor capacidad de discriminaci
on.
Obtenci
on, mediante la aplicaci
on de la tecnica de Analisis de Discriminantes
4
on que permite una reducci
on del espacio
Lineales, , de la matriz de transformaci
de caractersticas entrada a un posterior clasicador. Analizando as mismo, el
efecto que dicha transformaci
on causa en la capacidad de discriminaci
on.
Aplicaci
on a los clasicadores, que empleando la metodologa de aprendizaje
supervisado, m
as com
unmente empleados en el area de Inteligencia Articial,
como son:
Clasicadores basados en redes neuronales de los tipos: Perceptron
Multicapa (MLP), Funciones de Base Radial (RBF), Redes Neuronales
Probabilsticas (PNN), [Bishop 95], [Duda 01], [Ripley 96].
M
aquinas de Soporte de Vectores (SVM), [Cristianini 00], [Nabney 02].
An
alisis que la realimentaci
on de informaci
on al usuario, acerca de del
resultado de clasicaci
on obtenido, tiene sobre la capacidad de discriminaci
on
de actividades cognitivas.
As mismo, considerando los desarrollos que en la tecnologa de Reconocimiento
Natural del Habla se han llevado a cabo utilizando Modelos Ocultos de Markov,
se ha desarrollado un novedos algoritmo de clasicaci
on bietapa que emplea
secuencialmente redes neuronales de tipo RBF y Modelos Ocultos de Markov.
La ingente cantidad de datos obtenidos ha sido procesada y mostrada gr
acamente de
forma resumida en las guras del captulo 6.
4

En ingles se define como: Linear Discriminant Analysis (LDA).

14

1.4.

Introducci
on.

Estructura de la tesis.

La presente tesis se encuentra estructurada en siete captulos y dos apendices.


En el primer captulo, como ya se habra podido leer, se realiza una denici
on de la
tecnologa de Interfaz Cerebro Computador, a la vez que se describen sus componentes
fundamentales. As mismo se analizan los principales campos de aplicacion de esta
tecnologa.
En el captulo segundo se realiza una exposicion sobre las bases siol
ogicas en las que se
basa la tecnologa de Interfaz Cerebro Computador, presentando las diferentes alternativas
tecnicas para el registro de la actividad cerebral. A continuaci
on se presenta un estado de la
tecnica haciendo una revisi
on hist
orica de los desarrollos llevados a cabo por los diferentes
grupos de investigaci
on a nivel mundial, concluyendo con las tendencias actuales. Por
u
ltimo se realiza una breve descripci
on de las tecnicas empleadas en la tecnologa ICC.
En el captulo tercero se describen las tecnicas de preprocesamiento de se
nal empleadas.
Al igual que ocurre con la tecnologa en vision articial, antes de proceder a la clasicaci
on
de una imagen, esta se somete a diferentes procesos como son: preprocesamiento, ltrado,
extraccion de caractersticas, y por u
ltimo clasicaci
on; la correcta adecuaci
on de la se
nal
electroencefalograca es determinante en la obtenci
on de los conjuntos de caractersticas
que representan de forma el al segmento de se
nal temporal considerado. En este captulo
se presenta la tecnica de ventaneado temporal de la se
nal, describiendo los diferentes de
ventanas de procesamiento empleados, cuya inuencia sobre la capacidad de discriminaci
on
y clasicacion de la se
nal EEG, ser
a posteriormente analizada.
En el captulo cuarto se describen los diferentes algoritmos de clasicacion considerados
en los experimentos llevados a cabo en el desarrollo de esta tesis, basado en la utilizacion de
redes neuronales: MLP, RBF y PNN; M
aquinas de Soporte de Vectores, y en el algoritmo
de clasicacion bietapa RBF-MOM. En ellos se hace uso tanto de tecnicas estadsticas
para la determinaci
on de la capacidad de discriminaci
on, como de la tecnica de Analisis
de Discriminantes Lineales para la reduccion del espacio de caractersticas original, a traves
de la obtenci
on de la matriz de transformaci
on.
En el captulo quinto se describe la adaptaci
on de los algoritmos anteriores al contexto
particular de la tecnologa ICC. Ademas se describe a nivel de an
alisis la aplicaci
on
de demostracion, presentando los principales casos de uso, diagramas de secuencia y
diagramas de estructura de clases de analisis.
En el captulo sexto se realiza la presentaci
on, an
alisis, discusion y extraccion de
conclusiones, de los resultados obtenidos tras el procesado del gran volumen de datos
experimentales conseguidos de la aplicaci
on pr
actica de los conceptos expuestos en los
captulos anteriores.
Por u
ltimo, en el captulo septimo se exponen las conclusiones alcanzadas, valoracion
de los objetivos iniciales, as como futuras lneas de investigaci
on y desarrollo a las que da
lugar esta tesis.
En el apendice A se presenta consideraciones sobre el proceso de adquisicion de se
nal,
mientras que el apendice B describe el concepto de matriz de confusi
on empleado en
clasicacion.

Captulo 2

Estado de la t
ecnica.
En este captulo se comienza dando unas nociones b
asicas de la siologa del sistema
nervioso, necesarias para comprender los principios biol
ogicos en los que se fundamenta
la tecnologa de Interfaz Cerebro Computador, que si bien pueden ser innecesarias
para investigadores familiarizados con ciencias biologicas, pueden no serlo tanto para
investigadores del area de las ingenieras, menos familiarizados con las bases siol
ogicas
del sistema nervioso.
Posteriormente se hace una revision de las tecnicas empleadas para la adquisicion
de se
nal de la actividad cerebral, entre las que se encuentran la electroencefalografa,
magnetoencefalografa y diversas tecnicas aplicadas en imagen medica como: imagen
cerebral por rayos X, imagen nuclear, tomografa computerizada, imagen de resonancia
magnetica, tomografa computerizada por emision individual de fotones (SPECT),
tomografa por emision de positrones (PET); a la vez que se analiza su aplicabilidad a
la tecnologa de Interfaz Cerebro Computador.
Seguidamente se analizan las referencias historicas sobre el desarrollo de la tecnologa
ICC, para nalmente presentar el estado actual en el que se encuentra esta tecnologa.

2.1.

Fundamentos siol
ogicos.

Debido a que las bases siol


ogicas del sistema nervioso desempe
nan un papel
fundamental en la tecnologa ICC, en esta seccion se hace una exposicion de conceptos
siol
ogicos que aparecen a lo largo de la presente tesis. Los conceptos que se describen a
continuaci
on son:
Fisiologa. Dene brevemente el campo de investigaci
on de esta ciencia, a la vez
que cita las diferentes investigaciones que sobre el Sistema Nervioso se han venido
llevando a cabo a lo largo del tiempo.
La Neurona. Describe desde un punto de vista biol
ogico este tipo de celula,
presentando las caractersticas que la hacen u
nica para ser la base del sistema
nervioso.
El Sistema Nervioso. La agrupaci
on y especializacion de las neuronas dan lugar a
la formaci
on de las diferentes estructuras que forman el sistema nervioso. En este
subapartado se presentan estas estructuras, as como las particularidades que m
as
relevancia tienen en la tecnologa ICC.

16

2.1.1.

Estado de la t
ecnica.

Fisiologa.

La siologa es la ciencia que tiene por objeto el estudio de las funciones de los
seres organicos. Su aplicaci
on al sistema nervioso es clave para comprender las diferentes
variantes que existen sobre ICC.
El estudio de la siologa del sistema nervioso humano no es reciente, existen referencias
en las que sacerdotes del antiguo Egipto pretendan reconocer a traves de la inspeccion
visual de la cabeza los instintos, sentimientos y hasta la capacidad intelectual de la persona
en cuestion. La civilizacion griega adquiri
o y mejor
o dichos conocimientos, dando lugar al
nacimiento de ciencias como la Psicologa, o a representaciones artsticas de dioses o heroes,
en donde la conguraci
on de la cabeza estaba en armona con los atributos y facultades
que se queran presentar al pueblo llano en sus formas m
as palpables. Los escritos mas
antiguos acerca del particular son los de Plat
on o Arist
oteles [Velazquez 97].
En el siglo IX de nuestra era, el fsico y medico Avicena investigo sobre la localizaci
on de
las facultades cerebrales [Chinchilla 43]. Investigaciones que fueron retomadas por Alberto
el Grande cuatrocientos a
nos despues, en el siglo XIII, quien dibuj
o una cabeza en la
que represento el sitio en que radicaban las diferentes facultades humanas [Espinoza 03],
coloco el sentido com
un en la frente o en el primer ventrculo, el juicio en el segundo, la
memoria y la fuerza motriz en el tercer ventrculo.
Trabajos similares fueron realizados en Italia por Pedro de Montagna, quien en 1491
publica su obra adornada con una l
amina que representaba el sitio del sentido com
un y la
imaginaci
on dentro de la cabeza [Montaner 91].

Figura 2.1: Diagrama frenol


ogico.

Poco despues, en 1562, Luis Dolei dene el primer sistema de Frenologa, deniendo tal
ciencia como: Doctrina psicol
ogica seg
un la cual las facultades psquicas est
an localizadas
en zonas precisas del cerebro y en correspondencia con relieves del cr
aneo. El examen de
estos permitira reconocer el car
acter y aptitudes de la persona. Sin embargo es Gail quien
en 1781 populariz
o este sistema [Colbert 98], [Segovia 38], perfeccionado posteriormente
junto con Spurzheim en 1804, con investigaciones acerca de la anatoma y siologa del
sistema nervioso, y en particular del cerebro.

2.1 Fundamentos siol


ogicos.

17

Posteriormente Descartes, Gardon, Willis, Boerhaave, Kant, Bonet, Vizq-dAyzr,


publicaron trabajos que contribuyeron poderosamente a consolidar el metodo frenol
ogico.
Aunque como ya se ha indicado los estudios relativos a la mente y sus capacidades, y por
extensi
on del sistema nervioso, no es una disciplina nueva, el relativo escaso conocimiento
que sobre el mismo existe no se debe tanto a la falta de investigaciones o curiosidad
cientca, sino m
as bien debido a la gran complejidad de dicho sistema; complejidad
que trabajos cientcos como las investigaciones llevadas a cabo por el premio Nobel
Santiago Ram
on y Cajal1 en 1905, sobre el sistema nervioso, han contribuido a esclarecer,
[Barreno 02], [Pintado 77].
Se estima que en el cerebro humano existen
aproximadamente unos 100 billones de neuronas
[Jessell 91], cada neurona puede llegar a alcanzar
alrededor de 2.000 conexiones o mas con otras
neuronas, y puede recibir del orden de 20.000
entradas. Teoras que describen los procesos asociados
a la memoria y al aprendizaje tratan de explicar,
a traves de la Neuroplasticidad, los mecanismos
subyacentes para el establecimiento de dichas
conexiones [Bronzino 95b].
Desde que en 1929 Hans Berger demostrara
la inherente naturaleza electrica del cerebro, dando
comienzo al nacimiento de la Electroencefalografa
como tecnica de registro [Bronzino 95b], [Baker 89],
[Webster 78], se ha venido investigando el modo de
Figura 2.2: Neuronas. Ram
on y
Cajal.
utilizar esta informacion para aumentar la base de
conocimiento, diagn
ostico de enfermedades, e incluso plantear nuevas vas de
comunicacion. Con la evoluci
on de las tecnicas radiologicas y la revoluci
on que han
supuesto las nuevas tecnologas de imagen medica, en la forma de adquirir conocimiento
[Barreno 97] con las que es posible ver en vivo dentro del cuerpo humano el funcionamiento
de determinados organos, se ha aumentado de igual forma las tecnologas que pueden
ser empleadas a la hora de estudiar el funcionamiento del cerebro, y dado el caso,
proponer nuevos sistemas de interfaz entre seres humanos y dispositivos mecanicos externos
basados en ellas. Entre las tecnologas propuestas para este n actualmente se cuenta
con: Electroencefalografa, Maganetoencefalografa, Tomografa por Emision de Positrones
(PET), o la imagen de resonancia magnetica funcional (fMRI).
La segunda mitad del siglo XX, y en especial la decada de los 90, conocida como
la decada del cerebro, se ha dedicado a la investigaci
on y estudio del cerebro humano,
inspirando nuevos desarrollos en el campo de la Inteligencia Articial, como es el caso del
resurgimiento de las Redes Neuronales [Rich 94].
1
Ram
on y Cajal se hizo valedor en 1906 del premio Nobel de Fisiologa y Medicina por sus trabajos
sobre el sistema nervioso Histologa del sistema nervioso del hombre y los vertebrados (1905) [Cajal 05],
en los que se descubren los mecanismos que gobiernan la morfologa y los procesos conectivos de las celulas
nerviosas.

18

Estado de la t
ecnica.

2.1.2.

La neurona.

La unidad fundamental del


sistema nervioso de los vertebrados
y del hombre es la neurona, veanse
las guras 2.2 y 2.3, su capacidad
de transferir informaci
on de una
parte del organismo a otra en
forma de impulsos electroqumicos
la distingue del resto de las celulas;
desde un punto de vista abstracto es
probablemente la celula del cuerpo
mas variable atendiendo tanto a su
forma como a su tama
no.
Toda neurona est
a compuesta
por tres partes b
asicas:

Figura 2.3: Neuronas.

Cuerpo de la celula. Tambien denominado soma. Es la parte m


as gruesa, contiene
todos los componentes necesarios de la celula, como el n
ucleo (contiene ADN),
retculo endoplasm
atico y ribosomas (para sintetizar protenas), y la mitocondria
(para la transformaci
on de energa). Si el n
ucleo muere, la neurona muere.
Ax
on. Proyeccion alargada en forma de cable, se encarga de transportar el mensaje
electroqumico a lo largo de toda la longitud de la celula. Dependiendo del tipo de
neurona, los axones pueden estar recubiertos por na capa de mielina, a modo de
aislante. La mielina queda constituida principalmente por lpidos o grasas, facilitando
la r
apida transmisi
on del impulso nervioso a lo largo del ax
on. Neuronas mielinizadas
se encuentran principalmente en los nervios perifericos, tanto sensores como motores,
mientras que neuronas no mielinizadas se encuentran en el cerebro y la medula
espinal, constituyendo lo que se denomina sustancia gris.
Dendritas o terminaciones nerviosas. Estas peque
nas prolongaciones arborescentes
de la celula son las encargadas de realizar las conexiones con otras neuronas,
permitiendo la comunicaci
on entre las mismas o la percepcion del entorno exterior.
Las dendritas pueden existir tanto en uno como en ambos extremos de la neurona.
Existen dos tipos de dendritas: apicales y basales.
La longitud de las neuronas es muy variable, puede ir desde unos pocos milmetros hasta
algunos decmetros, como en el caso de neuronas cerebrales y tactiles respectivamente. De
igual modo la forma tambien es muy variable dependiendo de la actividad que lleven a cabo,
las neuronas motoras que controlan la contracci
on muscular tienen el cuerpo de la celula
en un extremo, un axon largo en el medio y dendritas en el otro extremo; mientras que
las neuronas sensoras tienen dendritas en ambos extremos, conectados por largos axones
con el cuerpo en el medio. Las neuronas tambien varan con respecto a sus funciones:
Neuronas sensoras o aferentes. Transportan se
nales desde zonas externas del cuerpo
(periferia) hacia el sistema nervioso central.

2.1 Fundamentos siol


ogicos.

19

Figura 2.4: Topologa de la celula neuronal.

Neuronas motoras o eferentes. Transportan se


nales desde el sistema nervioso central
hacia las zonas externas del cuerpo: m
usculos, piel, gl
andulas.
Receptores. Son las encargadas de adquirir informaci
on del exterior, existen
diferentes tipos en funci
on de la naturaleza del estmulo que provoca su activaci
on:
termico, lumnico, presion, presencia de compuesto qumicos; transformando dicha
informaci
on en mensajes electroqumicos que son transmitidos por las neuronas
sensoras.
Interneuronas. Conectan varias neuronas con el cerebro y la medula espinal.
El punto de contacto entre dos neuronas se denomina sinapsis, es de especial
importancia en la transmisi
on de informaci
on del sistema nervioso, ya que la informaci
on
de una neurona pasa a otra a traves de los mismos. Este peque
no espacio que separa ambas
neuronas consta de:
Terminaci
on pre-sinaptica, la cual contiene neurotransmisores, mitrocondria y
org
anulos celulares.
Terminaci
on post-sin
aptica, formado por los lugares de recepcion de los
neurotransmisores.
Hendidura sin
aptica, espacio submicroscopico entre ambas terminaciones.

20

Estado de la t
ecnica.

Figura 2.5: Tipos de neuronas.

Mientras que en el interior de la neurona la transmisi


on de informaci
on a lo largo
del ax
on se realiza en forma de impulso electrico, entre neuronas es un proceso qumico,
llevado a cabo en la sinapsis, el que transmite la informaci
on de una neurona a otra, o
bien a una celula muscular.
Transmisi
on electrica. Se dice que una neurona est
a polarizada cuando tiene una carga
electrica negativa en el interior de la membrana celular respecto al exterior. Este efecto de
polarizaci
on se debe a la libre circulaci
on de iones K + a traves de la membrana celular,
a la vez que moleculas grandes con carga negativa son retenidas dentro de la celula. Los
iones N a+ se mantienen en el exterior de la celula mediante un proceso activo. Aunque en
principio todas las celulas del cuerpo presentan esta diferencia de potencial, las neuronas se
distinguen en que al aplicar una corriente estimuladora, se provoca que los iones potasio
penetren dentro de la celula despolariz
andola, tras un peque
no intervalo de tiempo las
propiedades de la membrana cambian haciendo que la celula sea permeable al N a+ , que
entra en ella con rapidez y origina una carga neta positiva en el interior de la neurona. A
este efecto se le denomina potencial de accion. Una vez alcanzado este potencial en una
zona de la neurona, este se propaga a lo largo del ax
on mediante un intercambio de iones en
puntos especcos denominados n
odulos de Ranvier. La amplitud del potencial de acci
on
+
es autolimitada, debido a que una concentraci
on elevada de N a en el interior origina la
expulsion de la celula en primer lugar de iones K + y despues de N a+ , restableciendo la
carga negativa en el interior de la membrana celular, repolarizando la celula. El proceso
completo dura menos de una milesima de segundo. Despues de un breve lapso, llamado

2.1 Fundamentos siol


ogicos.

21

Figura 2.6: Tipos de sinapsis. (a - Axoaxi


onica. b - Axodendrtica . c - Axosom
atica.)

periodo refractario, la neurona se encuentra en condiciones de repetir este proceso.


Transmisi
on qumica. Cuando el potencial de acci
on alcanza el extremo del
ax
on, este estimula en la celula unas peque
nas vesculas presin
apticas que contienen
neurotransmisores, los cuales son liberados en la hendidura sin
aptica. El neurotransmisor
se une a receptores especializados sobre la supercie de la neurona adyacente, provocando
su despolarizaci
on y la propagaci
on de su propio potencial de acci
on. La duraci
on de
un estmulo procedente de un neurotransmisor est
a limitada por su degradaci
on en la
hendidura sin
aptica y su recaptaci
on por la neurona que lo haba elaborado.
Los potenciales de accion son producidos en las uniones sin
apticas, pudiendose estas
localizar a lo largo del ax
on (sinapsis axoaxi
onica), en el cuerpo de la neurona (sinapsis
axosomatica), o en las dendritas (sinapsis axodendrtica), reejando la comunicaci
on entre
neuronas. Cuando un neurotransmisor se enlaza en un receptor de la terminaci
on postsin
aptica, se produce un cambio en la excitabilidad de la celula haciendo m
as o menos
probable que se desencadene un potencial de acci
on. Si el n
umero de eventos excitatorios
post-sin
apticos es lo sucientemente grande, se provocara un potencial de accion en la
celula y el mensaje se transmitira.
Es en este principio de producci
on de potenciales post-sin
apticos, por la actividad
conjunta y sincronizada de un gran n
umero de neuronas, en los que se basa el registro
electroencefalograco.

22

Estado de la t
ecnica.

No todos los tipos de actividad neuronal tienen el mismo tipo de impacto sobre los
registros electroencefalogracos. Factores como la profundidad, orientaci
on y la simetra
intrnseca de las conexiones en el cortex, presentan una marcada inuencia sobre dichos
registros. Las celulas de mayor importancia en el neocortex son las de tipo piramidal. Es
conocido que sus neurotransmisores son potentes transmisores excitatorios. Las celulas
piramidales reciben muchas entradas de celulas tipo estrella, que tambien son de tipo
excitatorio. Las celulas piramidales, a diferencia de otro tipo de neuronas, permiten que
los axones produzcan potenciales de accion, que transmiten informaci
on de una neurona
a otra, mientras que en las dendritas se pueden producir potenciales lentos, tanto de
tipo excitatorio como inhibitorio, que se suman al del ax
on. En el caso de las neuronas
piramidales, las dendritas apicales, con forma de eje alargado entre la regi
on basal y
la apical, pueden provocar potenciales de acci
on, que a su vez act
uan para amplicar
los potenciales de acci
on producidos por las salidas de los sistemas sensorial, motor o
aut
onomo. Por esta raz
on se considera que, las neuronas piramidales son las causantes de
la porci
on m
as signicativa de la se
nal electroencefalograca.

2.1.3.

El Sistema Nervioso.

El Sistema Nervioso es el encargado de la recepcion de estmulos, la transmisi


on de
impulsos nerviosos y la activaci
on de los m
usculos. Esta formado por neuronas que se
agrupan para formar estructuras de orden superior como el encefalo, medula espinal,
nervios o cadenas ganglionares.

Figura 2.7: Sistema Nervioso.

Figura 2.8: Encefalo.

2.1 Fundamentos siol


ogicos.

23

Desde un punto de vista anat


omico, ver gura 2.7, en los vertebrados el sistema nervioso queda compuesto por el Sistema Nervioso Central, el Sistema Nervioso Periferico y
el Sistema Nervioso Vegetativo o Autonomo [Ratey 03]. El primero queda compuesto por
el encefalo y la medula espinal, mientras que el segundo queda compuesto por nervios craneales y espinales. El Sistema Nervioso Central est
a inmerso en lquido cefalorraqudeo,
envuelto dentro de una triple estructura de tejido no a modo de bolsas, denominadas
meninges: Pia Madre (la m
as externa), Duramadre (la intermedia) y Aracnoides (la m
as
interna); que previenen el contacto directo del encefalo y medula espinal con las estructuras oseas de proteccion, como es el caso del craneo y la espina dorsal, respectivamente.
El encefalo a su vez esta formado por: cerebro, cerebelo y tronco encef
alico.
El cerebro es la parte m
as voluminosa, ocupa casi la totalidad de la caja craneal;
su parte superior se corresponde con la b
oveda craneal, y su parte inferior con el
compartimento anterior y medio de la base del craneo y cerebelo. Tiene forma ovoide,
con la extremidad posterior m
as ancha. Su peso en el hombre es de aproximadamente
1Kgr.
El cerebelo es la parte inferior y posterior del encefalo, alojado en la fosa cerebral
posterior junto al tronco del encefalo.
El tronco del encefalo esta compuesto por el mesencefalo, la protuberancia anular
y el bulbo raqudeo. Es el encargado de conectar el cerebro con la medula espinal,
vease la gura 2.10.
La medula espinal es la prolongaci
on del encefalo, extendiendose por la columna
vertebral; la misma la sustancia gris que forma el cerebro se encuentra en el interior y
la blanca en el exterior.

Figura 2.9: Cabeza.

24

Estado de la t
ecnica.

Los nervios del Sistema Nervioso


Periferico emergen del sistema nervioso
central y recorren todo el cuerpo,
conteniendo axones de vas neurales con
distintas funciones y ganglios perifericos,
que se encuentran en el trayecto de
los nervios y que contienen cuerpos
neuronales, los u
nicos fuera del sistema
nervioso central. Queda compuesto por 12
pares de nervios craneales y 31 pares de
nervios espinales.

Figura 2.10: Tronco encef


alico.

Nervios craneales. Los 12 pares de nervios craneales se proyectan directamente desde


el cerebro. Todos estos pares de nervios transmiten informacion sensorial procedente
del cuello y la cabeza hacia el sistema nervioso central y reciben ordenes motoras
para el control de la musculatura esqueletica de los mismos, controlando las funciones
motoras de la cabeza, los ojos, la cara, lengua, laringe y los m
usculos que permiten
la masticacion y la degluci
on, vease la gura 2.11.
El decimo par, el nervio vago, se relaciona con funciones viscerales como el ritmo
cardiaco, la vasoconstriccion y la contraccion de los m
usculos lisos que se encuentran
en las paredes de la tr
aquea, del estomago y del intestino. La visi
on, la audici
on, el
sentido del equilibrio y el gusto estan mediados por los pares de nervios craneales II,
VIII y VII, respectivamente.
Nervios espinales. Los nervios espinales salen desde las vertebras y se distribuyen
por las regiones del tronco y las extremidades. Se encargan de enviar informaci
on
sensorial (tacto, dolor y temperatura) del tronco y las extremidades, as como de
la posicion y el estado de la musculatura y las articulaciones del tronco y las
extremidades hacia el sistema nervioso central; desde el mismo reciben ordenes
motoras para el control de la musculatura esqueletica que se conducen por la medula
espinal.
Los 31 pares de nervios estan interconectados, formando dos plexos: el braquial, que
se dirige a las extremidades superiores, y el lumbar que alcanza las inferiores.
Los nervios craneales se extienden desde la cabeza y el cuello hasta el cerebro pasando
a traves de las aberturas del craneo; los nervios espinales o medulares estan asociados
con la medula espinal y atraviesan las aberturas de la columna vertebral. Ambos tipos de
nervios se componen de un gran n
umero de axones que transportan los impulsos hacia el

2.1 Fundamentos siol


ogicos.

25

Figura 2.11: Nervios craneales.

sistema nervioso central y llevan los mensajes de este hacia el exterior. Las primeras vas
se llaman aferentes y las u
ltimas eferentes. En funci
on de la parte del cuerpo que alcanzan,
a los impulsos nerviosos aferentes se les denomina sensitivos y a los eferentes, somaticos o
motores viscerales. La mayora de los nervios son mixtos, es decir, estan constituidos por
elementos motores y sensitivos.
El Sistema Nervioso Negetativo esta compuesto por grupos de bras de neuronas
motoras que llevan los impulsos nerviosos a los organos que se encuentran en las cavidades
del cuerpo, como el corazon, pulmones, estomago, intestinos, p
ancreas, hgado, etc.,
permitiendo su regulaci
on. El Sistema Nervioso Vegetativo se divide en dos secciones con
una funci
on m
as o menos antagonica y con unos puntos de origen diferentes al Sistema
Nervioso Central. Las bras del Sistema Nervioso Vegetativo Simp
atico se originan en la
region media de la medula espinal, unen la cadena ganglionar simp
atica y penetran en
los nervios espinales, desde donde se distribuyen de forma amplia por todo el cuerpo. Las
bras del Sistema Nervioso Vegetativo Parasimp
atico se originan por encima y por debajo
de las simp
aticas, tanto en el cerebro como en la parte inferior de la medula espinal. Estas
dos secciones controlan las funciones de los sistemas respiratorio, circulatorio, digestivo y
urogenital.

26

2.1.4.

Estado de la t
ecnica.

El Cerebro.

El cerebro humano, comparado con el de los dem


as seres vivos, tiene un volumen y
estructura tan diferenciados, que dan idea de la preeminente importancia que posee el
cerebro para el total funcionamiento del organismo; incluso los mismos procesos psquicos
no pueden desarrollarse enteramente sin su integridad.
El cerebro esta dividido en dos hemisferios, separados por un surco medio profundo, la
cisura interhemisferica, dichos hemisferios estan comunicados entre s mediante el Cuerpo
Calloso, que se extiende desde el fondo de la cisura interhemisferica hasta la base cerebral.
La supercie se denomina corteza cerebral, esta formada por replegamientos
denominados circunvoluciones; su parte inferior presenta en su tercio posterior una forma
arri
nonada, separada del tercio anterior por la cisura de Silvio, que junto con la cisura de
Rolando y la occipital dividen cada hemisferio en los diferentes l
obulos: frontal, parietal,
temporal y occipital, vease la gura 2.12.
Subyacente a la misma se encuentra por arriba el cuerpo calloso y el quiasma optico,
espacio perforado anterior, hip
osis, tuberculos mamilares y espacio perforado posterior
en la base. En el interior del cerebro se encuentran una serie de cavidades, los ventrculos
cerebrales, que se comunican entre s y estan llenos de lquido cefalorraqudeo.
En una secci
on del cerebro es posible ver la sustancia gris y la sustancia blanca. La
primera se caracteriza por una gran densidad de celulas nerviosas y comprende a la corteza
cerebral y a diversos n
ucleos: talamo optico, hipot
alamo, n
ucleo caudado, n
ucleo lenticular,
y a la amgdala. La sustancia blanca tiene, en su mayor parte, una estructura m
as sencilla:
bras nerviosas sostenidas por un armaz
on de neuroglia; algunas de estas bras conectan
neuronas situadas en porciones similares de ambos hemisferios, otras unen distintas zonas
de un mismo hemisferio, nalmente algunas se dirigen desde la corteza cerebral a centros
del cerebro dispuestos en niveles inferiores y en otras porciones del sistema nervioso
central. Aunque nada se ha demostrado sobre el modo en como se conectan en la corteza
los procesos neurologicos con los psquicos, s se ha observado que la lesi
on de ciertas
areas de la corteza cerebral provoca la alteracion de funciones, lo que ha permitido que
muchas funciones motoras y sensoriales hayan sido asociadas a zonas especcas de la
corteza cerebral, ver gura 2.12. Por lo general, estas areas aparecen en ambos hemisferios
cerebrales y estan al servicio del lado opuesto del cuerpo.
Las areas de asociacion no est
an bien denidas y se localizan sobre todo en la parte
frontal de la corteza. Est
an involucradas en funciones del pensamiento y emocionales, y
relacionan los estmulos recibidos desde los diferentes sentidos. Las areas del lenguaje son
una excepcion: tanto el area de Wernicke, que est
a relacionada con la comprensi
on del
lenguaje hablado, como el area de Broca, que gobierna la producci
on del habla, han sido
localizadas de forma precisa en la corteza.
El cerebro es un organo extraordinariamente vascularizado, como corresponde a sus
necesidades metabolicas, de modo que cualquier accidente vascular (trombosis, embolia,
hemorragia) reviste gran importancia por las lesiones y consecutivos trastornos funcionales
que origina.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

27

Figura 2.12: Distribuci


on de las funciones de la corteza cerebral.

2.2.

T
ecnicas para la adquisici
on de actividad cerebral.

En esta seccion se describen la diferentes tecnicas que actualmente existen en la


investigaci
on sobre actividad cerebral. Especial atencion se presta a la electroencefalografa
como tecnica de adquisici
on inicial, que asent
o las bases de conocimiento para posteriores
estudios neurol
ogicos, as mismo se cita la magnetoencefalografa y otras tecnicas de
imagen cerebral, las cuales son de menor aplicabilidad en la tecnologa ICC debido bien
a que su coste es prohibitivo, o bien a que las constantes de tiempo de los principios
siol
ogicos en que se basan presentan valores de latencia muy elevados, constantes que
generalmente estan asociadas al ujo sanguneo, haciendolas impracticables para su
utilizaci
on en dispositivos de interfaz entre personas y m
aquinas.

2.2.1.

Electroencefalografa.

La electroencefalografa es la parte de la medicina que trata de la obtenci


on e
interpretaci
on de registros gr
acos obtenidos por medio de electroencefalografos, estos
dispositivos registran las corrientes electricas producidas por la actividad del encefalo
[Baker 89].

28

Estado de la t
ecnica.

Para el registro de la actividad electrica del cerebro se pueden utilizar tres tipos
de electrodos: superciales, corticales e intracorticales. Cuando se emplean electrodos
superciales el registro se denomina electroencefalograma (EEG), mientras que si los
electrodos se disponen sobre la supercie expuesta del cerebro al registro se denomina
electrocorticograma (ECoG), por u
ltimo, si se utilizan electrodos intracorticales se
emplea el termino registro profundo para denominar a esta tecnica, [Webster 04]. Con
independencia del tipo de electrodo, las variaciones de potencial registradas representan
la actividad de neuronas en las que se est
an produciendo los correspondientes potenciales
de accion y uctuaciones de membrana.
2.2.1.1.

Referencias hist
oricas.

En 1875 en el Reino Unido, Richard Caton public


o en el British Medical Association
Journal el primer documento describiendo la actividad electrica espontanea del cortex
cerebral en experimentos llevados a cabo con conejos y monos. Caton utilizo galvan
ometros
Thomson, utilizados en telegrafa [Webster 95].
Sin embargo no es hasta 1924, cuando el psiquiatra Hans Berger de la Universidad
de Jena (Austria), realiza los primeros registros de actividad electrica del cortex cerebral,
para ello utiliz
o un galvan
ometro de cuerda conectado a electrodos superciales, con el que
poda medir los irregulares y relativamente peque
nos potenciales electricos (50 a 100V )
provenientes del cerebro [Webster 04].
El artculo de Berger pasa desapercibido hasta que Adrian y Matthews, en 1934 en Gran
Breta
na, as como Jasper y Carmichael en 1935 en Estados Unidos, revisan y conrman
los resultados de Berger.
Entre 1924 y 1938 Berger establecio las bases para la aplicacion de la
electroencegalografa, siendo el primero en utilizar el termino electroencefalograma para
describir las variaciones de potencial electrico en el cerebro de los humanos. As mismo
descubrio que las ondas registradas no eran completamente aleatorias, sino que por el
contrario mostraban cierta periodicidad y regularidad; Berger observ
o que durante el
sue
no se presentaba un patr
on de ondas sincronizadas de baja frecuencia (< 3Hz) y
gran amplitud, mientras que en estado de vigilia el patron cambiaba a uno desincronizado
de baja amplitud y mayor frecuencia; esto le permiti
o sugerir que la actividad cerebral
cambiaba de un modo consistente y reconocible, cuando el estado del sujeto cambiaba,
como por ejemplo del estado de relajacion al de alerta. Del mismo modo, despues de notar
un marcado incremento en la amplitud de las ondas cerebrales registradas durante ataques
convulsivos, Berger tambien dedujo que las ondas cerebrales se vean afectadas en gran
medida por condicionantes patol
ogicos [Webster 04].
Una vez asentado y aceptado el concepto de ondas cerebrales humanas, el estudio
de la actividad electroencefalogr
aca quedo rmemente asentado. Una de las primeras
contribuciones fue la identicaci
on de determinados ritmos en el EEG; as a la oscilaci
on
de aproximadamente 10 a 12 Hz registrada en los l
obulos occipitales del cortex cerebral se le

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

29

denomin
o ritmo alfa. Este ritmos desaparece cuando el sujeto se concentra, se muestra
alerta o focaliza su atenci
on en objetos de su campo visual. No es hasta 1949 cuando
Moruzzi y Magoun establecen las bases siol
ogicas de dichas observaciones, demostrando
la existencia de caminos ampliamente distribuidos a traves del n
ucleo reticular central
del tallo cerebral, que son capaces de ejercer una inuencia de activaci
on sobre el cortex
cerebral. A este sistema de activacion reticular se la ha llamado selector de respuesta
cerebral, debido a que alerta al cortex para focalizarse en ciertas piezas de informaci
on
entrante, mientras que otras son descartadas [Webster 95].
2.2.1.2.

Sistemas de referencia de posicionamiento de los electrodos.

Los electrodos superciales se emplean junto con tecnicas de registro monopolares y


diferenciales. La gura 2.13 muestra ambas tecnicas con la conexion de un sistema de
cuatro canales a un sujeto [Webster 98], [Webster 95], [Webster 92].
En registros monopolares uno de los terminales
activos del amplicador se
conecta al electrodo de referencia, conectado al lobulo de la oreja. En los registros diferenciales, los terminales de los amplicadores se conectan entre parejas de electrodos en un orden determinado. En ambos
tipos, la mitad de los canales
son conectados al hemisferio
derecho y la otra mitad al
hemisferio izquierdo, de este
modo la actividad electrica
de areas homologas del cerebro pueden ser comparadas
Figura 2.13: Tecnicas de registro monopolar y diferencial.
a simple vista.
En electroencefalografa clnica, 21 electrodos son aplicados a la cabeza del sujeto,
dando lugar al denominado sistema electroencefalogr
aco 10-20, tal y como se muestra en
la gura 2.14, este sistema fue descrito por Jasper en 1958, quien supervis
o la reuni
on de
la Federaci
on Internacional de Sociedades de EEG, la cual desarrollo esta localizaci
on de
electrodos como estandar [Webster 04].
El sistema 10-20 emplea marcas craneales como puntos de referencia para la localizacion
de los electrodos. En conjunto, para examinar la actividad cerebral, se emplean 19
electrodos superciales distribuidos por la cabeza y 2 electrodos de referencia en los l
obulos
de las orejas. Para posicionar los electrodos primero se mide a lo largo de la lnea media la

30

Estado de la t
ecnica.

Figura 2.14: Sistema electroencefalogr


aco 10 - 20.

distancia entre la uni


on naso-frontal y la protuberancia occipital, a continuaci
on a lo largo
de esta lnea se marcan 5 puntos. El primer punto determina el polo frontal (Fp ), el cual
esta al 10 % de la distancia anterior y justo sobre la uni
on naso-frontal. Ning
un electrodo
se aplica sobre este punto de referencia, el cual se utiliza para medidas posteriores. Los
puntos de los electrodos frontal (Fz ), central (Cz ), parietal (Pz ) y occipital (Oz ) sobre
la lnea media estan separados por el 20 % de la distancia entre la uni
on naso-frontal
y la protuberancia occipital medida desde el polo frontal (Fp ). Mediante esta tecnica el
electrodo central (Cz ) se localiza en la mitad de la distancia anterior. Un metodo similar
de medida se emplea para posicionar dos las de electrodos sobre los lados derecho e
izquierdo de la cabeza. Los puntos coronales son marcados midiendo la distancia entre
la depresiones justo en frente de cada oreja. La depresi
on se localiza f
acilmente antes del
tragus y en la raz de la estructura osea zigomatica o p
omulo, al 10 % de esta distancia
medida hacia arriba desde las depresiones se localizan los electrodos temporales (T4 , T3 )
a cada lado de la cabeza. La posici
on de los electrodos centrales (C4 , C3 ) se localizan
al 20 % de la distancia sobre los puntos temporales. La la horizontal de posiciones de
electrodos mas baja se determina midiendo desde el polo frontal (Fp ) a la protuberancia
occipital, este procedimiento localiza los electrodos Fp2 ,F8 , T4 ,T6 y O2 para el lado derecho
y Fp1 ,F7 ,T3 y O1 para el lado izquierdo. Los electrodos restantes (F4 ,C4 y P4 en el lado
derecho y F3 , C3 , P3 en el izquierdo) son posicionados a lo largo de lneas equidistantes
entre la lnea temporal y la lnea media a lo largo de las lneas coronarias frontal y parietal
respectivamente. Con el sistema 10-20 un n
umero par de electrodos se disponen en el lado
derecho e impar en el izquierdo. Los electrodos de la lnea media son designados mediante

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

31

una Z (Fz , Cz , Pz ). Existen huecos intencionados en el sistema de notaci


on por subndices
a n de permitir el uso de otra localizaci
on de electrodos, la cual puede ser a
nadida con
el mismo sistema de referencia [Webster 78].
Inicialmente para el registro encefalogr
aco se utilizaban plumillas que registraban
la actividad encefalogr
aca sobre papel continuo, que se desplazaba a una velocidad
de registro estandar de 3cm/s y una sensibilidad de grabaci
on 7V /mm [Bronzino 95b]
[Baker 89]. En la actualidad con objeto de incrementar la resoluci
on espacial se utilizan
sistemas de referencia que emplean 64 y 128 electrodos.
2.2.1.3.

Actividad electroencefalogr
aca normal.

Con electrodos superciales aplicados a un ser humano adulto sano en estado de


relajaci
on, se puede registrar una uctuaci
on de la actividad electrica constante con una
frecuencia dominante alrededor de 10 Hz y una amplitud en el rango de 20 a 200 V . A
esta actividad se la denomina ritmo alfa, variando su frecuencia entre 8 y 13 Hz, siendo
mas relevante en las areas occipital y parietal. El ritmo alfa aumenta su frecuencia con la
edad, alcanza su forma adulta entre los 15 y los 20 a
nos de edad.
Se muestra mas prominente cuando los ojos se encuentran cerrados y en estado de relajaci
on. Se ha observado que entre diferentes especies los patrones del
ritmo alfa varan. El seguimiento visual de un objeto, o la realizaci
on de actividades mentales como tareas aritmeticas, disminuyen o anulan el ritmo alfa
[Jessell 91]. Aunque el ritmo
alfa es el mas prominente en
la actividad electrica, otro
tipo de frecuencias tambien
se encuentran presentes en
sujetos humanos sanos, por
ejemplo el ritmo beta preFigura 2.15: Electroencefalograma normal.
senta actividad con un
rango de frecuencias entre 18 y 30 Hz, y una menor amplitud. Es m
as frecuente en la
parte frontal del cerebro. Dependiendo del estado cerebral del sujeto, otros rangos de
frecuencias mas elevadas y amplitudes han sido detectados. Con la nalidad de mejorar la
descripci
on de las formas de onda y sus frecuencias, la comunidad cientca a desarrollado
la terminologa recogida en la tabla 2.1 [Jessell 91].

32

Estado de la t
ecnica.

Forma de onda
Ritmo Alfa.

Frecuencia (Hz)
8 - 13

Ritmo Beta.

18 - 30

Delta.

1 - 3.5

Teta.

4-7

Sigma.
Sleep spindle

12 - 14

Lambda.

Transitorio.

Onda y pulso.

Transitorio.

Complejo K

Transitorio.

Ritmo Mu

8 - 12

Consideraciones.
Zona parietal y occipital. Asociado a
estado de vigilia con sujeto relajado
M
as prominente con los ojos cerrados.
Zona frontal y parietal.
Se muestra mejor con Alfa bloqueado.
Asociado a sue
no normal. Presente
en ni
nos menores de un a
no. En adultos se asocia con cerebros enfermos.
Zona parietal y temporal.
Prominente en ni
nos de 2 a 5 a
nos.
Se muestra durante el sue
no.
Modulaci
on de onda senoidal parecida
a un eje de revoluci
on.
Evocacion visual. Onda occipital de
peque
na amplitud, resultado del reconocimiento de una nueva imagen retinal.
Pico abrupto en una onda, seguido de
una onda m
as redondeada asociada con
crisis de ausencia epileptica.
Pulso de 150 a 250 milisegundos
registrado sobre la coronilla.
Onda vertice seguida algunas veces de
un pulso. Registrada durante el sue
no
y en respuesta a estmulos auditivos.
Dominante en la zona central.
Semeja media sinusoide.

Tabla 2.1: Terminologa de formas de onda para EEG.

El electroencefalograma de cualquier persona se ve profundamente afectado por su


estado cerebral. La gura 2.15 muestra los cambios que ocurren durante el sue
no.
Cuando el sujeto va a dormir, las componentes de alta frecuencia asociadas al estado
de alerta o excitaci
on, as como el ritmo alfa que predomina en estado de relajaci
on, son
reemplazadas por una secuencia de cambios cclicos caractersticos. La desviaci
on de estos
cambios normales, a menudo indica la presencia de alguna patologa cerebral [Webster 78]
[Baker 89] [Bronzino 95b].
2.2.1.4.

Potenciales sensoriales evocados

Un estmulo efectivo entregado a un organo sensorial desencadena una respuesta


detectable en la corteza cerebral. Aunque todos los organos sensitivos perifericos envan
su informaci
on a la corteza cerebral, es facil detectar la respuesta a estmulos auditivos,
visuales o somatosensoriales, a traves de la disposici
on de electrodos sobre las zonas
corticales adecuadas, la gura 2.16 ilustra las areas del sistema somatosensorial [Baker 89].
En realidad el potencial sensorial evocado informa acerca de la integridad del
organo sensorial y el camino neurol
ogico al cortex cerebral. Partes separadas del camino

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

33

Figura 2.16: Localizaci


on somatosensorial.

neurol
ogico pueden ser estudiadas a traves de la aplicacion de corrientes de estimulaci
on
electrica a nervios perifericos y medula espinal.
La gura 2.16 es una vista lateral del cerebro mostrando las dos cisuras m
as
prominentes: la cisura de Rolando y la de Silvio. Anterior a la cisura de Rolando
se encuentra el giro pre-central, el cual contiene las areas motoras primarias; detr
as
se encuentra el giro post-central que contiene las areas somatosensoriales; informacion
sensorial de toda la supercie del cuerpo se encuentra dispuesta a lo largo de esta
tira sensorial. Peneld y Rasmussen, en 1950 [Baker 89], determinaron la distribuci
on
topogr
aca de las sensaciones a lo largo del giro post-central en humanos y la representaron
como un hom
unculo. Las partes del cuerpo del hom
unculo son dibujadas para representar
el tama
no del area sensora cortical correspondiente.
La deteccion optima de las respuestas somatosensoriales evocadas precisan que los
electrodos sean colocados en las areas corticales contralaterales adecuadas. Por ejemplo,
los potenciales evocados debidos a estimulacion de la pierna derecha son detectados
con electrodos dispuestos sobre el lobulo izquierdo, del mismo modo, los causados por
estimulacion facial del lado derecho se muestran en la supercie lateral izquierda del
cerebro hacia el lobulo temporal. La respuesta a estmulos visuales aparecen en la parte
posterior del cortex (polo occipital). Potenciales evocados a estmulos auditivos se detectan
sobre la parte superior del l
obulo temporal. La mayor parte de las sensaciones son
representadas bilateralmente [Baker 89], [Ratey 03].
Para la detecci
on de los potenciales evocados Dawson entre 1951 y 1954, [Baker 89],

34

Estado de la t
ecnica.

[Webster 78], introdujo la tecnica de promediado de se


nal, ya que aun disponiendo los
electrodos sobre las zonas adecuadas del craneo los registros que se obtienen no son claros
debido a la actividad de base del cerebro, esta tecnica asume que el potencial evocado
se encuentra temporalmente asociado al estmulo, mientras que la actividad de fondo
del cerebro se trata como una se
nal aleatoria, el tiempo de retardo entre la aparici
on
del potencial evocado y la generaci
on del estmulo da lugar al criterio de denominaci
on,
as por ejemplo los potenciales evocados P300 son aquellos que se detectan transcurridos
unos 300mseg desde que se provoca el estmulo hasta que se detecta el potencial.
En la actualidad con los convertidores anal
ogico/digital y los micropocesadores esta
tecnica es facilmente realizable. El primer paso consiste en realizar un ltro paso banda
de la se
nal electroencefalograca, de modo que solo es considerado el rango de frecuencias
adecuado, valores tpicos de los ltros paso banda son de 0.25 - 25 Hz. Posteriormente
la se
nal EEG se muestrea convirtiendola en digital, frecuencias de muestreo tpicas son
100 Hz o superiores. La resolucion de amplitud depende del n
umero de bits seleccionados,
valores comunes son 8, 12 y 16 bits. Los potenciales evocados promediados son procesados
por la alineaci
on de muestras temporales despues del estmulo y sumadas sus amplitudes
algebraicamente. El potencial evocado surge de la actividad de fondo en proporci
on al
n
umero de grabaciones estmulo - respuesta analizadas. Se demuestra que si la respuesta
evocada es
nal (S) y el EEG de fondo tiene un ruido (R), la relaci
on se
nal ruido
 la se
umero de secuencias estmulo - respuesta analizadas.
(S/R) es (n)(S/R), donde n es el n
Valores tpicos son n = 100 o superiores.
Potenciales auditivos evocados.
Los potenciales auditivos evocados son
la respuesta polifasica a un estmulo auditivo, pueden ser registrados en diferentes zonas del cr
aneo, g.2.17.
Debido a su naturaleza polif
asica se ha
adoptado una nomenclatura est
andar para
su estudio, g.2.18. Seg
un las investigaciones de Picton [Baker 89], las ondas positivas I-VII se producen 10 mseg. despues del
estmulo. Las ondas primera y segunda representan la activaci
on del nervio coclear
y el n
ucleo auditivo. Las ondas posteriores
identican la activaci
on del n
ucleo auditivo del tallo cerebral. La onda V es la m
as
sencilla de discriminar, la latencias de pico
vara entre los 5,5 mseg. para estmulos de
70 dB, hasta aproximadamente 9 mseg. para estmulos cercanos al umbral auditivo.

Figura 2.17: Localizaci


on de potenciales auditivos
evocados.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

35

En el intervalo entre 10 y 50 mseg


despues del estmulo es posible registrar una
serie de potenciales a lo largo de amplias
zonas de la supercie del cr
aneo, aunque
son difciles de discriminar de los potenciales
musculares reejos, representan potenciales
tal
amicos y corticales tempranos.
Los potenciales de mayor duraci
on son
P 1 (50mseg), N 1 (100mseg), P 2 (170mseg)
y N 2 (250mseg), componentes del potencial coronario, se encuentra ampliamente
distribuido sobre la zona fronto-central, registr
andose con mayor amplitud en Cz y Fz .
Potenciales somatosensoriales evocados.
Los potenciales sensoriales evocados son las
respuestas corticales a estmulos presentados sobre la supercie del cuerpo. Tanto estimuladores t
actiles como electrodos superciales son utilizados para estimular electricamente los haces de los nervios sensores.
Figura 2.18: Componentes de los potenciales
Conforme a las investigaciones de Picton, auditivos evocados.
[Baker 89], los potenciales sensoriales evocados se componen de las componentes descritas
en la tabla 2.2
Componente.
0

Tiempo de retardo.
15 mseg

19 mseg

26 mseg

4
5
6
7
8

Comentario.
Onda de pico positiva temprana
asociada a la activaci
on de alguna
estructura subcortical profunda.
Mejor capacidad de registro en la
zona somatosensorial primaria.
Polaridad contraria a cada lado del
surco central.
Su origen es a
un desconocido se
considera que la activaci
on de areas
sensoriales secundarias pueden ser
las causantes de estos potenciales.
Equivalentes en morfologa y distribuci
on a las componentes N 1 y N 2
de los potenciales auditivos evocados.

Tabla 2.2: Componentes potenciales sensoriales evocados.

36

Estado de la t
ecnica.

Figura 2.20: Componentes de los potenciales


visuales evocados.

Figura 2.19: Potenciales sensoriales evocados.

Potenciales visuales evocados.


Los potenciales visuales evocados son la respuesta a estmulos visuales en forma de
destellos de luz o imagenes. Su registro se realiza con mas facilidad sobre la zona occipital
aunque otras areas tambien pueden ser utilizadas, si bien las formas de onda varan.
Conforme a las investigaciones de Picton [Baker 89], los potenciales sensoriales
evocados quedan compuestos por las componentes mostradas en la gura 2.20, en donde
las componentes I y III representa la actividad en el tracto genicular, mientras que la
componente II representa la activacion de la corteza visual primaria.
La variabilidad de los tiempos de latencia dependen en gran media del sujeto, siendo
mas acusada en las u
ltimas componentes, rangos de latencia tpicos van de los 60 a los 200
milisegundos.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

2.2.2.

37

Magnetoencefalografa.

La magnetoencefalografa es la parte de la medicina que trata de la obtenci


on e
interpretaci
on de registros gr
acos obtenidos por magnetoencefal
ografos, estos dispositivos
registran los campos magneticos provocados por las corrientes electricas producidas por
la actividad del encefalo.
La magnetoencefalografa se basa en la deteccion de los campos magneticos, que se
originan cuando se produce el movimiento de iones a traves de las membranas celulares,
durante la activaci
on (despolarizacion) y recuperaci
on (repolarizaci
on) de las neuronas.
Ya que la naturaleza del principio en el que se basa la magnetoencefalografa es el
mismo que la electroencefalografa, ambas reejan el mismo tipo de evento, aunque cada
una suministra informaci
on en modo diferente. En el caso de la magnetoencefalografa
apenas se produce atenuaci
on del campo magnetico al atravesar la se
nal el tejido vivo,
mientras que en el caso de la electroencefalografa el voltaje medido es altamente atenuado.
Por otro lado la magnetoencefalografa permite la determinaci
on de la localizaci
on y
la direcci
on de la fuente bioelectrica activa, ya que el campo magnetico es direccional, sin
que sea preciso el contacto directo entre el cuerpo y el dispositivo sensor, es decir, es un
metodo sin electrodos.
Sin embargo la intensidad del campo magnetico producido por las neuronas es muy
peque
no, ver gura 2.21, por lo que es necesario disponer de salas con aislamiento
magnetico y emplear la tecnica de promediado de la se
nal adquirida para obtener unas
adecuadas relaciones se
nal ruido [Baker 89].
2.2.2.1.

Referencias hist
oricas.

Antes de 1970, el registro de los campos magneticos producidos por la activaci


on
y recuperacion de las neuronas en particular, y tejido vivo en general, se realizaba
con bobinas con un gran n
umero de espiras, a partir de 1970 se empieza a utilizar el
dispositivo superconductor de interferencia cu
antica, SQUID: superconducting quantum
interference device, que tiene la capacidad de detectar campos magneticos muy sensibles,
dicho dispositivo junto con la tecnica de promediado de se
nal permite la obtenci
on de
magnetoencefalogramas muy claros [Baker 89].
Magnetogramas del nervio ci
atico de ranas aislados fueron registrados por Seipel y
Morrow en 1950, utilizando una bobina con 3.000 espiras, con dimensiones 2mm x 3mm
x 6mm [Baker 89].
En 1963 Stratbucker registr
o los cambios de campo magnetico asociados al latido del
corazon de un cerdo de Guinea, utilizando una bobina en forma toroidal con 17.640 espiras.
La aplicaci
on a humanos se realizo en 1965 por Baule y McFee, quienes introdujeron la
ucleo
tecnica de bobinas paralelas, cada bobina contena 1106 espiras bobinadas sobre un n
de ferrita, ver gura 2.22, ambas bobinas se conectaban en serie, proporcionando un voltaje
de pico de unos 30V , proporcional a la tasa de variaci
on del campo magnetico. Safonov
en 1967 utilizo la misma tecnica en una sala aislada magneticamente con paredes de

38

Estado de la t
ecnica.

Figura 2.21: Intensidad de campos bio-magneticos.

planchas de hierro de 1.5 pulgadas de grosor. Cohen en 1967 obtuvo magnetocardiogramas


bastante aceptables con bobinas de 5 cm de longitud, 8 cm de di
ametro, de 200.000
espiras, bobinadas sobre un n
ucleo de ferrita recubiertas por cilindros de lat
on a modo
de aislamiento electrostatico, dentro de una sala de 2,2 m x 2,24 m x 2,24 m, aislada
magneticamente por planchas de molypermalloy en la parte externa y aluminio de 5mm
en la parte interna. El detector era montado en modo seguro en frente del t
orax del sujeto.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

Magnetoencefalogramas
promediados
de
campos
magneticos auditivos evocados han sido reportados
por el grupo de Dr. Hari
en 1980, junto con los potenciales auditivos evocados
[Baker 89]. La gura 2.23
ilustra los potenciales auditivos evocados registrados
por un electrodo en P z, y los
campos magneticos evocados
en las localizaciones P3 y F7 ,
sobre el lado izquierdo de la
cabeza.
Figura 2.22: Magnetocardiograma.

Figura 2.23: Magnetoencefalograma con campos magneticos auditivos inducidos.

39

40

Estado de la t
ecnica.

El estmulo consista en un
pulso de frecuencia 1KHz de
0,8seg de duraci
on presentado simult
aneamente en ambos
odos. El tiempo entre pulsos
era de 4seg. El magnetoencefalograma muestra tres componentes a 100 y 180 mseg
y la componente continua del
campo. La polaridad para dichas componentes fue estudiada en varios emplazamientos
sobre el hemisferio derecho a
lo largo de la cisura de Silvio,
las cruces representan campos
entrantes, los crculos cerrados campos salientes. Se demuestra que aunque el area
auditiva se extiende sobre el
l
obulo temporal, existen respuestas corticales que se reparten a todo lo largo del cerebro, tal y como demuestran
los potenciales auditivos evocados. Del mismo modo el Dr.
Okada en 1981, realiz
o magnetoencefalogramas de la respuesta sensora evocada sobre
el hemisferio cerebral izquierdo debida a la estimulaci
on Figura 2.24: Magnetoencefalograma con campos magneticos
sensitivos inducidos.
del nervio medio derecho
utilizando pulsos de 1milisegundo de duraci
on con una frecuencia de repetici
on de 1.9Hz.
La gura 2.24 muestra las respuestas obtenidas en diferentes posiciones sobre el cr
aneo a
lo largo de la cisura de Rolando, el registro comienza en la sien y se desplaza 1 cm hacia
abajo. La localizaci
on cortical mostrada por los campos magneticos sensoriales evocados es
similar a la obtenida con los potenciales sensoriales evocados. A pesar de su utilizacion por
mas de dos decadas, el futuro de la magnetoencefalografa a
un no se puede predecir, como
herramienta de investigaci
on es extremadamente u
til por su capacidad de localizar fuentes
bioelectricas, pero el coste asociado para su implantacion es su principal desventaja en la
medicina clnica.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

2.2.3.

41

Imagen cerebral mediante rayos X.

Los rayos X son ondas electromagneticas de longitud de onda muy corta, = 100nm,
producidas cuando los electrones en r
apido movimiento colisionan con sustancias a su
paso. Son similares a los rayos de luz, con la excepcion de que su longitud de onda es
una diez milesima de la longitud de onda de la luz visible, debido a lo cual son capaces
de penetrar sustancias muy densas, e impresionar pelculas fotogracas creando im
agenes
con diferentes tipos de niveles de gris, denominadas radiografas, est
a caracterstica la hace
u
til en diagn
ostico ya que diferencias en la densidad entre las diferentes estructuras del
cuerpo producen im
agenes que varan en su intensidad de luz sobre la pelcula de rayos
X, de modo similar al negativo de una fotografa. Estructuras densas como el hueso del
craneo aparecen blancas, mientras que aquellas areas rellenas de aire o lquido, aparecen
negras. En neurologa su aplicaci
on principal es el diagn
ostico de enfermedades del cerebro
mediante el an
alisis de radiografas.
La gura 2.25 muestra la estructura
Tubo de
de un sistema de rayos X. Los electrones
Rayos X
emitidos por un lamento incandescente
son acelerados hacia el anodo de tungsteno
Filtro de
a +100 KV, emitiendo rayos X. Un ltro
Aluminio
de aluminio detiene los rayos X de baja
Colimador
energa, ya que no atravesaran el cuerpo
para formar la imagen. Como los rayos
X son emitidos en todas direcciones, para
Cuerpo
evitar da
nos al sujeto y al operador, son
apantallados a traves de un colimador,
de modo que s
olo los que queden libres
Radiacion
son los que dan lugar a la formaci
on
primaria
de la imagen. Para evitar que radiaci
on
Radiacion
secundaria pueda da
nar la pelcula se
secundaria
emplean unas rejillas en forma de persiana
Rejilla
veneciana. Con objeto de aumentar el
Pantalla
contraste se emplean pantallas de fosforo
Pelicula
que emiten gran cantidad de fotones por
cada rayo X incidente. As mismo, para
Figura 2.25: Rayos X
reducir la dosis de radiaci
on se puede
emplear un intensicador de imagen. Los rayos X golpean una pantalla de f
osforo en
un tubo al vaco, produciendo gran cantidad de fotones que estimulan un foto-c
atodo
aumentando la emision de electrones, estos son acelerados hasta incidir sobre una pantalla
de f
osforo a +25 kV, consiguiendose as una buena calidad de imagen con baja dosis de
rayos X [Webster 78][Baker 89].
Aunque a traves de los rayos X es posible la deteccion de las estructuras internas del
encefalo, no es detectable el funcionamiento del cerebro, por lo que no es aplicable en la
tecnologa ICC.

42

Estado de la t
ecnica.

2.2.4.

Imagen cerebral mediante imagen nuclear.

Los sistema de imagen nuclear se basan en la deteccion de radiaci


on producida por
radio-is
otopos2 cuando estos se descomponen para alcanzar la estabilidad. En general
los rayos gamma son utilizados para obtener imagenes de organos dando una indicaci
on
de su funcionamiento. Equipos computerizados de detecci
on de radiaci
on, en especial
los detectores de destellos, detectan los rayos gamma emitiendo un destello luminoso.
El dispositivo de imagen suministra as una imagen del organo considerado, dando
informaci
on de su tama
no, forma, posici
on y actividad funcional. Esta tecnica se emplea
para la visualizaci
on de organos y regiones internas que no se pueden ver utilizando rayos
X. El espacio ocupado por lesiones y tumores, se muestran particularmente bien.
Para su aplicaci
on al paciente se le suministra un radio-f
armaco por va oral o
intravenosa, con un intervalo de tiempo suciente que permita a la substancia radiactiva
seguir su camino metab
olico especco dentro del cuerpo y concentrarse en el tejido
especco a ser estudiado. Un dispositivo de imagen registra la posici
on y concentraci
on
de la radiaci
on emitida por el radio-is
otopo. En casi todos los casos, esta tecnica expone
al sujeto a menos radiaci
on que la que recibira llevando a cabo un procedimiento de
diagn
ostico similar con rayos X. La medicina nuclear mejora a la anatomica, empleando
una b
usqueda con medicina nuclear, met
astasis oseas se pueden diagnosticar con un
periodo de anticipaci
on de seis a doce meses antes que con las tecnicas radiogr
acas
normales; en scanners cerebrales se utiliza para el diagnostico de anormalidades patologicas
como tumores, aneurismas cerebro-vasculares y hematomas.
La gura 2.26 muestra una c
amara gamma tipo empleada en medicina nuclear.
Los rayos gamma se producen en el organo en todas direcciones, los tubos del colimador aseguran que s
olo la radiaci
on desde las zonas de interes alcancen
el detector NaI. La luz es detectada por m
as de un tubo fotomultiplicador, sin embargo s
olo los
incrementos relativos son utilizados para mejorar la resoluci
on espacial. Un analizador electronico
de amplitud de pulso selecciona
aquellos tubos que tiene la energa
de rayo gamma adecuada.
La resoluci
on espacial de la
Figura 2.26: Camara Gamma
imagen obtenida es alrededor del
1 % de las dimensiones de la imagen [Webster 78][Baker 89].
Aunque esta tecnica, a diferencia de los rayos X, puede mostrar el funcionamiento del
cerebro, no es aplicable en la tecnologa ICC debido a la necesidad de administrar un radio
f
armaco al usuario y a las constantes de tiempo involucradas en el proceso.
2

Un radio-is
otopo es un a
tomo con un n
ucleo inestable. Con objeto de alcanzar la estabilidad el radiois
otopo emite uno o m
as tipos de radiaci
on, el ejemplo m
as com
un es las partculas alfa, beta y la radiaci
on
electromagnetica gamma.

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

2.2.5.

43

Imagen cerebral mediante tomografa computerizada.

La gura 2.27 muestra un sistema


de tomografa computerizada de rayos X.
Mide la atenuaci
on de rayos X paralelos
contenidos en un mismo plano. El proceso
se repite para otros planos cambiando el
angulo. La informaci
on es procesada por
un computador que genera una imagen
bidimensional de la rebanada del cuerpo
en estudio. Repitiendo el proceso con
rebanadas consecutivas se crea una imagen
tridimensional. La gura 2.28 muestra el
proceso de reconstrucci
on digital de la
imagen mediante retro-proyecci
on, en la
que la atenuaci
on a lo largo de cada
Figura 2.27: Tomografa computerizada.
plano es uniformemente asignada; por lo
tanto si existe una alta atenuaci
on en
un pixel o elemento de la imagen, la
asignacion desde los angulos considerados
aumenta mas que en los pixeles de su
alrededor. Metodos iterativos aplicados a
la imagen miden la atenuaci
on resultante
y proyectan la nueva informaci
on. Como
substancia de calibraci
on se utiliza el
agua, ya que presenta un valor cero
en la tomografa. Metodos analticos
emplean an
alisis espacial de Fourier o
tecnicas de convolucion.
La tomografa
computerizada puede generar im
agenes
de secciones cruzadas de estructuras
Figura 2.28: Tomografa computerizada.
anat
omicas, sin superponer tejidos de una
en otra.
Sistemas mejorados de tomografa computerizada utilizan m
ultiples medidas
simultaneas y tubos de rayos X que rotan cada 2 segundos. La tomografa computerizada
suministra im
agenes de tejidos blandos dentro del cerebro que no es posible conseguir
con radiografas convencionales, ya que los rayos X quedan bloqueados por la densidad
del cr
aneo. El paciente se coloca dentro del centro de un toroide, rodeado por scanners
tomogracos. La tomografa es empleada en el diagn
ostico de tumores cerebrales
como neoplasmas, infartos cerebrales, desplazamiento o crecimiento ventricular, atroas
corticales (decrecimiento del tama
no del cerebro), aneurismas cerebrales, hemorragias y
hematomas intracraneales y malformaciones arteriovenosas. Sin embargo tambien tiene
limitaciones, la resoluci
on espacial y de contraste limitan a la tomografa en su habilidad
para distinguir tejido normal del pat
ogeno, por ejemplo si un tumor dentro del cuerpo
tiene una atenuaci
on semejante a la del agua, no ser
a detectado [Webster 78][Baker 89].

44

2.2.6.

Estado de la t
ecnica.

Imagen cerebral: MRI.

La imagen de resonancia magnetica, MRI: Magnetic Resonance Imaging, suministra


imagenes bidimensionales que son secciones de la concentraci
on de is
otopos H 1 en objetos
tridimensionales. El sujeto es colocado a lo largo del eje Z dentro de un potente campo
magnetico de aproximadamente 2T . El spin de los electrones de H 1 precesan a las
frecuencias de Larmor de 42,57M Hz/T . El campo magnetico es perturbado para producir
un peque
no gradiente magnetico a lo largo del eje Y . En la gura 2.29 se muestra que s
olo
hay una secci
on para cada frecuencia particular de Larmour. Bobinas de radio frecuencia
dispuestas alrededor pulsan a dicha frecuencia, provocando la excitaci
on de las partculas
de la seccion. Tras una r
apida perturbaci
on del campo magnetico, a lo lardo del eje X, un
receptor de radio frecuencia mide la relajaci
on a lo largo de la lnea del eje Z ortogonal
a ambos campos. El campo magnetico a lo largo del eje Z puede ser modicado para
producir nuevas lneas adicionales de adquisici
on. El sistema es similar a la tomografa
computerizada y la se
nal es procesada en modo similar [Webster 78][Baker 89].
Los puntos fuertes de MRI incluyen:
z
sensibilidad al ujo sanguneo, ajuste
electronico del plano de la imagen
Seccion
en el eje x
(en contraposicion a otras tecnicas que
Seccion
utilizan ajuste fsico, como la tomografa
en el eje y
computerizada), no emplea radiacion
ionizante, s
olo magnetismo y ondas de
radio; y alta resoluci
on en tejidos blandos.
Linea
seleccionada
Los puntos acos de MRI son:
contraindicaci
on en caso de implantes de
dispositivos medicos y placas metalicas
y
x
en pacientes, tiempo de adquisici
on de
la imagen prolongado y coste elevado;
factores que junto con las constantes de
tiempo involucradas al ujo sanguneo Figura 2.29: En MRI, la bobina de radio frecuencia
hacen muy complicado su empleo en la excita las secciones en el eje Y . Un receptor de RF
mide la secciones en el eje X.
tecnologa ICC.

Figura 2.30: MRI tejidos blandos

2.2 T
ecnicas para la adquisici
on de actividad cerebral.

2.2.7.

45

Imagen cerebral: SPECT.

En la tomografa computerizada por emision individual de fotones3 , un sistema


similar al de la camara gamma rota alrededor del sujeto. Los rayos gamma provenientes
del sujeto son recogidos en modo similar al utilizado en la tomografa computerizada,
aunque en este caso varias secciones son obtenidas al mismo tiempo, mostrando la
actividad que se produce en el interior de la zona de interes. Mediante SPECT es posible
observar anomalas no observables con los sistemas convencionales de rayos X o camara
gamma [Webster 78][Baker 89]. El elevado coste de equipamiento y la necesidad de la
administracion de un radio-f
armaco son los principales inconvenientes para la aplicaci
on
de esta tecnica en la tecnologa ICC.

2.2.8.

Imagen cerebral: Tomografa por Emisi


on de Positrones (PET).

Algunos isotopos producen positrones que reaccionan con los electrones emitiendo dos
fotones a 511 keV en direcciones opuestas. La gura 2.31.a muestra los dos detectores
dispuestos en lados opuestos del sujeto. Los detectores determinan si ambos destellos
son coincidentes y tienen niveles de energa cercanos a 511 keV. Parejas adicionales de
detectores, g.2.31b y c permiten una rapida operaci
on. La reconstrucci
on de la imagen
es similar a la empleada en la tomografa computerizada.
La principal ventaja del PET es que la mayora de los radio-is
otopos utilizados 15 O,
13 N , 11 C y 18 F , pueden ser compuestos como metabolitos. Por ejemplo, CO puede ser
on del cerebro se encuentra activada, el incremento del ujo
hecho con 11 C. Si una porci
de sangre transporta el is
otopo hasta ella, apareciendo en la imagen. Funcionamientos
anormales, tumores, ataques y otro tipo de anomalas pueden ser mapeados de este modo.
Por ejemplo, medidas del metabolismo de FDG (glucosa-uordeoxyglucosa) se emplea
para determinar el crecimiento de tumores. La deteccion de tumores tempranos es posible
antes de que se produzcan cambios estructurales detectables mediante MRI o CT, ya que
peque
nas cantidades de FDG pueden ser visualizadas [Webster 78], [Baker 89].

Figura 2.31: Tomografa por Emisi


on de Positrones

SPECT: Single-photon emission computed tomography.

46

Estado de la t
ecnica.

2.3.

Referencias hist
oricas sobre la tecnologa ICC.

Con el descubrimiento de la naturaleza electroqumica del sistema nervioso en general


y del cerebro en particular, y la descripci
on de la electroencefalografa por parte del Dr.
Hans Berger en 1929, [Bronzino 95a], comienzan las primeras especulaciones acerca del
empleo de esta tecnica como va de comunicaci
on y control, a fn de permitir al cerebro
actuar sobre el entorno sin la utilizacion del sistema nervioso periferico o los m
usculos4 .
Las investigaciones llevadas a cabo en la tecnologa ICC han sido divididas en dos
grandes grupos, denominandose experimentos fuera de lnea a aquellos en los que se
produce una primera etapa de adquisici
on de la informaci
on para proceder a continuaci
on a
su posterior an
alisis; y experimentos en lnea a aquellos que procesan, lo m
as rapidamente
posible, peque
nos paquetes de informaci
on para interactuar con el entorno en el menor
tiempo posible, busc
andose idealmente una actuacion e interaccion continua entre el
usuario y el entorno.
En el primer caso quedan englobadas todas aquellas investigaciones cuyo objetivo es
la investigaci
on neurol
ogica: zonas cerebrales en las que la relacion se
nal adquirida ruido
presenta un ndice mayor, grupo de actividades con mayor poder de discriminaci
on, etc.
El segundo grupo engloba aquellos experimentos en los que se busca el desarrollo de
dispositivos de comunicacion.
Las primeras investigaciones se centraron en la utilizacion de se
nales electroencefalogracas espontaneas, al usuario se le entrenaba en el control de estas caractersticas,
normalmente ritmo , con el objetivo de manejar desde trenes de juguete a juegos de
luces. Un ejemplo tpico de esta etapa es el que realiz
o el Dr. Dewan en 1967, emple
o biorealimentaci
on para entrenar voluntarios en la modicaci
on de sus ritmos occipitales
con el objetivo de codicar mensajes en Morse.
En 1970 varios cientcos desarrollaron sistemas de comunicaci
on sencillos, que eran
controlados por el registro de actividad electrica en la cabeza del usuario. A principios
de dicha decada la Advanced Research Projects Agency (ARPA) del Ministerio de
Defensa de Estados Unidos, mostr
o interes en tecnologas que permitieran un mayor grado
de inmersi
on e interaccion entre personas y computadoras incluyendo las denominadas
o un programa que
aplicaciones bionicas.5 El Dr. George Lawrence propuso y dirigi
inicialmente se centraba en la auto-regulaci
on y biorealimentaci
on cognitiva. Se analizaron
aquellas tecnicas que mejoraran el rendimiento de los operarios, especialmente las
capacidades militares de personal involucrado en tareas que tenan una carga mental
elevada. La investigaci
on produjo ciertos avances en biorealimentaci
on, pero apenas
se avanzo en los objetivos inicialmente establecidos. Bajo la denominaci
on de biocibernetica se establecio una nueva direcci
on, siendo esta la principal fuente de
recursos para la investigaci
on en bi
onica. Una de las directrices de este programa fue
la evaluaci
on de la posibilidad de utilizar se
nales biol
ogicas, que seran analizadas en
tiempo real por un computador, con el objetivo de controlar vehculos, armamento
u otros sistemas. El proyecto de mayor exito fue liderado por el Dr. Jacquies Vidal,
4

La figura 2.33, al final de este captulo, se muestra el desarrollo de la tecnologa ICC


Bi
onica: Disciplina que se ocupa de la aplicaci
on tecnol
ogica de las funciones y estructuras biol
ogicas
de los animales.
5

2.3 Referencias hist


oricas sobre la tecnologa ICC.

47

director de Brain Computer Interface Laboratory en UCLA. Mediante la utilizaci


on
de estimulacion visual generada por computador y procesamiento avanzado de se
nal, los
resultados de la investigaci
on demostraron que potenciales visuales evocados, considerados
individualmente, permitiran un canal de comunicaci
on por el cual un operario podra
controlar el movimiento de un cursor a traves de un laberinto bidimensional [Vidal 73]
[Vidal 77].
Estas primeras investigaciones revelaron la importancia de la distincion entre
sistemas de control que usaran actividad electroencefalogr
aca y aquellos que usaban
electromiogramas, recogiendo la actividad muscular a nivel de cuero cabelludo o m
usculos
faciales.
El incremento en la potencia de c
alculo de los computadores en las u
ltimas dos
decadas, ha permitido a los investigadores la implementaci
on de complejos algoritmos de
procesamiento y reconocimiento de se
nal, usando como se
nales de control tanto Potenciales
6
7
Evocados como Potenciales Relativos a Eventos .
En 1988 los doctores Farwell y Donchin de la Universidad de Illinois utilizaron la
tecnica de Potenciales Relativos a Eventos P300 para el control de una m
aquina de escribir
virtual [Donchin 00], [Wolpaw 00a], [Krusienski 00], [Sellers 06]. El teclado matricial se
representaba en una pantalla de ordenador. Al voluntario se le peda que escribiera una
palabra, mientras que las la y columnas del teclado eran resaltadas de forma aleatoria,
cuando se resaltaba la la o la columna en la que se encontraba la letra deseada se produca
un P300. El dispositivo utilizaba un u
nico electrodo dispuesto sobre el cortex parietal (es
la zona con mayor respuesta P300 en personas adultas). Un algoritmo de detecci
on de pico
identicaba cuando se produca un potencial P300. El sistema tena una velocidad media
de comunicaci
on de 2.3 caracteres por minuto, lo cual corresponde a un canal con una
capacidad de 0.2 bits/segundo.
En 1990 el Dr. Keirn y el Dr. Aunon, en la Universidad del Estado de Colorado, llevaron
a cabo una serie de experimentos para analizar que tipo de actividades cognitivas podran
ser diferenciadas, mediante la se
nal electroencefalograca. El objetivo a largo plazo era
la utilizaci
on de aquellas actividades que mejor se
nal proporcionaban para el control de
sistemas ICC. Inicialmente se identicaron tareas en los hemisferios izquierdo y derecho,
por lo que una caracterstica de discriminaci
on u
til fue la relaci
on de asimetra de la
potencia espectral. Se dispusieron seis electrodos en las zonas izquierda, central derecha,
parietal y occipital, del cortex cerebral. La estimaci
on de la densidad espectral de potencia
fue obtenida mediante el empleo de la transformada r
apida de Fourier (FFT). Trabajos
posteriores demostraron que el empleo de metodos Auto-Regresivos (AR) ofrecan mejores
resultados. La relacion de asimetra fue aplicada en un clasicador cuadr
atico bayesiano,
obteniendose diferenciaci
on entre estado de reposo y cada uno de los siguientes estados:
rotaci
on mental de guras geometricas, multiplicaciones matem
aticas, composicion mental
de cartas y cuenta visual. La exactitud de discriminaci
on obtenida se encontraba entre un
80 % y un 90 %.
6
7

Denominaci
on inglesa: Evoked Potentials EPs
Denominaci
on inglesa: Event-Related Potentials ERPs

48

Estado de la t
ecnica.

En 1993, investigadores del Hospital Universitario Nacional de Taiwan repetan el


experimento anterior, pero utilizando redes neuronales de Kohonen como clasicador de
las diferentes actividades. Indicaron que eran capaces de diferenciar dichas tareas con
mayor exactitud.
En 1995 el grupo del Dr. Anderson analiz
o los datos recogidos por Keirn y Aunon,
utilizando un clasicador basado en redes neuronales. Se centraron en la tarea de
multiplicaci
on e investigaron con que precision la podan discriminar de la actividad base
de estado relajado. Implementando una red neuronal del tipo perceptr
on multicapa en un
sistema con procesamiento en paralelo y utilizando coecientes AR como caracterstica
de entrada, fueron capaces de clasicar los datos con un 91 % de exactitud [Garrett 03]
[Muller 03b].
As mismo, el Dr. McMillan y el Dr. Calhoun, en Wright-Patterson Air Force Base
utilizaron Potenciales Evocados Visuales (VEP) para controlar el balanceo en un simulador
de vuelo [Middendorf 00]. Dos electrodos, en la zona del cortex visual, fueron utilizados
para registrar la respuesta de estado continuo frente a luz sinusoidal modulada a una
frecuencia de 13.25 Hz. Un amplicador en lazo cerrado meda de forma continua la
magnitud de la componente electroencefalograca en 13.25 Hz. Si su magnitud superaba
un determinado umbral, el simulador de vuelo se balanceaba hacia la derecha. Por el
contrario si su magnitud era inferior a otro nivel de umbral, se balanceaba hacia la
izquierda. Los voluntarios que se sometieron a las pruebas en el simulador, al cabo de
12 h de entrenamiento, fueron capaces de responder correctamente el 80 % de las veces, en
una secuencia aleatoria de blancos derecha/izquierda. En otro experimento, independiente
del anterior, utilizaron la misma tecnica VEP para controlar la exi
on de la rodilla a traves
de estimulacion electrica externa. El estimulador fue conectado en la supercie anterior
del muslo, sobre el m
usculo femoral. Tres voluntarios sanos se entrenaron durante 5 h en
la utilizaci
on del interfaz. Se les propuso exar la rodilla en uno de tres angulos diferentes,
para despues volverla a dejar en su posici
on de reposo, perpendicular al suelo. El 96 %
de las propuestas fueron alcanzadas, se empleaban unos 5 seg. de media en la extension
completa de la pierna, y un promedio de 6 seg. en la vuelta a su posici
on de reposo.
En el New York State Department of Health en 1993 el Dr. McFarland y Dr.
Wolpaw entrenaron voluntarios en el control de la amplitud de sus ritmos 8 para el
control de la posici
on de un cursor en la pantalla de un computador, [Wolpaw 00b].
Se utilizaron dos electrodos dispuestos sobre el area senso-motora primaria del cortex
cerebral izquierdo abarcando la cisura central. Con estos dos electrodos se obtena un
canal de se
nal electroencefalograca, que convenientemente tratada mediante el algoritmo
de FFT implementado en un DSP, suministraba la componente de 9 Hz en tiempo real,
que era utilizada para controlar proporcionalmente el movimiento vertical del cursor en
la pantalla. Los blancos, de tama
no constante, se desplazaban de izquierda a derecha a
una altura elegida al azar, el tiempo empleado por el blanco en recorrer el ancho de la
pantalla era de 8 seg. Al voluntario se le indic
o que moviera el cursor, en el lado derecho
8

El ritmo es el ritmo (9Hz) que se registra sobre la zona motora del cortex.

2.3 Referencias hist


oricas sobre la tecnologa ICC.

49

de la pantalla, para interceptar el blanco. Se entrenaron cuatro voluntarios durante un


periodo de algunas semanas. El que mejor lo hizo consigui
o interceptar el blanco el 75 %
de las veces, mientras que el que peor resultados obtuvo lo haca el 39 %. Estos datos
corresponden a un canal de comunicaci
on con una capacidad de 0.125 bit/sec (en el mejor
de los casos). Experimentos posteriores comunicados en 1994, utilizaban dos electrodos
en el lado derecho y otros dos en el lado izquierdo en la zona senso-motora del cortex,
dando lugar a dos canales ERD9 , el ritmo en cada hemisferio fue capturado utilizando
una banda de frecuencia centrada en 10Hz con una anchura de 5Hz, con una periodicidad
de 200 mseg. Ambos valores fueron convertidos en movimientos horizontales y verticales
del cursor, mediante el empleo de ecuaciones lineales, los coecientes de dichas ecuaciones
se actualizaban al cabo de cada intento. La tarea propuesta fue la direcci
on del cursor
desde el centro de la pantalla del computador hacia una de las esquinas del monitor
elegidas al azar. La prueba nalizaba cuando el cursor alcanzaba el blanco de tama
no
jo. Se entrenaron cinco voluntarios durante un periodo de 6 a 8 semanas. El voluntario
con mejores resultados consiguio el 70 % de los blancos, a una velocidad media de 26 por
minuto, lo cual corresponde a una tasa de transferencia de informaci
on de 0.9 bits/seg.
Hiraiwa, Shimohura y Tohunaga en el NTT Human Interface Laboratories, en
Jap
on, utilizaron un sistema electroencefalograco de 12 electrodos, para estudiar las
caractersticas espacio temporales de los potenciales de generacion asociados con la
pronunciaci
on de una entre cinco slabas japonesas. Se tomaban dos registros de la
actividad electroencefalograca previas a la pronunciaci
on de la slaba, para ser utilizadas
en la subsiguiente clasicaci
on empleando una red neuronal entrenada mediante la tecnica
de backpropagation. Dieciseis de treinta nuevas slabas eran correctamente clasicadas.
As mismo tambien se investigaron potenciales de generacion asociados a movimientos de
joystick. En este caso, utilizando la misma tecnica, 23 de 24 nuevos movimientos del
joystick fueron correctamente reconocidos.
En 1992, el grupo del Dr. Pfurtscheller de la Universidad de Graz en Austria
estudi
o los ritmos asociados con el movimiento de los dedos ndice derecho e
izquierdo [Scherer 04], [Pfurtscheller 03], [Blankertz 04], [Rupp 06]. A los voluntarios se
les instruy
o para que presionaran un pulsador con el dedo ndice. Una pista un segundo
antes de producirse el movimiento indicaba que dedo deba de ser utilizado. Durante este
segundo, 30 electrodos dispuestos en una matriz rectangular sobre la zona seso-motora
del cortex cerebral registraban la actividad electroencefalograca (ERD) que preceda al
movimiento. Posteriores analisis de la informaci
on adquirida han demostrado que dos
electrodos en las zonas C3 y C4 son sucientes para obtener buenos resultados. La
transformacion de Hilbert, aplicada a las se
nales electroencefalogracas, ha demostrado
ser el mejor metodo para la extraccion de caractersticas. Dando lugar a una precisi
on
en la clasicaci
on de aproximadamente el 90 %, comparada con el 70 % u 80 % que se
consigue con el metodo de potencia espectral. Posteriormente se ha demostrado que redes
neuronales trabajando sobre modelos autorregresivos dan lugar a resultados similares.
9

ERD: Event-Related Synchronizations or Desynchronizations (ERS/ERD)

50

Estado de la t
ecnica.

Este experimento demostro que utilizando u


nicamente dos electrodos, se podra controlar
el movimiento bidimensional de un cursor.
Al a
no siguiente, este mismo grupo mostr
o su sistema ICC en lnea, basado en detectar
potenciales de generacion en dos electrodos sobre las zonas C3 y C4 de cortex sensomotor. Un voluntario fue entrenado durante cuatro sesiones de media hora, la actividad
de entrenamiento consisti
o en el movimiento horizontal de un cursor en pantalla. El
procedimiento de adquisici
on de la se
nal fue el siguiente:
1. Un pitido prepara al usuario para el comienzo de la actividad.
2. Un segundo despues se indica la direccion objetivo, mostrando un cuadrado en la
zona izquierda o derecha de la pantalla.
3. Al cabo de otro segundo, aparece un cursor en el medio de la pantalla, indicando
que el usuario debe presionar el pulsador adecuado.
Una sesion de grabaci
on queda compuesta por unos ochenta intentos. En cada sesi
on
la se
nal del segundo en el que se planica el movimiento es procesada para obtener
los valores espectrales de potencia. Utilizando estos datos y la direccion de movimiento
actual, se produce el aprendizaje de la asociacion de movimientos planicados con
movimientos reales. Tras una sesi
on de entrenamiento el clasicador predice un 70 % de
movimientos correctamente, al cabo de cuatro esta cifra se incrementa hasta un 85 %. Lo
cual demuestra que el usuario modica su se
nal electroencefalograca mediante el empleo
de biorealimentaci
on.
En 1994 el grupo del Dr. Pfurtscheller mostr
o como movimientos de los dedos ndice
derecho e izquierdo, movimientos del pe y de la lengua podan ser identicados mediante
sus ERDs. Aplicaron el hecho de que movimiento de los dedos o mano son acompa
nados
por el bloqueo del ritmo y por un corto retardo del ritmo (30-40Hz ERS). Emplearon
ocho electrodos dispuestos en una matriz rectangular sobre la zona senso-motora y
realizaron la estimacion de potencia espectral en las siguientes bandas para cada se
nal: 1012 Hz (dedos y lengua), 30-33 Hz (dedos del pie), 38-40Hz(dedos y lengua). La estimacion
se realizaba cada 250 mseg.
Este trabajo llev
o al dise
no del segundo sistema ICC en Graz, con el cual controlar
tres tipos diferentes de movimientos. La se
nal ERD asociada con el movimiento de los
dedos ndice derecho e izquierdo o del pie derecho fue registrada en tres canales EEG
bipolares (6 electrodos sobre la zona del cortex senso-motora). La estimacion de potencia
espectral se calculaba para cada muestra con una duraci
on de 250 mseg. Estas medidas
eran concatenadas cada segundo, para formar un vector que era clasicado por el algoritmo
de aprendizaje. Cuatro voluntarios fueron entrenados en el uso del dispositivo en cuatro
sesiones de 90 min. durante un periodo de dos semanas. Cada sesion consisti
o en cuatro
bloques de 60 pruebas con un descanso de cinco minutos entre bloques. Cuando la
indicaci
on desaparece, al cabo de 1.25 seg, el voluntario presiona el pulsador con su dedo
ndice derecho, izquierdo, o mueve los dedos del pie derecho hacia arriba. Las se
nales
electroencefalogracas son clasicadas por el sistema en el siguiente segundo. Los datos
del primer segundo son utilizados para entrenar el clasicador, mientras que en la cuarta
sesion no se muestran los resultados. En las sesiones segunda y tercera, en las que si existe
realimentaci
on de resultados se consigue una exactitud del 81 %, sin embargo en la cuarta
la cifra baja al 77 %.

2.4 Estado actual de la tecnologa.

2.4.

51

Estado actual de la tecnologa.

Las investigaciones anteriores han resuelto una gran cantidad de problemas, como por
ejemplo la discriminacion de actividad electromiograca de la electroencefalograca, pese
a que a nivel de cuero cabelludo la primera es de mayor amplitud que la segunda en
la misma localizaci
on, y la comunicaci
on basada en EMG puede llegara enmascarar la
comunicacion basada en EEG. Para realizar una correcta discriminaci
on de ambas fue
preciso realizar analisis espectral y topograco. Este trabajo inicial tambien sirvi
o para
esclarecer la distincion entre sistemas de comunicacion basados en EEG que dependan del
control muscular (por ejemplo potenciales visuales evocados dependen de la direcci
on de los
ojos) y aquellos que no dependan del control muscular (actividad gurativa, imaginativa
o matematica), estableciendose una primera discriminaci
on entre sistemas ICC exogenos
y end
ogenos. Estas distinciones fueron las que dieron lugar a la actual denici
on del
termino Interfaz Cerebro Computador ICC como aquel sistema de comunicaci
on que
no depende de los canales cerebrales de salida habituales, sistema nervioso periferico y
m
usculos [Wolpaw 00a]. Denici
on que justica el interes actual que la tecnologa ICC
ha suscitado entre los diversos grupos de investigaci
on en interfaces hombre-m
aquina a
nivel mundial, y las posibilidades que como nueva tecnologa de comunicaci
on aumentada
ofrece su aplicacion en campos como la tecnologa de la rehabilitaci
on, teleoperacion de
dispositivos robotizados, sector militar o industria del ocio expuestos en la seccion 1.2 del
captulo 1.
La proliferaci
on que en los u
ltimos a
nos se ha producido en los grupos de investigaci
on
en la tecnologa ICC y la gran variedad en los tipos de se
nal de entrada, algoritmos
de traducci
on, salidas y otras caractersticas de los dispositivos basados en ICC, ha
motivado el aumento de la diversidad de criterios tanto en la consideraci
on de las areas
prioritarias de desarrollo para la mejora de la tecnologa ICC, como en el establecimiento de
procedimientos de medida y comparaci
on de resultados. Mientras que diferentes sistemas
se ajustan mejor para diferentes aplicaciones, medidas de rendimiento est
andar son u
tiles
como bancos de pruebas de prop
osito general, con el cual seguir el desarrollo de la
tecnologa ICC. Una medida estandar en los sistemas de comunicacion es la velocidad
de transferencia de informaci
on o cantidad de informaci
on transmitida por unidad de

depende tanto de la velocidad, como de la exactitud, [Shannon 75],


tiempo10 . Esta
[Pierce 80].
En la gura 2.32 se muestra la relaci
on entre exactitud y transferencia de informaci
on
para diferentes valores de posibles elecciones N:2,4,8,16,32. La velocidad de transferencia
de informaci
on se muestra en bits/min cuando se realiza un total de doce pruebas, valores
semejantes se observan en diferentes dispositivos ICC [Birbaumer 00], [Pfurtscheller 00],
[Wolpaw 00b].

10

En terminologa inglesa se denomina Bit Rate

52

Estado de la t
ecnica.

Se observa por ejemplo, que la


velocidad de transferencia de un
dispositivo ICC que seleccione entre
dos valores con un 90 % de exactitud
es el doble que la obtenida con un
80 %, e igual a la que se consigue con
cuatro posibles candidaturas con un
65 %.
La enorme importancia de la exactitud en la velocidad de comunicaci
on
no ha sido valorada convenientemente
en las publicaciones relacionadas con
ICC. Mientras que la efectividad de
cada dispositivo ICC depende considerablemente de la aplicaci
on a la que
se destina, la utilizaci
on de la velocidad de comunicaci
on ofrece una medi- Figura 2.32: Velocidad de transferencia de informacion
da objetiva para comparar diferentes en bits/min, variando el numero de posibles elecciones
N={2, 4, 8, 16
o 32}.
dispositivos y medir mejoras.
Por otro lado ya que dependiendo del tipo de tecnica de analisis empleada existen
areas del cortex cerebral en las que se reeja una gran cantidad de informaci
on, mientras
11
que en otras, la informaci
on buscada esta oculta entre el ruido captado , son necesarios
ensayos clnicos controlados en varios grupos de usuarios con la nalidad de determinar
que metodos de adquisicion ICC son los que mejor se ajustan a cada grupo de usuarios. En
la actualidad s
olo se disponen de datos ICC de personas con incapacidades neuromotoras
severas. Con el Dispositivo de Traducci
on de Pensamiento (TTD) [Birbaumer 00], que
utiliza potenciales corticales lentos (SCPs), y con el sistema Wadsworth ICC, que utiliza
ritmos y [Wolpaw 00b], han sido evaluados en un n
umero peque
no de usuarios con
esclerosis lateral amiotroca, da
no traum
atico, da
no de la medula espinal, par
alisis cerebral
o amputaci
on. El objetivo de estos estudios es la comparaci
on del rendimiento de los
diferentes sistemas ICC y sus diferentes entradas electrosiologicas, as como evaluar
diferentes procedimientos de entrenamiento, controlando el efecto placebo [Harrington 97].
As pues con el objeto de unicar criterios y procedimientos de comparaci
on, en los
u
ltimos a
nos se han realizado diferentes concursos sobre ICC, focalizadas en la resolucion
incremental de los problemas que aparecen en la aplicacion de esta tecnologa, as en el a
no
2001 se celebro el primer concurso centrado en la estandarizaci
on de diferentes tecnicas de
clasicacion; viendose la gran disparidad tanto en los registros de se
nal considerados, como
en las tecnicas y criterios de clasicacion empleados, se realizo en 2003 un segundo concurso
centrado en el empleo de los ritmos y , as como potenciales evocados tempranos y
de tipo P300, analizandose la se
nal electroencefalograca previa a la materializacion de
11
Por ejemplo el control con potenciales lentos es pobre en las zonas parietales [Rockstroh 89] y los
ritmos quedan estrechamente limitados a la zona senso-motora del cortex cerebral.

2.4 Estado actual de la tecnologa.

53

movimiento de los dedos de ambas manos, y considerandose como caractersticas de la se


nal
a sus componentes espectrales. El tercer concurso se realizo al a
no siguiente, centrando sus
esfuerzos en la discriminaci
on de imaginaci
on de movimiento de diferentes partes del cuerpo
como dedos de las manos, pies, o de la lengua, frente a otro tipo de tareas cognitivas como
la composici
on mental de un escrito, rotacion de guras, o la imaginaci
on de navegaci
on
entre dos puntos en un entorno conocido; se analiz
o la inuencia que sobre la extracci
on de
caractersticas y los diferentes clasicadores, presentaba la estabilidad en el tiempo de los
registros de se
nal EEG empleados en el aprendizaje. El cuarto concurso se celebr
o en el a
no
2008 centrando sus esfuerzos en la realizaci
on pr
actica de dispositivos ICC, analizando los
problemas de clasicacion continua de se
nal EEG sin disponer de una estructura de prueba,
considerando los artefactos debidos a movimiento ocular, clasicaci
on de los movimientos
de la mu
neca considerando se
nal magnetoencefalograca e incremento de la granuralidad
de resolucion espacial en ECoG.
La mayora de los conjuntos de datos para entrenamiento y test fueron adquiridos
en sesiones con escasa separacion temporal entre las mismas, lo que unido a la libre
eleccion de los electrodos y caractersticas considerados en la clasicacion, de lugar a
tasas de clasicacion optimistas, superiores a las obtenidas en aplicaciones en escenarios
reales. Sin embargo, a pesar de este inconveniente, los concursos realizados sobre ICC
aportan el principal marco de comparaci
on para la evaluaci
on de las diferentes tecnicas de
clasicacion.
Debido a que el funcionamiento de ICC depende de que el usuario codique su
voluntad en las caractersticas de la se
nal, que el sistema mide y traduce a sus salidas
de control, el progreso del mismo tambien depende de la mejora de los metodos de
entrenamiento. Trabajos en desarrollo eval
uan el efecto del entrenamiento y analizan
diferentes estrategias utilizadas por los usuarios. Por ejemplo algunos protocolos piden
que el usuario emplee imaginaci
on de movimientos muy especcos u otra tarea mental
para producir las caractersticas que el sistema EEG utilizara como se
nales de control
[Pfurtscheller 00] [Penny 00]. Sin embargo otros sistemas permiten m
as libertad al usuario
en la decisi
on de que movimientos imaginar [Wolpaw 00b]. El an
alisis de similitudes y
diferencias, entre la adquisici
on de control ICC y la adquisici
on de destreza motora o
no-motora convencional, podra conducir a la mejora de los metodos de entrenamiento.
As mismo tambien deben ser considerados aspectos mentales del individuo como por
ejemplo: motivacion, fatiga, frustraci
on. El an
alisis de los informes de usuario deben ser
cuidadosamente analizados para extraer las conclusiones correctas [Roberts 89].
Por otro lado, teniendo en cuenta el procedimiento de adquisici
on de la se
nal cerebral,
el interes actual se centra principalmente en la aplicaci
on a sistemas de registro a nivel de
cuero cabelludo, ya que es la opcion con mayor disponibilidad de uso. En tecnologas
invasivas, como puede ser el caso de electrodos conicos [Kennedy 00], o cadenas de
microelectrodos intracorticales [Levine 00], [Chapin 99], los algoritmos existentes requieren
de evaluaci
on adicional, siendo probable que se desarrollen otros nuevos. La actividad
recogida en el EEG reeja la actividad de grandes poblaciones de neuronas corticales.

54

Estado de la t
ecnica.

Si las caractersticas extradas de esta actividad suministrar


an medios de comunicaci
on
ecaces, deben existir dos o mas estados discernibles que reejen las intenciones del usuario,
y que se acomoden al dominio y limitaciones de la aplicaci
on. La tecnologa ICC puede
emplear una caracterstica individual: amplitud de una banda de frecuencia especca en
determinada zona del cerebro, o bien una combinaci
on de m
ultiples caractersticas, bien
en el dominio temporal o frecuencial, por ejemplo potenciales corticales lentos, ritmos ,
etc.; producidos por m
ultiples procesos siol
ogicos. Las necesidades de la aplicaci
on elegida
son determinantes en la seleccion de los algoritmos de traduccion, que proporcionen una
adecuada combinacion de velocidad y precisi
on. Debido a que el cerebro humano es un
controlador altamente adaptativo que se basa en metodos predictivos y realimentacion de
la informaci
on, es aconsejable y tal vez esencial, que los algoritmos de traduccion tambien
dispongan de esta capacidad de adaptaci
on, ej. [McFarland 97] permite la adaptaci
on
continua del valor de la amplitud media y/o varianza de las caractersticas de EEG.
El desarrollo actual de las tecnicas ICC requiere que se reconozca que el objetivo no es
u
nicamente la observaci
on de la actividad cerebral, mediante diferentes tecnicas como EEG
o registros intracorticales, y mediante ellos determinar la intenci
on del usuario, sino que
el interfaz de control cerebral debe ser entendido como un nuevo canal de salida cerebral,
y al igual que los canales normales: nervios y m
usculos, es preciso enlazar las capacidades
adaptativas del cerebro que ajustan dicha salida y as obtener el m
aximo rendimiento.
Por lo que actualmente se esta investigando sobre el desarrollo de dispositivos ICC lo
sucientemente exibles como para usar diferentes caractersticas de se
nal EEG como
mecanismo de control. Un dispositivo basado en ICC podra utilizar potenciales corticales
lentos, ritmos o , potenciales P300, o actividad de unidades neuronales independientes,
bien individualmente o bien de forma conjunta [Schalk 04], siendo esta exibilidad la que
suministrar
a un considerable avance pr
actico. La consecucion de exito en la utilizaci
on de
estos dispositivos es en esencia una nueva destreza, que consiste mas que en un apropiado
control muscular en el apropiado control de la actividad electroencefalogr
aca.
A parte de lo anterior, es preciso tener en cuenta que a excepci
on de los sistemas que
dependen del control muscular [Vidal 73], [Vidal 77], [Middendorf 00], [Sutter 92], y la
posible excepcion de sistemas basados en potenciales evocados P300 [Donchin 00], la gran
mayora de los dispositivos basados en ICC dependen de la actividad electroencefalogr
aca,
y por tanto de su modo de aprendizaje llevado a cabo mediante procedimientos de condicionamiento operativo. Por lo que el an
alisis comportamental del fenomeno de aprendizaje
y del ambiente es importante. Dicho an
alisis requiere un extenso conocimiento de la teora
de aprendizaje, experiencia en su aplicaci
on clnica y entender como una determinada
discapacidad neurol
ogica puede inuir en el aprendizaje. Sin embargo, la mayora de los
dispositivos actuales han sido desarrollados por ingenieros u otros grupos con orientaci
on
tecnica semejante, con experiencia limitada en principios y metodos comportamentales.
Aunque capacidades intelectuales y cognitivas de alto nivel no sean probablemente esenciales para el uso con exito de ICC [Holzapfel 98], si es preciso un mayor grado de atencion
a cuestiones como: seleccion de respuesta optima, tipos y cronogramas de reforzamiento,
condiciones de respuesta estmulo; que son esenciales a la hora de perlar cualquier comportamiento.

2.4 Estado actual de la tecnologa.

55

Los usuarios, controlando y eligiendo las caractersticas electrosiologicas, pueden


seleccionar el mensaje a comunicar y observar la salida del sistema, de forma simultanea.
Lo cual requiere la divisi
on de la atenci
on, pudiendo comprometer el control de la
se
nal de entrada. Varios estudios indican que dicha divisi
on es posible [Birbaumer 00],
[Kumlbler 01], [Perelmouter 99], [Miner 98], mas presenta el inconveniente de eliminar la
capacidad de automatizaci
on de la respuesta cerebral, como potenciales corticales lentos o
ritmos . El problema se podra solucionar utilizando conmutaci
on de respuesta subcortical
o bien reduciendo el tama
no de las regiones corticales que producen la entrada utilizada
por el sistema ICC.
Al igual que en todo dispositivo de comunicaci
on, las entradas al dispositivo ICC son
conjuntos de se
nales, que reejan la actividad cerebral, las cuales deben ser transformadas
por el algoritmo de traducci
on en ordenes.
Previamente se ha de tener en cuenta la metodologa utilizada para medir dichas
se
nales. Las caractersticas de las se
nales pueden venir dadas en el dominio frecuencial
[como por ejemplo ritmos o que se suceden en zonas especcas del cortex], o bien por
caractersticas en el dominio temporal [como potenciales corticales lentos, potenciales P300
o el potencial de accion de neuronas corticales individuales [Birbaumer 00], [Kennedy 00]].
Esta metodologa incluye el tipo de electrodos a nivel de cuero cabelludo, su colocaci
on, el
ltrado espacial y temporal, as como otros metodos de procesamiento de se
nal empleados
en la extraccion y medicion de sus caractersticas. La sencillez en la distinci
on entre se
nales
y como estas reejan aspectos especcos de la siologa y anatoma del sistema nervioso
depende de las caractersticas de se
nal que se consideren. Esta distinci
on es importante
debido a que dichas caractersticas son el reejo de la siologa y la anatoma del sistema
nervioso, y no s
olo el resultado de unos metodos de analisis, y de ah el continuo empe
no
en la consideraci
on del problema de espurios o artefactos, como la actividad EMG, que
afecta a las caractersticas que denen a la se
nal.

56

Estado de la t
ecnica.

Figura 2.33: Evoluci


on temporal del desarrollo de la tecnologa ICC.

Captulo 3

Adquisici
on y procesamiento de
se
nal EEG.
En este captulo se presentan las tecnicas de adquisicion y procesamiento de se
nal
electroencefalograca, previas al empleo de las diferentes tecnicas de clasicacion descritas
en el captulo 4. Las tecnicas de adaptacion y procesamiento de se
nal utilizadas incluyen:
1. Acondicionamiento de la se
nal electroencefalograca.
2. Muestreo y cuanticaci
on.
3. Normalizacion y enventanado.
4. Transformacion de la se
nal del espacio temporal al espacio frecuencial.
5. Obtenci
on del vector de caractersticas.
6. Deteccion de artefactos.
La se
nal electroencefalograca considerada proviene de dos canales; el canal 1 registra
nal en las
la se
nal en las proximidades de C31 , mientras que el canal 2 registra la se
proximidades de C4; ambos canales son de tipo diferencial, empleando dos electrodos
equidistantes a los puntos de referencia mencionados, separados una distancia de 3 cm, tal
y como se muestra en la gura 3.1. Con objeto de poder detectar los artefactos causados
por el parpadeo, un tercer canal se encarga de registrar la actividad mioelectrica en las
proximidades de la comisura del ojo izquierdo; un cuarto canal, al que no se han conectado
electrodos, se emplea para la estimaci
on del nivel de ruido presente durante la adquisici
on
de la se
nal; el electrodo de referencia de masa del bio-amplicador queda dispuesto sobre
el mastoide derecho [Bronzino 95b], la gura 3.2 muestra el conexionado electrico entre el
usuario y el bio-amplicador. El procedimiento experimental seguido para la preparaci
on
del usuario y equipamiento se presenta en el captulo 5.

La denominaci
on proviene del sistema internacional de referencia electroencefalogr
afico 10-20.

58

Adquisici
on y procesamiento de se
nal EEG.

Figura 3.1: Colocaci


on de los electrodos.

1
0
0
1
Canal 1

1
0
1
0

Canal 2

11
00
1
0
0
1

Canal 3

1
0
Figura 3.2: Esquema de conexionado electrico.

+
Vcc

3.1 Acondicionamiento de la se
nal electroencefalogr
aca.

3.1.

59

Acondicionamiento de la se
nal electroencefalogr
aca.

El acondicionamiento de la se
nal considera tanto las medidas de aislamiento electrico
del usuario respecto a la red electrica, como la amplicacion y ltrado de la se
nal adquirida
[Bronzino 95b], [Rubio 00], [Webster 04].
Como se ha indicado en la seccion 2.2.1 y 2.2.1.3, la se
nal electroencefalograca
se caracteriza por tener un rango de amplitud del orden del centenar de microvoltios
y un rango en frecuencia comprendida entre los 0,4Hz y los 60Hz, sin embargo el
rango de frecuencia m
as com
un detectado en condiciones de consciencia se presenta
entre los 4Hz a 25Hz [Webster 04],[Webster 98],[Rubio 00]. Por este motivo, con objeto
de poder detectar y clasicar actividades cognitivas es necesario amplicar y ltrar la
se
nal electroencefalograca [Baker 89], para lo que se utiliza un bio-amplicador con una
ganancia de G = 10000 y ancho de banda de 0 60Hz. La gura 3.3 muestra la se
nal
tpica registrada durante una sesion experimental, en donde por claridad, para diferenciar
la evoluci
on temporal de cada canal, a cada uno de ellos le ha sido a
nadida una componente
continua de valor igual al de su cardinal.

Figura 3.3: Registro de se


nal tpico.

Tras la amplicaci
on de la se
nal electroencefalograca, se procede a su ltrado
analogico [Proakis 97], aplicando tanto un ltro de rechazo de banda tipo Notch
sintonizado a 50Hz, como un ltro paso alto que elimina todas aquellas componentes
frecuenciales inferiores a 0,4Hz. El ltro de rechazo de banda minimiza el ruido y artefactos
electromagneticos causados por la red de suministro electrico; mientras que el ltro paso
alto minimiza artefactos de acoplamiento supercial entre el electrodo y la epidermis del
cuero cabelludo en la zona de disposici
on de los electrodos.

60

3.2.

Adquisici
on y procesamiento de se
nal EEG.

Muestreo, cuanticaci
on y codicaci
on de la se
nal
EEG.

Para poder identicar los patrones de se


nal electroencefalograca, asociados las a
actividades cognitivas, es necesario proceder a la digitalizacion y caracterizacion de la
se
nal anal
ogica previamente capturada, amplicada y ltrada.
El proceso de digitalizaci
on comprende tanto el muestreo, como la cuanticaci
on y la
codicaci
on de la se
nal, para lo que se emplea una tarjeta de adquisici
on de datos.
El teorema de Nyquist relativo a muestreo de se
nal indica que, para evitar el efecto
de aliasing y poder recuperar la forma de la se
nal original a partir de las muestras
tomadas, el muestreo debe realizarse a una frecuencia superior al doble de la componente
frecuencial de la se
nal m
as alta [Proakis 97], [Areny 93], [Oppenheim 96], teniendo en
cuenta que la se
nal electroencefalograca tras el ltrado anal
ogico se convierte en se
nal
de banda limitada, con componentes frecuenciales comprendidas entre 0,4Hz y 60Hz, el
lmite de frecuencia inferior para el muestreo es de 120Hz, en los experimentos descritos en
el captulo 5 se emplea una frecuencia de muestreo Fs = 384Hz con la nalidad operativa
de proporcionar tres bloques independientes de 128 muestras cada uno, por cada segundo.
Cada uno de estos bloques constituye una ventana de an
alisis que, tras su caracterizaci
on,
proceder
a a ser clasicada.
Mediante el proceso de cuanticaci
on se determina el valor de la amplitud de la se
nal
en cada instante de muestreo. Un convertidor anal
ogico / digital de 12 bits de resoluci
on,
embebido en la tarjeta de adquisici
on, se encarga de realizar dicha cuanticacion, siendo
el rango del margen m
aximo de excursion de se
nal considerado de 10V pp, por lo que el
pp
= 2, 44mV
error de cuanticaci
on obtenido es igual o inferior a:  = 10V
212
Por u
ltimo mediante la codicaci
on, se representa en formato binario con complemento
a dos el valor de salida del cuanticador.

3.3.

Normalizaci
on y ventaneado.

Con la nalidad de poder analizar y comparar registros de se


nales de sesiones diferentes
es necesario proceder a la normalizacion de las muestras, evitando de este modo que
la variaci
on de la impedancia de los electrodos diera lugar a resultados de clasicaci
on
err
oneos.
El proceso de normalizaci
on de las muestras que componen cada ventana de an
alisis
consiste en la substracci
on del valor medio y la divisi
on entre el valor de desviacion tpica,
obteniendose de este modo por el teorema central del lmite [Pe
na S
anchez 86], un conjunto
de muestras que se aproximan a una distribuci
on normal de valor medio nulo y desviaci
on
tpica la unidad.
N
xi
(x )2
x
;
x =
(3.1)
= i=1 ; 2 =
N
N

3.3 Normalizaci
on y ventaneado.

61

Por otro lado, la consideraci


on de un bloque de 128 muestras consecutivas de se
nal es
equivalente a contemplar la se
nal original, de duraci
on ilimitada, a traves de una ventana
de extensi
on semejante a la de la ventana de analisis, vease la gura 3.4

y(t)

Seal original.

t
Ventana.
Seal ventaneada.

Figura 3.4: Procedimiento de ventaneado de la se


nal.

Esta operaci
on es equivalente a la convoluci
on en el espacio frecuencial de la
transformadas de la se
nal electroencefalograca original y la ventana de preprocesamiento
empleada [Oppenheim 96], [Proakis 97].
Como la caracterizacion de la se
nal electroencefalograca se realiza en el domino
frecuencial, es preciso analizar la inuencia que dicha convoluci
on tiene sobre la
transformada en frecuencia de la se
nal, ya que como caracteriza el efecto de derrame en
frecuencia [Oppenheim 96], [Proakis 97], cuando una se
nal formada por componentes de
baja frecuencia se convoluciona con una ventana temporal de bordes alados, se da lugar
a que en la transformada en frecuencia de la se
nal resultante aparezcan componentes
frecuenciales mayores a las existentes en la se
nal original, causadas por los l
obulos
secundarios de la transformada de la se
nal de la ventana de preprocesamiento empleada,
vease gura 3.8.
Por tal motivo en la batera de experimentos realizados en el desarrollo de esta tesis
se consideran los tipos de ventanas descritos en la tabla 3.1, cuyas representaciones
temporales y frecuenciales se muestran en las guras 3.5 a 3.7 2 .
2

M : longitud en n
umero de muestras de la ventana de procesamiento.
on de Bessel modificada de primera clase de orden cero.
Io : funci
: n
umero real arbitrario que determina la forma de la ventana. Por defecto = 0,5.

62

Adquisici
on y procesamiento de se
nal EEG.

Secuencia temporal:

h(n),

Ventana rectangular.

0 n M 1.
h(n) = 1.

h(n) = 1

Ventana triangular o de Bartlett.

2|n M21 |
M 1 .

Ventana de Hanning.

2n
h(n) = 12 (1 cos( M
1 )).

Ventana de Hamming.

h(n) = 0,54 0,46cos( M2n


1 ).

Ventana de Blackman.

4n
h(n) = 0,42 0,5cos( M2n
1 ) + 0,08cos( M 1 ).

Ventana de Kaiser.

Ventana de Tukey.

h(n) =

h(n) =

1
2

Io ( M21 )2 (n M21 )2
Io [( M21 )]


1)/2
)
1 + cos( n(1+)(M
(1)(M 1)/2

(M 1)
2

|n

M 1
2 |

M 1
2 .

Tabla 3.1: Tipos de ventanas de preprocesamiento considerados.

Figura 3.5: Ventanas de preprocesamiento Rectangular y Triangular.

3.3 Normalizaci
on y ventaneado.

Figura 3.6: Ventanas de preprocesamiento: Blackman, Hamming y Hanning.

Figura 3.7: Ventanas de preprocesamiento: Kaiser y Tukey.

Figura 3.8: Efecto de derrame frecuencial.

63

64

3.4.

Adquisici
on y procesamiento de se
nal EEG.

Transformaci
on de la se
nal del espacio temporal al
espacio frecuencial.

Tal y como se ha indicado en la seccion 2.2.1.3 las caractersticas intrnsecas de la


se
nal electroencefalograca como son su baja amplitud, escasa discriminacion espacial,
alta sensibilidad frente a ruidos tanto de car
acter externo como interno, no permiten que
mediante la caracterizaci
on temporal de la misma se pueda discriminar m
as alla del estado
general en el que se encuentra el cerebro, y aun en estos estados se han terminado por
identicar a traves de componentes frecuenciales de la se
nal [Jessell 91].
As pues, para poder distinguir entre los diferentes tipos de actividades mentales que
se proponen como medio de interfaz cognitivo de un dispositivo ICC es necesario realizar
una caracterizaci
on frecuencial de las mismas [Rubio 00], [Bronzino 95b], [Barreno 97],
nal adquiridas
[Baker 89]. Por esta raz
on, cada ventana de an
alisis de 27 muestras de se
en el tiempo temporal se transforma al dominio frecuencial, para lo que se aplica la
Transformada de Fourier, ec.3.2, implementada por medio del algoritmo de transformada
r
apida de Fourier (FFT), ec.3.3.


+inf

X(F ) =

x(t)ej2kFo t dt

(3.2)

inf

Considerando que el muestreo se realiza a una frecuencia de 384 Hz y haciendo la


suposici
on de se
nal peri
odica, la ecuaci
on anterior se puede expresar como:
ck =

N 1
1 
x(n)ej2kn/N
N n=0

(3.3)

on de x(n) en el dominio de la
Los coecientes de Fourier, ck , proporcionan la descripci
frecuencia, representando la amplitud y la fase asociada a cada componente frecuencial.
Considerando que cada bloque dispone de 128 muestras, y que la frecuencia de muestreo
on frecuencial obtenida ser
a de: f = 384Hz
es de Fs = 384Hz, la resoluci
128 = 3Hz.
Debido a que la informaci
on m
as relevante se encuentra en la amplitud de las
componentes frecuenciales, en los experimentos descritos en el captulo 5 no se considera
la informaci
on relativa al angulo de fase de dichas componentes frecuenciales, por lo
que la atenci
on se centra en la estimacion espectral de potencia de cada una de las
ventanas de an
alisis consideradas. Procedimiento semejante se realiza en los trabajos de
S.J. Roberts y W.D. Penny [Penny 00], o C. Neuper [Pfurtscheller 00]. Estudios realizados
por el equipo de Dr. G. Pfurtscheller de la Universidad de Graz (Austria) han demostrado
que en sistemas con un mayor n
umero de electrodos el an
alisis de la diferencia de fase
entre los mismos permite una mejor identicacion de los patrones cognitivos empleados
[Blankertz 04], [Scherer 04].
Por otro lado, teniendo en cuenta las propiedades de la Transformada de Fourier y que
la se
nal electroencefalograca en el dominio temporal s
olo tiene componentes reales, en el
espectrograma se produce el efecto de reexion en el valor de la frecuencia de Nyquist, por
lo que la informaci
on relevante de la se
nal se puede encontrar analizando s
olo la primera
mitad de las componentes frecuenciales.

3.5 Obtenci
on del vector de caractersticas.

3.5.

65

Obtenci
on del vector de caractersticas.

Como se ha indicado con anterioridad, cada ventana de an


alisis, N = 128 muestras,
queda descrita por su vector de caractersticas. En todos los experimentos descritos en
el captulo 5, este vector se genera a partir del valor medio de potencia de las bandas
frecuenciales consideradas seg
un la tabla 3.2.3
Este metodo de obtenci
on de caractersticas tiene presente que el rango de frecuencias
mas com
un en cerebros humanos sanos se da de los 6 a los 40 Hz, por lo que se consideran
todas aquellas componentes frecuenciales entre 6 y 38 Hz.
Indice FFT.
1
2
3
4
5
6-7
8 - 10
11 - 13
14 - 64

Frecuencia.
0-2
3-5
6-8
9 - 11
12 - 14
15 - 20
21 - 29
30 - 38
39 - 192

Denominaci
on.
No considerada.
No considerada.
.
1 .
2.
1 .
2 .
3 .
No considerada.

Por otro lado, el n


umero de
caractersticas se establece en seis,
con la nalidad de poder comparar
los resultados obtenidos con los
presentados en estudios semejantes
por otros grupos de investigaci
on
[Penny 00], [Pfurtscheller 00].

Tabla 3.2: Determinaci


on del vector de caractersticas.

3.6.

Detecci
on de artefactos.

En an
alisis y procesamiento de se
nal se entiende por artefacto a todo aquel efecto que,
siendo externo a la fuente originaria de la se
nal, causa variaciones indeseadas en la misma,
pudiendo llegar a corromperla [Proakis 97].
Las fuentes de artefactos en procesamiento de se
nal electroencefalograca pueden ser
tanto externas como internas al sistema de adquisicion. Fuentes externas son por ejemplo,
el caso de ruido electrico inducido por perturbaciones electromagneticas provocadas por
equipos electronicos externos, o perturbaciones en la tension de alimentaci
on del conversor
analogico / digital causada por uctuaciones en la red de suministro electrico. Fuentes
internas de artefactos son variaciones de la se
nal provocadas por actividad mioelectrica
en la zona de colocaci
on de los electrodos, o variaciones provocadas por la variacion de la
impedancia en la interfase del electrodo con la piel por leve desplazamiento relativo entre
los mismos [Areny 93].
Tal y como se indica en al comienzo de este captulo, en los experimentos descritos en
el captulo 5, uno de los canales de se
nal se emplea para adquirir la se
nal en la comisura del
ojo izquierdo, con la nalidad de detectar si la se
nal electroencefalograca registrada en
3

La denominaci
on de las bandas frecuenciales se basa en el sistema est
andar neurol
ogico.

66

Adquisici
on y procesamiento de se
nal EEG.

los otros dos canales ha podido ser modicada por la actividad electromiogr
aca debida a
movimientos de los ojos. As mismo con independencia del an
alisis de la actividad ocular,
la propia se
nal electroencefalograca es sometida a un proceso de deteccion de artefactos,
en donde se considera que la ventana de an
alisis en consideracion tiene artefactos si
la diferencia en el valor de amplitud entre una muestra y su inmediata anterior es
nula o excede en dos veces el valor de desviacion tpica de dicha ventana de an
alisis.
Este procedimiento es similar a la tecnica estadstica de Bootstraping empleada en la
identicaci
on y extraccion de muestras an
omalas del conjunto de muestras bajo estudio
[McLachlan 04], [Pe
na S
anchez 86].
Si el n
umero de veces que se detectan artefactos en una ventana de analisis es superior a
tres, dicha ventana no se considera como v
alida para la posterior fase de clasicaci
on. Para
evitar que dicha ventana pueda modicar los resultados obtenidos del resto de ventanas
de an
alisis de la sesion experimental considerada, su vector de caractersticas es sustituido
por el valor medio del resto de vectores de caractersticas obtenidos de ventanas de an
alisis
v
alidas de dicha sesion experimental. Una posible alternativa que causara un menor
impacto podra ser la sustituci
on del vector de caractersticas de la ventana de an
alisis
con artefactos por la media de los vectores de caractersticas asociados a las ventanas de
an
alisis inmediatamente anterior y posterior.
Actualmente en el estudio de la deteccion y clasicaci
on de patrones cerebrales
asociados a enfermedades nerviosas (como por ejemplo la epilepsia), basado en el
empleo de EEG, se han propuesto algoritmos que permiten la detecci
on, identicaci
on
y supresi
on de artefactos, sin embargo estos algoritmos requieren disponer de la se
nal
electroencefalograca completa, lo que les hace inviables para su uso en aplicaciones OnLine con un n
umero reducido de muestras [Tome 07].

Captulo 4

Tipologa de clasicadores.
En este captulo se describen las diferentes tecnicas de clasicacion empleadas para
distinguir los registros de se
nal EEG, los cuales han sido adquiridos cuando el sujeto realiza
las actividades cognitivas propuestas en los experimentos del captulo 5, los resultados y
conclusiones obtenidas de su aplicaci
on se presentan en el captulo 6.
Las tecnicas utilizadas se enumeran a continuaci
on, present
andose seg
un su orden de
aparici
on cronol
ogica y por complejidad creciente, llegandose as para este captulo al
siguiente listado de contenidos:
1. Tecnicas estadsticas.
Comparaci
on de poblaciones.
An
alisis de Discriminantes Lineales.
2. Redes neuronales.
Perceptron multicapa: MLP.
Funciones de base radial: RBF.
Red neuronal probabilstica: PNN.
3. Modelos ocultos de Markov: HMM.
4. M
aquina de soporte de vectores: SVM.
Las tecnicas estadsticas permiten jar el marco con el que realizar el analisis de
la capacidad de discriminaci
on entre las poblaciones de muestras electroencefalogracas
de actividad cerebral mediante las pruebas bilaterales de comparaci
on de poblaciones;
mientras que por su parte mediante la tecnica de Analisis de Discriminantes Lineales
se dene la metodologa a emplear para la reducci
on de la dimensi
on del espacio de
caractersticas original a traves de la combinaci
on lineal de las mismas.
Tras presentar las tecnicas empleadas para el analisis de la capacidad de discriminaci
on
se procede a describir los clasicadores empleados basados en diferentes tipos de tecnologas
como son: redes neuronales de aprendizaje supervisado (MLP, RBF y PNN), modelos
ocultos de Markov (HMM), y m
aquinas de soporte de vectores (SVM).

68

Tipologa de clasicadores.

4.1.

M
etodos estadsticos : Comparaci
on de dos poblaciones.

4.1.1.

Introducci
on.

La Estadstica es la rama de las Matematicas que utiliza grandes conjuntos de datos


numericos para obtener inferencias basadas en el c
alculo de probabilidades. En Estadstica
a la teora encargada de contrastar hip
otesis, dentro de un marco en el que existe
incertidumbre o variabilidad en el valor n
umerico de magnitud, se la denomina contraste
de hip
otesis; a traves de esta se comparan las predicciones generadas por las hipotesis
con los datos observados en la realidad, si la comparaci
on queda dentro de un margen
de error admisible la hip
otesis propuesta, H0 , se mantiene como metodo explicativo del
proceso real que genera las observaciones, si por el contrario, la discrepancia entre los
datos observados y los predichos por H0 excede el margen de error admisible, la hipotesis
as
propuesta debe ser rechazada en favor de una hip
otesis alternativa, H1 , por lo general m
compleja, que explique mejor las observaciones. As pues, el contraste de hip
otesis es un
proceso iterativo, en el que la hip
otesis propuesta, H0 , nunca se considera completamente
probada, sino que es aceptada o rechazada como v
alida en funci
on de los datos observados.
Si junto con el contraste hip
otesis se considera la cuanticaci
on del efecto del mismo, y en
especial de sus errores, se llega a la teora de la decision.
Proceso real

Observaciones
Comparacion.

Hipotesis inicial Ho

Aceptar
Ho?

Si

Ho explica el proceso
real dentro del margen
de error aceptable.

No

Predicciones
Funcion de discrepancia :
^
d( o ; )
Nivel de significacion :

Calcular nivel
critico p del
contraste

Buscar hipotesis
alternativa H1

Figura 4.1: Proceso contraste de hip


otesis.

La hip
otesis H0 se elige deacuerdo a un principio de simplicidad cientca, s
olo se debe
rechazar un modelo simple en favor de otro de mayor complejidad cuando la evidencia a
otesis mas simple es
favor del segundo sea mas fuerte que la del primero1 , ya que la hip
mas f
acil de contrastar empricamente y encontrar sus deciencias, a la vez que permite
aprender de las observaciones con mayor seguridad y rapidez.
Los tipos de hip
otesis estadsticas o suposiciones que determinan, parcial o totalmente,
la distribuci
on de probabilidad de una o varias variables aleatorias se pueden clasicar
seg
un que:
1
Tambien conocido como principio de la Navaja de Ockham: en igualdad de condiciones la soluci
on
m
as sencilla es probablemente la correcta.

4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.

69

Especiquen un valor concreto o un intervalo para los par


ametros de una
variable. Para lo que se construir
an intervalos de conanza, teniendo una respuesta
satisfactoria en terminos de estimacion.
Establezcan la igualdad de las distribuciones de dos o m
as variables2 . Por lo
general se requiere de un dise
no experimental que asegure la homogeneidad de las
comparaciones.
Determinen la forma de la distribuci
on de una variable. A traves de un contraste no
parametrico que debe realizarse dentro de la fase de validaci
on del modelo.
La metodologa del contraste de hip
otesis fue desarrollada por R.A.Fisher, J.Neyman
y E.S.Pearson entre 1920 y 1933, [Pe
na S
anchez 86]. Las etapas de dicha metodologa se
sintetizan en:
otesis alternativa H1 . Los casos
1. Denici
on de la hip
otesis a contrastar H0 , y la hip
mas importantes de contrastes parametricos son:
H0 simple ( = 0 ) y H1 bilateral ( = 0 ).
H0 compuesta ( 0 ) y H1 unilateral ( > 0 ).
2. Denici
on de la medida de discrepancia entre los datos observados de la realidad,
X, y la hip
otesis H0 . Para contrastes parametricos la discrepancia puede expresarse
como una funci
on del valor del par
ametro especicado por H0 y el valor estimado

de los datos observados: {, d(0 ; )}. Cuando H0 es aceptada, la discrepancia ha de


tener una distribuci
on conocida, de modo que sea posible asociar una discrepancia
grande a una probabilidad de ocurrencia peque
na.

3. Denir la regi
on de discrepancia entre y 0 bajo la que se considera aceptable H0
o atribuible al azar, y aquella bajo la que se considera inadmisible.
4. Proceder a la adquisici
on de muestras del proceso real, calcular el estimador y la
Si esta es peque
na, aceptar H0 ; en caso contrario rechazar H0
discrepancia d(0 ; ).
y aceptar H1 .
La hip
otesis alternativa H1 inuye en la forma en la que se mide la discrepancia, en
contrastes bilaterales el signo de la desviacion entre y 0 es irrelavante, por lo que se
suelen considerar medidas de la forma:
0 M V
|
(4.1)
d1 = |

M V
M V su desviaci
on tpica,
En donde M V es el estimador de maxima verosimilitud de y
obteniendose as para muestras grandes una distribuci
on conocida:
P (d1 a|H0 ) = P (|z| a) = P (a z a)
en donde z se distribuye seg
un una normal N (0, 1).
2

Cada variable queda representada estadsticamente por una poblaci


on de muestras.

(4.2)

70

Tipologa de clasicadores.

Si por el contrario el contraste es unilateral el signo de la desviacion si que es


importante, lo que conduce a medidas del tipo:

0
si M V 0
(4.3)
d2 =

M V 0
si M V 0

M V

on
en donde para d2 positiva las probabilidades se calculan de nuevo con la distribuci
normal est
andar.
La realizaci
on de un contraste implica dividir el rango de discrepancias que pueden
observarse cuando H0 es acaptada en dos regiones, region de aceptacion de H0 y regi
on
de rechazo, de modo tal que, siempre y cuando H0 sea cierta, discrepancias grandes
tienen asociado niveles de probabilidad de ocurrir peque
nos, = {0,05; 0,01; 0,001};
esta cantidad a su vez puede interpretarse como la probabilidad asumible de rechazar H0
cuando esta es cierta, a la cual tambien se la denomina nivel de signicaci
on , o Error
Tipo I.
Nivel de signicaci
on () = P (rechazar H0 |H0 es cierta)
Con la determinaci
on del nivel de signicaci
on y conocida la distribucion de la funci
on

de medida de discrepancia d(0 ; ) cuando H0 es aceptada, las regiones de rechazo y


aceptacion quedan jadas.

d > dc
Region de rechazo.
P (d > dc |H0 es cierta) =
Region de aceptacion.
d dc
La regi
on de rechazo sera d > dc , ya que discrepancias mayores de dc tienen una
probabilidad de ocurrir menor que , si H0 es considerada cierta, quedando como zona de
aceptacion la complementaria d dc .
Debido a que la determinaci
on de un nivel de signicaci
on puede considerarse
ciertamente arbitrario, y que con el resultado s
olo del test no es posible diferenciar el
grado de evidencia que, con las observaciones obtenidas, se consigue a favor o en contra
de H0 , es decir la signicatividad estadstica del contraste, es preferible utilizar el Nivel
Crtico p del contraste, como la probabilidad de obtener una discrepancia mayor o igual
que la observada en la muestra, cuando H0 es cierta.
0)
p = P (d d|H

(4.4)

Hay que destacar que el valor de p no se ja a priori, sino que se ja a partir de las
observaciones realizadas. Cuanto menor sea p, menor sera la credibilidad de H0 . As pues
a de:
la aceptaci
on o rechazo de H0 depender
La opini
on a priori que se tenga se su validez.
Las consecuencias de sus errores.
La evidencia aportada por la muestra.

4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.

71

El nivel de signicaci
on se ja en funci
on de los dos primeros, mientras que el nivel crtico
pone de maniesto el tercero.
A parte del nivel de signicaci
on, o Error Tipo I, existe el complementario, Error Tipo
II, o la probabilidad de aceptar H0 cuando esta es falsa:
() = P (aceptar H0 |)
denominada funci
on o curva caracterstica del contraste. En el caso de H0 se verica que:
(0 ) = P (aceptar H0 |0 ) = 1
() contiene la informacion m
as relevante del contraste, ya que determina la probabilidad
de aceptar H0 para cada valor del par
ametro . En su lugar tambien se emplea la curva de
potencia que indica la probabilidad complementaria de rechazar H0 para cada valor del
par
ametro .
Potencia() = P (rechazar H0 |)
Ante dos contrastes que tengan medidas de discrepancia distintas pero con igual nivel
de signicaci
on, se escogera el que tenga menores probabilidades de error tipo II, o lo que
es lo mismo, el que sea mas potente.

4.1.2.

Descripci
on del test de contraste de la igualdad de dos
poblaciones.

Como se ha indicado anteriormente, el contraste de igualdad de distribuciones de


dos o mas variables es un tipo de contraste de hip
otesis en el que se requiere un dise
no
experimental, que asegure la homogeneidad de las comparaciones.
La comparacion de dos poblaciones son un conjunto de tests, empleados en estadstica,
para determinar si existe evidencia que permita armar que las observaciones realizadas
provienen de poblaciones diferentes H1 ; o si por el contrario se debe mantener que los
conjuntos de las diferentes muestras provienen de una misma poblaci
on H0 .
En caso de rechazo de la hip
otesis de partida, es decir existe evidencia de que las
observaciones obtenidas provienen de poblaciones diferentes, es factible plantear tanto
la determinaci
on de la capacidad de discriminaci
on entre dichas poblaciones, as como
plantear un sencillo clasicador que asigne la pertenencia de una nueva observaci
on a la
poblaci
on que se encuentre mas cercana.
Entre los contrastes existentes para la comparacion de dos poblaciones los mas
importantes son:
1. Comparaci
on de dos poblaciones con medias y varianzas iguales, cuyas muestras se
toman de forma independiente.
2. Comparaci
on de la igualdad de varianza de dos poblaciones.
3. Comparaci
on de la igualdad de la media de dos poblaciones con varianzas diferentes,
cuyas muestras se toman de forma independiente.

72

Tipologa de clasicadores.

Para los siguientes apartados se emplearan las siguientes deniciones:


no de muestras de la primera poblaci
on.
n1 : tama
no de muestras de la segunda poblaci
on.
n2 : tama
1 : varianza de la primera poblaci
on.
on.
2 : varianza de la segunda poblaci
on.
S1 : estimacion de la varianza de la primera poblaci

on.
S2 : estimacion de la varianza de la segunda poblaci
F : distribucion de Fisher.
T : distribucion de Student.
4.1.2.1.

Comparaci
on de la igualdad de la media de dos poblaciones
homoced
asticas y muestras independientes.

La hip
otesis nula, H0 , mantiene la igualdad del valor de la media de ambas poblaciones,
mientras que la hip
otesis alternativa, H1 , indica su desigualdad de forma bilateral.
Ho : 1 2 = vs. H1 : 1 2 =

(4.5)

La varianza de ambas poblaciones es igual, poblaciones homocedasticas, aunque


desconocida.
TExp =

(X1 X2 ) (1 2 )

1 + 1)
S(
n1
n2

(4.6)

En donde S es la pseudo-varianza conjunta de ambas poblaciones S1 y S2 .


(n1 1) S1 + (n2 1) S2
S =
n1 + n2 2

(4.7)

La regi
on de aceptacion de Ho es:
TT eo = t(n1 +n2 2,1 2 )

(4.8)

Si |TExp | TT eo entonces Ho es aceptada, en caso contrario se aceptara H1 , quedando


Ho rechazada.
4.1.2.2.

Comparaci
on de la igualdad de varianza de dos poblaciones.

Para comparar que dos poblaciones normales tienen varianzas proporcionales se


plantean las siguientes hip
otesis.
Ho :

1
1
= R vs. H1 :
 R
=
2
2

La igualdad de varianzas viene dada cuando R = 1.

(4.9)

4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.

73

Considerando que:
(n1 1)S1
; 2n1 1
1
1 (n1 1)S1
n1 1
1
1 (n2 1)S2
n2 1
2

(n2 1)S2
; 2n2 1
2

2 S1
; Fn1 1,n2 1
1 S2

(4.10)

(4.11)

De donde bajo la consideraci


on de aceptacion de H0 :
FExp =

1 S1
; Fn1 1,n2 1
R S2

(4.12)

La zona de aceptacion de H0 es:

=
F (1 )n1 1,n2 1
ateo
2

=
F (1 )n1 1,n2 1
bteo
2
ateo FExp bteo
4.1.2.3.

(4.13)
(4.14)
(4.15)

Comparaci
on de la igualdad de la media de dos poblaciones
heteroced
asticas y muestras independientes.

Tanto la hip
otesis nula, H0 , como la alternativa, H1 , son equivalentes a las del apartado
4.1.2.1.
Ho : 1 2 = vs. H1 : 1 2 =

(4.16)

Aunque en este caso, tras realizar el test de comparacion de varianzas, la igualdad de la


misma en ambas poblaciones debe ser descartada.
TExp =

(X1 X2 ) (1 2 )

; tf
S1
S2
+
n1
n2

(4.17)

En donde f es el n
umero de grados de libertad calculados con la f
ormula de Welch
[Pe
na S
anchez 86]:

f=

S2 2
n2 )

S1 2
S2 2
1
1
n1 +1 ( n1 ) + n2 +1 ( n2 )

( Sn11 +

(4.18)

En este caso la zona de aceptacion de Ho es:


TT eo = t(f,1 2 )

(4.19)

Si |TExp | TT eo entonces Ho es aceptada, en caso contrario se asume que las poblaciones


tienen diferente valor medio.

74

Tipologa de clasicadores.

4.1.3.

Procedimiento operacional.

Como se ha indicado anteriormente, el contraste de dos poblaciones permite concluir


si hay evidencia estadstica de diferencia entre dichas poblaciones a traves del nivel de
signicaci
on, , y las regiones de rechazo y aceptacion de H0 , y en caso de existir tal
diferencia evaluar como es de signicativa dicha evidencia a traves del nivel crtico p del
contraste.
Est
a tecnica ha sido empleada en las investigaciones llevadas a cabo, como paso
prelimiar al desarrollo de algoritmos de clasicaci
on, con la nalidad de determinar si, en
los registros electroencefalogracos llevados a cabo durante el desarrollo de las actividades
cognitivas propuestas, existe evidencia estadstica que permita concluir que son diferentes,
y por tanto es factible la realizaci
on de un clasicador.
Hasta donde el autor de la presente tesis tiene conocimiento, diferentes clasicadores
han sido propuestos por los diferentes grupos que investigan sobre BCI, pero hasta
[Martnez 06] no ha sido publicado ning
un estudio sobre la capacidad de discriminaci
on
de las actividades cognitivas desde un punto de vista estadstico.
Por otro lado, a traves del nivel crtico p del contraste es posible determinar que
caractersticas, de las extradas de cada segmento de analisis, presentan mejor capacidad
de discriminaci
on, o que tipo de tecnica de preprocesamiento permite resaltar mejor las
diferencias entre las actividades cognitivas propuestas.
As pues, el procedimiento operacional seguido, cuyos resultados se recogen en la
seccion 6.1, ha sido:
1. Denici
on del protocolo experimental, recogido en el apartado 5.6.1, y que propone
como actividades cognitivas:
Calculo matematico.
Imaginaci
on de movimiento.
Relax.
2. Desarrollo de los experimentos y registro de la actividad electroencefalogr
aca.
3. Preprocesamiento O-Line, descomponiendo el registro en ventanas de an
alisis
de duraci
on t = 1/3s, sin solapamiento entre las mismas. A cada una de estas
ventanas de an
alisis se le aplica las diferentes ventanas de procesamiento descritas
en el apartado 3.3, extrayendo por cada ventana de an
alisis preprocesada un vector
de caractersticas de seis componentes, tal y como se indica en la tabla 4.1.
4. Descripci
on estadstica de las muestras de caractersticas de cada poblacion, asociada
a cada una de las actividades cognitivas consideradas. De este modo, por cada
actividad cognitiva y ventana de an
alisis se obtiene un vector de media y varianza
de caractersticas de dimension seis.

4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.

Componente
1
2
3
4
5
6

Denominaci
on.
.
1 .
2.
1 .
2 .
3 .

75

Banda de frecuencia considerada (Hz).


6-8
9 - 11
12 - 14
15 - 20
21 - 29
30 - 38

Tabla 4.1: Vector de caractersticas.

5. Realizacion del test de contraste de varianzas, realizando una comparaci


on dos a dos
las poblaciones de los vectores de caractersticas, con la nalidad de determinar si
las poblaciones consideradas son homocedasticas o heterocedasticas.
6. Realizacion del test de contraste de la igualdad de dos poblaciones para cada una de
las parejas de poblaciones analizadas, teniendo en cuenta el resultado anterior del
contraste de varianza asociado a la pareja de poblaciones considerada.
7. An
alisis de los resultados de los tests determinando si, para las caractersticas
consideradas de la pareja de actividades cognitivas analizadas, existe evidencia
estadsitica de su diferencia en funci
on del tipo de ventana de ltrado utilizada,
en caso de que la diferencia existiera se determina el nivel crtico p del contraste con
la nalidad de elegir aquellas componentes del vector de caractersticas que mayor
poder de discriminaci
on presentan.
La gura 4.2 representa el proceso seguido.
En el apartado 5.6.1 se muestra el diagrama de actividad asociado a la implementaci
on
del procedimiento de comparaci
on de poblaciones. Por su parte en el apartado 6.1,
se presentan analizan y discuten los resultados obtenidos de la aplicaci
on de este
procedimiento, llegandose a las conclusiones de que es posible discriminar entre las
diferentes actividades cognitivas, a la vez que la ventana de procesamiento de Tukey es
con la que mejor capacidad de discriminaci
on se obtiene.

76

Tipologa de clasicadores.

Figura 4.2: Procedimiento operacional.

4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.

4.2.

M
etodos
lineales.

4.2.1.

estadsticos:

An
alisis

por

77

discriminantes

Introducci
on.

La tecnica basada en el Analisis de Discriminantes Lineales3 (LDA), es empleada


tanto en Estadstica como en Inteligencia Articial bajo los paradigmas de Aprendizaje
Autom
atico4 [Bishop 95] [Rich 94] y Reconocimiento de Patrones [Ripley 96], con la
nalidad de hallar la combinaci
on de caractersticas que separan de forma optima dos
o mas clases de objetos o eventos, realizandose aplicaciones entre otros campos en:
posicionamiento, gestion de producci
on, investigaci
on de mercados, reconocimiento facial
o mercadotecnia.
Las caractersticas de entrada consideradas, p, son variables continuas, x Rp ,
mientras que la salida es una variable cualitativa, y C N , [Ripley 96], en caso
de emplear variables de entrada cualitativas esta tecnica se convertira en An
alisis por
5
Correspondencia de Discriminantes (DCA) .
El resultado puede ser empleado bien como clasicador lineal, o bien de forma m
as
com
un como tecnica para reducir la dimensi
on del espacio de entrada, antes de proceder
a la clasicacion de las muestras [Duda 01], [Cristianini 00], [Nabney 02].
Esta tecnica se aproxima a otras tecnicas estadsticas como: analisis de la varianza6
(ANOVA) [Pe
na S
anchez 86], an
alisis mediante tecnicas de regresion, an
alisis por
alisis factorial [Pe
na S
anchez 86];
componentes principales7 (PCA) [Martinez 01], o an
ya que todas ellas tienen como factor com
un la expresi
on de la variable objetivo, o
dependiente, como combinaci
on de las variables independientes. Sin embargo la tecnica
de LDA se diferencia tanto del analisis por regresion como del an
alisis de la varianza en
que su resultado, al indicar pertenencia de la muestra analizada a una determinada clase,
y Ci , es de tipo cualitativo o discreto, en lugar de cuantitativo o continuo. As mismo se
diferencia de la tecnica PCA en que LDA modela de forma explcita la diferencia entre las
clases de datos, mientras que en PCA tal consideracion no es tenida en cuenta. Por u
ltimo,
LDA se diferencia del an
alisis factorial en que desde el principio se ha de determinar cuales
son las variables objetivo o de clases, y Ci , y cuales las variables independientes x Rn ,
o caractersticas, por lo tanto no se trata de un metodo de interdependencia, en donde
una variable independiente puede ser expresada como combinaci
on de la variable objetivo
y del resto de las variables independientes [McLachlan 04], [Friedman 89].
3

En
En
5
En
6
En
7
En
4

ingles
ingles
ingles
ingles
ingles

se
se
se
se
se

la denomina Linear Discriminant Analysis.


denomina Machine Learning.
denomina Discriminat Correspondence Analysis.
denomina ANalysis Of VAriance.
denomina Principal Component Analysis

78

Tipologa de clasicadores.

4.2.2.

Referencia hist
orica.

La tecnica LDA fue desarrollada por R.A.Fisher, C.Rao y J.G.Bryan, [Ripley 96], como
metodo de clasicaci
on, a traves del cual una nueva observaci
on x poda ser asignada a
una de entre dos o m
as clases Ci , constitudas por conjuntos de observaciones previas a las
que se denomina conjunto de entrenamiento.
R.A.Fisher publica en 1936 el artculo titulado: The use of multiple
measurements in taxonomic problems [Fisher 36], a partir del cual se genera una
familia de metodos de clasicacion conocidos como Discriminantes Lineales de Fisher, los
cuales permiten llegar a criterios de clasicacion en los que la asignacion de una nueva
on de la combinaci
on lineal de la
observaci
on, x, a una clase concreta, Ci , es solo funci
nueva observaci
on y las muestras ya conocidas del conjunto de entrenamiento, asumiendo
determinadas restricciones como:
Las muestras de cada clase se distribuyen seg
un una funci
on de distribuci
on normal8
Ci ; N (i , i ).
Las poblaciones presentan varianzas semejantes9 . = i = j /i = j
Aunque originalmente R.A.Fisher, en su artculo inicial, realiza una descripci
on
ligeramente diferente, en la que dichas restricciones no son necesarias.
Para el caso de clasicacion entre dos clases o binaria, la conclusi
on es inmediata, sin
embargo para el caso de clasicacion m
ultiple a lo largo del tiempo se han desarrollado
diferentes tecnicas que pueden ser empleadas, entre las que destacan uno contra todos y
clasicaci
on por parejas [Ripley 96].
En el primer caso los puntos de una clase son asignados a un grupo, mientras que
todos los demas, el resto, se asignan a otro; posteriormente se aplica la tecnica de
clasicacion LDA. En este metodo de clasicaci
on se emplean tantos clasicadores como
clases consideradas, siendo el resultado nal la combinaci
on de los mismos.
En el caso de
on por parejas se crea un clasicador por cada pareja de clases,

clasicaci
dando lugar a n2 clasicadores diferentes, al igual que en el caso anterior el resultado
nal se genera como combinacion de los clasicadores anteriores.

4.2.3.

Discriminaci
on lineal cl
asica.

Sea v una observaci


on para la cual x es el vector de p caractersticas asociado, en
donde:
v = x
X Rp
Sea X Rp el espacio de caractersticas de entrada; K N el n
umero de Ci clases
diferentes consideradas, i = {1, 2, ..., K}.
8

Restricci
on f
acilmente asumible a traves del Teorema Central del Lmite. Esta restricci
on puede ser
comprobada a traves del test de Kolmogorov-Smirnof. [Pe
na S
anchez 86]
9
Esta restricci
on puede ser comprobada a traves del test de homocedasticidad. [Pe
na S
anchez 86]

4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.

79

Se pueden identicar tres formas distintas en las que la aproximaci


on de una funci
on,
f , puede ser empleada como clasicador.
f

f : Rp C N

(4.20)

x)).
1. Tomando fk ( x) = p(k| x) = E[I(Y = k|X = x)]; k = {1, 2, . . . , K} y f ( x) = (fk (
El teorema de Bayes selecciona el maximizador de fk ( x), deniendo la clase objetivo,
tk , como el k-esimo vector unitario. Aplicando que
f ( x) tK = 2fk ( x) + 1 + f ( x) 2

(4.21)

es la norma del vector, (f ( x) tK ), el teorema de Bayes conduce a seleccionar el


patr
on m
as pr
oximo a f ( x), lo que a su vez lleva a diferentes modos de aproximar
f ( x) por f ( x; ) bas
andose en elegir de modo tal que la predicci
on del conjunto de
entrenamiento sea tan cercana a las clases objetivo como sea posible.
2. Dietterich y Bakiri [Ripley 96] codican las clases objetivo tK en el espacio Z =
{0, 1}m , con m > K, de modo tal que las clases queden claramente separadas,
procediendo posteriormente al aprendizaje de la funci
on de clasicacion f ( x)
f

f : Rp Z = {0, 1}m

(4.22)

El clasicador selecciona la clase objetivo mas cercana en Z a la predicci


on f (
x) para
una nueva muestra. La codicaci
on actual se realiza empleando codigos correctores
on se puede considerar como el
de error, y la distancia es L . Esta aproximaci
entrenamiento de un clasicador para m pseudo-clases que posteriormente son
mapeadas a las K clases reales.
3. La aplicacion del teorema de Bayes maximiza logP (k|
x), a la vez que el modelo
logstico m
ultiple es un modelo lineal para estas funciones logartmicas de
probabilidad a posteriori. Variantes con menor fundamento pero ampliamente usadas
son modelos logsticos independientes para cada clase, que se comparan contra el
resto o contra las clases de referencia [Ripley 96].
Una aproximaci
on alternativa consiste en asignar las n muestras del conjunto de
entrenamiento a g grupos de observaciones, los cuales a su vez son asignados a las K
clases objetivo.
f1

f2

v = x
X Rp G C N
Si el clasicador se basa en seleccionar el mejor grupo, se estara empleando
implcitamente un clasicador basado en estructura de coste que penaliza la elecci
on
incorrecta del grupo m
as que la clase, ya que aunque se elige la clase que tiene mayor
probabilidad a posteriori, esta se obtiene como suma de las probabilidades a posteriori de
cada uno de los grupos que la forman.

80

Tipologa de clasicadores.

Asumiendo que la funci


on de probabilidad para las observaciones de cada grupo se
on del teorema de Bayes
distribuyen seg
un una funci
on normal Xj ; N ( j , ), la aplicaci
asigna una nueva observaci
on al grupo para el cual
x j ) 2logj + Cte
2logP (j|
x) = (
x
j )1 (

(4.23)

sea menor10 . Expandiendo la expresi


on anterior se obtiene:
j +
j 1 j 2logj + Cte + x
1 x

2logP (j|
x) = 2
x1

(4.24)

expresion que es lineal en el termino x mas un termino cuadr


atico que no depende de
la clase, ya que el objetivo es maximizar P (j|
x) o lo que es lo mismo minimizar 4.24, se
deber
an maximizar igualmente los terminos lineales:
x1
j
j 1
j + 2logj
LDAj = 2

(4.25)

De este modo el espacio de caractersticas, X = Rp , queda pues dividido por


hiperplanos, o lo que es lo mismo por discriminantes lineales, con lo que la comparaci
on
puede realizarse en un espacio de dimensi
on K 1. El criterio de decision se convierte
en aplicar un umbral sobre el producto escalar del vector de caractersticas de la nueva
observaci
on y los que representan a las observaciones anteriores.
Para el caso especial de considerarse clasicacion binaria, comparando las cantidades
on de clasicacion LDA2 LDA1 , eligiendo el
LDA2 con LDA1 se obtendra como funci
segundo grupo si y solo s el valor obtenido es positivo.
En la practica, los valores j y , son estimaciones obtenidas de las muestras que
j y W , en donde W es la matriz
forman los conjuntos de entrenamiento, estimadas por m
de covarianza entre grupos, en caso de que la hip
otesis de igualdad de varianza entre las
poblaciones fuese err
onea se utilizaran las varianzas de cada grupo de forma independiente
obteniendose un clasicador de tipo QDA11 .

4.2.4.

Discriminante lineal de Fisher.

Como se ha indicado anteriormente el metodo LDA es una tecnica de preprocesamiento


que encuentra la matriz de transformaci
on W que separa de manera optima dos o m
as
clases, es decir considera la maximizacion de la siguiente ecuaci
on:
J(W ) =
10

W T SB W
W T SW W

(4.26)

Al primer termino de la derecha de la ecuaci


on se le conoce como distancia de Mahalanobis entre el
vector de caractersticas 
x y el valor medio del grupo Xj = j
11
Quadratic Discriminant Analysis

4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.

81

en donde SB es la matriz de dispersion entre clases y Sw es la matriz de dispersion intrnseca


a cada clase, la denici
on de ambas matrices es:

Nc (c x
)(c x
)T
(4.27)
SB =
c

SW


=
(xi c )(xi c )T
c

(4.28)

ic

1 
xi
Nc
ic
1 
1 
xi =
Nc c
N
N c

c =
x
=

(4.29)
(4.30)

umero de muestras para la clase c.


siendo Nc es el n
Debido a que J es invariante al escalado de vectores, W W , es posible elegir una
W tal que el denominador sea W T SW W = 1. Por lo que el problema de maximizar J se
transforma en el siguiente problema de optimizaci
on considerando restricciones:
1
minW
W T SB W
(4.31)
2
(4.32)
s.t.
W T SW W = 1
el cual corresponde con la lagrangiana12 :
1
1
LP = W T SB W + (W T SW W 1)
2
2
Con la siguiente solucion:

(4.33)

1
SB W = W
SB W = SW W SW

(4.34)

Donde se puede observar que se trata de un problema de resoluci


on de autosistemas
generalizados, utilizando el hecho de que la matriz SB es simetrica positiva, puede
1

ser escrita como SB2 SB2 , en donde SB2 se construye a partir de su descomposicion por
1

autovalores como: SB = U U T SB2 = U 2 U T . De donde deniendo V = SB2 W se


obtiene:
1

1 2
SB V = V
SB2 SW

(4.35)
1

1 2
SB , con
que es un problema de un autosistema con una matriz simetrica positiva SB2 SW
on:
soluciones k como autovalor y Vk como autovector, dando lugar a la soluci
1

W = SB 2 V

(4.36)

Introduciendo esta solucion en la funci


on objetivo J(W ) 4.26, se encuentra que la soluci
on
buscada que maximiza dicha funci
on objetivo es la que tiene los autovalores mayores.
12

En la cual se ha introducido por conveniencia el factor 1/2, sin que ello de lugar a una perdida de
generalidad

82

Tipologa de clasicadores.

4.2.5.

Procedimiento operacional.

En el presente estudio la tecnica de Analisis Discriminante Lineal no ha sido aplicada


desde el punto de vista de clasicador, sino como metodo para reducir la dimensi
on
del vector de caractersticas de entrada y separar linealmente de forma optima las
poblaciones de muestras de se
nal electroencefalograca asociadas a cada actividad mental,
para posteriormente proceder a evaluar la capacidad de discriminaci
on obtenida, cuyos
resultados se recogen en el captulo 6. A continuaci
on se describe el procedimiento
operacional llevado a cabo para implementar el metodo LDA descrito con anterioridad.
1. Obtenci
on de muestras de cada actividad mental.
Xa Calculo matematico.
on de movimiento.
Xb Imaginaci
Xc Relajacion.
2. Denici
on estadstica de todas las poblaciones.
Xa a = E[xa ] Sa = E[(xa a )(xa a )T ]

(4.37)

Xb

b = E[xb ] Sb = E[(xb b )(xb b )T ]

(4.38)

Xc

c = E[xc ] Sc = E[(xa c )(xc c ) ]

(4.39)

3. Calculo de las matrices de dispersion entre clases (Between) e intrnsecas a cada


clase (Within),(eq. 4.27 & 4.28).
4. Aplicaci
on del criterio de optimizaci
on LDA (eq.4.35).
5. Calculo de la matriz de transformaci
on, W (eq.4.36), formada por los auto-vectores,
Vk , cuyos autovalores con valor absoluto superior a 1 104 ordenados de mayor a
menor.
6. Transformacion del conjunto de muestras.
Xa Xa = W T Xa
Xb
Xc

Xb
Xc

(4.40)

WT

Xb

(4.41)

WT

Xc

(4.42)

En el apartado 5.6.2 se muestra el diagrama de actividad asociado a la implementaci


on
del procedimiento de An
alisis por Discriminantes Lineales. Por su parte en el apartado
6.2, se presentan analizan y discuten los resultados obtenidos de la aplicacion de este
procedimiento, llegandose entre otras a la conclusi
on de que es posible reducir la dimensi
on
del espacio de caractersticas, a la vez que se mantiene la capacidad de discriminacion entre
las diferentes actividades cognitivas.

4.3 Clasicadores basados en redes neuronales.

4.3.

83

Clasicadores basados en redes neuronales.

Tras la descripcion de las pruebas de contraste de igualdad de poblaciones, empleadas


para determinar si existe evidencia de diferencia estadstica entre las poblaciones de
muestras electroencefalogracas, adquiridas cuando el usuario lleva a cabo las actividades
cognitivas propuestas, y describir la tecnica de Analisis Lineal de Discriminantes con la que
comprobar la posibilidad de reducir la dimensi
on del espacio original de caractersticas, sin
que por ello se pierda la capacidad de discriminaci
on de dichas actividades cognitivas; en
esta seccion se describen los diferentes tipos de clasicadores basados en redes neuronales
que han sido considerados en la presente tesis:
Perceptr
on multicapa.(MLP).
Red neuronal con funciones de base radial (RBF).
Redes Neuronales Probabilsticas (PNN).
De modo general, con las muestras adquiridas en los diferentes experimentos, para
cada uno de los clasicadores desarrollados se realizan las siguientes operaciones:
1. Lectura de las muestras asociadas a cada una de las diferentes actividades mentales:
Calculo matematico.
Imaginaci
on de movimiento.
Relax.
2. Realizacion de ventanas de an
alisis de 128 muestras.
3. Deteccion de artefactos. Se considera artefacto cuando una muestra se diferencia de
la anterior en m
as de tres desviaciones tpicas del conjunto de muestras de la ventana
de an
alisis.
4. Normalizacion de la se
nal.
5. Aplicaci
on de la ventana de procesamiento. Las ventanas consideradas son
Rectangular.
Triangular.
Blackman.
Hamming.
Hanning.
Kaiser.
Tukey.
13

Vease el apartado 3.3

13 :

84

Tipologa de clasicadores.

6. Aplicaci
on de un ltro Butterworth pasa banda con frecuencias de corte inferior de
fi = 4Hz y frecuencia de corte superior fs = 40Hz.
7. Obtenci
on de la estimacion espectral de potencia utilizando la FFT.
8. Calculo del vector de caractersticas, obtenido para cada una de las ventas de an
alisis
de 128 muestras de la se
nal.
9. En un nuevo bucle, y tras el procesamiento de las 21 ventanas de an
alisis que
se obtienen por sesion, vease 3.5, se identican aquellas ventanas que presentan
artefactos, reemplazandose su vector de caractersticas por el valor medio del resto
de las ventanas de an
alisis sin artefactos.
10. Agrupaci
on de los resultados para cada canal: C3-C3 y C4-C4.
Cada clasicador aplica el siguiente procedimiento al conjunto de vectores de
caractersticas extrado con anterioridad:
1. Determinaci
on de los conjuntos de datos empleados para aprendizaje(50 %), prueba
(25 %) y validaci
on (25 %).
2. Obtenci
on de la matriz de normalizaci
on para el conjunto de datos de aprendizaje.
3. Aplicaci
on del An
alisis de Componentes Principales al conjunto de datos de
aprendizaje para reducir la dimensi
on del espacio de entrada14 .
4. Entrenamiento de la red neuronal con el conjunto de datos de aprendizaje.
5. Aplicaci
on del conjunto de datos de prueba a la red neuronal, si el error de test
es inferior al error objetivo el proceso de aprendizaje se considera v
alido, en caso
contrario se procede a entrenar nuevamente la red neuronal.
6. Aplicaci
on del conjunto de datos de validaci
on a la red neuronal con el objetivo de
estimar el error de ejecucion.
7. Aplicaci
on de la red neuronal al conjunto de datos y registro de resultados.
8. Obtenci
on de las matrices de confusi
on asociadas a cada experimento.

14

La aplicaci
on de la tecnica de An
alisis de Discriminantes Lineales permite concluir que es factible
realizar una reducci
on del espacio de original de caractersticas de entrada sin perder la capacidad de
discriminaci
on, sin embargo los resultados obtenidos de su aplicaci
on indican que de las dos posibles
proyecciones ( tengase en cuenta que se consideran tres actividades cognitivas) s
olo una se muestra
significativa, por lo que como tecnica alternativa se ha optado por procesar los vectores de caractersticas
a traves de la tecnica de An
alisis de Componentes Principales, manteniendo el 90 % de la variabilidad de
los datos como valor explicativo, mientras que el 10 % restante se atribuye a ruido.

4.3 Clasicadores basados en redes neuronales.

4.3.1.

85

Clasicador Perceptr
on Multicapa MLP.

4.3.1.1. Denici
on.
Las redes neuronales de tipo perceptr
on multicapa, tambien denominadas redes de
15
propagaci
on hacia delante [Ripley 96], son redes compuestas por dos o mas capas de
unidades b
asicas de computacion o neuronas, vease gura 4.3, que combinan linealmente

Figura 4.3: Arquitectura de una red neuronal tipo perceptr


on multicapa.

las componentes del vector de entrada, aplicando diferentes ponderaciones a cada


componente, para despues a traves de una funci
on altamente no lineal, denominada
funci
on de activacion, transformar dicha combinaci
on lineal en la salida de la neurona
[Bishop 95], vease gura 4.4. Originalmente fue F. Rosenblatt en la decada de 1960
quien consider
o como unidad de computaci
on b
asica al perceptron, dando lugar a la
denominaci
on de este tipo de redes neuronales [Ripley 96]. Sin embargo, la mayora de
aplicaciones pr
acticas que utilizan redes neuronales de tipo MLP emplean neuronas que
dieren de la denici
on perceptr
on, debido a que la falta de continuidad de la funci
on
escalon empleada en el mismo diculta el proceso de aprendizaje [Freeman 93]. Las
neuronas que no proporcionan directamente la salida se denominan neuronas ocultas.
La u
nica restriccion en su arquitectura es que las conexiones que se establezcan entre las
neuronas no den lugar a bucles de realimentaci
on, de tal modo que la informaci
on uya
desde las entradas de la red hacia las salidas, lo que justica su denominaci
on de redes de
propagaci
on hacia delante. De esta forma se asegura que la salida de la red se pueda calcular
como funci
on explcita de las entradas y los pesos o parametros de la misma [Bishop 95]
[Ripley 96]. Las redes neuronales de tipo MLP con dos capas pueden aproximar cualquier
funci
on continua [Bishop 95].
15

En ingles a este tipo de redes se las conoce indistintamente como feed-forward networks o MLP: Multi
Layer Perceptron

86

Tipologa de clasicadores.

4.3.1.2.

Descripci
on matem
atica.

Tal y como se establece en la denicion anterior la salida de la j-esima unidad oculta


se obtiene como ponderacion de la combinaci
on lineal de los valores de entrada, junto con
el termino asociado a la desviaci
on:
aj =

d


(1)
wji xi

i=1

(1)
wj0

d


(1)

wji xi

(4.43)

i=0
(1)

En donde wji representa al peso de ponderacion de la primera capa que conecta la


(1)

on
entrada i con la neurona oculta j, y wj0 representa al termino que considera la desviaci
de dicha neurona, termino que puede ser considerado de forma implcita incluyendo una
variable de entrada extra, denominada x0 , cuyo valor se ja a x0 = 1, obteniendose la
ecuaci
on 4.43
El resultado o activaci
on de la neurona j-esima se obtiene transformando el resultado
de la ecuaci
on 4.43 a traves de la funci
on g(.):
zj = g(aj )

(4.44)

Los tipos de funciones de activaci


on m
as com
unmente considerados son los de:
Funci
on escal
on o umbral.
0 si a < 0.
g(a) =
1 si a 0.

(4.45)

Aplicaciones de la funci
on escal
on. Mediante la funci
on escal
on es posible aprender
cualquier tipo de funci
on booleana si se utilizan entradas binarias, lo que desde un
punto de vista pr
actico da lugar a la creaci
on de plantillas; mientras que si se utilizan
entradas continuas es posible aprender fronteras de decisi
on, con aplicaci
on directa
a la clasicacion de patrones.

Figura 4.4: Representaci


on perceptr
on.

4.3 Clasicadores basados en redes neuronales.

87

Funciones sigmoideas.
Funci
on de activacion sigmoidea logstica.
g(a) =

1
1 + ea

(4.46)

Tangente hiperb
olica.
ea ea
g(a) = a
e + ea

(4.47)

Aplicaciones de la funci
on sigmoidea. La salida de la funci
on de activacion sigmoidea
queda dentro del rango (0, 1), lo que permite que pueda ser interpretada desde un
punto de vista probabilstico. Por su parte, la aplicaci
on de la funci
on hiperb
olica
permite una convergencia m
as rapida del algoritmo de entrenamiento que el
conseguido con la funci
on logstica.
Funciones lineales.
g(a) = Ka

(4.48)

Aplicaciones de la funci
on lineal. Utilizada por lo general en neuronas en la capa de
salida cuando se precisa que la salida no quede restringida a funciones de clase, por
ejemplo en aplicaciones en las que se requiere aproximar la salida de una funci
on y
es necesaria la extrapolacion de resultados.

Funciones de activacin.
1.5

0.5

0.5

1.5
10

F. Escaln
F. Logstica
F. Tangente hiperblica
Lineal
8

Figura 4.5: Funciones de activaci


on.

10

88

Tipologa de clasicadores.

Las salidas de la red neuronal se obtienen transformando los resultados de las neuronas
de la capa oculta a traves de la capa de salida, obteniendose la siguiente ecuaci
on para
cada una de las k-esimas unidades de salida:
ak =

M


(2)
wkj zj

(1)
wk0

j=1

M


(2)

wkj zj

(4.49)

j=0

yk = g(ak )

(4.50)

En donde g(.) representa la funci


on de activacion de la neurona de salida, resaltando que
no tiene por que ser el mismo tipo de funci
on que el empleado para las neuronas de la
capa oculta.
Combinando las ecuaciones 4.43, 4.44, 4.49 y 4.50 se obtiene la expresi
on explcita de
la funci
on representada en el diagrama de la gura 4.6 [Bishop 95][Ripley 96]:
M

d

 (2)  
(1)
yk = g
wkj g
wji xi
(4.51)
j=0

i=0

Hay que destacar que si las funciones de activaci


on de las neuronas de salida son
lineales g(a) = a, la expresi
on anterior se convierte en un caso especial de funcion de
discriminaci
on lineal generalizado, en el que las funciones de base son obtenidas de las
funciones zj denidas por 4.43 y 4.44, siendo la principal diferencia que los pesos de
ponderaci
on al ser adaptativos cambian durante el proceso de entrenamiento [Bishop 95].

Figura 4.6: Arquitectura general de una red MLP.

4.3 Clasicadores basados en redes neuronales.

4.3.1.3.

89

Procedimiento de entrenamiento.

Mediante el proceso de entrenamiento, los pesos de las neuronas que determinan la


red, son modicados con el objetivo de minimizar la funci
on de error elegida16 . En todos
los casos se emplea un paradigma de entrenamiento supervisado, pues es preciso evaluar
el error cometido por la red, entendido tal como la diferencia entre el valor deseado y el
proporcionado por la red ante un determinado vector de entrada. Los tipos de funciones
de error m
as comunes son:
Error cuadr
atico.
E=

N


(yi yi )2

(4.52)

i=1

Error logstico.
E=

N


(yi log(

i=1

yi
1 yi
) + (1 yi )log(
))
yi
1 yi

(4.53)

Propagando la evaluaci
on y minimizaci
on de la funci
on de error hacia las capas de
on en que deben ser modicados los pesos de las
entrada17 es posible obtener la direcci
neuronas. Para la minimizaci
on del error se utilizan metodos de optimizacion numerica
como el descenso del gradiente [Fuente OConnor 93], o bien otros procedimientos de
optimizacion m
as avanzados; para lo cual es necesario evaluar la derivada de la funci
on
de error con respecto a los pesos de las neuronas, disponer de funciones de activaci
on
diferenciables facilita la propagaci
on del error hacia las capas de entrada, sin embargo
para el caso de funciones de activaci
on de tipo escalon esta propagaci
on del error no es
factible ya que no son continuas en el punto de decisi
on, dando lugar a lo que se conoce
como problema de asignacion de credito 18 .
Tras determinar la direcci
on de modicaci
on, la cantidad en la que esta se realiza
queda determinada a traves del par
ametro , dando lugar a la ecuaci
on 4.54, conocida
como regla generalizada.
t1
t0
= wij

wij

E
wij

(4.54)

Durante el proceso de aprendizaje los par


ametros de la red pueden ser modicados bien
cuando se presenta y eval
ua cada nuevo patr
on del conjunto de entrenamiento, compuesto
16

La definici
on de una red neuronal de tipo MLP implica la determinaci
on del n
umero de capas a emplear,
as como el n
umero de neuronas a utilizar en cada capa.
17
Tecnica conocida como propagaci
on hacia atr
as, Back-propagation en ingles.
18
Credit assignment problem, si una neurona de salida produce una respuesta err
onea cuando a la red
neuronal se le presenta el vector de entrada asociado, no hay forma de determinar cual de las neuronas
de la capa oculta es responsable de la generaci
on del error, de modo tal que no se puede determinar que
pesos se han de ajustar y por cuanto.

90

Tipologa de clasicadores.

por el vector de entrada y salida objetivo, o bien una vez que todos los patrones de
entrenamiento han sido presentados y evaluados, las necesidades computacionales en cada
caso son diferentes, ya que en el primer caso se obtiene una convergencia m
as lenta pero
requiere menos memoria que el segundo, ya que trabaja directamente sobre los parametros
de la red; no siendo preciso, como en el segundo caso, almacenar las modicaciones a aplicar
una vez han sido procesados todos los patrones del conjunto de entrenamiento.
El proceso de modicaci
on de los par
ametros de la red se itera, bien hasta que se alcanza
un error total inferior al permitido, o bien hasta que se alcanza un n
umero maximo de
ciclos.
Con el objetivo de evitar el sobre-aprendizaje del conjunto de entrenamiento, lo que
ocasionara una mala generalizaci
on, se emplean varias tecnicas:
Descomposicion del conjunto de patrones disponibles en conjunto de entrenamiento,
validaci
on y test. Con el conjunto de entrenamiento se modican los par
ametros de
la red, con el conjunto de validaci
on se determina el error esperado, mientras que
con el conjunto de test se determina la capacidad de generalizaci
on.
Denici
on de la red neuronal de menos a m
as. Comenzando con un n
umero reducido
de neuronas en la capa oculta, se procede a realizar el proceso de entrenamiento,
evaluando los errores obtenidos con los conjuntos de entrenamiento, validaci
on y
test. El n
umero de neuronas en la capa oculta se incrementa paulatinamente hasta
que se obtienen niveles de error aceptables. El disponer de un n
umero reducido de
neuronas en la capa oculta, en comparaci
on con el n
umero de patrones presentes
en el conjunto de entrenamiento, indica que los par
ametros de cada neurona se ven
inuidos por m
as de un patr
on, asegurando cierta capacidad de generalizaci
on.
Detenci
on del proceso de aprendizaje en un n
umero relativamente bajo de
iteraciones, de modo tal que no se permite a los par
ametros de la red alcanzar valores
denitivos causados por el efecto de memorizacion de los patrones del conjunto de
entrenamiento; por lo general el ndice que error asociado a esta tecnica tambien es
alto.
4.3.1.4.

Evaluaci
on de las derivadas de la funci
on de error.

Cada una de las neuronas de una red neuronal de tipo MLP realiza la combinaci
on
lineal de las entradas empleando la f
ormula:

wji zi
(4.55)
aj =
i

en donde zi es la activacion de una neurona en una capa precedente, o una entrada, que
conecta con la neurona j, wji es el peso asociado a dicha conexion, el sumatorio se aplica
a todas las neuronas o entradas que se conectan a la neurona j. La suma es transformada
por la funci
on de activacion no lineal g(.) para dar lugar a la salida zj .
zj = g(aj )

(4.56)

4.3 Clasicadores basados en redes neuronales.

91

El objetivo es determinar los valores apropiados para los pesos de la red a traves
de la minimizaci
on de la funci
on de error elegida, la cual podr
a ser expresada como
sumatorio de los errores obtenidos con cada uno de los n patrones que forman el conjunto
de entrenamiento.

En
(4.57)
E=
n

Teniendo en cuenta que la ecuaci


on de error E n se puede expresar como funcion
diferenciable de las variables de salida:
E n = E n (y1 , . . . , yc )

(4.58)

Por cada patr


on se dispone del correspondiente vector de entrada y la activaci
on de
cada una de las neuronas de la red a traves de la aplicacion sucesiva de las ecuaciones 4.55
y 4.56, a este proceso se le denomina propagaci
on hacia delante ya que se trata del ujo
de informaci
on a traves de la red.
Considerando la evaluaci
on de la derivada de la funci
on de error E n respecto a los
pesos wij :
E n aj
E n
=
wij
aj wij

(4.59)

Teniendo en cuenta 4.55 se obtiene:


aj
= zi
wij

(4.60)

y aplicando la notaci
on
j

E n
aj

(4.61)

se obtiene:
E n
= j zi
wij

(4.62)

Ecuaci
on que indica que la derivada buscada se obtiene multiplicando el valor de la
neurona de salida por el valor z de la neurona de entrada, por lo que s
olo sera preciso
on 4.62. Para las neuronas
calcular el valor j para cada neurona de la red y aplicar la ecuaci
de salida la evaluaci
on de k es inmediata, obteniendose:
k

E n
E n
= g (ak )
ak
yk

Para las neuronas de la capa oculta se obtiene:


 E n ak
E n
=
j
aj
ak aj
k

(4.63)

(4.64)

92

Tipologa de clasicadores.

en donde el sumatorio se efect


ua sobre todas las neuronas a las que la neurona j enva
conexiones. Sustituyendo la denici
on de de la ecuaci
on 4.61 en 4.64 se obtiene la
siguiente formula de back-propagation:

wkj k
(4.65)
j = g (aj )
k

que indica que el valor de para una neurona oculta se obtiene propagando hacia atr
as los

valores de s desde las neuronas superiores, como las derivadas de las funciones de salida
son conocidas, aplicando de forma recursiva 4.65 se obtienen los  s de todas las neuronas
de la capa oculta. As pues los pasos a seguir para evaluar la derivada de la funci
on de
error E n con respecto a los pesos son:
1. Aplicaci
on de un vector de entrada xn a la red y propagar hacia delante, utilizando
las ecuaciones 4.55 y 4.56, para hallar la activaci
on de todas las neuronas de la red.
2. Evaluar k para todas las neuronas de salida utilizando 4.63.
3. Propagar hacia atr
as los  s utilizando 4.65 para obtener j de cada una de las
neuronas ocultas.
4. Utilizar 4.62 para evaluar las derivadas requeridas.
La derivada total del error se obtiene repitiendo los pasos anteriores para cada uno de
los patrones que forman el conjunto de entrenamiento y realizando su suma:
 E n
E
=
(4.66)
wij
wij
n
Cuando es necesario evaluar la sensibilidad de la salida, yk , ante los valores de entradas
on hacia atr
as para el calculo de la matriz
xi es posible emplear el metodo de propagaci
jacobiana 4.67.
Jki

yk
xi

(4.67)

As mismo este metodo es u


til cuando es preciso evaluar la segunda derivada del error
con respecto a los pesos de la red, matriz hessiana:
H

2 E
wji wlk

(4.68)

Cuyos elementos desempe


nan papeles importantes en muchos aspectos del c
alculo
neuronal, entre los que se incluyen:
1. Algoritmos de optimizacion no lineal empleados durante la fase de entrenamiento.
2. Base para un r
apido proceso de reentrenamiento de redes neuronales progresivas,
empleando peque
nos cambios en el conjunto de entrenamiento [Bishop 95].
3. Identicaci
on de los pesos menos signicativos, como parte de algoritmos de poda.
4. Asignaci
on de margenes de error de las predicciones realizadas.
5. Calculo de par
ametros de regularizacion a partir de autovalores de la matriz hessiana.
6. El determinante de la matriz hessiana se puede utilizar como medida de comparaci
on
de las probabilidades relativas de diferentes modelos de redes neuronales.

4.3 Clasicadores basados en redes neuronales.

4.3.1.5.

93

Implementaci
on del clasicador basado en red neuronal de tipo MLP.

En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
Algoritmo de aprendizaje: Levenberg-Marquardt (Backpropagation).
N
umero de neuronas en la capa oculta: 60.
Funci
on de activacion en las neuronas de la capa oculta:
2
1
(4.69)
tansig(x) =
1 + e2x
N
umero de neuronas en la capa de salida: 3.
Funci
on de activacion en las neuronas de la capa de salida:
1
logsig(x) =
(4.70)
1 + ex
Error objetivo = 1e5 .
N
umero maximo de iteraciones en el proceso de aprendizaje = 400.
Max. fallo = 5.
Mem. reduc. = 1.
Min. grad. = 1e10 .
= 1e3 .
dec = 0,1.
inc = 10.
max = 1e5 .
La capa de salida queda compuesta por tres neuronas, ya que son tres las actividades
consideradas en el resultado de la clasicaci
on, el rango de salida de su funci
on de
activacion, logsig, queda restringido a [0, 1], lo que permite indicar de forma sencilla,
con un valor pr
oximo a la unidad, la asignaci
on de un nuevo candidato a una de las clases
consideradas.
En la capa oculta se han considerado 60 neuronas, para conseguir esta cifra se realiz
o un
an
alisis considerando la inuencia que el n
umero de neuronas en la capa oculta ejerca sobre
el resultado nal de la clasicaci
on, se observo que con valores pr
oximos a 60 neuronas en
la capa oculta se obtenan mejores resultados de clasicacion correcta que los conseguidos
con un n
umero de neuronas inferior a 40 o superior a 80. El n
umero de entradas no es
directamente igual a la dimensi
on del vector de caractersticas, N = 6, ya que se observa
cierta correlacion entre las mismas, mediante el empleo de PCA (Principal Component
Analysis) se ha mantenido el 90 % de la variabilidad de los vectores de caractersticas
derivados de las muestras tomadas, el 10 % restante queda atribudo a ruido, por lo que
para la gran mayora de las pruebas el n
umero de componentes ha quedado en N = 4.
En el apartado 5.6.3 se describe el diagrama de actividad asociado al empleo de
clasicadores basados en redes neuronales, mientras que por su parte en el apartado 6.3 se
presentan, analizan y discuten los resultados obtenidos de la aplicaci
on de los clasicadores
basados en los anteriores tipos de redes neuronales.

94

4.3.2.
4.3.2.1.

Tipologa de clasicadores.

Clasicador basado en red neuronal de tipo RBF.


Descripci
on redes neuronales de funciones de base radial.

Las redes neuronales de tipo RBF son modelos no parametricos, que comprenden todos
aquellos modelos de redes neuronales, en los que la funci
on de activacion de las neuronas
de la capa oculta tiene como variable de entrada la distancia entre el vector propuesto y
un vector prototipo propio de cada neurona [Ripley 96].
La topologa de una red neuronal de tipo RBF se muestra en la gura 4.7.

Figura 4.7: Arquitectura de una red neuronal tipo RBF.

Las redes neuronales de tipo RBF se emplean entre otras aplicaciones como:
aproximadores de funciones, regularizadores, interpolaci
on ruidosa, estimacion de
funciones de densidad, teora de clasicacion optima, funciones potenciales [Bishop 95].
Debido a la gran multitud de aplicaciones, los metodos de entrenamiento utilizados
con las redes neuronales de tipo RBF han llegado a ser sustancialmente mas rapidos que
los empleados en el entrenamiento de las redes neuronales de tipo perceptron multicapa;
esto en parte es debido al procedimiento de entrenamiento en dos fases derivado de la
interpretaci
on dada a la forma de representacion interna de las neuronas de la capa oculta.
En la primera fase, los pesos de las funciones de base radial que corresponden a las neuronas
de la capa oculta se determinan mediante metodos no supervisados, m
as rapidos que los
metodos supervisados al considerar s
olo los vectores de entrada de los patrones del conjunto
de entrenamiento y no tener que considerar los valores asociados de la salida [Nabney 02],
en una segunda etapa de entrenamiento se determinan los pesos de las neuronas de la
capa de salida, lo que implica la soluci
on de un problema lineal, emple
andose metodos de
resolucion r
apidos, ecientes y optimizados [Ripley 96] [Rich 94].

4.3 Clasicadores basados en redes neuronales.

4.3.2.2.

95

Descripci
on de la t
ecnica de interpolaci
on exacta.

Los metodos basados en funciones de base radial tienen su origen en tecnicas de


interpolaci
on exacta de un conjunto de puntos en un espacio multidimensional (Powell
1987)[Bishop 95], donde se requiere que cada vector de entrada sea asociado de forma
exacta con su correspondiente vector de salida.
La tecnica de interpolacion exacta considera la asociacion de un espacio de entrada
n-dimensional, X, en un espacio de salida de una u
nica dimensi
on, t, para lo cual se
precisa de un conjunto de datos compuesto por N vectores de entrada xn , junto con sus
correspondientes valores destino tn ; quedando por tanto el objetivo de esta tecnica en
encontrar la funci
on h(x) que cumpla:
h(xn ) = tn ,

n = 1, ..., N

(4.71)

La aproximaci
on de funci
on de base radial introduce un conjunto de N funciones de
base, una por cada vector de entrada, que toman la forma (||x xn ||) en donde (.) es
una funci
on no lineal que depende de la distancia ||x xn ||, siendo esta por lo general la
on lineal de las funciones
distancia eucldea entre x y xn . La salida de la red es la combinaci
de base que realizan la asociaci
on.

wn (||x xn ||)
(4.72)
h(x) =
n

Ecuaci
on que tiene la misma forma que una funci
on de discriminacion lineal generalizada
[Bishop 95]. Las condiciones de interpolacion pueden expresarse en forma matricial como:
W = t
W=

(4.73)
(4.74)

En donde t (tn ), W (wn ), y la matriz cuadrada tiene como elementos nn =



(||xn xn ||). Se ha demostrado que para grandes familias de funciones (.), la matriz
es no singular, siempre que se suministren datos de entrada diferentes [Bishop 95].
Cuando los pesos de la ecuacion 4.72 se introducen en los valores de 4.74, la funci
on
h(x) representa una supercie continua diferenciable que pasa exactamente por cada
uno de los puntos considerados. Estudios te
oricos y practicos realizados por Powell en
1987 [Bishop 95], dentro del problema de interpolaci
on exacta demuestran la relativa
insensibilidad a la forma precisa de la funci
on no lineal (.). Diferentes tipos de funciones
han sido consideradas, siendo la m
as com
un la campana de Gauss
x2

(x ) = e 2 2

(4.75)

En donde es el parametro que controla la suavidad de la funci


on de interpolaci
on. La
campana de Gauss es una funci
on de base localizada con la propiedad de 0 cuando
|x | .

96

Tipologa de clasicadores.

Figura 4.8: Funci


on de activaci
on, (x ) = e

2
x 2
2

Otra funci
on de base con la misma propiedad es la funci
on
(x) = (x2 + 2 ) ,

>0

(4.76)

Sin embargo no es preciso que las funciones sean localizadas, otras posibles elecciones son:
(x) = x2 ln(x)
2

(4.77)

(x) = (x + ) ,
(x) = x

0<<1

(4.78)
(4.79)

(x) = x

(4.80)

Todas ellas tiene la propiedad de que cuando x , por otro lado hay que
tener en cuenta que aunque la funci
on (x) = x sea lineal en x, no lo es en x, ya que
n
x = ||x x ||.
La generalizaci
on a funciones de salida multivariable es inmediata. Cada vector de
n
entrada x debe ser mapeado exactamente a un vector de salida tn , el cual tiene por
componentes tnk , lo cual da lugar a:
hk (xn ) = tnk ,

n = 1, ...., N

(4.81)

on lineal de las mismas funciones de base


en donde hk (x) son obtenidas por superposici
que las utilizadas para el caso de salida univariable.

wkn (||x xn ||).
(4.82)
hk (x) =
n

4.3 Clasicadores basados en redes neuronales.

El peso de los par


ametros se obtiene de forma an
aloga a la ecuacion 4.74:


(1 )nn tnk
wkn =

97

(4.83)

n

on de salida.
en donde la misma matriz 1 se utiliza para cada funci
La asociacion realizada por las funciones de base radial consigue que la funci
on de salida
pase exactamente por los puntos de datos suministrados como datos de aprendizaje, si el
conjunto de datos de entrenamiento de que se dispone es ruidoso, como salida de la red
neuronal se obtendr
an valores con variaciones muy bruscas y comportamiento oscilatorio,
sin embargo la funci
on de interpolaci
on deseada tpicamente presenta una salida mas
suavizada, promediando los datos de entrada afectados de ruido. Una limitaci
on adicional
del procedimiento de interpolaci
on exacta proviene de la necesidad de disponer de tantas
funciones de base como patrones en el conjunto de datos de entrenamiento, esto provoca
que para grandes conjuntos de datos sea muy costosa la evaluacion de la asociacion entre
entradas y salidas.
4.3.2.3.

Denici
on matem
atica de las redes neuronales de tipo RBF.

Las limitaciones anteriores dan lugar a la consideracion y propuesta de una serie de


modicaciones al procedimiento de interpolaci
on exacta, originando el modelo de redes
neuronales de base radial [Bishop 95], obteniendose una funci
on de interpolaci
on m
as
suave en la cual el n
umero de funciones de base es determinado por la complejidad de la
asociacion a realizar, esta serie de modicaciones es:
1. El n
umero de funciones de base, M , no tiene por que ser igual al n
umero de patrones
en el conjunto de datos de entrenamiento, N , siendo por lo general mucho menor.
2. Los centros de la funciones de base no estan constre
nidos a los vectores de entrada
de los patrones, sino que por el contrario la determinaci
on de la posici
on adecuada
de los centros se considera como parte del proceso de entrenamiento.
3. En lugar de tener un par
ametro com
un que determina la zona de inuencia de cada
funci
on base, , a cada funci
on base se le asocia su propio parametro, j , cuyo valor
tambien se determina durante el proceso de entrenamiento.
4. Dentro del termino de combinaci
on lineal de la entradas se incluye un par
ametro
asociado a la desviacion. Este par
ametro compensa la diferencia entre el valor medio
de los datos del conjunto de entrenamiento de las funciones base de activaci
on y el
valor medio correspondiente de las salidas.
Realizando las modicaciones anteriores al procedimiento de interpolaci
on exacta se
llega a la siguiente expresion para las redes neuronales de funciones de base radial:
yk (x) =

M

j=1

wkj j (x) + wk0 .

(4.84)

98

Tipologa de clasicadores.

Para el caso de la funci


on de base Gaussiana se obtiene:

j (x) = e

||xj ||2
2 2
j

(4.85)

en donde x es el vector de entrada n-dimensional con elementos xi , y j es el vector que


determina el centro de las funciones de base j con elementos ji .
Por lo general topologas con mas de una capa oculta no son consideradas a efectos
pr
acticos, Hartman en 1990 [Bishop 95] demostr
o que con la superposici
on lineal de
funciones de base Gaussiana localizadas, es posible obtener una aproximaci
on a cualquier
funci
on de forma universal, posteriormente Park en 1991 [Bishop 95] demostr
o que con
restricciones mas suaves en la forma de las funciones tambien es posible conseguir de forma
universal aproximaciones a funciones, por otro lado Girosi [Bishop 95] demostr
o que las
redes de funciones de base radial tienen la propiedad de aproximaci
on
optima, aunque
estas demostraciones no ofrecen procedimientos practicos para la construcci
on de redes
neuronales, son de gran importancia como base teorica en la que las aplicaciones pr
acticas
confan.
Para el caso de matriz de covarianza arbitraria j se obtiene:
1

j (x) = e 2 (xj ) j

(xj )

(4.86)

on de base
Considerando que las matrices de covarianza j son simetricas, cada funci
tiene d(d + 3)/2 par
ametros independientes ajustables, en donde d es la dimension del
espacio de entrada, en comparaci
on con los d+1 par
ametros independientes de las funciones
de base radial de la ecuaci
on 4.85, en la pr
actica se busca un equilibrio entre usar un
n
umero peque
no de funciones de base con muchos par
ametros ajustables, muy exibles, y
un n
umero mayor de funciones de base menos exibles.
4.3.2.4.

Entrenamiento de la red neuronal.

Como se ha indicado con anterioridad, las funciones de base pueden ser interpretadas
de modo tal que los pesos de la primera capa, es decir los par
ametros que controlan
las funciones de base, puedan ser determinados mediante tecnicas de entrenamiento no
supervisadas. Lo que conduce a un proceso de entrenamiento basado en dos etapas, en la
primera las entradas del conjunto de entrenamiento, Xn , son utilizadas para determinar
los parametros de las funciones de base: j y j , para las funciones Gausianas esfericas;
mientras que en la segunda etapa manteniendo las funciones de base se determinan los
pesos de la capa de salida.
Debido a que existe un n
umero menor de funciones de base que patrones, por lo general
no sera posible determinar un conjunto de pesos que consiga ajustar la salida de la funci
on
de forma exacta a los patrones presentados [Freeman 93].

4.3 Clasicadores basados en redes neuronales.

99

Teniendo en cuenta que la salida de la red neuronal queda dada por la ecuaci
on:
M


yk (x) =

wkj j (x)

(4.87)

j=0

y(x) = W

(4.88)

on de base extra que comprende el termino


en donde en la ecuaci
on 4.87, 0 , es la funci
de desviacion, la ecuaci
on 4.88 representa la expresion anterior en notaci
on matricial,
en donde W = (wkj ) y = (j ); como las funciones de base se consideran jas,
la determinaci
on de los pesos de la capa de salida se realiza, como en el caso de las
redes neuronales de tipo MLP, minimizando la funci
on de error elegida, para el caso de
clasicacion es factible considerar la suma de errores cuadr
aticos, ecuacion 4.89.

E=

1 
(yk (xn ) (tnk ))2
2 n

(4.89)

en donde tnk es el valor objetivo de la salida de la unidad k cuando a la red se le presenta el


vector de entrada xn . La determinacion de la solucion se obtiene a traves de las ecuaciones
lineales:
 W =  T

(4.90)

en donde (T)nk = tnk y ()nj = j (xn ). El valor de los pesos de las neuronas de la red
viene dados por:
W  = T

(4.91)

actica se utiliza la descomposici


on
en donde representa la pseudo-inversa de . En la pr
por valores singulares para evitar matrices mal condicionadas.
4.3.2.5.

Aplicaci
on en clasicaci
on

A diferencia de la clasicaci
on por hiperplanos realizada con las redes neuronales de
tipo MLP, la clasicaci
on obtenida con las redes neuronales de tipo RBF se basa en
funciones de kernel locales.
El objetivo de los clasicadores es modelar la probabilidad a posteriori p(x|Ck ) para
cada una de las Ck clases consideradas siendo conocida la probabilidad a priori p(x|Ck ).
Aplicando el teorema de Bayes:
P (Ck |x) =
=

p(x|Ck )P (Ck )
p(x)
p(x|Ck )P (Ck )



k  p(x|Ck )P (Ck )

(4.92)
(4.93)

100

Tipologa de clasicadores.

Figura 4.9: Comparaci


on clasicaci
on MLP vs RBF.

Que puede ser interpretado como una red de funciones de base con funciones de
normalizaci
on dada por:
p(x|Ck )


k  p(x|Ck )P (Ck )

k (x) = 

(4.94)

Siendo la capa oculta de conexi


on, la que enlaza dichas funciones con las salidas, a
traves de los correspondientes pesos con valor P (Ck ). Las salidas de esta red representa
la aproximacion a las probabilidades a posteriori.
Por lo general una u
nica funci
on de kernel por cada clase no suele producir buenos
resultados para la representaci
on de las funciones de densidad de probabilidad de cada clase
p(x|Ck ), por lo que se emplean mezclas que juntan varias funciones para modelizar cada
una de las funciones de densidad de probabilidad asociadas a cada clase. Con el objetivo
de aumentar la eciencia computacional, reduciendo el n
umero de par
ametros ajustables
en el modelo, se opta por utilizar un conjunto de M funciones de base, etiquetadas con
un ndice j, para representar todas las funciones de densidad condicional, dando lugar a:
p(x|Ck ) =

M


p(x|j)P (j|Ck )

(4.95)

j=1

Que sustitudo en las ecuaciones anteriores da a su vez lugar a:


p(x) =


k

p(x|Ck )P (Ck ) =

M


p(x|j)P (j)

(4.96)

j=1

en donde se han denido las probabilidades a priori para las funciones de base:

P (j|Ck )P (Ck )
P (j) =

(4.97)

Por lo que considerando las probabilidades a posteriori, y sustituyendo las ecuaciones


4.96 y 4.97 en 4.92 se obtiene:
M
M

j=1 P (j|Ck )p(x|j)P (Ck ) P (j)
=
wkj j (x)
(4.98)
P (Ck |x) =
M


P (j)
j  =1 p(x|j )P (j )
j=1

4.3 Clasicadores basados en redes neuronales.

101

en donde en la ecuaci
on 4.98 representa una red de funciones de bases, en la que la funci
on
base de normalizaci
on esta dada por:
p(x|j)P (j)
= P (j|x)
j (x) = M


j  =1 p(x|j )P (j )

(4.99)

y los pesos de la segunda capa son:


wkj =

P (j|Ck )P (Ck )
= P (Ck |j)
P (j)

(4.100)

por lo que la activaci


on de la funciones de base pueden ser interpretada como la
probabilidad a posterior de la presencia de las caractersticas correspondientes en el espacio
de entrada, y los pesos pueden ser interpretados de igual forma como la pertenencia a cada
clase, dada la presencia de dichas caractersticas.
4.3.2.6.

Implementaci
on del clasicador basado en red neuronal de tipo RBF.

En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
N
umero de neuronas ocultas: Determinado por el algoritmo de aprendizaje a traves
de un proceso iterativo que permite el crecimiento din
amico de la cantidad de
neuronas ocultas empleadas.
El algoritmo de entrenamiento inicialmente crea la red con un n
umero reducido de
neuronas en la capa oculta, con cada iteraci
on se ajustaran los pesos de las neuronas
y se guarda aquel vector de entrada que causa el menor error, se eval
ua el error
global de la red para la iteraci
on actual, si el error es superior al jado se a
nade
una nueva neurona en la capa oculta utilizando como valores de partida los del
vector anteriormente guardado, a continuaci
on se procede a repetir el proceso de
aprendizaje. El algoritmo naliza cuando el error global presentado por la red es
inferior al error objetivo, o en la capa oculta se han alcanzado tantas neuronas como
vectores hay en el conjunto de entrenamiento.
Funci
on de activacion de las neuronas ocultas:
(x) = ex

x = b(w
p)

(4.101)

Constante de extension, b = 0.25 (Determina la zona de inuencia de cada neurona19 .


N
umero de neuronas de salida: 3. Tantas como clases consideradas.
Como conclusion principal, tal y como puede extraerse del apartado 6.3, los
clasicadores basados en este tipo de redes neuronales presentan elevados porcentajes
de clasicacion correcta, cercanos a los conseguidos con los clasicadores basados en redes
de tipo PNN, pero con una mejor capacidad de generalizaci
on, lo que les hace preferibles
a estos u
ltimos.
19

El valor de esta constante se obtuvo tras un an


alisis previo en donde se utilizaron diferentes valores en
el intervalo [0.1 - 1], el mayor n
umero de clasificaciones correctas se obtuvo para un valor de la constante
de amplitud de 0.25.

102

Tipologa de clasicadores.

4.3.3.
4.3.3.1.

Clasicador basado en red neuronal de tipo PNN.


Redes neuronales probabilsticas.

Las redes neuronales probabilsticas son metodos no parametricos, basados en la


tecnica de interpolacion exacta [Bishop 95], en los que la clasicaci
on se realiza asignando
la muestra candidata a aquella clase cuya probabilidad de observaci
on es mas elevada
[Ripley 96].
fk (x) = P (k|x)

(4.102)

La topologa de una red neuronal de tipo PNN se muestra en la gura 4.7.

Figura 4.10: Arquitectura de una red neuronal tipo PNN.

La denominaci
on de este tipo de redes neuronales se debe a Specht [Ripley 96], quien
acu
no este nombre para referirse a metodos en los que empleando la tecnica de dejar
uno fuera como metodo de validaci
on cruzada, empleaba las siguientes ecuaciones de
probabilidad para realizar la clasicaci
on.
1 
K(x xi )
(4.103)
Pj (x) =
nj
i

En donde K(x y) representa la funci


on n
ucleo o kernel que expresa una medida de la
proximidad entre x e y, mientras que el subndice [i] indica el grupo de entrenamiento
i-esimo. La ecuaci
on 4.103 puede ser interpretada como el promediado de las funciones
kernel centradas en el valor de representaci
on de cada clase, lo cual da lugar a:
k 
k Pj (x)
[i]=k K(x xi )
nk
= 
(4.104)
P (k|x) = 
[i]=k
j (x)
K(x

x
)

P
i
k
i n[i]
k
En caso de que las probabilidades a priori sean estimadas por:
nk
Pk =
n

(4.105)

4.3 Clasicadores basados en redes neuronales.

La ecuaci
on 4.104 se simplica a:

[i]=k K(x xi )
P (k|x) = 
i n[i] K(x xi )

103

(4.106)

Este tipo de redes neuronales se asemeja a las redes neuronales de tipo RBF, en que
ambas utilizan funciones de base radial en las neuronas de la capa oculta, como medio para
estimar la distancia entre un nuevo vector de entrada y los vectores patrones propuestos
durante la fase de entrenamiento. Sin embargo las redes neuronales probabilsticas se
diferencian de las RBF en que, las neuronas de la capa de salida suma las contribuciones
para cada clase produciendo un vector de probabilidades, el cual es procesado a traves de
una funci
on de transferencia de tipo competitivo, en la que la salida selecciona el valor
maximo de dichas probabilidades, asignando un 1 a dicha clase y un 0 a todas las dem
as.
Por otro lado, el algoritmo empleado en la fase de entrenamiento tambien es diferente,
ya que aunque en ambos casos queda encuadrado dentro de la clasicaci
on de algoritmo
de entrenamiento supervisado en dos etapas, para el caso de redes neuronales PNN en
la primera etapa se crean tantas neuronas en la capa oculta como patrones se emplean
en el conjunto de entrenamiento, procedimiento derivado de la tecnica de interpolacion
exacta; en la segunda fase se procede a denir los pesos de las neuronas de la capa de
salida minimizando una funci
on de error del tipo:
E=

n


||yi ti ||

(4.107)

i=1

4.3.3.2.

Implementaci
on del clasicador basado en red neuronal de tipo PNN.

En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
1. Constante de extension, b = 0.25.
2. N
umero de neuronas en la capa oculta = tantas como parejas vector de entrada clase a la que pertenece, tenga el conjunto de entrenamiento.
3. N
umero de neuronas en la capa de salida = 3. Tantas como clases consideradas.
Al igual que ocurre con la red RBF la capa oculta se construye a partir de neuronas
de base radial, durante la fase de aprendizaje se adquiere la localizaci
on de los vectores
del conjunto de entrenamiento, las neuronas de la capa de salida, tantas como clases
independientes se consideran, memorizan la asignacion de las salidas de las funciones de
activacion a cada una de las clases presentadas, la u
ltima parte de la capa de salida queda
formada por unidades de tipo competitivo, de forma tal que el vector de entrada presentado
se asigna a la neurona cuyo valor de activaci
on sea mas alto.
Como conclusion principal, tal y como puede extraerse del apartado 6.3, los
clasicadores basados en este tipo de redes neuronales son los que presentan mayores
porcentajes de clasicacion correcta, aunque as mismo presentan una menor capacidad
de generalizaci
on que los clasicadores basados en redes neuronales de tipo RBF.

104

Tipologa de clasicadores.

4.4.

Clasicador bietapa basado en Modelo Oculto de


Markov y RBF.

4.4.1.

Descripci
on Modelo Oculto de Markov.

Un Modelo Oculto de Markov (MOM)20 , es una representacion estadstica de la se


nal o
proceso observado, dentro de un marco doblemente estoc
astico, que consta de un proceso
de Markov de par
ametros desconocidos y no observables, y un proceso observado cuyos
valores son dependientes estocasticamente de los estados ocultos [Rabiner 89]. Se asume
que la se
nal observada puede ser caracterizada como un proceso parametrico aleatorio, y
que los par
ametros del proceso estocastico pueden ser determinados o estimados de forma
precisa y bien denida.
Un proceso estocastico se llama
de Markov o cadena de Markov de
primer orden, si conocido el presente,
el futuro no depende del pasado; dada
una variable estoc
astica q(t 1) la
probabilidad de transici
on en el instante
t se dene como P (qt = t |qt1 = t1 ).
Una cadena de Markov se dene
formalmente con la dupla (Q, A), donde
Q = {1, 2, ..., N } son los N posibles
estados de la cadena y A = [aij ]N xN es
la matriz de transicion del modelo donde
se cumple:
0 aij 1 1 i, j N (4.108)
N


aij = 1

1iN

(4.109)

Figura 4.11: Representaci


on Modelo Oculto de Markov.

j=1

Las probabilidades de transicion y emision dependen del estado actual y no del pasado.
P (qt = j|qt1 = i, qt2 = k, ...) = P (qt = j|qt1 = i) = aij (t)

(4.110)

Formalmente un Modelo Oculto de Markov discreto de primer orden se dene por la


5-tupla = {Z, Q, A, B, }. En donde:
Z = {V 1, V 2, ..., V m}. Es el alfabeto o conjunto discreto de M smbolos. Los
smbolos observados se corresponden con la salida fsica del sistema que se modela.
Q = {1, 2, ..., N }. Es el conjunto nito de N estados. Aunque por lo general los
estados estan ocultos, para muchas aplicaciones practicas a menudo existe alg
un
tipo de signicaci
on fsica asociada al estado o conjunto de estados del modelo.
En la gura 4.11 se representan por los crculos S1 a S4.
20

En literatura inglesa se denomina Hidden Markov Models (HMM) o Probabilistic functions of


Markov chains.

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

105

A = [aij ]N xN . Es la matriz de probabilidades de transici


on de estados. Por lo general
los estados estan interconectados de forma que un estado pueda ser alcanzado desde
cualquier otro (modelos erg
odicos), sin embargo no es el u
nico tipo de modelo, existen
otros tipos de modelos de interconexi
on en los que solo se permiten evoluciones hacia
estados de ndice superior, u
tiles para modelizar secuencias temporales.
En la gura 4.11 se representa por los par
ametros a11 a a44 , al lado de las echas
discontinuas que conectas los estados.
B = (bj (Qt ))N xM . Es la matriz de probabilidades de emision de smbolos.
bj (k) = P (vk , t|qt = Qj ),

1jN

(4.111)

1kM
En la gura 4.11 se representa por las echas continuas B1 (O) a B4 (O).
= (1 , 2 , ..., N ). Es el vector de probabilidades de estado inicial.
i = P (q1 = Qi ), 1 i N.

(4.112)

Los par
ametros de un MOM se expresan por: = {A, B, }.
La primera cuestion en la denici
on de un MOM es decidir con que se corresponden
los estados del modelo y cuantos estados han de considerarse.
Existen tres tipos de problemas basicos o canonicos asociados al dise
no de los MOM
[Rabiner 89]:
1. Primer problema. Dados los par
ametros del modelo, , calcular la probabilidad de
una secuencia de observaciones, O, en particular. Este problema se resuelve con el
algoritmo de adelante-atr
as, vease apartado 4.4.2.2. Se puede interpretar tambien
como un ndice de c
omo el modelo se ajusta a la secuencia dada.
Un ejemplo de aplicaci
on de este problema sera: dado un MOM con cinco estados,
N = 5, que representan respectivamente la pronunciaci
on de los n
umeros del uno
al cinco, y que ha sido entrenado con la secuencia O = { 1 , 2 , 3 , 4 , 5 , 4 , 2 },
T = 7, calcular la probabilidad con la que este modelo producira la secuencia
inversa O = { 2 , 4 , 5 , 4 , 3 , 2 , 1 }.
2. Segundo problema. Datos los parametros del modelo, , encontrar la secuencia mas
probable de estados ocultos, Q, que puedan haber generado una secuencia de salida
dada. Este problema se resuelve con el algoritmo de Viterbi [Forney 73]. Trata de
descubrir la parte oculta del modelo.
Siguiendo con el modelo del ejemplo anterior una aplicaci
on de este problema sera
determinar la secuencia de estados que da lugar a la secuencia inversa.

106

Tipologa de clasicadores.

3. Tercer problema. Dada una secuencia de salida o un conjunto de tales secuencias, O,


encontrar los par
ametros del modelo oculto de Markov, , que maximizan P (O|).
Este problema se resuelve con el algoritmo de Baum-Welch [Nabney 02]. A la
secuencia de observaciones usadas para ajustar los parametros del modelo se la
denomina secuencia de entrenamiento.
Un ejemplo de la aplicaci
on de la resolucion de este problema sera la determinaci
on
de los par
ametros del modelo de los ejemplos anteriores a partir de la secuencia de
observaciones: O = { 1 , 2 , 3 , 4 , 5 , 4 , 2 }.
Aunque la base te
orica de los MOM fue establecida a nales de la decada de los sesenta
y principio de los setenta [Baum 66], [Baum 70], [J. 75], no fue hasta dos decadas despues
cuando, tras realizarse publicaciones de diversos tutoriales y desarrollo de aplicaciones
utilizando MOM en revistas de ingeniera, empezaron a popularizarse y a utilizarse como
modelizadores de se
nal, sistemas de prediccion, sistemas de reconocimiento e identicaci
on,
clasicadores, etc., encontrandose su principal campo de aplicaci
on en sistemas de
reconocimiento del habla [Rabiner 89], [Allen 77], [Cox 00], [Juang 91], [S.E.; 83].
M
as pr
oximas en el tiempo son la aplicacion de los MOM en la identicaci
on de
fuerzas en aplicaciones de teleoperacion de sistemas robotizados [Herreo 98], as como en la
identicaci
on y caracterizacion de se
nales cerebrales [Chiappa 06], [Rezek 00], [Zhong 02],
siendo aplicados en el desarrollo de la tecnologa de Interfaz Cerebro Computador en la
identicaci
on y clasicaci
on de los patrones de se
nal electroencefalograca asociados a
la imaginaci
on de movimiento [Guger 99], [Neuper 01], [Obermaier 01a], [Muller 03a]. La
idea b
asica es la creacion de modelos temporales de los ritmos y que permitan la
identicaci
on, aprendizaje y posterior reconocimiento de los cambios que se producen en
la se
nal cerebral cuando se realizan diferentes actividades cognitivas como la planicaci
on
de movimientos, la realizaci
on de un c
alculo matematico, u otro tipo de tarea mental
con elevada capacidad de discriminaci
on. En todos los casos, tal y como se ha
indicado en el apartado 1.1.2, la se
nal electroencefalograca es ltrada, procesada para
extraer sus caractersticas denitorias (potencia de determinadas bandas frecuenciales,
coecientes adaptativos de modelos autorregresivos, etc.) las cuales son introducidas en
los correspondientes MOMs. Por cada actividad mental se genera y entrena un MOM
diferente, compar
andose posteriormente la probabilidad con la que nuevas secuencias de
observaci
on seran generadas por cada uno de ellos, la nueva secuencia de observacion se
asigna a aquel modelo, y por tanto actividad mental, cuya probabilidad de generaci
on sea la
mas alta. Los MOM muestran cierta mejora de clasicacion sobre an
alisis de discriminaci
on
lineal [Mardia 79].
Las principales ventajas de los MOM son dos:
1. Poseen una estructura matem
atica muy rica, de la que se desprende que puedan ser
usados en una gran cantidad de aplicaciones.
2. Los resultados pr
acticos obtenidos son muy proximos a los deseados.

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

4.4.2.
4.4.2.1.

107

Soluci
on a los problemas can
onicos.
Soluci
on al primer problema.

El objetivo es calcular la probabilidad de una secuencia de observaciones O =


as directo de efectuarlo es enumerando
{O1 , O2 , ..., OT }, dado un modelo . El modo m
21
toda posible secuencia de longitud T .
Considerando una secuencia de estados Q = {q1 , q2 , ..., qT }. La probabilidad de la
secuencia de observaciones O para la anterior secuencia de estados viene expresada por 22 :
P (O|Q, ) =

T


P (Ot |qt , )

(4.113)

t=1

Desarrollando la expresi
on anterior se obtiene:
P (O|Q, ) = bq1 (O1 ) bq2 (O2 ) . . . bqT (OT )

(4.114)

La probabilidad de la secuencia de estados Q, dado el modelo , se puede expresar como:


(4.115)
P (O|Q, ) = q1 aq1 q2 aq2 q3 . . . aqT 1 qT
La probabilidad conjunta de O y Q, es decir, de que O y Q ocurran simult
aneamente es
el producto de las dos ecuaciones anteriores:
P (O, Q|) = P (O|Q, )P (Q|)

(4.116)

Por lo que la probabilidad de O, dado el modelo , se obtiene sumando esta probabilidad


conjunta sobre todas las posibles secuencias de q posibles estados:

P (O|Q, )P (Q|) = . . .
P (O|) =
Q

q1 bq1 (O1 )aq1 q2 bq2 (O2 ) . . . aqT 1 qT bqT (OT )

(4.117)

q1 ,q2 ,...,qT

El c
alculo de probabilidad utilizando este metodo implica 2T N T calculos [Rabiner 89],
para cada t existen N posibles estados que se pueden alcanzar, en los ejemplos del
apartado anterior N = 5 y la longitud de la secuencia T = 7, por lo que hay N T posibles
secuencias de estados, y por cada secuencia 2T operaciones, siendo mas exactos se necesitan
on del ejemplo
(2T 1)N T multiplicaciones y N T 1 sumas, por lo que para la resoluci
del primer problema del apartado anterior se necesitaran (2 7 1) 57 = 1,015,625
multiplicaciones y 57 1 = 78,124 sumas.
Puede comprobarse que el procedimiento directo, para cadenas de observaciones
obtenidas en aplicaciones pr
acticas23 excede la capacidad de computo de las computadoras
actuales, por lo que se hace necesario un algoritmo de c
alculo m
as eciente, el cual se
denomina adelante-atr
as.
21

N
otese que T es el n
umero de observaciones.
Se asume la independencia de observaciones.
23
Por ejemplo en aplicaciones de reconocimiento de palabras habladas cada estado podra modelar la
pronunciaci
on de una letra, lo que da lugar a N = 27, con palabras de seis letras, T = 6, se obtendran
4,65109 operaciones.
22

108

Tipologa de clasicadores.

4.4.2.2.

Algoritmo adelante-atr
as.

La idea de este algoritmo es que en cada instante de tiempo, t, existen s


olo N posibles
estados en los que se puede encontrar el modelo, en lugar de los N T causados por la
anterior consideraci
on implcita de la longitud de la cadena, vease gura 4.12.
Se dene la variable hacia delante, t (i) como:
t (i) = P (O1 , O2 , . . . , Ot , qt = Si |)

(4.118)

Es la probabilidad de que se de la secuencia de observaciones O hasta el instante t, y


que el sistema se encuentre en el estado Si , dado el modelo . Para evaluarla se utiliza el
siguiente procedimiento inductivo:
1. Inicializaci
on:
1 (i) = i bi (O1 )

1iN

(4.119)

2. Inducci
on:
t+1 (j) =

N



t (i)aij bj (Ot+1 )

1 t T 1;

1jN

(4.120)

i=1

3. Terminaci
on:
P (O|) =

N


T (i)

(4.121)

i=1

El primer paso inicializa las probabilidades hacia delante como la probabilidad conjunta
de encontrarse el sistema en el estado Si y que se de la observacion O1 , vease gura 4.12.
El estado j puede alcanzarse en el instante t + 1 desde N posibles estados. Ya que
t (i) es la probabilidad conjunta de que O1 . . . Ot sean observados, y que el estado en el
instante t sea Si , t (i)aij es la probabilidad conjunta de que O1 . . . Ot sean observados, y
de que el estado Sj sea alcanzado a traves del estado Si en el instante t + 1. Sumando este
producto para todos los posibles estados se obtendr
a la probabilidad de estar en el estado
Sj en el instante t + 1 teniendo en cuenta las observaciones realizadas.
on Ot+1 , y
Conociendo el estado Sj , t+1 se obtendra teniendo en cuenta la observaci
multiplicando su probabilidad por la suma de probabilidades t (i)aij anteriores.
Por u
ltimo, la probabilidad P (O|) se obtiene como la suma de las variables hacia
delante terminales, es decir T (i).
as exactos
En este caso, el n
umero de calculos necesarios es del orden de N 2 T . Siendo m
son necesarias N (N +1)(T 1)+N multiplicaciones y N (N 1)(T 1) sumas [Rabiner 89],
para el caso del ejemplo anterior se tendran 5 (5 + 1) (7 1) + 5 = 185 multiplicaciones
y 5 (5 1) (7 1) sumas.

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

Figura 4.12: Algoritmo adelanteatr


as. Procedimiento hacia delante.

109

Figura 4.13: Algoritmo adelanteatr


as. Procedimiento hacia atr
as.

Aunque en la soluci
on del primer problema no se utilizan las variables hacia atr
as, si
lo son en la soluci
on del tercer problema. Por semejanza con la descripci
on realizada, su
explicaci
on se realiza a continuaci
on.
Se dene la variable hacia atr
as, t (i) como:
t (i) = P (Ot+1 , Ot+2 , . . . , OT , qt = Si |)

(4.122)

Es la probabilidad de que se de la secuencia parcial de observaciones desde el instante


alogo
t + 1 hasta el nal, dado el estado Si en el instante t y el modelo . De modo an
al seguido para la evaluaci
on de las variables hacia delante se emplea el siguiente
procedimiento inductivo:
1. Inicializaci
on:
T (i) = 1

1iN

(4.123)

2. Inducci
on:
t (i) =

N


aij bj (Ot+1 )t+1 (j)

t = T 1, T 2, . . . , 1;

1 i N (4.124)

j=1

on tiene
El paso de inicializaci
on arbitrariamente iguala T (i) a uno. El paso de inducci
en cuenta que para estar en el estado Si en el instante t, utilizando las observaciones
futuras, hay que considerar todos los posibles estados Sj en el instante t + 1, al igual que
las transiciones aij , as como la observacion Ot+1 en el estado Sj , vease gura 4.13.

110

Tipologa de clasicadores.

4.4.2.3.

Soluci
on al segundo problema.

La soluci
on del segundo problema implica la denici
on de la funci
on de optimizacion a
utilizar. Debido a la multiplicidad de criterios que pueden aplicarse, la soluci
on no es u
nica.
Una posible elecci
on es la de maximizar la probabilidad de encontrarse en un determinado
estado en un instante t dada la secuencia de observaciones obtenida, o lo que es equivalente
a maximizar la probabilidad P (qt = Si |O, ).
Este criterio de optimizacion individualizada, en la que no se tienen en cuenta los
estados anteriores,
puede llevar a obtener secuencias de estados que en la pr
actica no pueden darse debido
a que las probabilidades de transicion entre ellos, aij , son nulas. Esto es as debido a que
implcitamente se busca el estado mas probable en cada instante, sin tener en cuenta la
probabilidad de aparici
on de secuencias de estados.
Con la nalidad de evitar el inconveniente anterior, la soluci
on a este problema
empleada con mayor frecuencia modica el criterio de optimizaci
on, buscando aquella
secuencia de estados que maximiza:
P (Q|O, ) P (Q, O|)

(4.125)

El algoritmo utilizado para su b


usqueda esta basado en metodos de programaci
on
din
amica, denomin
andose algoritmo de Viterbi [Forney 73]. Para encontrar la secuencia
de estados Q, que maximiza la probabilidad anterior, dada la secuencia de observaciones
O, se dene previamente la variable:
t (i) = maxq1 ,q2 ,...,qt1 P (q1 q2 . . . qt = Si , O1 O2 . . . , Ot |)

(4.126)

Siendo la probabilidad m
as alta a lo largo de una secuencia, en el instante t, teniendo en
on se tiene que:
cuenta las primeras t observaciones, y termina en el estado Si . Por inducci
t+1 (j) = [maxi t (i)aij ]bj (Ot+1 )

(4.127)

Para poder recuperar la secuencia de estados, es necesario guardar el argumento que


maximiza la ecuacion 4.127, para cada t y j, empleandose para tal n la matriz t (j). Los
pasos a realizar para encontrar la secuencia de estados es:
1. Inicializaci
on:
1 (i) = i bi (O1 )
1 (i) =

1iN

(4.128)

2. Inducci
on:


t (j) = max1iN (t1 (i)aij ) bj (Ot )
t (j) = argmax1iN (t1 (i)aij )

2tT

(4.129)

1jN

(4.130)

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

111

3. Terminaci
on:
P = max
   (T (i))

(4.131)

qT = argmax(T (i))
  

(4.132)

1iN

1iN

4. Obtenci
on de la secuencia:

)
qt = t+1 (qt+1

t = T 1, T 2, . . . , 1

(4.133)

El algoritmo de Viterbi se muy semejante al procedimiento hacia delante, siendo la


principal diferencia el proceso de maximizaci
on que aparece en la ecuaci
on 4.129 en lugar
de la suma que se produce en la ecuaci
on 4.120
4.4.2.4.

Soluci
on al tercer problema.

No existe algoritmo conocido que halle analticamente el modelo que maximiza la


probabilidad de la secuencia observada. De hecho, dada cualquier secuencia nita de
observaciones como datos para el entrenamiento, no existe una manera optima de estimar
los parametros del modelo. Sin embargo se puede elegir un = (A, B, ) tal que P (O|)
alcanza un m
aximo local utilizando un procedimiento iterativo conocido como algoritmo
de Baum-Welch.24
El metodo se basa en un procedimiento de reestimacion (actualizaci
on iterativa y
mejora) de los par
ametros del modelo. Se dene la variable:
t (i, j) = P (qt = Si , qt+1 = Sj |O, )

(4.134)

como la probabilidad de estar en el estado Si en el instante t, y en el Sj en el t + 1, dado


el modelo y la secuencia de observaciones O; desarroll
andola se obtiene:
P (qt = Si , qt+1 = Sj |O, )
=
P (O|)
t (i)aij bj (Ot+1 )t+1 (j)
= N N
i=1
j=1 t (i)aij bj (Ot+1 )t+1 (j)

t (i, j) =

t (i)aij bj (Ot+1 )t+1 (j)


P (O|)

= ...
(4.135)

Tal y como se puede ver gracamente en la gura 4.14.


Deniendo t (i) como la probabilidad de estar en el estado Si en el instante t dada
la secuencia de observaciones y el modelo, se relaciona facilmente con a traves de la
ecuaci
on:
N

t (i, j)
(4.136)
t (i) =
j=1
24

Tambien conocido como algoritmo de Esperanza-Maximizaci


on.

112

Tipologa de clasicadores.

Figura 4.14: Representaci


on de la obtenci
on de t (i, j).

Realizando el sumatorio de cada uno de los valores que representa la ecuacion anterior
para todo instante t, se obtiene la esperanza del n
umero de veces que va a ser alcanzado el
umero de transiciones hechas desde
estado Si a lo largo del tiempo, o lo que es lo mismo, el n
el estado Si . De forma semejante, si se realiza el sumatorio de t (i, j) para todo instante
t, lo que se obtiene es la esperanza de transiciones desde el estado Si al Sj . Expresando lo
anterior formalmente:
T
1


t (i) esperanza del n


umero de transiciones desde Si

t=1
T
1


t (i, j) esperanza del n


umero de transiciones desde Si a Sj

t=1

Con las f
ormulas anteriores se puede obtener un metodo para la reestimacion de los
par
ametros de un Modelo Oculto de Markov:

i = 1 (i)
T 1
t=1 t (i, j)

a
ij =
t=1 T 1t (i)
T 1
(j)
t =k t
bj (k) = t=1,O
T 1
t=1 t (j)

(4.137)
(4.138)

(4.139)

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

113

La ecuaci
on 4.137 indica la esperanza del n
umero de veces que se va a encontrar el
on 4.138 es el cociente entre la
modelo en el estado Si en el instante inicial. La ecuaci
umero
esperanza del n
umero de transiciones desde el estado Si al Sj y la esperanza del n
de transiciones que se producen desde el estado Si . Por u
ltimo la ecuaci
on 4.139 es el
cociente entre la esperanza del n
umero de veces que se encuentra en el estado Sj y se da
umero de instantes en el estado Sj .
la observaci
on k , y la esperanza del n
=
Utilizando el modelo actual, = {A, B, }, para calcular un modelo nuevo,
B,

{A,
}, Baum y su equipo [Baum 66], [Baum 70], [J. 75], probaron que:
1. El modelo inicial, , dene un punto crtico de la funci
on de coste P (O|) en el caso

de que = .
es mejor que el en el sentido en que P (O|)
> P (O|), es decir, que
2. El modelo ,
que con
la probabilidad de producir la secuencia de observaciones sea mayor con
.
De este modo, reiterando el proceso descrito por el sistema de ecuaciones 4.137 a 4.139,
se mejora el modelo ya que se aumenta la probabilidad de que la secuencia de observaciones
sea producida por el modelo, hasta llegar a un lmite. Al resultado as obtenido se le
denomina estimacion de m
axima verosimilitud del Modelo Oculto de Markov.
Las ecuaciones de reestimacion de par
ametros se pueden obtener maximizando, a traves
de metodos de optimizacion por restricciones, la funci
on auxiliar de Baum en la variable

:


=
P (Q|O, )log[P (O, Q|)]
(4.140)
Q(, )
Q

Al igual que con las funciones de reestimaci


on, Baum y su equipo [J. 75], probaron que
la maximizacion de Q implica aumentar la verosimilitud:
P (Q|)
P (Q|)
max [Q(, )]

(4.141)

Las f
ormula de reestimacion se pueden interpretar como la implementaci
on del metodo
estadstico de Esperanza - Maximizacion, EM. El paso de esperanza sera el calculo de la
funci
on Q, y el de modicaci
on sera el de maximizacion.
En cada iteraci
on se cumplen las restricciones estocasticas:
N


i = 1

i=1
N


(4.142)

a
ij = 1

1iN

(4.143)

bj (k) = 1

1jN

(4.144)

j=1
M

k=1

114

Tipologa de clasicadores.

4.4.3.

Densidades de observaci
on continuas en MOM.

Hasta ahora las observaciones consideradas pertenecen a un conjunto nito de smbolos


discretos, lo que permite utilizar una funci
on de probabilidad discreta para describirlas.
Para el caso de que las observaciones sean se
nales continuas, y con la nalidad de evitar
perdida de informaci
on, sera preciso modicar los modelos para que puedan trabajar con
densidades de probabilidad continuas.
La estructura de la funci
on de densidad de probabilidad es una combinaci
on lineal de
las funciones de densidad de probabilidad multidimensional:
M

cjm (O, jm , Ujm )
1jN
(4.145)
bj (O) =
m=1

En donde O es el vector de observaciones, es cualquier funcion de probabilidad


algortmico-concava (por lo general una gaussiana) o con simetra elptica, con vector
de medias jm y matriz de covarianzas Ujm , mientras que cjm son los coecientes de
ponderaci
on de las funciones sujetos a las siguientes restricciones estocasticas:
M


cjm = 1

1jN

(4.146)

cjm 0

1 j N, 1 m M

(4.147)

m=1

Asegurando que la funci


on de densidad de probabilidad queda normalizada:

bj (x)dx = 1
1jN

(4.148)

En este caso las formulas de reestimacion son:


T
t (j, k)
cjk = T t=1
M
t=1
k=1 t (j, k)
T
t=1 t (j, k)Ot

jk =

T
t=1 t (j, k)
T
T
t=1 t (j, k)(Ot jk )(Ot jk )
jk =
U
T
t=1 t (j, k)
cjk (Ot , jk , Ujk )
t (j)t (j)
M
t (j, k) = N
j=1 t (j)t (j)
m=1 cjk (Ot , jk , Ujk )

(4.149)
(4.150)
(4.151)
(4.152)

En donde t (j, k) es la probabilidad de estar en el estado Sj en el instante t, teniendo en


cuenta el kesimo componente de la combinacion lineal, ver ecuaci
on 4.152. Del mismo
modo que para el caso discreto, la ecuaci
on de reestimacion para cjk es la relacion entre
la esperanza del n
umero de veces que el modelo se encuentra en el estado Sj utilizando la
componente kesima de la combinacion y la esperanza del n
umero de veces que el sistema
se encuentra en el estado Sj . Para mujk se ponderan los sumandos del numerador de la
andose la esperanza de la observacion
f
ormula para cjk con el valor de observaciones, hay
que proporciona el kesimo componente de la combinacion. De igual modo se procede con
Ujk .

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

4.4.4.

115

Tipos de Modelos Ocultos de Markov

En la modelizaci
on de secuencias temporales empleando Modelos Ocultos de Markov,
la consideraci
on a priori de las posibles transiciones entre los estados del modelo simplica
la resoluci
on de los problemas can
onicos anteriores, por ejemplo en aquellos casos donde la
sintaxis subyacente de generaci
on de la cadena de observaciones provoque un determinado
orden de aparici
on de las mismas, dando lugar a que en la matriz de probabilidades de
transicion de estados, determinados elementos sean nulos.
Dependiendo de las restricciones de transici
on entre estados, se presentan los diferentes
tipos de modelos que se describen a continuaci
on:
4.4.4.1.

Modelo erg
odico.

El caso mas com


un de modelo es el
ergodico, vease gura 4.15, en este modelo
cualquier estado puede ser alcanzado desde
cualquier otro; lo que se traduce en que todo
elemento aij de la matriz A es estrictamente
positivo.
4.4.4.2.

Modelo izquierda-derecha.

Sin embargo se han encontrado otros


tipos de modelos que describen mejor
determinados tipos de se
nales temporales
que el modelo erg
odico. Uno de ellos es el
denominado modelo izquierda-derecha. Tiene
la peculiaridad de que a medida que el tiempo
Figura 4.15: Esquema del modelo erg
odico.
aumente, el modelo o bien se mantiene en el
mismo estado, o bien el ndice del estado se incrementa. No se tiene en cuenta de manera
explcita el tiempo, pero tiene la ventaja de modelar bien se
nales cuyas propiedades
cambian con el tiempo. Sus coecientes tiene como propiedad:
aij = 0

j<i

(4.153)

Es decir, no se permiten transiciones a estados cuyos ndices sean menores que el actual.
El estado inicial tiene la propiedad:

0 i = 1
(4.154)
i =
1 i=1
En la gura 4.16 se muestra una representaci
on gr
aca de lo que sera este modelo
suponiendo que lo componen cuatro estados.

116

Tipologa de clasicadores.

Figura 4.16: Esquema del modelo izquierda-derecha.

As mismo es habitual imponer a este tipo de modelos un mayor n


umero de restricciones
para evitar cambios grandes en los ndices del estado:
aij = 0

j > i + , N.

(4.155)

En el caso del u
ltimo estado se tendra que:
aN N = 1
aN i = 0
4.4.4.3.

(4.156)
i<N

(4.157)

Modelo rutas paralelas.

Otro tipo de modelo derivado del anterior y bastante com


un es el de rutas paralelas,
vease gura 4.17. Se basa en la interconexi
on de modelos izquierda-derecha, presenta una
mayor exibilidad cumpliendo las restricciones de los anteriores.

Figura 4.17: Esquema del modelo rutas paralelas.

4.4.4.4.

Modelo de entrada salida.

Hasta el momento se ha tratado con modelos probabilsticos en los que en cada instante
de tiempo, t, se observa una variable, vt , generada desde un estado discreto oculto, qt ,
el cual evoluciona seg
un una din
amica de Markov; sin embargo existe una variante de
modelos probabilsticos derivados de los anteriores, denominados modelos de entradasalida 25 aplicados en clasicacion, en donde para cada intervalo de tiempo, t 1, . . . , T ;
25

La denominaci
on anglosajona de los mismos es Input-Output Hidden Markov Model, IOHMM

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

117

existe una variable yt que depende tanto del estado oculto en el que se encuentra el modelo,
qt , como de una variable de entrada observable, xt , [Bengio 96].
La variable de entrada representa el proceso observado, por lo que en la pr
actica
puede existir cierto preprocesamiento asociado al mismo; mientras que la variable de salida
representa las clases.
La distribuci
on conjunta de estado y variables de salida condicionadas a las variables
de entrada vienen dada por:
P (q1:T , y1:T |x1:T ) = P (y1 |x1 , q1 )P (q1 |x1 )

T


P (yt |xt , qt )P (qt |xt , qt1 )

(4.158)

t=2

Cuya representacion gr
aca se muestra en la gura 4.18 [Lauritzen 96].

Figura 4.18: Esquema del modelo entrada-salida.

Por lo tanto se comprueba que un Modelo Oculto de Markov de entrada-salida queda


denido por la probabilidad de transici
on de estado P (qt |xt , qt1 ) y la probabilidad de
emision P (yt |xt , qt ); siendo la principal diferencia con los MOMs tradicionales el vincular
funcionalmente estas funciones de probabilidad con la variable de entrada xt , para lo
cual se puede utilizar tecnicas de optimizacion no lineal [Lauzon; 01], en donde la funci
on
de distribuci
on de probabilidad de la transicion de estado dependiente de la variable de
entrada xt se modela como:
i

ez
p(qt = i|xt , qt1 = j) =  z k
ke

(4.159)

En donde:
zk =

W

j=0

wkj f

U


uji xit

i=0

Siendo f una funci


on no lineal.

(4.160)

118

Tipologa de clasicadores.

La distribuci
on de la funci
on probabilidad de emision p(yt = c|xt , qt = j) se modela
de forma semejante, observese el paralelismo con las redes neuronales tipo perceptron
multicapa [Bishop 95]. El denominador en la ecuaci
on 4.159 asegura que la funci
on de
distribuci
on queda correctamente normalizada.
Este modelo permite especicar para cada instante de tiempo, t, la clase yt . De
forma alternativa, es posible asignar una sola etiqueta a todas aquellas secuencias de
entrenamiento que, siendo de tama
no T , provienen de una misma clase.26
4.4.4.5.

Clasicaci
on continua utilizando Modelos Ocultos de Markov de
entrada-salida.

on T , se desea
En este tipo de modelo, por cada secuencia de entrada, xt , de duraci
obtener la clase o patron al que m
as se aproxima; por lo que las secuencias utilizadas
durante el proceso de entrenamiento llevan asociada informaci
on de la clase a la que
on de probabilidad objetivo
pertenecen, formando el binomio: (xt , yt ), por lo que la funci
en forma logartmica es:
L() = log

M


m
P (y1:T
|xm
1:T , )

(4.161)

m=1

En donde representa a los par


ametros del modelo, y m representa la mesima
secuencia del conjunto de entrenamiento.
Una vez jados los par
ametros del modelo , se asignara una nueva secuencia
entrenamiento a la clase c de modo tal que:
c = argmaxC P (y1 = C, . . . , yT = C|)

(4.162)

Una aproximaci
on com
un para maximizar la funci
on de probabilidad, considerando
los parametros del modelo , es mediante el algoritmo de Esperanza - Maximizacion
(EM) [McLachlan 97][Nabney 02]. Sin embargo el paso de Maximizaci
on no puede
ser llevado a cabo en forma cerrada debido a las limitaciones de las funciones de
densidad de probabilidad asociadas a las transiciones y emisiones, por lo que se utiliza
una variante de dicho algoritmo, denominada Algoritmo de Expectaci
on-Maximizaci
on
Generalizado,GEM, [McLachlan 97], en el que para la iteraci
on iesima se realizan los
siguientes pasos:
1. Paso de Expectaci
on. Resuelve la ecuaci
on:
Q(, i1 ) = E(logP (q1:T , y1:T |x1:T , ))P (q1:T ,y1:T |x1:T ,i1 )
26

(4.163)

Todas aquellas secuencias menores de T son separadas bien para su descarte final o bien para formar
una secuencia de tama
no apropiado.

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

119

2. Paso de Maximizaci
on. Modica el valor de los par
ametros del modelo de modo
que:
Q(i , i1 ) Q(, i1 )

(4.164)

De este modo se asegura que la semejanza no decrezca en cada iteracion y que la


secuencia de modelos {i } converge a un mnimo local .
La ecuaci
on 4.163 puede expresarse como:
Q(, i1 ) =

T


E(log(P (yt |xt , qt , )))P (q1:T ,y1:T |x1:T ,i1 ) +

t=1

T


E(log(P (qt |xt , qt1 , )))P (qt1:T |x1:T ,y1:T ,i1 ) +

t=2

+E(log(P (q1 |x1 , )))P (q1 |x1:T ,y1:T ,i1 )

(4.165)

En donde se observa que el paso de Expectaci


on necesita conocer P (qt |x1:T , y1:T , i1 ) y
i1
P (qt1:T |x1:T , y1:T , ), siendo ambas probabilidades marginales una forma de inferencia
del modelo, la cual se puede obtener a traves de las formulas 4.166, [Bengio 96]
Recursi
on hacia delante.
P (qt |x1:t , y1:t ) P (qt , yt |x1:t , y1:t1 ) =
= P (yt |x1:t , qt , y1:t1 )P (qt |x1:t , y1:t1 ) =

P (qt1:t |x1:t , y1:t1 ) =
= P (yt |x1:t , qt )
qt1

= P (yt |xt , qt )

P (qt |x1:t , qt1 , y1:t1 )P (qt1 |x1:t , y(1 : t 1)) =

qt1

= P (yt |xt , qt )

P (qt |xt , qt1 )P (qt1 |x1:t1 , y(1 : t 1)) (4.166)

qt1

En donde la constante de proporcionalidad se determina por normalizaci


on.
Recursi
on hacia atr
as. Calcula p(qt , y1:T |x1:T ) en funci
on de p(qt+1 |x1:T , y1:T )
P (qt |x1:t , y1:t ) =

P (qt:t+1 |x1:t , y1:t ) =

qt+1

P (qt |x1:t , qt+1 , y1:t )P (qt+1 |x1:t , y(1 : t)) =

qt+1

qt+1

P (qt |x1:t+1 , qt+1 , y1:t )P (qt+1 |x1:t , y(1 : t))

(4.167)

120

Tipologa de clasicadores.

El termino P (qt |x1:t+1 , qt+1 , y1:t ) puede calcularse como:


P (qt |x1:t+1 , qt+1 , y1:t ) P (qt:t+1 |x1:t+1 , y1:t ) =
= P (qt+1 |x1:t+1 , qt , y1:t )P (qt |x1:t+1 , y(1 : t)) =
= P (qt+1 |xt+1 , qt )P (qt |x1:t , y(1 : t))

(4.168)

En donde como en el caso anterior la constante de proporcionalidad se determina


por normalizaci
on.
La actualizaci
on de los par
ametros del modelo se realiza utilizando el metodo de
descenso del gradiente [Bishop 95][Nabney 02]
Q(, i1 ) 
(4.169)


=i1
En donde es el parametro de entrenamiento, que puede ser determinado utilizando
un conjunto de validaci
on. Las derivadas de logP (yt |qt , xt , ), logP (qt |qt1 , xt , ) y
logp(q1 |x1 , ) con respecto a los parametros del modelo se calculan empleando la regla
de la cadena (algoritmo de propagaci
on hacia atr
as [Rabiner 89]).
El procedimiento de entrenamiento descrito obliga a especicar la clase a la que
pertenece cada una de las secuencias de entrada, optimizando la funci
on objetivo:
i = i1 +

log

M


P (y1m = cm , . . . , yTm = cm |xm


1:T , )

(4.170)

m=1

En donde cM es la etiqueta de clase correcta. Durante la fase de test se calcula P (y1 =


andose la secuencia x1:T a aquella
c, . . . , yT = c|x1:T , ) para cada una de las clases, asign
clase que presente el valor de probabilidad mas alto. Idealmente la distancia entre la
probabilidad de clasicar la secuencia en la clase correcta y clasicaciones incorrectas se
incrementa en las iteraciones realizadas durante la fase de entrenamiento. La probabilidad
de asignaci
on incorrecta viene dada por:
log

M


C


m=1 im =1,im =cm

P (y1m = im , . . . , yTm = im |xm


1:T , )

(4.171)

Sin embargo, cuando se especica la misma clase para varias secuencias de entrada se
fuerza a que los recursos del modelo sean empleados para aprender esta caracterstica,
con la consecuencia de que el modelo se centra en aprender la prediccion de la misma
clase para cada intervalo de tiempo t, en lugar de centrarse en la clase que se predice.
Para solucionar este problema o bien se reconsidera la funci
on objetivo a maximizar, una
alternativa sera:
log

M


P (y1m = cm , . . . , yTm = cm |xm


1:T , )
C
m
m
m
m
m
im =1 P (y1 = i , . . . , yT = i |x1:T , )
m=1

o bien se utiliza el procedimiento de entrenamiento mostrado a continuaci


on.

(4.172)

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

4.4.4.6.

121

Clasicaci
on de punto nal utilizando Modelos Ocultos de Markov
de entrada-salida.

Para evitar el problema de entrenamiento del metodo de clasicaci


on continua,
existe un procedimiento alternativo en el que se asigna una misma clase a un todo un
conjunto de secuencias de entrenamiento que provengan del mismo patr
on. El algoritmo de
entrenamiento concatena las secuencias propuestas asignando una u
nica etiqueta de salida
de tal modo que t = T lo que implica que P (yt |x1:T ) = P (yt |x1:t ), o lo que es lo mismo,
informaci
on futura de la secuencia de entrada no es considerada en la determinaci
on de la
probabilidad a posteriori de la clase. En este caso, el entrenamiento maximiza la siguiente
funci
on de semejanza logartmica:
L() = log

M


P (yTm |xm
1:T , )

(4.173)

m=1

Al igual que en el caso anterior, una vez entrenado el modelo, una nueva secuencia
de entrada puede ser aplicada con la nalidad de encontrar la clase a la que con mayor
probabilidad pertenecera.
De forma an
aloga al procedimiento anterior se utiliza el algoritmo GEM en la
determinaci
on de los par
ametros del modelo.
1. Paso de Expectaci
on. Resuelve la ecuaci
on:
Q(, i1 ) = E(logP (q1:T , yT |x1:T , ))P (q1:T |x1:T ,yT ,i1 )

(4.174)

2. Paso de Maximizaci
on. Modica el valor de los par
ametros del modelo de modo
que:
Q(i , i1 ) Q(, i1 )

(4.175)

La ecuaci
on 4.175 puede expresarse como:
Q(, i1 ) = E(log(P (yT |xT , qT , )))P (qT |x1:T ,yT ,i1 ) +
+

T


E(log(P (qT |qT 1 , xT , )))P (qt1:T |x1:T ,yT ,i1 ) +

t=2

+E(log(P (q1 |x1 , )))P (q1 |x1:T ,yT ,i1 )

(4.176)

En donde se observa que el paso de Expectaci


on necesita conocer
i1
i1
P (qt |x1:T , yT , ) y P (qt1:T |x1:T , y1:T , ), las cuales pueden ser calculadas como
sigue:
P (qt |x1:T , yT ) P (qT , yt |x1:T ) =

P (qT |xT , qT 1 )P (qT 1 |x1:T 1 )
= P (yT |xT , qT )
qT 1

(4.177)

122

Tipologa de clasicadores.

En donde P (qt |x1:t ), (t < T ) se obtiene la siguiente iteracion hacia delante:



P (qt |xt , qt1 )P (qt1 |x1:t1 )
(4.178)
P (qt |x1:t ) =
qt1

on hacia atr
as:
Mientras que P (qt |x1:T , yT se obtiene a traves de la iteraci

P (qT |x1:T , qt+1 yT )P (qt+1 |x1:T 1 , yT ) =
P (qt |x1:T , yT ) =
qT 1

P (qt |x1:t+1 , qt+1 )P (qt+1 |x1:T , yT )

(4.179)

qt+1

En donde:
P (qt |x1:T +1 , qt+1 ) P (qt:t+1 |x1:t+1 ) =
= P (qt+1 |xt , qt )P (qt |x1:t )

4.4.5.

(4.180)

Consideraciones pr
acticas en la implementaci
on de Modelos
Ocultos de Markov.

En las secciones anteriores se ha considerado tanto la teora b


asica como distintas
variaciones en la estructura del Modelo Oculto de Markov. En esta seccion se describe
brevemente los problemas pr
acticos mas importantes a resolver en la implementaci
on de
Modelos Ocultos de Markov, como son: el escalado, la consideracion de m
ultiples secuencias
de observaci
on, la estimaci
on de los par
ametros iniciales del modelo, el efecto de secuencias
de datos insucientes, o la elecci
on del tipo de modelo. Estos problemas se han tenido en
cuenta en la toolbox de Matlab utilizada en la realizaci
on de los experimentos, vease
apartado 5.6.4.
4.4.5.1.

Escalado.

Considerando las f
ormulas de reestimacion se observa que son sumatorios que contienen
terminos de la forma:
t1
t


aqs qs+1
bqs (Os )
s=1

s=1

Ya que tanto a como b son terminos menores a 1, se comprueba que cuando t alcanza
valores altos, por ejemplo 10 o m
as, cada termino tiende exponencialmente a cero; con
cadenas de longitud suciente el c
alculo de t (i) llega a exceder el rango de precision
de cualquier computadora, incluso empleando doble precisi
on, de lo que se deduce que
la u
nica forma razonable de realizar el calculo de los par
ametros del modelo implique la
incorporaci
on de un proceso de reescalado.
El metodo b
asico de escalado consiste en multiplicar t (i) por un coeciente de escala
independiente de i, es decir que solo dependa de t, con el objetivo de mantener el valor
amico de calculo de la computadora para 1 t T .
escalado de t (i) dentro del rango din
Procedimiento semejante se realiza con los coecientes t (i).

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

4.4.5.2.

123

M
ultiples secuencias de observaci
on.

En el caso de modelos izquierda-derecha es preciso utilizar m


as de una secuencia de
observaci
on en la estimacion de los par
ametros debido a las restricciones en ellos impuestas,
ya que la naturaleza transitoria de los estados dentro del modelo solo permite un n
umero
limitado de observaciones.
Denominando el conjunto de las K secuencias observadas como:
O = [O(1) , O(2) , . . . , O(k) ]

(4.181)

Y asumiendo que cada secuencia de observaci


on es independiente del resto de secuencias,
el objetivo es ajustar los par
ametros del modelo que maximicen:
P (O|) =

K


P (O(k) |) =

k=1

K


Pk

(4.182)

k=1

Como las formulas de reestimacion se basan en la frecuencia de ocurrencia de los


diferentes eventos, las f
ormulas de reestimacion con m
ultiples secuencias de observacion
se modican a
nadiendo juntas las frecuencias de ocurrencia individual de cada secuencia,
obteniendose:
K 1 Tk 1 k
(k)
k
t=1 t (i)aij bj (Ot+1 )t+1 (j)
k=1 Pk
(4.183)
a
ij =
K 1 Tk 1 k
k
t=1 t (i)t (j)
k=1 Pk
K
bj (l) =

1 Tk 1
k
k
k=1 Pk
t=1,Ot =xt t (j)t (j)
K 1 Tk 1 k
k
t=1 t (j)t (j)
k=1 Pk

(4.184)

No siendo preciso reestimar i ya que:


1 = 1, i = 0, i = 1
4.4.5.3.

(4.185)

Estimaci
on de los par
ametros iniciales.

Desde un punto de vista te


orico, las ecuaciones de reestimacion proporcionan valores
para los par
ametros del modelo que corresponden con un m
aximo local de la funci
on de
semejanza; por lo que es importante elegir los par
ametros iniciales de modo tal que este
maximo local coincida con el m
aximo global.
Por regla general no existe un metodo directo, sin embargo la experiencia demuestra
que tanto inicializaci
on aleatoria (sujeta a las restricciones estocasticas, como a que los
valores iniciales sean distintos de cero) como estimaciones iniciales uniformes de y A
son v
alidas para dar reestimaciones u
tiles de dichos par
ametros en la gran mayora de las
aplicaciones. Sin embargo para los par
ametros asociados a estimacion de observaciones B
una buena estimaci
on inicial es importante para el caso de smbolos discretos y esencial
en el caso de observaciones continuas. Estas estimaciones iniciales se pueden conseguir
mediante: segmentacion manual de secuencias de observacion en estados que promedian
observaciones entre los mimos, segmentacion y promediado de observaciones a traves de
metodos de que maximicen la semejanza, metodos de programaci
on din
amica como kmeans y clustering.

124

Tipologa de clasicadores.

4.4.5.4.

El efecto de datos de entrenamiento insucientes.

Otro problema asociado con el entrenamiento de MOMs, va metodos de reestimacion


de par
ametros, es que la secuencia de observaciones empleada es nita, por lo que a menudo
suele haber un n
umero insuciente de ocurrencias para los diferentes eventos del modelo,
[Jelinek 80], [Rabiner 89].
Una soluci
on podra ser aumentar el tama
no del conjunto de las secuencias de
observaci
on, lo cual no siempre es posible. Otra soluci
on sera reducir el tama
no del
modelo, considerando bien menos estados, bien menos smbolos observables por estado, o
bien a
nadiendo restricciones adicionales; aunque lo anterior siempre es posible a menudo
existen consideraciones fsicas que fundamentan la elecci
on del tama
no del modelo. Una
tercera solucion es interpolar el conjunto de estimaci
on de par
ametros de un modelo con
otro conjunto de par
ametros de un modelo para el cual existe una cantidad adecuada de
datos de entrenamiento[Jelinek 80]. La idea es dise
nar simult
aneamente ambos modelos,
de modo que existan sucientes datos para estimar los par
ametros del modelo menor e
interpolar las estimaciones de par
ametros de los dos modelos.
=  + (1 )

(4.186)

En donde representa los par


ametros del modelo completo,  representa al modelo
reducido, y  es el coeciente de ponderacion entre ambos modelos, de este modo si se
dispone de un n
umero elevado de secuencias de entrenamiento  1, mientras que si por
el contrario el n
umero es reducido  0 [Jelinek 80]
4.4.5.5.

Elecci
on del modelo.

Uno de los puntos m


as importantes en la implementaci
on de MOMs es la eleccion de
la arquitectura del modelo:
Tama
no: n
umero de estados que se consideran.
Tipo: erg
odico, izquierda-derecha, rutas paralelas, entrada-salida, etc.
Conjunto de smbolos de observacion: discreto o continuo; funciones de modelizaci
on
simples o mezcla de m
ultiples F .
Eleccion de la parametrizaci
on de las funciones de observaci
on.
Desafortunadamente no existe una u
nica soluci
on o metodo que de forma sencilla y
teoricamente correcta indique como se han de realizar estas elecciones. En la mayora de los
casos dependeran tanto del tipo de se
nal que se modele, as como del ambito del problema;
en algunas aplicaciones el tama
no del modelo, a
un siendo oculto, puede representar estados
con cierta signicaci
on fsica; en otros casos la consideraci
on temporal de la se
nal puede
dar lugar a que ciertas topologas sean mas adecuadas que otras, al igual que ocurre con
la eleccion de las funciones y par
ametros asociados a la modelizacion de las observaciones.

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

4.4.6.

125

Descripci
on del algoritmo de clasicaci
on bietapa.

En los apartados anteriores se ha descrito la base te


orica y consideraciones pr
acticas
asociadas a la aplicacion de los Modelos Ocultos de Markov en el estudio de secuencias
temporales.
Aunque dichas tecnicas has sido aplicadas con exito en el area de reconocimiento del
habla mediante patrones temporales, su aplicaci
on en la tecnologa de Interfaz Cerebro
Computador no es inmediata, debido a las caractersticas intrnsecas que diferencian
la se
nal de voz de la se
nal electroencefalograca, las cuales dan lugar a que, para su
caracterizacion, se preeran patrones frecuenciales a los temporales.
Por tal motivo en esta tesis se propone un nuevo clasicador que aune la capacidad
de identicaci
on y reconocimiento de las redes neuronales de tipo RBF, descrita en el
apartado 4.3.2, con la capacidad de modelizaci
on de secuencias propia de los Modelos
Ocultos de Markov.
La gura 4.19 representa el diagrama de bloques del clasicador propuesto. En el
se puede observar como, la clasicacion de la se
nal electroencefalograca introducida,
proviene de evaluar la probabilidad con la cual diferentes modelos ocultos de Markov
generaran la secuencia de asignaciones, proporcionada por la red neuronal, asociada a la
se
nal electroencefalograca.
Los modelos ocultos de Markov, tantos como actividades mentales entre las que
se quiere discriminar, son previamente entrenados con secuencias de asignaciones
provenientes de dichas actividades cognitivas. La secuencia de asignaciones son
proporcionadas por una red neuronal, la cual recibe datos de se
nal tras ser preprocesados,
normalizados y extrada la combinaci
on de caractersticas de la se
nal, tal y como se expone
en los subapartados siguientes.
4.4.6.1.

Entrenamiento de la red neuronal.

La red neuronal considerada es de tipo RBF, Funci


on de Base Radial. Esta categora de
redes neuronales se caracterizan por su capacidad de interpolaci
on, as como por aprender
la regi
on del espacio de entrada en la que se presentan las muestras a aprender, vease el
apartado 4.3.2.4. La funci
on de activacion utilizada tiene la siguiente expresion:
2

(x) = e(x ) ;

x = (wp pp )sc

(4.187)

La gura 4.20 muestra la arquitectura de red neuronal empleada.


Las neuronas de la capa oculta, durante la fase de entrenamiento, se encargan de
aprender la localizaci
on de los vectores de entrada; mientras que en la fase de utilizacion,
ante la presentacion de un nuevo vector de entrada, calcula la distancia entre este y las
localizaciones de posiciones aprendidas, los resultados de las funciones de activaci
on de las
neuronas m
as cercanas al vector propuesto seran m
as altos a los mostrados por neuronas
mas alejadas, el parametro sc controla la amplitud de la zona de inuencia de cada neurona.

126

Tipologa de clasicadores.

Figura 4.19: Algoritmo de clasicaci


on bietapa.

De estudios previos se concluye que este tipo de red neuronal presenta un mejor
comportamiento que otros tipos de redes neuronales como por ejemplo MLP o PNN
[Martnez 08].
Para el proceso de aprendizaje se consideran vectores de caractersticas provenientes
de la se
nal EEG, capturada cuando el usuario realiza una de las diferentes actividades
mentales entre las que se quiere discriminar. De toda la poblaci
on de caractersticas
disponible por experimento, el 75 % se emplea para formar el conjunto de entrenamiento,
mientras que el 25 % restante se emplea para el conjunto de validaci
on. Tras la
determinaci
on de los conjuntos de aprendizaje y validaci
on se obtienen las constantes
que permiten denir la normalizaci
on de los datos de entrada, posteriormente se obtiene
una matriz de transformaci
on con objeto de reducir la dimensi
on del espacio de entrada de
la red neuronal [Martnez 07] [Martnez 08], dicha matriz permite proyectar los vectores de

4.4 Clasicador bietapa basado en Modelo Oculto de Markov y RBF.

127

Figura 4.20: Arquitectura de la red neuronal RBF.

caractersticas en la direcci
on de los ejes sobre los que mejor se discriminan las actividades
cognitivas consideradas. Esta matriz de proyecci
on se calcula de modo tal que el 90 % de
la variabilidad de las caractersticas se mantenga, el 10 % restante de la variabilidad se
atribuye a ruido.
El proceso de entrenamiento permite el crecimiento din
amico del n
umero de neuronas
de entrada que conforman la red neuronal de modo que se minimice el efecto de sobreaprendizaje, en la etapa de salida se utilizan tantas neuronas como actividades cognitivas
a discriminar. Por lo que los par
ametros denitorios de la red neuronal y su proceso de
umero
aprendizaje son: sc (dene la zona de inuencia de cada neurona de la red), el n
de actividades cognitivas a discriminar, y el error objetivo de entrenamiento (goal). El
bloque asignador que sigue a la red neuronal en la gura 4.19, se encarga de evaluar las
componentes del vector de salida de la red, detectar el que es mayor y si su valor es superior
a un determinado nivel de umbral , asignar la se
nal recibida al orden del componente
mayor del vector; si por el contrario resulta que ninguna de las componentes supera el valor
de umbral, la se
nal introducida no ser
a asignada a ninguna de las actividades propuestas.
Una vez entrenada la red neuronal, cuando se introduce un vector de caractersticas nuevo,
la actividad cognitiva que haya presentado muestras de aprendizaje m
as pr
oximas al vector
de entrada presentado tendr
a un nivel de activaci
on m
as alto, y la salida correspondiente
tendr
a un valor mayor al de las otras actividades mentales, vease g.4.21.
4.4.6.2.

Entrenamiento de los Modelos Ocultos de Markov.

Para el entrenamiento de los modelos ocultos de Markov se vuelven a emplear las


muestras de se
nal EEG tal y como se muestra en la gura 4.22.
Para cada una de las actividades cognitivas se procede a entrenar un modelo con las
siguientes caractersticas:
N
umero de estados ocultos:
4
N
umero de objetos diferentes observables: 4

128

Tipologa de clasicadores.

Figura 4.21: Entrenamiento de la red neuronal RBF.

Figura 4.22: Entrenamiento de los MOMs.

Para el entrenamiento se utilizan cadenas de nueve elementos de longitud. En un


experimento previo con muestras sinteticas se concluy
o que la mayor tasa de clasicaciones
correctamente identicadas se consegua con cadenas de longitud de nueve elementos
para la arquitectura del modelo propuesto. Tras el entrenamiento las probabilidades
de transici
on entre estados y de observacion de los objetos quedan denidas. Mediante
el algoritmo de Viterbi es posible determinar con que probabilidad una secuencia es
proporcionada por un modelo.
4.4.6.3.

Empleo del clasicador bietapa.

La implementaci
on del algoritmo de clasicacion descrito en esta seccion se describe
en el apartado 5.6.4, a la vez que los resultados obtenidos de su utilizaci
on por varios
voluntarios se presentan en el apartado 6.4, la conclusi
on m
as signicativa que se obtiene
en dicho apartado es que la capacidad de aprendizaje que se obtiene con este clasicador es
superior a la obtenida con un clasicador basado en redes neuronales de tipo RBF, aunque
con el tama
no del conjunto de datos utilizado para el aprendizaje el clasicador tiende al
sobre-aprendizaje de dicho conjunto, por lo que su capacidad de generalizaci
on no es todo
lo optima que cabra esperar atendiendo a los resultados de la fase de aprendizaje.

4.5 Clasicador basado en M


aquina de Soporte de Vectores.

4.5.

Clasicador
Vectores.

4.5.1.

basado

en

M
aquina

129

de

Soporte

de

Introducci
on a las M
aquinas de Soporte de Vectores.

Bajo la denominaci
on de M
aquinas de Soporte de Vectores, MSV27 , se engloba
a un conjunto de metodos de aprendizaje supervisado, pertenecientes a la familia de
clasicadores lineales generalizados, aplicables tanto en problemas de clasicacion como
de regresion [Cristianini 05b], [Burges 98], [Ivanciuc 07].
Su estructura se basa en una red est
atica de n
ucleos,28 los cuales operan sobre vectores
de caractersticas que han sido transformados a un espacio de dimensi
on mayor a la del
espacio de caractersticas original [Cristianini 05a], [Gunn 98], [Gunn 03].
Las MSVs se emplean tanto en aplicaciones de clasicacion como en regresion, su
caracterstica mas importante es su buena capacidad de generalizaci
on, basada en la
determinaci
on del hiperplano que da lugar a la m
axima distancia de separacion entre
los vectores transformados [Cristianini 05b],[Castro 03]. Esta distancia de separacion se
obtiene mediante la construccion de dos hiperplanos paralelos al hiperplano de separaci
on
optima, localizados a ambos lados del mismo y que contengan al menos a uno de los
vectores transformados, denominado vector soporte, vease g.4.23; se asume que cuanto
mayor sea esta distancia, mejor sera la capacidad de generalizaci
on del clasicador
[Burges 98].
original
Espacio de caracteristicas

(.)

Espacio de caracteristicas
transformado

m<n
X2

m
U
2

H0
H1
H2

Hiperplano de

separacion

optima

Margen
X1
U1

Figura 4.23: Funcionamiento MSV.

Las operaciones que realiza una MSV en clasicaci


on son [Gunn 98] [Cristianini 05a]:
Transformacion de los datos o vectores de caractersticas de entrada a un espacio de
mayor dimensi
on a traves de una funci
on .
27
28

En ingles la denominaci
on es Support Vector Machine (SVM).
Tambien denominados como Kernels

130

Tipologa de clasicadores.

El objetivo es formular el problema de modo que el procedimiento de clasicaci


on
transforme implcitamente los datos operando con funciones kernel, K.
Calculo del hiperplano optimo que maximiza la distancia entre las clases
consideradas. Si los datos son linealmente separables, el hiperplano obtenido
maximiza el margen de separacion, a la vez que minimiza la funci
on de penalizaci
on
que considera las clasicaciones incorrectas.
Las MSVs representan la extension a modelos no lineales del algoritmo desarrollado
en 1963 por Vapnik y Lerner [Vapnik 63], basado en la teora de aprendizaje estadstico
de Reconocimiento de Patrones, utilizando la dimensi
on de Vapnik-Chervonenkis,(V C),
como evaluador de la complejidad de dicho algoritmo [Chervonenkis 74].
En un corto intervalo de tiempo se han desarrollado numerosas aplicaciones basadas
en MSV en campos como [Ivanciuc 07]:
Farmacologa: empleandose para el dise
no de medicamentos en la discriminacion
entre inhibidores y desinhibidores, o en la predicci
on de propiedades biol
ogicas, fsicas
y qumicas de los mismos.
Quimiometra: en la optimizaci
on de separaci
on cromatograca, o en la predicci
on
de la concentraci
on de compuestos a traves de muestras de analisis espectral.
En sensores: aplicandose a la predicci
on cualitativa y cuantitativa de sus medidas.
Ingeniera qumica: usandose en la modelizaci
on y deteccion de fallos de procesos
industriales.
En minera de datos: para el reconocimiento autom
atico de informacion cientca.
En clasicaci
on de se
nal EEG se ha aplicado en experimentos O-line para el control
de dispositivos externos; obteniendose, para el mejor de los casos y bajo condiciones de
laboratororio, tasas de clasicaci
on correcta cercanas al 95 % [Nicolau 08] y [Sarcinelli 09].

4.5.2.

Descripci
on del clasicador lineal o
ptimo.

El clasicador lineal optimo se basa en la seleccion del hiperplano, H0 , que actuando


como frontera de separaci
on entre las clases consideradas, maximiza la distancia a los
ejemplares mas pr
oximos de dichas clases, denominandose a estos datos vectores soporte,
sobre los mismos se dispondran dos hiperplanos, H1 y H2 , paralelos al hiperplano H0 , o
hiperplano de separaci
on optima.
Los clasicadores basados en MSV se caracterizan por su buena capacidad de
generalizaci
on, directamente relacionada con la distancia entre los hiperplanos H1 y
H2 , o margen; as como por minimizar el efecto de sobre-aprendizaje del conjunto de
entrenamiento, del que son suceptibles otros metodos de aprendizaje como es el caso de
clasicadores basados en redes neuronales[Bishop 95], ya que con las MSVs durante el
proceso de entrenamiento solo se aprenden los vectores soporte, vease gura 4.24.

4.5 Clasicador basado en M


aquina de Soporte de Vectores.

131

Hiperplano optimo
Vectores
soporte

Margen

Figura 4.24: Selecci


on del hiperplano
optimo.

4.5.3.

Descripci
on del problema de optimizaci
on lineal.

Dado un conjunto de datos o vectores de entrada x Rn de las diferentes clases y N,


se desea encontrar el valor de los parametros del hiperplano: {w, b}, que da lugar a la
mayor separaci
on del hiperplano a dichas clases.
Matematicamente se obtiene la expresion recogida en la ecuaci
on 4.188.

yi = 1
xi Ci = A

(4.188)
wxi + b yi /
yi = 1 xi Ci = B
(w , b ) / w x + b = 0 Hiperplano optimo
Aunque para el desarrollo formal se empleen s
olo dos clases: {A, B}, las conclusiones
son extrapolables para el caso de m
ultiples clases bajo el paradigma de uno contra uno, o
uno contra todos, generando tantos clasicadores como clases.
El mejor hiperplano, para la clasicaci
on de nuevos datos, es aquel cuya distancia de
separacion a los vectores vecinos de ambas clases sea maxima.
on optima, para el
Al hiperplano, H0 , as obtenido se le denomina hiperplano de separaci
cual el margen es maximo. Este margen se obtiene como la distancia entre dos hiperplanos,
H1 y H2 , paralelos a H0 , que contienen al menos a un vector de cada clase, denominados
vectores soporte.
La expresion matematica de H1 y H2 se muestra en las ecs.: 4.189 y 4.190.
(4.189)
H1 : wx b = 1
H2 : wx b = 1

(4.190)

Si los vectores de entrada son linealmente separables, es posible elegir dos hiperplanos entre
los que no haya datos y maximizen la distancia entre ellos [Cristianini 05b], [Burges 98],
[Gunn 98].

132

Tipologa de clasicadores.

Ya que geometricamente el vector w es perpendicular al hiperplano que dene, y la


distancia del hiperplano al origen del sistema de coordenadas viene dada por la ec. 4.191.
d=

b
|w|

(4.191)

Utilizando las ecs. 4.189 y 4.190 se obtiene que la distancia entre H1 y H2 es:
d=

2
|w|

(4.192)

Por lo que el objetivo de maximizar la distancia de separaci


on entre ambos hiperplanos
es equivalente a minimizar |w|. A la vez que la soluci
on propuesta debe evitar que haya
vectores de entrada dentro de la regi
on entre ambos hiperplanos, ec. 4.193.
yi (wxi b) 1,

1 i n.

(4.193)

Todo lo cual da lugar a la expresi


on del siguiente problema de optimizaci
on
(w) = 12 |w|2

Minimizar

Considerando la restricci
on yi (wxi b) 1,

29 :

(4.194)
1 i n.

(4.195)

Para el cual, en su resoluci


on, se utiliza el metodo de los multiplicadores de Lagrange,
dando lugar a la siguiente funci
on lagrangiana, ec. 4.196.

1
i [yi (wT xi + b) 1]
L(w, b, ) = wT w
2
N

(4.196)

i=1

Cuya resolucion en el punto optimo da lugar al sistema de ecuaciones 4.197 y 4.198,


resoluble si los datos son linealmente separables, asegurando que el mnimo encontrado es
un mnimo global.
N

L
=0 w=
i yi xi
(4.197)
w
L
=0 w=
b

i=1
N


i yi = 0

(4.198)

i=1

Observese la analoga de la ecuaci


on 4.197 con la soluci
on del perceptr
on.
Las ecuaciones anteriores dan lugar a:
N
N 
N


T
T
i yi xi =
i j yi yj xi xj
w w=w
i=1

(4.199)

i=1 j=1

Que sustituyendo en la ec.4.196 hacen que la funci


on a maximizar Q() sea:
J(w, b, ) = Q() =

N

i=1

29

El factor

1
2

1 
i j yi yj xi xj
2
N

i=1 j=1

se introduce por conveniencia para el desarrollo posterior.

(4.200)

4.5 Clasicador basado en M


aquina de Soporte de Vectores.

133

Estando sujeta a las restricciones:


N


i yi = 0

i=1

(4.201)

i 0

i = 1, ..., N.

En donde se puede demostrar que s


olo los i correspondientes a vectores soporte son
distintos de cero.
De todo lo cual se deduce que el hiperplano de separaci
on optima, H0 , solo depende
de los vectores soporte provenientes del conjunto de entrenamiento.
Una vez hayados los valores i se obtienen los coecientes del hiperplano:
i w =

N


i yi xi b = 1 w T xs

(4.202)

i=1

4.5.4.

Margen blando.

En el an
alisis anterior se considera que en la regi
on comprendida entre los hiperplanos
H1 y H2 no han de existir vectores, ni que estos pudieran ser erroneamente clasicados.
Esta consideraci
on es muy exigente para su aplicaci
on en casos pr
acticos, lo que motiv
o que
en 1995 Corinna Cortes y Vladimir Vapnik propusieran una nueva idea de margen m
aximo
[Vapnik 95], a la que denominaron Margen Blando la cual, para el caso en que no es
posible encontrar un hiperplano de separaci
on optimo, H0 , seleccionara aquel hiperplano
que separando los vectores de entrada tan limpiamente como fuera posible, permitiera
errores de clasicacion a la vez que maximiza la distancia al resto de los datos que han
sido correctemante identicados, vease la gura 4.25. Esta nueva variante introduce un
nuevo conjunto de variables, denominadas variables de holgura: hi , i = {1, ..., N }, que
permiten ponderar el grado de desclasicaci
on de cada vector, tal que:
yi (wT xi + b) 1 hi ,
En donde:
hi 0

i = 1, . . . , N

(4.203)

0 hi 1 clasicacion correcta.
clasicacion incorrecta.
hi > 1

(4.204)

Originando que la nueva funci


on objetivo, (w, h), contenga un termino que penaliza
a las variables de holgura, convirtiendose la optimizaci
on en un balance entre el mayor
margen y el error de penalizaci
on.
En caso de que la funci
on de penalizaci
on sea lineal, la funci
on objetivo (ec.4.194) se
transforma en:

(4.205)
Minimizar (w, h) = 12 |w|2 + C N
i=1 hi
Considerando la restricci
on

yi (wxi b) 1,

1 i n.

(4.206)

134

Tipologa de clasicadores.

Siguiendo un proceso de resoluci


on semejante al seguido con anterioridad, da lugar
a que en el problema dual las variables de ajuste desaparezcan, manteniendose solo la
constante C como restriccion adicional en los multiplicadores de Lagrange, la cual controla
el compromiso entre complejidad del modelo y el n
umero de datos no separables, esta
constante se especica empricamente mediante procedimiento de validaci
on cruzada.

hj
hi

1
1

Figura 4.25: Separaci


on lineal: margen blando.

Funciones de penalizaci
on no lineales tambien han sido propuestas, sobre todo en
aquellos casos donde es preciso minizar el efecto de muestras anomalas; presentan el
inconveniente de aumentar la complejidad de la resoluci
on del problema de optimizaci
on,
pues se tiende a perder la convexidad, siendo m
as complejo encontrar una soluci
on global.

4.5.5.

Descripci
on del clasicador no lineal.

Hasta ahora se ha descrito un algoritmo de clasicaci


on lineal, a excepcion de la
modicaci
on de margen blando, lo que da lugar a que el n
umero de aplicaciones pr
acticas
del mismo sea reducido. Esto motiv
o que, para aquellos problemas de clasicaci
on de
conjuntos de datos no separables linealmente, Bernhard Boser, Isabelle Guyon y Vladimir
Vapnik, propusieran en 1992 [Vapnik 92] un nuevo tipo de clasicador, que tras la
transformacion a traves de una funci
on no lineal (.) de los conjuntos de datos originales
a conjuntos de datos en espacios de caractersticas transformados, de dimension superior a
la del espacio de caractersticas original, y separables linealmente, emplearan el algoritmo
on de dichos
de determinaci
on de hiperplano optimo, H0 , como metodo de separaci
conjuntos. De este modo, aunque el clasicador se base en un hiperplano en el espacio
de caractersticas transformado, este puede ser no lineal en el espacio de caractersticas
original.

4.5 Clasicador basado en M


aquina de Soporte de Vectores.

135

El algoritmo resultante es formalmente similar al descrito con anterioridad, con la


diferencia de que el producto escalar de vectores original es reemplazado por una funci
on
de kernel K no lineal.
Descrito matematicamente, el procedimiento aplica una transformaci
on no lineal, (.),
a los datos de entrada transform
andolos a un espacio de dimensi
on superior:

Rn Rm ,

m>n

en el cual es posible realizar una separacion lineal de los datos transformados.

Figura 4.26: Separaci


on no lineal.

Por lo que, teniendo en cuenta el desarrollo del procedimiento de optimizaci


on lineal
anterior y la consideracion realizada para margen blando, la funci
on objetivo a minimizar,
(w, h), es equivalente a la considerada en la ec. 4.205:

1 T
w w+C
hi
2
N

(w, h) =

(4.207)

i=1

Teniendo en cuenta que en las restricciones equivalentes a la ec. 4.206, la funci


on de
transformacion (x) sustituye al vector de datos x, se da lugar a:
yi (wT (xi ) + b) 1 hi ,

i = 1, . . . , N
hi 0

(4.208)

Obteniendose los parametros del hiperplano {w, b} en el nuevo espacio de


caractersticas Rm .
Hay que tener en cuenta que la transformaci
on explcita, (x), es costosa en caso
de que m sea elevada, por lo que se buscan alternativas para no tener que realizar la
transformacion explcita de cada dato, dando lugar a las denominadas funciones Kernel
K, mencionadas en 4.5.1.

136

Tipologa de clasicadores.

4.5.5.1.

Funci
on Kernel K.

Teniendo en cuenta que en la ecuaci


on 4.200 de la formulaci
on dual, aparece solamente
el producto escalar de los datos, y que su equivalente para el caso de clasicacion no lineal
sera la ecuaci
on 4.209.
Q() =

N


1 
i j yi yj (xi )T (xj )
2
N

i=1

(4.209)

i=1 j=1

El objetivo es encontrar una funci


on en la que el producto escalar de las
transformaciones de cada dato, (x), sea igual a la transformaci
on del producto escalar
de los datos, lo cual origina que no sea preciso transformar explcitamente los datos de
entrada para resolver el problema de optimizacion o entrenamiento de las MSV, ni que
sea preciso el conocimiento exacto de la expresion de la funci
on (x).
K(xi xj ) = (xi ) (xj )

(4.210)

A modo de ejemplo [Castro 03], [Cristianini 05a], sea a = (a1 , a2 ):

(a) = (a21 , a22 , 2a1 a2 , 2a1 , 2a2 , 1)

(4.211)

El producto escalar de (a) (b) sera:


(a) (b) = a21 b21 + a22 b22 + 2a1 b1 a2 b2 + 2a1 b1 + 2a2 b2 + 1 = . . .
2

(4.212)

= (a1 b1 + a2 b2 + 1) = (a b + 1)

De donde se deduce que una posible funci


on kernel, K(a b), asociada a (a) sera:
K(a b) = (aT b + 1)2 = (a)(b)

(4.213)

El teorema de Mercer indica si una funcion kernel cumple la propiedad de producto


escalar y por tanto es u
til para una MSV [Cristianini 05b]
K(u, v) =
 

am m (u)m (v),

am 0

(4.214)

g L2

(4.215)

K(u, v)g(u)g(v)dudv > 0,

Este teorema no indica sin embargo como construir las funciones (x). La tabla 4.2
recoge los tipos de funciones kernel m
as utilizados [Gunn 98].
Las funciones compuestas por sumas y/o productos de funciones kernel tambien son
funciones kernel [Cristianini 05b], [Burges 98], [Gunn 98].

4.5.6.

Comparaci
on entre M
aquinas de soporte de Vectores y Redes
Neuronales.

La tabla 4.3 presenta una comparaci


on cualitativa entre clasicadores basados en
M
aquinas de Soporte de Vectores y Redes Neuronales Articiales.

4.5 Clasicador basado en M


aquina de Soporte de Vectores.

Tipo MSV.

Funci
on kernel.

Polin
omica.

(xT y + 1)p

RBF Gaussianas.

e(

RBF Exponeciales.

e(

Perceptr
on
de 2 capas

El valor de p lo especica el usuario.


El valor de lo especica el usuario y es
com
un a todas las funciones kernel
El valor de lo especica el usuario y es
com
un a todas las funciones kernel
S
olo ciertos valores de son v
alidos

sin(N + 21 )(xy)
sin( 21 (xy))

N

N

s=1 (x

B splines.

|xxi |
)
2 2

Comentario.

tanh(0 xT xi + 1 )

Serie
de
Fourier.
Splines.

|xxi |2
)
2 2

r r
r=0 x y +
s )k+ (y s )k+

B2N +1 (x y)

137

El valor de N lo especica el usuario.

El orden de la curva k y el n
umero
de los N puntos localizados en s lo especica
el usuario.
El valor de N lo especica el usuario.

Tabla 4.2: Funciones Kernel.

MSV.
Las funciones Kernel transforman los
datos de entrada a espacios de dimensi
on
muy superior.
El espacio de b
usqueda tiene s
olo un
mnimo global.
El entrenamiento es muy eciente.
Clasicaci
on eciente.
Se dise
na la funci
on Kernel y el par
ametro
de coste C.
Buen funcionamiento en problemas tipo.
Comportamiento muy robusto para generalizaci
on, menor necesidad de heursticos
para entrenamiento.

Redes neuronales.
Las capas ocultas transforman los datos a
espacios de cualquier dimensi
on.
El espacio de b
usqueda tiene m
ultiples
mnimos locales.
El entrenamiento es costoso.
Clasicaci
on eciente.
Se dise
na el n
umero de capas ocultas y
nodos.
Buen funcionamiento en problemas tipo.
Precisan controlar el sobre-aprendizaje.

Tabla 4.3: Comparaci


on entre SVM y Redes Neuronales.

138

Tipologa de clasicadores.

4.5.7.

Implementaciones.

Tal y como se puede dedudir de la secciones anteriores, los par


ametros del hiperplano
on de un problema de optimizaci
on;
de separacion optima, H0 , se obtienen tras la resoluci
actualmente existen diferentes tipos de algoritmos especializados en la rapida resoluci
on
de problemas de optimizaci
on aplicados a MSV.
Para el desarrollo del clasicador empleado en los resultados del captulo 6 se han
valorado tres conjuntos de herramientas, Toolboxes, de distribuci
on gratuita para
Matlab:
1. Matlab Support Vector Machine Toolbox. Disponible en [Gunn 05]:
http://www.isis.ecs.soton.ac.uk/resources/svminfo/
2. SVM and Kernel Methods Matlab Toolbox. Disponible en [Canu 05]:
http://asi.insa-rouen.fr/ensignants/
arakotom/toolbox/index.html
3. LIBSVM A Library for Support Vector Machines. Disponible en [Chang 07]:
http://www.csie.ntu.edu.tw/cjlin/libsvm/
Eligiendose la segunda opcion por ser eciente, disponer de una interfaz clara y
adecuada documentacion, hay que destacar que junto con la primera opci
on tambien se
suministran abundantes ejemplos.
La implementaci
on del algoritmo de clasicacion descrito en esta seccion se describe
en el apartado 5.6.5, a la vez que los resultados obtenidos de su utilizaci
on por varios
voluntarios se presentan en el apartado 6.5, la conclusi
on m
as signicativa que se obtiene
en dicho apartado es que los clasicadores basados en M
aquinas de Soporte de Vectores que
utilicen Kernels polin
omicos de orden 4 o 5 presentan mejores resultados que los basados
en Kernels gaussianos.

Captulo 5

Procedimientos experimentales y
aplicaci
on de demostraci
on.
En este captulo se describen las actividades cognitivas propuestas a modo de
interfaz, as como los protocolos de preparacion del usuario y del equipo de adquisici
on
y procesamiento, que han sido empleados en la realizaci
on de los procedimientos
experimentales a cuyos resultados se les aplican las diferentes tecnicas de clasicacion
presentadas en el captulo 4. Por u
ltimo se presenta una propuesta de arquitectura para
el empleo de la tecnologa ICC en un dispositivo generico que ha sido implementada en la
aplicaci
on de demostracion.

5.1.

Protocolo preparaci
on del usuario.

Para que el registro de se


nal electroencefalograca presente una menor sensibilidad a
perturbaciones causadas por ruido y artefactos, es preciso que sobre el usuario se realicen
las siguientes actividades:
1. Limpieza de la zona de cuero cabelludo sobre la que se dispondran los electrodos.
El objetivo de esta actividad es mejorar la conductividad electrica de la zona,
eliminando celulas de piel muerta, grasa y suciedad.
2. Aplicaci
on de gel conductor. Mediante la utilizaci
on de un gel conductor se aumenta
la conductividad en la zona de contacto del electrodo con la piel, lo que da lugar a
registros de se
nal con mayor amplitud.
3. Colocacion de los electrodos. Tal y como se ha indicado en el captulo 3, los electrodos
se disponen en las proximidades de C3 y C4 , dando lugar a dos canales diferenciales.
4. Medida de impedancia entre cada electrodo y el electrodo de referencia de masa del
amplicador. Cuanto menor sea la impedancia de la fuente de origen de la se
nal
muestreada, mayor sera su inmunidad frente a perturbaciones causadas por ruido
electromagnetico, por lo que se comprueba que la impedancia entre los electrodos
activos de los canales y el electrodo de referencia de masa del bio-amplicador sea
inferior a 4KOhms.

140

Procedimientos experimentales y aplicaci


on de demostraci
on.

Figura 5.1: Localizaci


on de los electrodos.

La eleccion de C3 y C4 como punto de localizaci


on de los electrodos se debe a que como
demuestran las investigaciones del equipo del Dr.S.J.Roberts [Penny 00] [Sykacek 03], o
Dr.J.Mill
an: [Babiloni 00], [Gerstner 04], [Millan 03]; es en esta zona encefalica en donde se
registran niveles de se
nal electroencefalograca mas altos, cuando se comparan actividades
cognitivas en las que se ven involucrados ejercicios de imaginaci
on con ejercicios de
planicaci
on y realizaci
on de movimiento. Es as mismo en esta zona donde se produce
una mejor deteccion de ritmos [Birch 00] [Lauer 00] [Pineda 00], relacionados con los
potenciales de desincronizaci
on y posterior sincronizacion asociados a la realizacion de
movimiento, lo cual ha sido empleado por el equipo del Dr. Wolpaw para el desarrollo de
su dispositivo ICC: [Wolpaw 07],[Wolpaw 02],[Wolpaw 00b], [Wolpaw 03].
Investigaciones realizadas por el equipo del Dr. Pfurtscheller, dirigidas hacia la
localizaci
on de patrones geometricos de actividad cerebral cuando se realizan diferentes
tipos de tareas mentales, [Pfurtscheller 00], [Scherer 04], [Pfurtscheller 03]; as como
as los trabajos de Dra.C.Neuper y Dr. N Bribaumer: [Obermaier 01b], [Blankertz 04],
[Hinterberger 04], [Birbaumer 03], corroboran las localizaciones de los electrodos C3 y C4
como unas de las que mas capacidad de discriminaci
on poseen.

5.2.

Descripci
on del equipo de adquisici
on y procesamiento.

El equipo de adquisici
on y procesamiento se compone de los siguientes dispositivos, en
los que se ajustan los par
ametros indicados.:
Electrodos superciales tipo Au-Cu. Impedancia entre el electrodo activo N y el
electrodo de referencia de masa del bio-amplicador: ZN 4KOhms.
Bio-amplicador. Modelo: g.BSamp Fabricante: g.tec. Filtro Notch de rechazo de
banda sintonizado a 50 Hz. Filtro paso alto sintonizado a 0.5 Hz. [Guger 05].
Acumulador. Modelo: Akkupack. Fabricante: g.tec
Tarjeta de adquisici
on. Modelo: PCI-MIO-16 E-4. Fabricante: National Instrument.
Frecuencia de muestreo: Fs = 384Hz. Bloque de muestras considerado: N = 128.
[Instruments 01]
PC para procesamiento de se
nal e interfaz con el usuario.

5.3 Descripci
on de las actividades cognitivas.

141

Figura 5.2: Componentes del sistema.

Una vez realizado el conexionado y puesta en marcha de los elementos se procede a


observar la evolucion temporal de los cuatro canales de se
nal adquiridos:
Canal 1: Corresponde a los electrodos dispuestos en C3 y C3 .
Canal 2: Corresponde a los electrodos dispuestos en C4 y C4 .
Canal 3: Electrodos dispuestos para registrar la actividad ocular.
Canal 4: Canal sin electrodos conectados, permite tener una estimacion del nivel de
ruido interno presente en el bio-amplicador.
Tras la inspecci
on temporal de la se
nal de cada uno de los canales se procede a observar la
estimacion espectral de potencia de los mismos, se comprueba que la activacion del ltro
Notch provoca una reducci
on signicativa de la componente presente en 50 Hz.

5.3.

Descripci
on de las actividades cognitivas.

Los dispositivos basados en la tecnologa ICC end


ogenos parten de la hip
otesis de que
actividades cognitivas diferentes dan lugar a patrones de ondas electroencefalogr
acas
distintos, los cuales tras ser caracterizados e identicados permiten el control del
dispositivo externo asociado.
Se ha escogido el siguiente conjunto de actividades cognitivas a efectos de poder
comparar los resultados con los obtenidos por otros grupos de investigaci
on donde se
utilizan actividades cognitivas equivalentes [Penny 00], [Perelmouter 00], [Cincotti 03].
Actividad matem
atica. Al usuario se le instruye para que piense en una operaci
on
matematica sencilla que necesite de su concentraci
on, por ejemplo la resta sucesiva
de un n
umero primo a una cantidad elevada.
Imaginaci
on de movimiento. Al usuario se le indica que debe imaginar que mueve sus
extremidades superiores, en particular la mano derecha, pero sin que llegue a realizar
el movimiento propiamente dicho. Un ejemplo sera imaginar que esta tocando una
guitarra.
Relax. En esta actividad al usuario se le sugiere que mantenga la mente en blanco,
relaj
andose todo lo que pueda.1
1

Resaltar que la parametrizaci


on e identificaci
on de la actividad de relax es novedosa, permitiendo una
mejor identificaci
on y posterior clasificaci
on de los patrones de se
nal electroencefalogr
afica asociados a las
actividades cognitivas.

142

5.4.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Descripci
on del protocolo para el procedimiento Oline.

Mediante el proceso experimental O-line se adquieren registros de se


nal
electroencefalograca mientras el usuario realiza las actividades cognitivas propuestas,
sin que el sistema proporcione realimentacion de la tasa de discriminaci
on alcanzada.
En la gura 5.3 se presenta el ujograma de desarrollo del experimento.

Figura 5.3: Flujograma procedimiento O-line.

5.4 Descripci
on del protocolo para el procedimiento O-line.

143

La nalidad de esta fase experimental es obtener un conjunto de registros de se


nal
electroencefalograca con el que vericar que, para el usuario considerado, es posible
discriminar entre las actividades cognitivas propuestas, y a su vez puedan ser utilizados
para el entrenamiento de los clasicadores.
En cada sesi
on experimental el supervisor del experimento introduce en el sistema el
umero de actividades cognitivas consideradas
n
umero de replicas a realizar, Nrep 2 , y el n
3
Nact
Cada replica queda compuesta por tantos registros de se
nal electroencefalograca como
on de cada registro es de
n
umero de actividades cognitivas se consideren, Nact . La duraci
siete segundos. Considerando que la frecuencia de muestreo es de FS = 384Hz y que cada
ventana de an
alisis tiene una extension de N = 27 = 128 muestras, por cada registro se
alisis. Para cada replica, el sistema presenta en pantalla,
obtienen NW = 21 ventanas de an
de forma aleatoria, la actividad cognitiva en la que debe pensar el usuario. La adquisici
on
de se
nal comienza tras cinco segundos de presentacion del aviso de la actividad cognitiva
en la que concentrase.
Durante el desarrollo del experimento el usuario se encuentra sentado en frente de la
pantalla del sistema de adquisici
on, a una distancia de 50 cm, con las manos en posici
on
visible para el supervisor del experimento, quien comprueba que no se produce movimiento
alguno de las mismas. El resto de dispositivos electr
onicos cercanos al experimento son
desconectados para evitar posibles perturbaciones.

2
3

Por defecto se considera Nrep = 10.


Por defecto se considera Nact = 3.

144

5.5.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Descripci
on del protocolo para el procedimiento Online.

En el proceso experimental
On-line al usuario se le realimenta informacion del proceso de
clasicacion de la se
nal adquirida en el instante inmediatamente anterior. En pantalla se muestra el icono objetivo, en forma
de cuadrado, dispuesto aleatoriamente en la parte izquierda o en
la derecha; un cursor, en forma
de rombo, se desplaza horizontalmente dependiendo del resultado
de la clasicacion.
La gura 5.4 presenta el ujograma de desarrollo del experimento. Se emplean las mismas actividades cognitivas que en el procedimiento O-line, utilizando
los registros de se
nal previamente
adquiridos para entrenar un clasicador basado en redes neuronales de tipo RBF. El supervisor
del experimento indica el n
umero de actividades cognitivas conumero de
sideradas, Nact , y el n
replicas a realizar, Nrep , as mismo se realiza la asociaci
on de actividad cognitiva con el sentido
de movimiento, comunicandoselo
verbalmente al usuario. La duracion del experimento es de siete segundos, presentando el icono
objetivo con una antelaci
on de
cinco segundos. En cada replica
el sistema presenta el icono objetivo aleatoriamente en la derecha
o en la izquierda de la pantalla.

Figura 5.4: Flujograma procedimiento On-line.

5.6 Procedimientos experimentales de clasicaci


on.

5.6.

145

Procedimientos experimentales de clasicaci


on.

En esta seccion se muestran los diagramas de actividad [Arlow 05] empleados en los
procedimientos de aplicaci
on de las diferentes tecnicas de clasicacion presentadas en el
capitulo 4, cuyos resultados se recogen en el captulo 6.
En la gura 5.5 se muestra el diagrama asociado al procesamiento de los registros de
se
nal electroencefalograca, que permite obtener los vectores de caractersticas a partir de
las muestras de se
nal EEG adquiridas.

Figura 5.5: Procedimiento de procesamiento registros EEG.

146

5.6.1.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Contraste estadstico de poblaciones.

La gura 5.6 representa el diagrama de


actividad empleado en
el procedimiento experimental que implementa
el contraste estadstico
de poblaciones.
Observese que el procedimiento se realiza
para cada tipo diferente de ventana de procesamiento, recuperando los vectores de caractersticas a ellas asociados. Para cada canal
electroencefalograco se
realizan contrastes independientes de las poblaciones de cada componente del vector de
caractersticas, considerando parejas de actividades cognitivas, lo que
da lugar a que el proceso se reitere N veces:
 
3
276 = 252
N=
2

Figura 5.6: Procedimiento estadstico de comparaci


on de poblaciones.

5.6 Procedimientos experimentales de clasicaci


on.

5.6.2.

An
alisis Discriminante Lineal.

La gura 5.7 representa el diagrama de actividad asociado a la


implementaci
on del experimento basado en la
tecnica de Analisis Discriminatorio Lineal.
Al igual que en el caso anterior, el procedimiento experimental se
realiza con los vectores
de caractersticas obtenidos tras el procesamiento de las muestras
de se
nal electroencefalograca con cada uno
de los diferentes tipos de
ventas de procesamiento.
As mismo, para
determinar la potencia de discriminacion
obtenida, con cada
tipo de ventana de
procesamiento cuando
se aplica la tecnica
LDA, se utiliza el
contraste
estadstico
de poblaciones sobre el
vector de caractersticas
transformado.

Figura 5.7: Procedimiento de aplicaci


on de la tecnica LDA.

147

148

5.6.3.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Clasicadores basados en redes neuronales.

La gura 5.8 representa el


diagrama de actividad asociado al experimento que emplea
clasicadores basados en redes neuronales de tipo MLP,
RBF y PNN. Por cada tipo de clasicador se realizan
dos implementaciones, una de
ellas considera redes neuronales independientes por cada canal electroencefalograco, mientras que la segunda
emplea una u
nica red neuronal que considera de forma
conjunta ambos canales.

Figura 5.8: Procedimiento de aplicaci


on de clasicadores basados
en redes neuronales.

5.6 Procedimientos experimentales de clasicaci


on.

5.6.4.

149

Clasicador bietapa RBF-MOM

La gura 5.9 representa el diagrama de actividad de la implementacion del experimento basado en


el empleo del clasicador bietapa
RBF-MOM.
La implementaci
on consta de
cuatro bloques principales. En el
primero se genera el conjunto de datos que se emplearan para el entrenamiento y prueba, considerando los
tres tipos de actividades cognitivas.
Como procedimiento de validaci
on
se emplea el metodo de validaci
on
cruzada, por lo que del total de sesiones de datos una de ellas se reserva para validaci
on, empleando el
resto para el entrenamiento, el procedimiento se replica seleccionando
secuencialmente la sesion empleada
para validaci
on.
En el segundo bloque se realiza
el entrenamiento del preclasicador
basado en redes neuronales de tipo RBF. Posteriormente se procede al entrenamiento de tres modelos
ocultos de Markov, uno por actividad cognitiva considerada, partiendo de secuencias de preclasicacion
de 9 elementos proporcionadas por
el preclasicador RBF.
Por u
ltimo en el cuarto bloque
se prueba el conjunto de vectores
de caractersticas reservado para el
proceso de validaci
on cruzada.

Figura 5.9: Procedimiento de aplicaci


on del clasicador
bietapa RBF-MOM.

150

5.6.5.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Clasicador basado en M
aquinas de Soporte de Vectores.

La gura 5.10 representa


el diagrama de actividad de
la implementaci
on del experimento que emplea el clasicador basado en M
aquinas
de Soporte de Vectores.
Al
igual que en los apartados anteriores, en una primera etapa se realiza la carga de datos
provenientes de las actividades cognitivas consideradas.
Posteriormente se procede a la determinacion de los
par
ametros del kernel y determinaci
on de los conjuntos
de datos para entrenamiento
y prueba.
Se continua con el entrenamiento del clasicador, basado en tres sub-clasicadores
bajo el paradigma de uno contra uno, ya que es m
as selectiva que la comparaci
on uno
contra el resto.
Por u
ltimo se realiza la
prueba de rendimiento y guardado de datos.

Figura 5.10: Procedimiento de aplicaci


on del clasicador basado en
MSV.

5.7 Descripci
on de arquitectura dispositivo ICC.

5.7.

151

Descripci
on de arquitectura dispositivo ICC.

En esta seccion se presenta la propuesta de arquitectura a nivel de an


alisis para un
dispositivo ICC, la cual ha sido empleada en una aplicaci
on para deletrear palabras
en un sistema inform
atico basado en entorno PC. Se ha escogido esta aplicacion por
su utilidad casi directa por personas que padecen alg
un tipo de sndrome de bloqueo.
Hay que resaltar que este tipo de aplicaci
on, basada en la utilizacion de un paradigma
de ICC end
ogeno y en el empleo de solo dos canales electroencefalogracos, precisa de
usuarios entrenados y altamente motivados, pues deletrear correctamente una palabra
a traves de en un algoritmo de decision por dicotoma requiere un n
umero elevado de
clasicaciones correctamente concatenadas, lo que signica un nivel de concentraci
on
elevado. La denicion de la aplicaci
on se realiza empleando UML, [Ambler 05], [Arlow 05],
[Pilone 05], [Rumbaugh 00b], [Rumbaugh. 00a], [Rumbaugh. 99].

5.7.1.

Identicaci
on de actores.

En la aplicaci
on para deletrear palabras se han identicado dos actores.
Usuario. Persona encargada de controlar la aplicaci
on a traves de sus patrones
cerebrales endogenos, asociados a las actividades cognitivas propuestas.
Controlador. Persona a cargo de realizar los protocolos de preparaci
on del usuario
y del sistema, as como supervisar el correcto funcionamiento de la aplicaci
on y la
puesta en marcha / apagado del sistema.

5.7.2.

Descripci
on de casos de uso.

Los casos de uso indican como se va a comportar la aplicaci


on desde el
punto de vista de los actores, se trata pues de la
descripcion de la funcionalidad requerida al sistema. Desde un punto de
vista de an
alisis se consideran s
olo los casos de uso
claves para los actores, tal
y como se muestra en la
gura 5.11.

Figura 5.11: Casos de uso de la aplicaci


on.

152

Procedimientos experimentales y aplicaci


on de demostraci
on.

5.7.2.1.

Deletrear palabra.

Condiciones iniciales:
Los procedimientos de preparaci
on de usuario y equipo han sido llevados a cabo y
el sistema funciona correctamente.
La aplicaci
on presenta en pantalla una ventana semejante a la mostrada en la gura
5.12, en donde en la parte superior aparecen letras del alfabeto, mientras que en la
parte inferior se muestran caracteres numericos, as como las secuencias de control
de Espacio y Fin. En la parte izquierda se muestra el cursor controlado por
el usuario. En la parte central se muestran mensajes de aviso para el usuario. Por
u
ltimo, inmediatamente debajo de la secuencia de caracteres, en la parte inferior se
muestran los caracteres seleccionados.
La asociacion de movimiento vertical del cursor con las actividades cognitivas, se ha
realizado conforme a la eleccion del usuario.
El usuario ha identicado tanto la palabra que desea deletrear, como la primera letra
de dicha palabra.

Figura 5.12: Interfaz de la aplicaci


on demostrador.

5.7 Descripci
on de arquitectura dispositivo ICC.

153

Flujo principal del caso de uso:


1.a El usuario realiza la actividad cognitiva asociada al desplazamiento del cursor, que
lo acerca a la mitad que contiene el caracter que se desea escribir.
2.a La aplicaci
on procede a realizar registros de se
nal electroencefalograca siguiendo
el protocolo del procedimiento On-line, apartado 5.5, y desplaza el cursor
verticalmente seg
un el patr
on cognitivo identicado. Tras N desplazamientos
sucesivos en el mismo sentido, el cursor se posiciona sobre el grupo de caracteres
elegido.4
3.a El paso 2.a. se repite hasta que el cursor se posiciona sobre el grupo de caracteres
superior o inferior.
4.a Si el grupo de caracteres alcanzado queda compuesto por m
as de un elemento, la
aplicaci
on proceder
a a presentar la primera mitad en la parte superior y la segunda
umero de caracteres seleccionado es impar, la primera mitad
en la inferior.5 Si el n
tendr
a un car
acter menos que la segunda. El cursor se reposicionara en el centro de
la ventana y se volver
a al punto 1.a.
4.b En caso de que el grupo de caracteres alcanzado quede compuesto por un u
nico
elemento, este sera el caracter seleccionado, pasando a mostrarlo en la zona en la
que se deletrea la palabra elegida.
La aplicaci
on proceder
a a reposicionar el cursor en la zona central de la ventana,
mostrara el alfabeto en la parte superior y la secuencia numerica en la parte inferior,
tras lo cual se volvera al punto 1.a.
Postcondiciones.
La aplicaci
on permanecera activa mostrando los caracteres seleccionados hasta que el
supervisor decida nalizarla.
Las muestras de se
nal electroencefalograca adquiridas, as como el procesamiento de
las mismas y las selecciones llevadas a cabo seran almacenadas en los correspondientes
cheros.
Flujos alternativos.
2.b Si el registro de actividad electroencefalogr
aca no puede clasicarse como
perteneciente a alguna de las actividades cognitivas asociadas a movimiento del
cursor, o su nivel de certeza en el reconocimiento es inferior a un determinado valor
de umbral, el cursor no se desplazar
a.

4
5

N ser
a configurable, siendo su valor por defecto N = 3.
La selecci
on de los caracteres se realiza por dicotoma.

154

Procedimientos experimentales y aplicaci


on de demostraci
on.

5.7.2.2.

Puesta en marcha del sistema.

Condiciones iniciales:
La preparaci
on del usuario se ha realizado conforme a lo indicado en el apartado 5.1.
El supervisor realiza la puesta en marcha del sistema, vericando el correcto
funcionamiento de los componentes seg
un se describe en el apartado 5.2.
Flujo principal del caso de uso:
1.a El supervisor inicia la aplicaci
on.
2.a La aplicaci
on solicita del supervisor los parametros de la sesion:

3.a
4.a

5.a

6.a

7.a
8.a

9.a

Identicacion de usuario.
N
umero de sesion.
N
umero de actividades cognitivas.
Identicacion de las actividades cognitivas.
N
umero de replicas consideradas.
El supervisor introduce los par
ametros de conguraci
on de la sesi
on.
El sistema crea una estructura de cheros para almacenar las muestra de se
nal
electroencefalograca adquiridas, procesamiento de las mismas, as como los datos
de clasicaciones a las que dieran lugar y estructuras de datos de aprendizaje de los
clasicadores.
on
La aplicaci
on procede a comunicar que en N6 segundos se va a efectuar la adquisici
de registros de se
nal EEG relacionada con la actividad cognitiva propuesta. En la
parte central de la ventana se mostrar
a la cuenta atr
as de tiempo para comienzo de
la adquisici
on de muestras.
La aplicaci
on procede a la captura de muestras de se
nal electroencefalograca, seg
un
se ha descrito en el apartado 5.4. Los registros de actividad electroencefalograca se
almacenaran en la estructura de datos del experimento.
La aplicaci
on procede a extraer y guardar el conjunto de vectores de caractersticas
de los registros de se
nal efectuados.
Con la poblaci
on de vectores de caractersticas obtenidos se procede a entrenar
al clasicador, tras lo cual se indica al supervisor el porcentaje de clasicaciones
correctas obtenido. La parametrizacion del clasicador se almacenara en la estructura
de datos del experimento.
El supervisor decide si con el porcentaje de clasicacion obtenido se procede con
el caso de uso de Deletrear palabra, o se procede a repetir el caso de uso actual
devolviendo el control al punto 2.a, o bien se naliza la aplicaci
on.

Postcondiciones.
El sistema guarda tanto la informaci
on de los registros de se
nal electroencefalograca,
como las estructuras de datos que denen el entrenamiento del clasicador.
Flujos alternativos.
4.b Si el sistema detecta que la identicaci
on de la sesi
on ya existe, procede a
comunicarselo al supervisor, devolviendo el control al punto 2.a, para evitar la
corrupci
on de datos de sesiones anteriores.
6

N ser
a configurable, por defecto se consideran 5 segundos.

5.7 Descripci
on de arquitectura dispositivo ICC.

5.7.2.3.

155

Finalizaci
on de la aplicaci
on.

Condiciones iniciales:
Se ha realizado la puesta en marcha del sistema seg
un el caso de uso 5.7.2.2.
Flujo principal del caso de uso:
1.a El supervisor decide nalizar la aplicacion, comunic
andolo a traves de la consola de
la aplicaci
on.
2.a La aplicaci
on procede a nalizar el proceso de adquisici
on de muestras de se
nal
electroencefalograca. Guardando los u
ltimos registros de se
nal que no hubieran
sido almacenados.
3.a La aplicaci
on procede a cerrar los ujos de datos de la tarjeta de adquisici
on.
4.a La aplicaci
on deja de realizar clasicaciones. Guardando la u
ltima clasicaci
on no
almacenada.
5.a La aplicaci
on comunica la nalizaci
on de la aplicaci
on al usuario y cierra la ventana
de di
alogo.
Postcondiciones.
La aplicaci
on queda nalizada y la informaci
on asociada a la sesion realizada almacenada en la estructura de cheros, creada por el caso de uso Puesta en marcha del sistema.
Flujos alternativos.
1.b El usuario procede a seleccionar Fin como car
acter a deletrear.

5.7.3.

Estructura de clases de an
alisis.

Mediante el diagrama de clases de analisis se identican y relacionan los componentes


que representan una abstracci
on de conceptos en el dominio de la aplicaci
on. Se trata pues
de una representaci
on estatica de todos aquellos elementos y relaciones estructurales entre
los mismos, que se van a utilizar para llevar a cabo la funcionalidad descrita en los casos
de uso.
La arquitectura de dispositivo ICC propuesta, mostrada en la gura 5.13, se basa en
el empleo del patr
on del modelo de tres capas [Larman 03], diferenciando entre la capa de
interfaz de la aplicaci
on con los actores, la capa que representa la l
ogica de la aplicaci
on
y la que considera el almacenamiento de datos.
Se han considerado los siguientes tipos de datos:
Datos Sesi
on: datos identicativos de la sesi
on en curso.
Registro EEG: considera la agrupaci
on de muestras de se
nal EEG que constituyen
una ventana de an
alisis.
Vector Caractersticas: representa el vector de componentes frecuenciales obtenido
de una ventana de an
alisis.

156

Procedimientos experimentales y aplicaci


on de demostraci
on.

Clasicaci
on: actividad cognitiva a la que se asocia el vector de caractersticas
suministrado.
Cad Caract Deletreados: representa a la cadena de caracteres seleccionados por el
usuario.
Cad Caract Inferior: conjunto de caracteres alfanumericos dispuestos en la parte
inferior de la ventana.
Cad Caract Superior: conjunto de caracteres alfanumericos dispuestos en la parte
superior de la ventana.
Cadena Aviso: representa al mensaje textual que se comunica al usuario.
Las clases de analisis identicadas han sido:
Tarjeta de Adquisici
on: clase perteneciente a la capa de interfaz, encargada de
representar la tarjeta de adquisicion desde el punto de vista Software. Sus funciones
clave son: conguraci
on, adquisici
on de muestras y generaci
on de Registro EEG. Tal
y como se indica en el apartado 3.2, se consideran ventanas de an
alisis de duraci
on
1
s,
con
una
frecuencia
de
muestreo
de
F
=
384Hz.
s
3
Procesamiento Se
nal EEG: clase perteneciente a la capa de logica de la aplicaci
on,
se encarga de extraer los vectores de caractersticas frecuenciales a partir de los
registros de se
nal electroencefalograca, seg
un lo indicado en el apartado 3.5.
Clasicador: clase perteneciente a la capa de logica de la aplicaci
on, encargada de
aprender y reconocer los patrones cerebrales del usuario asociados a las actividades
cognitivas consideradas, vease apartado 5.3. Tras el analisis de los resultados de
los experimentos de la secci
on 5.6, presentados en el captulo 6, se ha optado por
implementar una versi
on de clasicador basada en redes neuronales de tipo RBF, y
otra en MSV.
Ventana Di
alogo Usuario: clase perteneciente a la capa de interfaz, encargada de
la comunicaci
on con el usuario, gestionando el movimiento del cursor en pantalla,
presentacion de secuencia de caracteres y avisos.
Consola Supervisor: es el interfaz con el supervisor, muestra avisos y opciones; punto
de entrada para par
ametros de conguraci
on y selecciones.
Grabador Datos: clase perteneciente a la capa de almacenamiento de datos, se
encarga de guardar la informaci
on de la sesi
on en curso.
Control: clase encargada de la secuenciacion de funciones de cada una de las clases
anteriores, es en esta clase en donde reside la logica de la aplicaci
on.

5.7 Descripci
on de arquitectura dispositivo ICC.

Figura 5.13: Interfaz de la aplicaci


on demostrador.

157

158

5.7.4.

Procedimientos experimentales y aplicaci


on de demostraci
on.

Realizaci
on de los Casos de Uso.

La realizaci
on de los Casos de Uso muestran como interact
uan las instancias de las
clases de analisis para realizar la funcionalidad del sistema. Representan la Vista Dinamica
del comportamiento del sistema, identicando a alto nivel las relaciones entre las clases de
an
alisis, operaciones y atributos.
La descripci
on de la Realizacion de los Casos de Uso se lleva a cabo mediante
los Diagramas de Interacci
on, de entre los cuatro tipos existentes7 se han escogido los
diagramas de secuencia como va de documentaci
on de la aplicaci
on de demostracion,
debido a su facilidad de comprensi
on, as en las guras 5.15 a 5.16 se muestra la realizacion
de los casos de uso anteriores con las clases de analisis consideradas.

Figura 5.14: Diagrama de secuencia del caso de uso Puesta en marcha del sistema.
7

UML 2.0 re
une los diagramas de: Secuencia, Comunicaci
on, Tiempo y Visi
on de Interacci
on, dentro
del tipo de Diagramas de Interacci
on.

5.7 Descripci
on de arquitectura dispositivo ICC.

Figura 5.15: Diagrama de secuencia del caso de uso Deletrear palabra.

159

160

Procedimientos experimentales y aplicaci


on de demostraci
on.

Figura 5.16: Diagrama de secuencia del caso de uso Finalizaci


on de la aplicaci
on.

Captulo 6

An
alisis y discusi
on de los
resultados experimentales.
En este captulo se presentan, analizan y discuten los resultados obtenidos
con los clasicadores descritos en el captulo 4, empleando los registros de se
nal
electroencefalograca adquiridos a traves de los procedimientos experimentales descritos
en el captulo 5, que a su vez aplican las tecnicas de adquisicion y procesamiento de se
nal
descritas en el captulo 3.
Tras analizar y comprobar que existe evidencia de diferencia estadstica entre las
poblaciones de los vectores de caractersticas, obtenidos cuando los sujetos de los
experimentos realizan las actividades cognitivas propuestas, se procede a comprobar que
dicha diferencia estadstica se mantiene aplicando la tecnica de Analisis Discriminativo
Lineal, lo que permite proceder a la reducci
on de la dimensionalidad del espacio de entrada
en clasicadores basados en redes neuronales de los tipos MLP, RBF y PNN. Finalmente
se analizan y discuten los resultados obtenidos con clasicadores de mayor complejidad,
como clasicadores bietapa basados en redes neuronales y modelos ocultos de Markov,
as como clasicadores basados en maquinas de soporte de vectores.
Como conclusion, el an
alisis de los resultados experimentales obtenidos muestra que
los ndices de clasicacion m
as altos se obtienen con maquinas de soporte de vectores, con
Kernels polin
omicos de orden 4, empleando las ventanas de procesamiento de Tukey.

6.1.

Resultados del m
etodo estadstico de comparaci
on de
poblaciones.

Mediante los experimentos basados en la comparacion estadstica de poblaciones,


procedimiento descrito en el apartado 4.1.2, se pretende determinar si existe evidencia
estadstica que permita diferenciar entre los registros de se
nal electroencefalograca
realizados cuando el sujeto lleva a cabo actividades cognitivas diferentes, valorando
cuantitativamente los siguientes puntos:
Actividades cognitivas que ofrecen mayor poder de discriminaci
on.
Tipo de ventana de procesamiento que da lugar a una mejor discriminaci
on.
Identicacion de las componentes del vector de caractersticas que presentan mayor
tasa de discriminacion.
Inuencia del canal electroencefalogr
aco en la capacidad de discriminaci
on.

162

An
alisis y discusi
on de los resultados experimentales.

6.1.1.

Presentaci
on de resultados.

Las guras 6.1 y 6.2 que se muestran a continuaci


on resumen los resultados obtenidos
en 10 sesiones experimentales, realizadas con un mismo voluntario en das diferentes,
siguiendo los procedimientos operacional y experimental descritos en los apartados 4.1.3
y 5.6.1 respectivamente. Por cada canal se representa una pareja de guras, en cuyo
eje de abscisas se muestra la comparacion entre las diferentes actividades cognitivas
empleadas. Para cada caso se han aplicado los siete tipos de ventana de procesamiento
considerados: rectangular, triangular, Blackman, Hamming, Hanning, Kaiser y Tukey; en
el eje de ordenadas se muestra el porcentaje de veces que cada ventana de procesamiento
ha mostrado diferencia estadstica signicativa, (p < 0,05); junto a su nombre, en la parte
superior, se muestra el promedio de caractersticas estadsticamente signicativas.1 Por
u
ltimo, inmediatamente encima de la barra identicaba de cada ventana, se muestran las
componentes del vector de caractersticas que han resultado signicativas.

6.1.2.

An
alisis.

El an
alisis de las guras 6.1 y 6.2 muestra la existencia de diferencia estadstica, entre
las poblaciones de caractersticas extradas de la muestras de se
nal electroencefalograca,
2
cuando el usuario realiza diferentes actividades cognitivas. As mismo se observa que,
siendo el voluntario analizado diestro, la mayor capacidad de discriminacion se obtiene en
el segundo canal electroencefalograco, asociado a C4 - C4 (hemisferio cerebral derecho),
lo que muestra una elevada lateralidad cerebral.
Estudiando cada una de las comparaciones de parejas de actividades cognitivas se
observa que:
Comparando C
alculo matem
atico con Imaginaci
on de movimiento, vease lado
superior izquierdo de las guras 6.1 y 6.2, se comprueba que las ventanas de
procesamiento de tipo Tukey, Kaiser y rectangular, son las que presentan mayor
evidencia de diferencia estadstica en la comparaci
on de las poblaciones de los
vectores de caractersticas en ambos hemisferios. As mismo se observa que para todos
los tipos de ventanas de procesamiento, las componentes del vector de caractersticas
con mayor poder de discriminaci
on son 1 y 2 .
Analizando C
alculo matem
atico frente a Realizaci
on de movimiento, vease zona
superior central de las guras 6.1 y 6.2, se observa que las ventanas de procesamiento
con mayor n
umero de componentes signicativas son las de Blackman, Hanning y
Tukey, ya que presentan caractersticas signicativas tanto en el hemisferio izquierdo
como en el derecho. Por otro lado las componentes con mayor relevancia en la
discriminaci
on de actividades son 1 y 2 .
1

Este valor es equivalente a la suma de caractersticas que muestran diferencia estadstica, divido por
el n
umero de veces que el experimento ha sido replicado, N = 10.
2
N
otese que a efectos experimentales se ha considerado tanto la Imaginaci
on de movimiento como
la Realizaci
on de movimiento, aunque est
au
ltima actividad no deba ser considerada en dispositivos de
Interfaz Cerebro Computador.

6.1 Resultados del m


etodo estadstico de comparaci
on de poblaciones.

163

Figura 6.1: Resultados de la comparaci


on de actividades cognitivas en el canal 1.

Analizando C
alculo matem
atico frente a Relax, vease parte superior derecha de
las guras 6.1 y 6.2, se observa que las ventanas de procesamiento mas signicativas
son las de Tukey y rectangular; mientras que las componentes del vector de
caractersticas con mayor poder de discriminaci
on son 1 seguida de 2 y 3 .
Del estudio de Imaginaci
on de movimiento frente a Relax, vease parte
inferior izquierda de las guras 6.1 y 6.2, se observa que la ventana rectangular

164

An
alisis y discusi
on de los resultados experimentales.

Figura 6.2: Resultados de la comparaci


on de actividades cognitivas en el canal 2.

6.1 Resultados del m


etodo estadstico de comparaci
on de poblaciones.

165

es la que mejor capacidad de discriminaci


on presenta, mostrando tanto diferencia
estadstica signicativa en ambos hemisferios cerebrales, como un mayor promedio
de componentes signicativas del vector de caractersticas, 1.3 para el hemisferio
izquierdo y 1.6 para el derecho. As mismo se comprueba que con independencia
de la ventana de procesamiento, el hemisferio derecho, canal 2, presenta una
mejor capacidad de discriminaci
on entre ambas actividades cognitivas, siendo
las componentes del vector de caractersticas mas relevantes: , 1 y 2 , con
independencia de la ventana de procesamiento; mientras que para el canal 1,
hemisferio izquierdo, las caractersticas mas signicativas obtenidas con una ventana
de procesamiento de tipo rectangular son: 2 , 1 , 2 y 3 .
La pareja de actividades que mejor capacidad de discriminaci
on presenta es
Imaginaci
on de movimiento frente a Realizaci
on de movimiento, vease zona
inferior central de la gura 6.2. Para todos los tipos de ventanas de procesamiento
aplicadas a la se
nal electroencefalograca proveniente del canal 2, las caractersticas
mas signicativas son: , 1 , 2 , 1 ; seguidas de 2 y 3 .
Por u
ltimo, realizando la comparaci
on entre diferentes sesiones de Relax, vease
parte inferior derecha de las guras 6.1 y 6.2, aparecen diferencias signicativas
entre poblaciones para las caractersticas 2 y 2 del canal 2, y 1 2 del canal 1.

6.1.3.

Discusi
on.

Tras el analisis de la capacidad de discriminaci


on de las diferentes actividades cognitivas
propuestas, considerando los registros EEG realizados sobre ambos hemisferios cerebrales,
se conrma que en todos los casos el hemisferio derecho muestra mayor capacidad de
discriminaci
on que el izquierdo. Investigaciones en Neurologa indican que el hemisferio
izquierdo es calculador, comunicativo y capaz de construir planes complicados, mientras
que por su parte el derecho es causante de pensamientos creativos, integrales y holsticos,
siendo mas emotivo y conceptual [Alarcon 00], [Gazzaniga 92], [Jessell 97]. La raz
on de
que el hemisferio izquierdo se muestre menos discriminativo puede deberse a que su
nivel de actividad pueda llegar a enmascarar la diferencia ente las actividades cognitivas
propuestas; a este respecto son de especial relevancia los resultados obtenidos en la
comparaci
on de las actividades de Realizaci
on de movimiento con Imaginaci
on de
movimiento, en donde el hemisferio izquierdo (canal 1: C3-C3), no muestra ninguna
caracterstica signicativa, mientras que para el hemisferio derecho (canal 2: C4-C4) es
la pareja de actividades con mayor capacidad de discriminaci
on.
De la inspecci
on de los resultados de la comparaci
on por parejas de las actividades
cognitivas propuestas, se obtiene la siguiente lista, ordenada de mayor a menor capacidad
de discriminaci
on:
1. Imaginaci
on de movimiento frente a Realizaci
on de movimiento.
2. C
alculo matem
atico frente a Realizaci
on de movimiento.
3. C
alculo matem
atico frente a Imaginaci
on de movimiento.
4. C
alculo matem
atico frente a Relax.
5. Imaginaci
on de movimiento frente a Relax.

166

An
alisis y discusi
on de los resultados experimentales.

Del an
alisis de las ventanas de procesamiento, los mejores resultados se obtienen con
las ventanas de Tukey, Kaiser y rectangular. Las dos primeras son las que menos distorsion
en frecuencia ocasionan sobre la se
nal que enmarcan. Por su parte la ventana rectangular,
al tener una extensi
on igual al n
umero de datos considerados en la FFT, N = 27 , minimiza
el efecto de fuga en el dominio frecuencial, ya que considera que la se
nal, es la repetici
on
peri
odica de la ventana de an
alisis considerada. El resto de las ventanas suavizan los bordes
de la ventana de an
alisis en el dominio temporal, aunque en menor grado, obteniendose
los peores resultados con la ventana de tipo triangular o de Bartlett.
En la comparaci
on de la actividad de Relax en sesiones diferentes, zona inferior derecha de las guras 6.1 y 6.2, se detectan falsos positivos debido a la captaci
on de ruido en
la se
nal electroencefalograca de entrada. Observese que la ventana de Tukey no muestra
diferencia para el hemisferio izquierdo, detectandose solo la componente 2 , en el hemisferio derecho, como falso positivo.
Considerando las caractersticas que presentan una mejor capacidad de discriminaci
on,
se observa que la banda mas signicativa comprende a las componentes 2 , 1 y 2 ,
observ
andose una mayor signicaci
on en aquellas componentes cercanas a la zona de
inuencia del ritmo , en las comparaciones que involucran actividades en las que se
emplea imaginaci
on o realizaci
on de movimiento.

6.1.4.

Conclusiones.

Del an
alisis y discusion de los resultados de las pruebas presentadas en el apartado
6.1.2, empleando tests estadsticos de comparacion bilateral de poblaciones, descritos en
la seccion 4.1, se obtienen las siguientes conclusiones:
1. Un clasicador que discriminara entre actividad matem
atica e imaginaci
on de
movimiento debera considerar en la fase de ltrado y acondicionamiento de la
se
nal electroencefalograca ventanas de tipo Tukey y considerar al menos las
caractersticas 2 , 1 y 2 . Es importante destacar que la ventana de Tukey minimiza
el n
umero de falsos positivos, por lo que es mas robusta que otros tipos de ventanas.
2. En los test llevados a cabo, el canal localizado en C4-C4 es mas signicativo que
el formado por C3-C3.

6.2 Resultados obtenidos aplicando la t


ecnica LDA.

6.2.

167

Resultados obtenidos aplicando la t


ecnica LDA.

Una vez demostrada la evidencia de la diferencia estadstica entre las poblaciones de


caractersticas provenientes de la se
nal electroencefalograca, cuando el usuario lleva a
cabo diferentes actividades mentales, el siguiente paso para el desarrollo de un clasicador
ICC en lnea, es la determinaci
on autom
atica del conjunto caractersticas y combinaci
on
de las mismas, que da lugar a una mejor capacidad de discriminaci
on, para lo cual se
emplea la tecnica LDA expuesta en el apartado 4.2. Es as mismo de interes, evaluar el
efecto que la realimentaci
on de la informaci
on hacia el usuario tiene sobre dicha capacidad
de discriminaci
on, por lo que para la realizaci
on de este estudio se han utilizado los
procedimientos experimentales O-line y On-line descritos en los apartados 5.4 y
5.5. El objetivo del procedimiento experimental O-line es la adquisicion de muestras
de se
nal electroencefalograca del usuario, cuando este realiza las actividades cognitivas
indicadas a modo de entrenamiento, por su parte el procedimiento On-line considera la
realimentaci
on de informaci
on al usuario mientras este realiza dichas actividades. 3

6.2.1.

Presentaci
on de resultados.

Debido a que se consideran s


olo tres tipos de actividades cognitivas, la aplicaci
on de
la tecnica LDA da lugar a que s
olo dos de los autovalores sean signicativos (> 1 104 ),
con sus autovectores asociados, ocasionando que la aplicacion de esta tecnica proyecte los
vectores de caractersticas de dimension 6 en un espacio bidimensional {X1 , X2 }, a traves
de la aplicaci
on de los coecientes de ponderaci
on recogidos en la matriz de transformaci
on
W , manteniendo las propiedades intrnsecas de cada actividad cognitiva, vease apartados
4.2.4 y 4.2.5.
Las guras 6.3 a 6.14 resumen los resultados de los tests estadsticos de comparacion
bilateral de diferencias, entre las poblaciones de caractersticas transformadas 4 {X1 , X2 },
tras la aplicaci
on de la tecnica LDA, considerando los paradigmas experimentales
O-line y On-line. Para cada canal (C3-C3 y C4-C4) y tipo de ventana de
procesamiento, se muestra el nivel crtico, p, asociado a cada contraste bilateral de las
actividades cognitivas analizadas. Al objeto de mostrar la dispersion de resultados, se
representa el valor de la moda mediante un cuadrado (C3-C3) y un tri
angulo (C4-C4),
y el de los percentiles 15 y 85 mediante una lnea vertical.
Las muestras de se
nal provienen de los procedimientos experimentales descritos en el
captulo 5, llevados a cabo sobre cinco voluntarios varones, diestros y sanos, de edades
comprendidas entre los 27 y 35 a
nos.

3
Los resultados, an
alisis y conclusiones acerca de LDA han sido presentados en [Martnez 07] y
[Martinez 09].
4
Vease el apartado 4.1 del captulo 4.

168

An
alisis y discusi
on de los resultados experimentales.

Figura 6.3: O-line. C


alculo matem
atico vs Imaginaci
on de movimiento. Proyec. sobre X1 .

Figura 6.4: O-line. C


alculo matem
atico vs Relax. Proyec. sobre X1 .

6.2 Resultados obtenidos aplicando la t


ecnica LDA.

Figura 6.5: O-line. Imaginaci


on de movimiento vs Relax. Proyec. sobre X1 .

Figura 6.6: On-line. C


alculo matem
atico vs Imaginaci
on de movimiento. Proyec. sobre X1 .

169

170

An
alisis y discusi
on de los resultados experimentales.

Figura 6.7: On-line. C


alculo matem
atico vs Relax. Proyec. sobre X1 .

Figura 6.8: On-line. Imaginaci


on de movimiento vs Relax. Proyec. sobre X1 .

6.2 Resultados obtenidos aplicando la t


ecnica LDA.

Figura 6.9: O-line. C


alculo matem
atico vs Imaginaci
on de movimiento. Proyec. sobre X2 .

Figura 6.10: O-line. C


alculo matem
atico vs Relax. Proyec. sobre X2 .

171

172

An
alisis y discusi
on de los resultados experimentales.

Figura 6.11: O-line. Imaginaci


on de movimiento vs Relax. Proyec. sobre X2 .

Figura 6.12: On-line. C


alculo matem
atico vs Imaginaci
on de movimiento. Proyec. sobre X2 .

6.2 Resultados obtenidos aplicando la t


ecnica LDA.

Figura 6.13: On-line. C


alculo matem
atico vs Relax. Proyec. sobre X2 .

Figura 6.14: On-line. Imaginaci


on de movimiento vs Relax. Proyec. sobre X2 .

173

174

6.2.2.

An
alisis y discusi
on de los resultados experimentales.

An
alisis.

De los contraste bilaterales llevados a cabo con un nivel de signicacion = 2,5 %,


= 1 p, representados en las guras 6.3 a 6.8 para X1 , se observa que:
En la mayora de los casos, la hipotesis nula H0 , que mantiene la igualdad de las
poblaciones de las caractersticas asociadas a las actividades cognitivas, debe ser
rechazada para ambos tipos de experimentos.
As mismo, los niveles crticos p, de los contrastes obtenidos en las comparaciones
de C
alculo matem
atico frente a Imaginaci
on de movimiento, son menores para
los experimentos On-line que los obtenidos para los experimentos O-line, en
ambos canales; mientras que la dispersion de los resultados es similar en ambos casos.
En los voluntarios analizados, de forma general el canal C4-C4, asociado al
hemisferio derecho, presenta una mejor capacidad de discriminaci
on que C3C3, excepto en la comparaci
on realizada para experimentos On- line entre las
actividades cognitivas C
alculo matem
atico e Imaginaci
on de movimiento, en
donde se observa un cambio de tendencia, vease gura 6.6.
La mayor potencia de contraste se obtiene en la comparacion entre Imaginaci
on
de movimiento y Relax, seguido de C
alculo matem
atico y Relax, el menor
de ellos se da para la comparacion entre C
alculo matem
atico e Imaginaci
on de
movimiento.
El mismo tipo de an
alisis para X2 , guras 6.9 a 6.14, muestra que la diferencia apenas
aperece en los experimentos O-line y en ning
un caso para los experimentos On-line,
p < 0,975.

6.2.3.

Discusi
on.

Por lo general, para los dos tipos de experimentos, todas las ventanas de ltrado
muestran evidencia de diferencia estadstica entre las actividades cognitivas propuestas;
los mejores resultados, representados por niveles crticos p mas altos y menor dispersi
on,
son obtenidos para X1 con las ventanas de Tukey y Kaiser. De los resultados numericos se
observa que cuanto mayor es la magnitud del autovalor, caso de X1 , mayor es la aportacion
de una de las componentes del vector de caractersticas original, normalmente en la banda
de frecuencia , por el contrario, cuanto menor es el autovalor, mayor es la contribuci
on
del resto de los componentes del autovector.
As mismo se observa que, la presencia de artefactos es mayor para los experimentos
On-line que para los experimentos O-line.
Por otra parte, para los sujetos analizados, se conrma que le hemisferio derecho
presenta una capacidad de discriminaci
on superior a la del hemisferio izquierdo, excepto
cuando, empleando las actividades cognitivas de C
alculo matem
atico e Imaginaci
on de
movimiento, al sujeto se le realimenta informaci
on sobre el resultado de la clasicaci
on;
lo que conrma lo indicado en el apartado 6.1.3 acerca de la especializaci
on del
funcionamiento de cada hemisferio.

6.2 Resultados obtenidos aplicando la t


ecnica LDA.

6.2.4.

175

Conclusiones.

Del an
alisis y discusion de los resultados de las pruebas presentadas en el apartado
6.2.2, basado en la utilizaci
on de la tecnica de Analisis Discriminatorio Lineal, se obtienen
las siguientes conclusiones:
1. Estadsticamente se ha probado que a traves del uso de la tecnica LDA es posible
reducir la dimensionalidad del espacio de caractersticas de entrada original, a la
vez que la capacidad de discriminaci
on entre las actitividades cognitivas propuestas
se mantiene, permitiendo as el control de dispositivos externos por medio de la
asociacion de dichas tareas a comandos del dispositivo.
2. De los resultados de experimentos On-line y O-line llevados a cabo con cinco
voluntarios se concluye que, la realimentaci
on del resultado de la clasicaci
on al
usuario provoca una disminuci
on de la capacidad de discriminaci
on, pero sin llegar a
comprometer su uso en dispostivos ICC en lnea, conclusiones tambien conrmadas
en [Pineda 03].
3. Se demuestra que las ventanas de procesamiento de tipo Tukey y rectangular mejoran
la capacidad de discriminaci
on entre las actividades cognitivas consideradas.

176

6.3.

An
alisis y discusi
on de los resultados experimentales.

Resultados obtenidos con clasicadores basados en


redes neuronales.

Despues de comprobar que es posible discriminar entre poblaciones de caractersticas,


provenientes de muestreo de se
nal electroencefalograca adquiridas cuando el usuario
realiza las actividades cognitivas propuestas, habiendo sido reducida la dimensionalidad
del espacio de caractersticas original, el siguiente paso es determinar la tecnologa y
estructura del clasicador que presente una mayor tasa de aciertos con menor variabilidad.
Para tal n, en este apartado se muestran los resultados obtenidos con clasicadores
basados en redes neuronales de tipo: Perceptr
on Multicapa (MLP), redes neuronales
basadas en Funciones de Base Radial (RBF) y Redes Neuronales Probabilsticas (PNN);
descritas respectivamente en los apartados: 4.3.1, 4.3.2 y 4.3.3. A efectos de comprobar
si la estructura interna del clasicador inuye en el resultado nal de la clasicaci
on,
se han considerado dos modalidades de clasicadores para cada tipo de red neuronal,
en la primera modalidad el clasicador consta de dos redes neuronales independientes,
procesando cada una de ellas el ujo de vectores de caractersticas que proviene del
canal electroencefalograco considerado (C3-C3 o C4-C4); mientras que en la segunda
modalidad, el clasicador consta de una u
nica red neuronal que procesa de forma conjunta
ambos ujos de vectores de caractersticas.
Considerando el efecto de sobre-aprendizaje, las redes neuronales fueron entrenadas
siguiendo lo expuesto en los apartados: 4.3.1.3, 4.3.2.4 y 4.3.3.

6.3.1.

Presentaci
on de resultados.

Las guras siguientes resumen los resultados obtenidos, con cinco voluntarios, tras la
aplicaci
on de los clasicadores una vez han sido entrenados con las muestras adquiridas.
En el eje de ordenadas se muestran los porcentajes de clasicaciones correctas obtenidos de
las matrices de confusi
on, ve
ase apendice B, aplicadas a cada uno de los tres clasicadores.
N
otese que la escala ha sido divida a efectos de apreciar la dispersi
on de los resultados.
En el eje de abcisas se muestran los diferentes tipos de ventanas de preprocesamiento
considerados.
A efectos de mostrar la dispersion en los valores obtenidos, para cada clasicador y
tipo de ventana de procesamiento se muestra una barra con los porcentajes de clasicaci
on
maximo, mnimo y valor de la mediana. As mismo se representan los resultados obtenidos
para las dos modalidades de clasicadores.

6.3 Resultados obtenidos con clasicadores basados en redes neuronales.

Figura 6.15: Sujeto A. Canal 1. Clasicaciones correctas.

Figura 6.16: Sujeto A. Canal 2. Clasicaciones correctas.

177

178

An
alisis y discusi
on de los resultados experimentales.

Figura 6.17: Sujeto A. Canal 1 y 2. Clasicaciones correctas.

Figura 6.18: Sujeto B. Canal 1. Clasicaciones correctas.

6.3 Resultados obtenidos con clasicadores basados en redes neuronales.

Figura 6.19: Sujeto B. Canal 2. Clasicaciones correctas.

Figura 6.20: Sujeto B. Canal 1 y 2. Clasicaciones correctas.

179

180

An
alisis y discusi
on de los resultados experimentales.

Figura 6.21: Sujeto C. Canal 1. Clasicaciones correctas.

Figura 6.22: Sujeto C. Canal 2. Clasicaciones correctas.

6.3 Resultados obtenidos con clasicadores basados en redes neuronales.

Figura 6.23: Sujeto C. Canal 1 y 2. Clasicaciones correctas.

Figura 6.24: Sujeto D. Canal 1. Clasicaciones correctas.

181

182

An
alisis y discusi
on de los resultados experimentales.

Figura 6.25: Sujeto D. Canal 2. Clasicaciones correctas.

Figura 6.26: Sujeto D. Canal 1 y 2. Clasicaciones correctas.

6.3 Resultados obtenidos con clasicadores basados en redes neuronales.

Figura 6.27: Sujeto E. Canal 1. Clasicaciones correctas.

Figura 6.28: Sujeto E. Canal 2. Clasicaciones correctas.

183

184

An
alisis y discusi
on de los resultados experimentales.

Figura 6.29: Sujeto E. Canal 1 y 2. Clasicaciones correctas.

6.3 Resultados obtenidos con clasicadores basados en redes neuronales.

6.3.2.

185

An
alisis.

De los resultados anteriores se extraen las siguientes consideraciones:


Los clasicadores basados en redes neuronales de tipo PNN o RBF presentan un
porcentaje de clasicaciones correctas del 84 %, frente al 33 % obtenido con los
clasicadores basados en redes neuronales de tipo MLP.
Estabilidad de resultados. En todos los casos el procedimiento se replico tres veces.
Con clasicadores basados en PNN o en RBF se obtuvo siempre la misma matriz
de confusi
on, vease apendice B, mientras que con clasicadores basados en MLP se
obtuvieron matrices de confusion diferentes para cada replica.
Los clasicadores basados en PNN dan lugar a porcentajes de clasicaciones
correctas mas altos que los obtenidos con los clasicadores basados en RBF, sin
embargo por contra tambien muestran una mayor dispersi
on.
Clasicadores con redes neuronales distintas, una para cada canal electroencefalograco, proporcionan mejores resultados que aquellos que consideran una u
nica
red neuronal que procesa conjuntamente ambos vectores de caractersticas.
Considerando los tipos de ventanas de preprocesamiento, los ndices de
discriminaci
on m
as altos y menor dispersi
on se obtienen para las ventanas de tipo
Kaiser, Tukey y rectangular.
Un clasicador que emplee en su estructura dos redes neuronales diferentes, una por
cada canal, conectadas a un bloque que pondere las salidas de ambas redes, permite
obtener mejores porcentajes de clasicacion correcta que otros clasicadores basados
en una sola red neuronal, que fusione los vectores de caractersticas de ambos canales
en uno solo.
Se observa que el empleo de ventanas de Kaiser, Tukey y rectangular, da lugar a un
incremento en el porcentaje de clasicaciones correctas, a la vez que disminuye su
dispersi
on, lo cual est
a en lnea con lo expuesto en 6.1.3 acerca del tipo de ventana
de procesamiento.

6.3.3.

Discusi
on.

Con los vectores de caractersticas considerados, basados en la estimacion espectral


de potencia de las bandas frecuenciales: , 1 , 2 , 1 , 2 y 3 ; los clasicadores basados
en redes neuronales de tipo probabilstico (PNN) o en funciones de base radial (RBF),
presentan mejores resultados que los clasicadores basados en redes neuronales de tipo
Perceptr
on Multicapa (MLP), tanto desde el punto de vista de porcentanjes correctos
de clasicacion, como en estabilidad de los mismos, conclusion similar se presenta en
[Garrett 03]. Este comportamiento se explica por la funci
on de distribuci
on de probabilidad
de los vectores de caractersticas, y la mayor capacidad de interpolaci
on de las redes
neuronales de tipo PNN o RBF, que la obtenida con las redes de tipo MLP.

186

An
alisis y discusi
on de los resultados experimentales.

As mismo, en lnea con lo discutido en los apartados 6.1.3 y 6.2.3, se observa que los
resultados obtenidos con el clasicador basado en redes RBF presenta mejores resultados
para el hemisferio derecho que para el izquierdo.
Por otro lado, la variabilidad de resultados entre los clasicadores basados en redes
neuronales de tipo PNN y los basados en redes neuronales de tipo RBF, se debe no tanto a
la estructura intrnseca de ambas redes neuronales, muy pr
oximas entre s, tal y como puede
verse en los apartados 4.3.2 y 4.3.3, sino al proceso de aprendizaje y n
umero de neuronas
considerados en la capa oculta. Mientras que para las redes neuronales RBF el n
umero de
neuronas se determina incrementalmente mediante el proceso de aprendizaje, para las redes
neuronales PNN este n
umero se determina a partir del n
umero de elementos considerados
en el conjunto de entrenamiento, dando lugar a que las redes neuronales de tipo PNN
tengan mas neuronas en la capa oculta que las redes neuronales de tipo RBF, lo que a su
vez provoca un mayor sobre-aprendizaje del conjunto de entrenamiento, caraterizado por
un porcentaje mayor en el n
umero de clasicaciones correctas sobre dicho conjunto, pero
tambien una menor capacidad de generalizaci
on sobre los conjuntos de validaci
on y test.

6.3.4.

Conclusiones.

Del an
alisis y discusion de los resultados de las pruebas realizadas con cinco voluntarios,
presentados en el apartado 6.3.2, empleando clasicadores basados en redes neuronales
descritos en la seccion 4.3, se obtienen las siguientes conclusiones:
1. Es factible la discriminaci
on entre las actividades cognitivas propuestas, empleando
los registros de se
nal electroencefalograca provenientes de los canales C3-C3 y
C4-C4.
2. Es preferible el empleo de un clasicador en cuya arquitectura se empleen dos redes
neuronales diferentes, especializadas respectivamente en cada uno de los dos canales
de se
nal electroencefalograca, siendo sus resultados evaluados en un ponderador
que otorgue mayor peso a la red asociada al hemisferio derecho.
3. Se recomienda la utilizaci
on de ventanas de procesamiento de Tukey o Kaiser, ya
que dan lugar a un porcentaje mayor de clasicaciones correctas.

6.4 Resultados obtenidos con clasicadores bietapa basados en redes neuronales y


Modelos Ocultos de Markov.
187

6.4.

Resultados obtenidos con clasicadores bietapa basados en redes neuronales y Modelos Ocultos de Markov.

En la secci
on anterior se mostraron los resultados de clasicacion conseguidos con
diferentes topologas y arquitecturas de redes neuronales. En esta secci
on se presentan,
analizan y discuten los resultados obtenidos tras la aplicacion del clasicador bietapa,
descrito en el apartado 4.4.6, a las muestras de se
nal electroencefalograca provenientes
de seis sesiones realizadas con cinco voluntarios diestros, siguiendo el procedimiento
experimental O-line del captulo 5.
Como se describe en el apartado 4.4.6, el clasicador implementado emplea en una
primera etapa de clasicaci
on una red neuronal de tipo RBF, ya que como se muestra en
el punto 6.3.2 anterior, esta da lugar a un elevado porcentaje de aciertos, semejante al
maximo obtenido con las redes neuronales de tipo PNN, pero con menor dispersi
on. En
una segunda etapa se compara la secuencia de preclasicaciones proveniente de la etapa
anterior con tres modelos de Markov, entrenados cada uno de ellos con secuencias de
preclasicaciones provenientes de cada una de las actividades cognitivas, la presecuencia
es asignada a la actividad cognitiva cuyo Modelo Oculto de Markov de lugar a una mayor
alisis anteriores acerca de la
probabilidad de observaci
on.5 As mismo, considerando los an
inuencia del tipo de ventana de preprocesamiento en la clasicaci
on, veanse apartados
6.1.2 y 6.2.2, en la implementaci
on del clasicador se han empleado ventanas de tipo Tukey.
Una primera estimacion del efecto de entrenamiento en el usuario puede ser extrada de
la comparaci
on de los resultados de las dos sesiones realizadas por el mismo voluntario.

6.4.1.

Presentaci
on de resultados.

Con objeto de comprobar el funcionamiento del algoritmo de clasicaci


on propuesto
y la inuencia que sobre el mismo tienen los par
ametros de umbral de asignaci
on, ,
as como la variable que determina la zona de inuencia de cada neurona de entrada de la
red neuronal, Sc, se procede a utilizar las muestras de se
nal EEG adquiridas de las sesiones
de prueba con los voluntarios del modo siguiente:
6.4.1.1. Evaluaci
on de la capacidad de aprendizaje.
Con un subconjunto de las muestras de se
nal EEG adquiridas se procede a
entrenar el algoritmo con los siguientes valores: = {0,55; 0,65; 0,8}, Sc = {0,5; 0,95}.
La determinaci
on del valor de los par
ametros viene jada por los maximos que se
detectan despues de una b
usqueda extensiva sobre la se
nal del primer voluntario. Con
posterioridad al entrenamiento se vuelve a procesar la misma se
nal a traves del clasicador,
comparandose la clasicaci
on obtenida con la proporcionada durante el proceso de
aprendizaje, en todos los casos se obtiene un reconocimiento correcto del 100 %.
5
La longitud de la cadena de preclasificaciones ha sido determinada en 9 elementos, tras experimentar
con cadenas sinteticas de longitudes diferentes y entrenar tres Modelos Ocultos de Markov, semejantes a
los empleados en el clasificador.

188

An
alisis y discusi
on de los resultados experimentales.

6.4.1.2.

Evaluaci
on de la capacidad de generalizaci
on.

Ante el buen comportamiento de la capacidad de aprendizaje se opta por utilizar el


metodo de validaci
on cruzada, en el que el entrenamiento se hace con nueve sesiones,
todas menos una de las sesiones de se
nal EEG disponible, dejando la sesi
on no utilizada
para la evaluaci
on del comportamiento del algoritmo, el proceso se realiza tantas veces
como sesiones disponibles existen, seleccionando en cada ocasion una sesi
on de evaluacion
diferente. Las tablas siguientes muestran los resultados obtenidos para cada voluntario en
funci
on de los citados parametros: y Sc.
Para cada combinaci
on de los mismos, el proceso entero se replica 3 veces. En la la
superior se muestra el n
umero de identicaciones correctas, en la la inferior se muestra el
tanto por ciento de mejora que se obtiene al compararlo con un clasicador equiprobable.
Tabla 6.1: Resultados voluntario AL01.

Sc = 0,5
= 0,65
94
103
103
4 % 14 % 14 %

Sc = 0,95
= 0,55
94
81
87
4 % -10 % -3 %

Sc = 0,5
= 0,55
93
92
87
3 % 2 % -3 %

Sc = 0,95
= 0,80
86
97
81
-4 % 8 % -10 %

Tabla 6.2: Resultados voluntario RO01.

Sc = 0,5
= 0,65
103
97
92
14 % 8 % 2 %

Sc = 0,95
= 0,55
118
109
118
31 % 21 % 31 %

Sc = 0,5
= 0,55
97
87
86
8 % -3 % -4 %

Sc = 0,95
= 0,80
117
106
110
30 % 18 % 22 %

Tabla 6.3: Resultados voluntario JA01.

Sc = 0,5
= 0,65
106
97
110
18 % 8 % 22 %

Sc = 0,95
= 0,55
87
90
107
-3 % 0 % 19 %

Sc = 0,5
= 0,55
99
106
107
10 % 18 % 19 %

Sc = 0,95
= 0,80
98
108
99
9 % 20 % 10 %

Tabla 6.4: Resultados voluntario DA01.

Sc = 0,5
= 0,65
109
102
104
21 % 13 % 15 %

Sc = 0,95
= 0,55
83
92
92
-8 % 2 % 2 %

Sc = 0,5
= 0,55
106
91
110
18 % 1 % 22 %

Sc = 0,95
= 0,80
86
87
92
-4 % -3 % 2 %

Tabla 6.5: Resultados voluntario RA01.

Sc = 0,5
= 0,65
106
97
110
18 % 8 % 22 %

Sc = 0,95
= 0,55
87
90
107
-3 % 0 % 19 %

Sc = 0,5
= 0,55
99
106
107
10 % 18 % 19 %

Sc = 0,95
= 0,80
91
76
99
1 % -15 % 10 %

Tabla 6.6: Resultados voluntario RA02.

Sc = 0,5
= 0,65
102
102
98
13 % 13 % 8 %

Sc = 0,95
= 0,55
102
107
114
13 % 19 % 26 %

Sc = 0,5
= 0,55
103
105
96
14 % 16 % 6 %

Sc = 0,95
= 0,80
116
99
98
29 % 10 % 9 %

6.4 Resultados obtenidos con clasicadores bietapa basados en redes neuronales y


Modelos Ocultos de Markov.
189

6.4.2.

An
alisis.

De los resultados obtenidos de la aplicacion del algoritmo de clasicacion propuesto se


observa que:
1. La capacidad de aprendizaje es superior a la que se obtiene con una red neuronal de
tipo RBF, 100 % de reconocimiento del conjunto de aprendizaje.
2. La variabilidad en los valores de clasicaci
on de las replicas es debida al empleo de
modelos ocultos de Markov, tanto en la fase de aprendizaje como durante la fase de
clasicacion posterior.
3. Los ndice de clasicacion m
as altos se dan para valores de Sc = 0,5 y = 0,65;
aunque se observa una gran dependencia con respecto al usuario y su experiencia
en la utilizaci
on del sistema. La discrepancia de resultados entre RA1 y RA2 se
explicada por el proceso de aprendizaje en la utilizaci
on del dispositivo, la sesion
RA1 es previa a RA2.
4. Los resultados de las pruebas de validaci
on cruzada son mejores que los obtenidos
con un clasicador equiprobable.

6.4.3.

Discusi
on.

La dispersi
on de m
aximos en los valores de clasicaciones correctas obtenidos en
las pruebas de validaci
on cruzada, indican que la combinaci
on de los par
ametros
y Sc es dependiente del usuario, por lo que para un dispositivo ICC que utilice un
algoritmo de este tipo, se debera prever al menos una fase de sintonizacion que permitiera
ajustar estos par
ametros. Si bien es cierto que el algoritmo se comporta mejor que un
clasicador equiprobable, su comportamiento no es todo lo optimo que cabra esperar
considerando su capacidad de aprendizaje, observ
andose un sobre-aprendizaje del conjunto
de entrenamiento. El tama
no del conjunto de datos de entrenamiento es determinante
en los resultados obtenidos en la fase de ejecuci
on. El efecto de sobre-aprendizaje se
minimizara aumentando el conjunto de datos disponibles para el entrenamiento.

6.4.4.

Conclusiones.

Del an
alisis y discucion anteriores, empleando clasicadores bietapa basados en redes
neuronales de tipo RBF y Modelos Ocultos de Markov descritos en la seccion 4.4.6, se
obtienen las siguientes conclusiones:
1. La informaci
on contenida en la secuencia de asignaciones mejora la capacidad de
clasicacion, siendo los modelos ocultos de Markov una tecnica valida para la
extraccion y utilizaci
on de dicha informaci
on.
2. Los par
ametros de ajuste del algoritmo, y Sc, han de modicarse en funci
on
del usuario, ya que inuyen notoriamente en la capacidad de generalizaci
on y
clasicacion del algoritmo, por lo que se precisa un proceso previo de optimizaci
on
que determine el valor de dichos par
ametros.

190

6.5.

An
alisis y discusi
on de los resultados experimentales.

Resultados obtenidos con clasicadores basados en


M
aquinas de Soporte de Vectores.

En esta seccion se presentan, analizan y discuten, los resultados obtenidos con


clasicadores basados en M
aquinas de Soporte de Vectores. Estos clasicadores utilizan el
metodo de discrimacion lineal, en un espacio de caractersticas transformado de dimension
superior a la del espacio de caractersticas original, tal y como se describe en los apartados:
4.5.1, 4.5.2 y 4.5.5.
Los resultados presentados se han obtenido tras la aplicaci
on del procedimiento descrito
en el apartado 5.6.5, a los datos de once sesiones experimentales realizadas siguiendo el
procedimiento descrito en 4.5.1.
Para determinar que clasicador proporciona los ndices de clasicacion correcta mas
elevados, con la mayor capacidad de generalizacion, o lo que es lo mismo con un porcentaje
menor de vectores soporte [Cristianini 05b], se han empleado los datos considerados en la
tabla 6.7.
Tipo de Kernel.
Gaussiano
Polin
omico

Valores de los par


ametros caractersticos.
1, 2, 3, 5 y 10.
2, 3, 4, 7 y 8.

Tabla 6.7: Familia de funciones Kernel y par


ametros caractersticos.

Se han seleccionado estos valores con el proposito de evaluar la inuencia que, tanto su
magnitud, como la forma de la funci
on Kernel a la que dan lugar6 , tienen tanto sobre
el porcentaje de clasicaciones correctas obtenido, como sobre el n
umero de vectores
soporte seleccionados. As mismo destacar que, un clasicador basado en funciones Kernel
polin
omicas de orden 1 dara lugar a un clasicador lineal.

6.5.1.

Presentaci
on de resultados.

A continuci
on se representan para los Kernels considerados, tanto los resultados de
porcentajes de clasicaciones correctas, como el n
umero de vectores soporte seleccionados
del total del conjunto de entrenamiento. Por u
ltimo, para cada tipo de Kernel, se
muestra una familia de gracas donde se representa la correlaci
on entre el porcentaje de
clasicaciones correctas y vectores soporte, considerando los diferentes tipos de ventanas
de procesamiento.
6.5.1.1.

Clasicaciones correctas frente a par


ametros del Kernel.

En las guras 6.30 a 6.33 se representan, para cada tipo de ventana de


preprocesamiento, funci
on Kernel del tipo de clasicador y par
ametros considerados en
6

Con Kernels de tipo polin


omicos, valores pares del par
ametro dan lugar a funciones kernel simetricas,
mientras que valores impares dan lugar a funciones kernel anti-simetricas.

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
191

el mismo, los resultados de porcentaje de clasicaciones correctas obtenidos a partir de


las matrices de confusi
on, vease apendice B, tras la aplicaci
on de las muestras a los
clasicadores una vez entrenados.
Las guras muestran diagramas de cajas, en donde el valor medio de clasicaci
on se
muestra por la lnea central en la muesca de la caja, la certeza de dicho valor se representa
por el tama
no de la caja, mientras que la variabilidad de los datos se muestra por la
longitud de los segmentos a ambos extremos de cada caja, siendo equivalentes a 1.5 veces
la desviacion tpica. En el caso de aparecer datos que dieran del valor medio en m
as de
1.5 desviaciones tpicas, se muestran como peque
nas circunferencias, mientras que por el
contrario, si todos los datos quedan dentro de ambos segmentos se representa un punto en
el extremo.
6.5.1.2.

N
umero de vectores soporte frente a par
ametros del Kernel.

Las guras 6.34 a 6.37, muestran los resultados de porcentaje de vectores soporte
seleccionados en el clasicador, en funcion de los par
ametros considerados para los
diferentes tipos de funciones Kernel.
6.5.1.3. Clasicaciones correctas frente a n
umero de vectores soporte.
Por u
ltimo en las guras 6.38 a 6.53 se representan para ambos canales: C1 y
C2, el porcentaje de clasicaciones correctas en funci
on del porcentaje del n
umero de
vectores soporte seleccionados, considerando tanto los diferentes tipos de ventanas de
preprocesamiento, como los valores de parametrizacion de las funciones Kernel. As mismo
se muestra una tabla con los valores numericos de valores medios y desviaciones tpicas
obtenidos en cada caso.
Al igual que en el apartado anterior, se representa tanto el valor medio como la
desviacion tpica asociada a ambos porcentajes, por lo que en lugar de utilizar diagrama
de cajas se utiliza una elipse para cada tipo de ventana de preprocesamiento, su centro
representa el valor medio, mientras que los diametros horizontal y vertical muestran,
respectivamente, las desviaciones tpicas de los porcentajes del n
umero de vectores soporte
y clasicaciones correctas.
A diferencia de los apartados anteriores, la representaci
on para Kernels polin
omicos
de grado 5 o superior no se realiza, ya que como se muestra en las guras 6.36 y 6.37 se
obtiene la pr
actica totalidad de clasicaciones correctas con Kernels polinomicos de grado
4, salvo casos excepcionales.

192

An
alisis y discusi
on de los resultados experimentales.

Figura 6.30: Porcentaje de clasicaciones correctas. Canal 1. Kernel gaussiano.

Figura 6.31: Porcentaje de clasicaciones correctas. Canal 2. Kernel gaussiano

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
193

Figura 6.32: Porcentaje de clasicaciones correctas. Canal 1. Kernel polin


omico.

Figura 6.33: Porcentaje de clasicaciones correctas. Canal 2. Kernel polin


omico.

194

An
alisis y discusi
on de los resultados experimentales.

Figura 6.34: Porcentaje de vectores soporte. Canal 1. Kernel gaussiano.

Figura 6.35: Porcentaje de vectores soporte. Canal 2. Kernel gaussiano

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
195

Figura 6.36: Porcentaje de vectores soporte. Canal 1. Kernel polin


omico.

Figura 6.37: Porcentaje de vectores soporte. Canal 2. Kernel polin


omico.

196

An
alisis y discusi
on de los resultados experimentales.
Tabla 6.8: Resultados Kernel gaussiano (P:1).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
100.00
97.50
98.17
98.33
98.17
99.67
99.67

C1
(vs (cc)
0.1 96.87
3.90 95.96
3.61 95.90
3.39 96.18
3.61 95.90
0.78 96.77
0.78 96.75

(cc)
10.85
10.45
10.10
10.25
10.10
10.83
11.04

(vs)
100.00
97.92
98.75
98.75
98.75
100.00
100.00

C2
(vs) (cc)
0.1
96.81
2.75 96.93
1.66 96.89
1.66 96.82
1.66 96.89
0.10 96.81
0.10 96.81

(cc)
11.06
10.10
10.01
10.50
10.01
11.06
11.06

Figura 6.38: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=1.

Figura 6.39: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=1.

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
197
Tabla 6.9: Resultados Kernel gaussiano (P:2).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
99.75
84.67
88.50
90.33
88.58
96.92
98.58

C1
(vs (cc)
0.62 96.88
10.89 93.49
8.23 93.67
7.08 94.48
8.28 93.65
3.82 96.70
2.97 96.33

(cc)
10.64
10.38
10.20
9.87
10.22
9.28
10.46

(vs)
100.00
85.25
88.08
90.17
88.08
97.75
99.08

C2
(vs) (cc)
0.10 96.90
11.26 96.15
9.05 96.11
7.63 96.50
9.05 96.13
2.26 97.12
1.24 96.98

(cc)
10.74
9.19
9.19
9.20
9.18
9.93
10.45

Figura 6.40: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=2.

Figura 6.41: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=2.

198

An
alisis y discusi
on de los resultados experimentales.
Tabla 6.10: Resultados Kernel gaussiano (P:3).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
98.83
77.08
81.00
80.92
80.08
91.00
94.17

C1
(vs (cc)
2.08 96.84
17.50 89.84
14.89 90.74
14.18 91.54
15.10 90.82
6.58 95.68
4.88 95.59

(cc)
9.77
12.78
11.90
11.69
11.83
8.84
10.17

(vs)
98.67
74.92
77.83
79.17
77.92
91.08
94.08

C2
(vs) (cc)
1.92 97.17
17.39 92.92
16.04 93.59
15.26 95.03
16.06 93.63
5.99 96.58
5.12 96.80

(cc)
9.81
10.36
10.61
9.85
10.58
9.28
9.75

Figura 6.42: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=3.

Figura 6.43: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=3.

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
199
Tabla 6.11: Resultados Kernel gaussiano (P:5).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
89.67
77.50
78.08
77.00
78.17
78.75
81.58

C1
(vs (cc)
7.08 95.83
17.83 81.03
16.98 83.53
17.79 84.78
16.88 83.59
15.48 91.41
13.48 92.60

(cc)
9.49
14.47
13.87
14.11
13.87
11.32
11.23

(vs)
89.75
75.08
75.42
74.67
75.42
76.67
79.67

C2
(vs) (cc)
7.82 97.03
17.87 83.88
18.08 85.78
18.22 86.89
18.08 85.82
15.98 94.52
14.48 95.13

(cc)
8.60
11.78
12.10
11.52
12.13
10.00
10.44

Figura 6.44: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=5.

Figura 6.45: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=5.

200

An
alisis y discusi
on de los resultados experimentales.
Tabla 6.12: Resultados Kernel gaussiano (P:10).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
74.67
85.33
84.00
83.25
84.00
78.58
76.83

C1
(vs (cc)
19.06 88.08
14.15 65.71
14.81 67.94
15.27 68.29
14.81 67.97
17.80 78.27
18.36 81.55

(cc)
13.56
13.86
14.00
13.68
13.96
14.75
15.19

(vs)
74.25
83.08
82.33
80.83
82.33
76.00
75.00

C2
(vs) (cc)
18.48 91.52
16.30 69.52
17.12 72.38
17.31 73.68
17.12 72.48
17.65 81.22
17.70 85.46

(cc)
11.03
11.93
12.24
11.95
12.24
12.00
11.85

Figura 6.46: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=10.

Figura 6.47: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=10.

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
201
Tabla 6.13: Resultados Kernel polin
omico (P:2).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
69.33
75.83
77.42
76.33
77.42
73.50
73.67

C1
(vs (cc)
18.97 66.63
19.08 61.20
19.64 60.99
19.46 61.20
19.64 60.97
19.57 63.51
19.18 62.78

(cc)
15.51
11.59
9.95
9.71
9.95
11.89
10.79

(vs)
71.83
72.50
73.50
72.50
73.42
71.33
72.67

C2
(vs) (cc)
20.85 67.47
20.30 67.71
20.02 66.93
20.59 67.42
20.10 66.95
20.50 66.59
21.01 65.92

(cc)
13.96
12.16
12.44
13.04
12.42
13.14
11.33

Canal 1. Kernel polinomico, n=2


80
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

% Clasificaciones correctas.

75

70

65

60

55
55

60

65

70
75
% Vectores soporte.

80

85

90

Figura 6.48: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=2.
Canal 2. Kernel polinomico, n=2
80
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

% Clasificaciones correctas.

75

70

65

60

55
55

60

65

70
75
% Vectores soporte.

80

85

90

Figura 6.49: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=2.

202

An
alisis y discusi
on de los resultados experimentales.
Tabla 6.14: Resultados Kernel polin
omico (P:3).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

(vs)
56.00
57.17
57.58
56.58
57.58
54.67
55.75

C1
(vs (cc)
15.62 85.54
13.97 85.08
13.63 87.26
13.41 85.25
13.66 85.83
14.59 85.81
15.11 85.83

(cc)
11.81
11.59
9.82
10.80
10.91
11.43
11.06

(vs)
55.92
56.50
57.58
56.58
57.58
54.58
54.75

C2
(vs) (cc)
16.75 86.57
15.44 85.40
15.38 85.51
15.56 85.02
15.38 85.51
15.64 86.98
16.73 85.57

(cc)
12.48
12.61
12.82
12.77
12.82
12.30
13.03

Canal 1. Kernel polinomico, n=3


94
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

92

% Clasificaciones correctas.

90

88

86

84

82

80

78

76

46

48

50

52

54
56
58
% Vectores soporte.

60

62

64

66

Figura 6.50: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=3.
Canal 2. Kernel polinomico, n=3
94
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

92

% Clasificaciones correctas.

90

88

86

84

82

80

78

76

46

48

50

52

54
56
58
% Vectores soporte.

60

62

64

66

Figura 6.51: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=3.

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
203
Tabla 6.15: Resultados Kernel polin
omico (P:4).

Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey

C1
(vs)
45.25
48.00
49.67
47.83
49.75
45.25
45.50

(vs
10.52
10.79
12.02
10.14
12.11
9.28
9.96

C2

(cc)
100.00
99.40
99.27
99.53
99.27
99.96
99.98

(cc)
0.10
1.35
1.58
1.22
1.58
0.14
0.10

(vs)
45.00
45.42
46.25
45.25
46.17
44.33
43.25

(vs)
11.36
8.20
9.56
8.41
9.49
9.03
10.90

(cc)
96.58
99.94
100.00
100.00
100.00
100.00
96.26

(cc)
11.84
0.20
0.10
0.10
0.10
0.10
12.96

Canal 1. Kernel polinomico, n=4


101
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

% Clasificaciones correctas.

100.5

100

99.5

99

98.5

98

40

42

44

46
48
% Vectores soporte.

50

52

54

56

Figura 6.52: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=4.
Canal 2. Kernel polinomico, n=4
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.

102

% Clasificaciones correctas.

100

98

96

94

92

90
38

40

42

44
46
% Vectores soporte.

48

50

52

Figura 6.53: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=4.

204

An
alisis y discusi
on de los resultados experimentales.

6.5.2.

An
alisis.

De la inspecci
on de los resultados obtenidos con los clasicadores basados en Kernels
gaussianos se observa que:
Conforme se aumenta la extension de la zona de inuencia de la funci
on Kernel: 1,
2, 3, 5 y 10; el porcentaje de clasicaciones correctas disminuye, con independencia
tanto del canal como del tipo de ventana de procesamiento, pasando de un 100 % de
clasicaciones correctas para n=1 con cualquier tipo de ventana de preprocesameinto
a valores comprendidos entre el 80 % - 90 % en el caso de ventanas de tipo rectangular,
Kaiser y Tukey, o 65 % - 75 % para el resto de ventanas de preprocesamiento, cuando
se consideran clasicadores con funciones Kernel gaussianas con n=10.
Conforme aumenta el par
ametro de la funci
on Kernel, el porcentaje de vectores
soporte considerados disminuye, pasando del 100 % del conjunto de datos de
entrenamiento para n=1, a valores comprendidos entre el 74 % - 85 % dependiendo del
tipo de ventana de preprocesamiento, al igual que para el porcentaje de clasicaciones
correctas, los valores menores se obtienen con ventanas de tipo rectangular, Kaiser
y Tukey, obteniendose la menor variabilidad para ventanas de Kaiser.
El mismo tipo de an
alisis llevado a cabo sobre los clasicadores basados en Kernels
polin
omicos muestra que:
Al aumentar el orden del polinomio aumenta el n
umero de clasicaciones correctas,
a la vez que disminuye el porcentaje de vectores soporte, llegandose a obtener un
100 % de clasicaciones correctas con Kernels polinomicos de orden 4 o superior, para
Kernels de orden 4 se obtiene un 100 % de clasicaciones correctas con ventanas de
preprocesamiento de tipo rectangular, Kaiser y Tukey, ver guras 6.32 y 6.33.
Para Kernels de orden 4 o superior el porcentaje de vectores soporte seleccionados se
estabiliza entre el 45 % - 50 % dependiendo del tipo de ventana de preprocesamiento,
los valores menores se obtienen para ventanas de tipo rectangular, Kaiser, Tukey
(ver guras 6.36, 6.37, 6.52, 6.53), volviendose a obtener la menor variabilidad para
ventanas de Kaiser.
Realizando una comparaci
on entre los resultados obtenidos con clasicadores cuya
informaci
on proviene del canal C3-C3 frente a los del C4-C4, se observa que
el segundo muestra un mejor comportamiento al presentar porcentajes ligeramente
mayores de clasicaciones correctas con menores porcentajes de vectores soporte que
los mostrados por sus homologos en C3-C3, ver guras 6.30 y 6.31, 6.32 y 6.33.

6.5.3.

Discusi
on.

Los clasicadores basados en Kernels gaussianos tienden al sobre-aprendizaje del


conjunto de entrenamiento, ya que cuando el par
ametro caracterstico es peque
no, todos
los patrones de entrenamiento presentados se convierten en vectores soporte, conforme el
par
ametro caracterstico del Kernel aumenta, lo que es equivalente a aumentar la zona
de inuencia de cada uno de los vectores soporte seleccionados, el n
umero de los mismos

6.5 Resultados obtenidos con clasicadores basados en M


aquinas de Soporte de
Vectores.
205

disminuye, reduciendo as mismo el porcentaje obtenido de clasicaciones correctas. Tal y


como se desprende de los dos primeros puntos del an
alisis previo, los mejores resultados
se obtienen con las ventanas de procesamiento de tipo rectangular, Kaiser y Tukey.
Los clasicadores basados en Kernels polin
omicos no muestran el efecto de sobreaprendizaje del conjunto de entrenamiento, ya que como se indica en los puntos tercero
y cuarto del an
alisis anterior, conforme se aumenta el orden del polinomio, disminuye el
n
umero de vectores soporte a la vez que aumenta el n
umero de clasicaciones correctas
conseguido; sin embargo para Kernels polin
omicos de orden superior a 5 no se observa una
mejora signicativa.
Comparando clasicadores basados en Kernels gaussianos con clasicadores basados
en Kernels polin
omicos, se observa un mejor comportamiento en los segundos, pues se
consiguen porcentajes de clasicaciones correctas mayores, pr
acticamente del 100 %, con
menor porcentaje de vectores soporte, entre un 45 % - 50 % para el caso de Kernels
polin
omicos, frente a un 74 % - 85 % para Kernels gaussianos, lo que indica que para este
tipo de aplicaci
on la capacidad de generalizaci
on de los Kernels polin
omicos es superior
a la de los Kernels gaussianos. El mejor comportamiento del canal asociado al hemisferio
derecho, C4-C4, coincide con lo expuesto en 6.1.3, 6.2.3 y 6.3.3.

6.5.4.

Conclusiones.

Del an
alisis y discusion de los resultados de las pruebas realizadas con cinco voluntarios,
presentados en los apartados anteriores, empleando clasicadores basados en MSV
descritas en la seccion 4.5.5, se obtienen las siguientes conclusiones:
1. Es preferible la utilizaci
on de Kernels polin
omicos a Kernels gaussianos.
2. La arquitectura del clasicador a emplear debera emplear Kernels polin
omicos
de orden 4 o 5 ( 5 con la nalidad de aumentar la conanza en la capacidad de
generalizaci
on del mismo, mas no de orden superior, ya que no se aprecia mejora
signicativa), utilizando una ventana de preprocesamiento de tipo Kaiser, Tukey o
rectangular.

206

6.6.

An
alisis y discusi
on de los resultados experimentales.

Corolario.

A modo de resumen, las principales conclusiones de los apartados anteriores se


condensan en los puntos siguientes:
Es factible la discriminaci
on de las actividades cognitivas propuestas, partiendo de
los registros de se
nal electroencefalograca adquiridos cuando el usuario desarrolla
dichas actividades.
En todos los experimentos realizados, el hemisferio derecho muestra mayor capacidad
de discriminaci
on que el izquierdo, conrmando las observaciones de diferencias
funcionales entre los mismos.
La consideraci
on de ventanas de procesamiento de Tukey, derivadas del an
alisis
del efecto de enmarcado de la se
nal, permite obtener una mejor capacidad de
discriminaci
on de las actividades cognitivas consideradas.
Las componentes del vector de caractersticas que muestran una mejor capacidad de
discriminaci
on son 2 , 1 y 2 .
El espacio de caractersticas original puede ser transformado, mediante combinaci
on
lineal de las mismas, en un espacio de caractersticas menor, sin que por ello se pierda
la capacidad de discriminaci
on de las actividades cognitivas propuestas.
La realimentaci
on del resultado de la clasicaci
on al usuario da lugar a una ligera
disminuci
on en la capacidad de discriminaci
on, pero sin llegar a comprometer su
utilizaci
on en dispositivos ICC en lnea.
Las caractersticas de la se
nal electroencefalogracas, intrnsecas a cada una de
las actividades cognitivas propuestas, pueden ser aprendidas e identicadas por
clasicadores que empleen el procedimiento de aprendizaje supervisado.
Los mejores resultados se obtienen con clasicadores basados en Maquinas de Soporte
de Vectores con funciones Kernel polin
omicas de orden cuatro o superior, seguidos de
los que se basan en redes neuronales de tipo RBF y PNN. Clasicadores basados en
M
aquinas de Soporte de Vectores con Kernels gaussianos muestran peores resultados
que los basados en Kernels polin
omicos, mientras que por su parte los clasicadores
basados en redes neuronales de tipo MLP no llegan a aprender de modo efectivo el
conjunto de muestras de entrenamiento.
En la arquitectura de los clasicadores basados en redes neuronales, las versiones que
emplean redes diferentes dedicadas a cada canal encefalogr
aco, muestran valores de
capacidad de discriminaci
on superiores a las versiones en las que se emplea una u
nica
red neuronal que considere ambos canales al mismo tiempo.
La secuencia de clasicaciones contiene informacion que mejora la capacidad
de discriminaci
on entre las actividades cognitivas consideradas, mostr
andose los
modelos ocultos de Markov como tecnica valida para la extracci
on y utilizaci
on
de esta informaci
on.
Los par
ametros de ajuste del clasicador bietapa presentado, son muy dependientes
del usuario, por lo que es necesario un proceso de presintonizaci
on que determine el
valor de los mismos.

Captulo 7

Conclusiones y futuros desarrollos.


7.1.

Conclusiones.

En la presente tesis se ha descrito la novedosa tecnologa de Interfaz Cerebro


Computador, mostrando los principales descubrimientos cientcos y desarrollos
tecnologicos que han permitido su aparicion, a la vez que se han indicado las razones
que justican el interes actual que, las aplicaciones pr
acticas de esta tecnologa, suscita
entre los diversos grupos de investigaci
on a nivel mundial, describiendose los desarrollos y
lneas de investigaci
on m
as importantes que sobre esta tecnologa existen.
Tambien se han mostrado las bases siologicas, actualmente conocidas1 , en las que se
fundamenta. As mismo se han analizado y discutido las diferentes tecnicas, empleadas
hoy en da, en la adquisici
on de actividad cerebral y su aplicabilidad en esta tecnologa.
Posteriormente se han mostrado los componentes de que consta un dispositivo ICC.
Posteriormente se han descrito las tecnicas de procesamiento de se
nal aplicadas a la
se
nal electroencefalograca, previas al proceso de identicacion y clasicaci
on de se
nal
EEG, realizando un especial an
alisis sobre la inuencia que el efecto de ventaneado de
la se
nal tiene sobre la capacidad de discriminaci
on de la se
nal EEG, adquirida cuando
el usuario realiza las diferentes actividades cognitivas propuestas; estudio que ha sido
presentado en [Martnez 06].
As mismo se han presentado las diferentes tecnicas de clasicacion, m
as comunmente
utilizadas por los diferentes grupos de investigacion sobre ICC a nivel mundial.
Entre las contribuciones de esta tesis se encuentran:
An
alisis que sobre la capacidad de discriminaci
on tiene el efecto de ventaneado con
diferentes tipos de ventanas de procesamiento.
Desarrollo de un novedoso clasicador en dos etapas basado en la aplicaci
on
secuencial de redes neuronales de tipo RBF y Modelos Ocultos de Markov.
Desarrollo de un demostrador bajo el paradigma de dispositivo end
ogeno seg
un lo
expuesto en la seccion 5.7 empleando un mnimo n
umero de electrodos superciales.
1
Debido a la complejidad del sistema nervioso en general y del cerebro en particular, en Neurologa se
mantienen activas diferentes lneas de investigaci
on, que tratan de explicar el funcionamiento del cerebro,
cuyos resultados podran dar lugar a la aparici
on de nuevos mecanismos aplicables en ICC.

208

Conclusiones y futuros desarrollos.

Evaluaci
on de las diferentes tecnicas de clasicacion con experimentos realizados
por sujetos reales, a n de evaluar la aplicaci
on de esta tecnologa en el control de
dispositivos externos genericos, lo que permite concluir que:
Es factible el empleo de la tecnologa de Interfaz Cerebro Computador, bajo el
paradigma de sistema end
ogeno, empleando un n
umero mnimo de electrodos
superciales localizados sobre las zonas encefalicas con mayor poder de
discriminaci
on; estando en lnea con lo expuesto en [Alarcon 00], [Gazzaniga 92]
y [Jessell 97], entre otros.
El empleo de ventanas de procesamiento de tipo Tukey, Kaiser o rectangular de
duraci
on equivalente al tama
no de la FFT de procesamiento empleada, mejora
la capacidad de discriminaci
on; un estudio detallado sobre este punto puede
encontrarse en [Martnez 06].
La banda frecuencial con mayor capacidad de discriminaci
on comprende a
las componentes y , coincidiendo con los ritmos de des-sincronizacion
y posterior sincronizacion asociados a la planicaci
on de movimiento; lo cual
esta en lnea con lo expuesto en [Pfurtscheller 03].
El hemisferio cerebral derecho presenta una mayor capacidad de discriminaci
on.
Es posible reducir la dimensi
on del espacio de caractersticas, realizando una
combinaci
on de las mismas, sin que esto de lugar a una perdida de la capacidad
de discriminaci
on. Un an
alisis detallado sobre esta conclusion ha sido presentada
en [Martnez 07].
Los clasicadores basados en redes neuronales de tipo PNN o RBF presentan
un mejor comportamiento que clasicadores basados en redes neuronales
de tipo MLP, tanto desde el punto de vista de clasicaciones correctas
conseguidas, como estabilidad de las mismas. La descripci
on pormenorizada
de esta conclusion ha sido descrita en [Martnez 08]
Un clasicador basado en un algoritmo bi-etapa RBF-HMM tiende a sobreaprender el conjunto de datos de entrenamiento, presentando una muy buena
capacidad de aprendizaje, pero una reducida generalizaci
on; por lo que se
recomienda el uso de dicho clasicador cuando exita una elevada cantidad
de informaci
on que pueda ser empleada durante el aprendizaje, por ejemplo
registros electroencefalogracos de varias horas de duraci
on. La descripci
on
detallada tanto del algoritmo de clasicaci
on, como los resultados y conclusiones
extraidos de su aplicaci
on pueden encontrarse en [Martinez 10].
El clasicador vasado en M
aquina de Soporte de Vectores con Kernel polin
omico
de orden 4 y ventana de procesamiento de tipo Tukey es el que mejores resultado
de clasicacion aporta.
La realimentaci
on del resultado de la clasicaci
on al usuario ocasiona una
disminuci
on de la capacidad de discriminaci
on, en lnea con lo expuesto en
on detallada de esta conclusi
on ha sido expuesta en
[Pineda 03], la descripci
[Martinez 09].

7.2 Futuros desarrollos.

7.2.

209

Futuros desarrollos.

Con la aplicaci
on de demostracion desarrollada seg
un lo expuesto en la secci
on 5.7
bajo el paradigma de dispositivo end
ogeno empleando un mnimo n
umero de electrodos
superciales, es posible analizar y evaluar la aplicabilidad de un dispositivo basado en la
tecnologa ICC a una persona y anticipar una estimaci
on de los resultados obtenibles.
Las actuales lneas de investigaci
on existentes sobre ICC daran respuesta a las carencias
que esta tecnologa presenta hoy da para una utilizaci
on masiva de la misma, como por
ejemplo el desarrollo e implantaci
on de un algoritmo de clasicacion seguro que permita
una adaptaci
on continua al usuario, que considere el efecto que el cansancio y otros tipos
de factores psicol
ogicos causan sobre la capacidad de producci
on de los patrones cerebrales
del usuario.
Para que la tecnologa ICC pase de la fase de demostracion tecnologica a ser una
realidad en la vida diaria, se precisa que el modo de operaci
on del clasicador pueda ser
supervisado por parte del usuario, deciendo este cuando el dispositivo se encuentra activo,
en estado de reposo, o en fase de aprendizaje y adaptaci
on. Para ello es preciso que se
desarrollen estudios a mas largo plazo, que consideren la interacci
on entre el dispositivo
y el usuario. Estos estudios requerir
an la creacion de equipos multidisciplinares, donde se
considere el desarrollo de este tipo de tecnologa a nivel global, no s
olo desde un punto
de vista de ingeniera, considerando aspectos neurol
ogicos y psicologicos, como los efectos
que el aprendizaje por parte del usuario en el uso de un determinado tipo de dispositivo
ICC causaran sobre su capacidad de clasicaci
on.
La evaluacion de la ergonoma en la usabilidad del dispositivo tambien es de gran
importancia, un dispositivo que sea ergon
omico en su empleo es mas comodo para el
usario, a la vez que evita que se produzcan lesiones o molestias en su empleo; as mismo
la consideraci
on de aspectos motivacionales por parte del usuario en el empleo de este
tipo de tecnologa son fundamentales, ya que esta tecnologa supone el desarrollo de un
nuevo canal de comunicacion, distinto a los utilizados conmunmente, lo que puede dar
lugar a que inicialemente en la fase de aprendizaje se produzcan en el usuario momentos
de frustraci
on ante la respuesta obtenida.
Por u
ltimo, pero no por ello menos importante, queda el aspecto comercial y econ
omico,
para que la tecnologa ICC alcance un nivel de implantaci
on elevado, es preciso que el
precio nal de comercializacion de este tipo de dispositivos sea admisible por parte del
usuario nal, en donde se ha de considerar tanto los costes de investigaci
on y desarrollo
como mantenimiento y reparaci
on. Actualmente esta tecnologa se encuentra en la fase de
demostracion tecnologica obteniendose resultados aceptables en escenarios de aplicacion
muy especcos.

210

Conclusiones y futuros desarrollos.

Ap
endices

Ap
endice A

Adquisici
on de se
nal.
Las se
nales biol
ogicas, al igual que la gran mayora de se
nales presentes en la naturaleza,
son de car
acter anal
ogico lo que implica su continuidad en el tiempo y en los valores de su
amplitud; sin embargo los procesadores digitales operan sobre codigos discretos asociados
a determinados instantes de tiempo. La conversi
on anal
ogico/digital permite convertir un
tipo de se
nal en otro, conservando la mayor cantidad de informaci
on, idealmente la se
nal
analogica recuperada a partir de la se
nal digital debera ser una copia el de la se
nal
analogica de partida.
La conversion anal
ogico/digital contempla la realizaci
on de tres procesos distintos:
muestreo, cuanticaci
on y codicaci
on; a traves de los cuales la informacion de la se
nal se
convierte de un tipo a otro.

A.1.

Muestreo de se
nales.

El muestro de se
nal es un proceso lineal que transforma una se
nal continua en el tiempo
y de banda limitada, en una serie temporal de valores de amplitud en instantes discretos.
Si los instantes de tiempo en que se adquieren los valores de amplitud est
an equiespaciados
al muestreo se le denomina muestreo uniforme, siendo este el mas habitual.
Existen diferentes tipos de muestreos de se
nal:
Muestreo natural. La serie temporal de valores es un tren de impulsos cuya amplitud
queda modulada por el valor de la amplitud de la se
nal que se muestrea, lo que puede
interpretarse como el producto de se
nal de entrada por la se
nal muestreadora.
Sm (nT ) = S(t)m(t)

(A.1)

El teorema de muestreo establece la relacion que existe entre el periodo de muestreo


y el valor de la componente frecuencial m
as alta presente en la se
nal anal
ogica, fM .
Se demuestra que
T <

fM
2

(A.2)

214

Adquisici
on de se
nal.

Para evitar que componentes frecuenciales superiores a fM /2 se mezclen con


componentes frecuenciales menores a fM /2, efecto de aliasing, es preciso asegurar
que la se
nal que se muestrea sea de banda limitada, por lo que antes de proceder al
muestreo se utilizan ltros de paso bajo, de forma que el valor de amplitud de las
componentes frecuenciales no deseadas presentes en la se
nal original sean inferiores
a la resoluci
on del conversor A/D o al valor maximo del error de cuanticaci
on.
Cuanto mayor sea la relacion entre la frecuencia de muestreo con la frecuencia de
las se
nales no deseadas, menor podr
a ser el orden del ltro empleado.
Muestreo ideal uniforme. Algunas realizaciones pr
acticas de conversores A/D,
requieren que la se
nal que se muestrea mantenga su valor durante el instante de
tiempo en que se realiza la conversion, por lo que antes de efectuar la conversi
on
se utiliza un circuito que mide y retiene el valor de la entrada durante el tiempo
que dura la conversi
on. El teorema de Shannon arma que si S(t) es una se
nal cuya
transformada de Fourier S(f ) no contiene frecuencia superiores a |f | fM entonces
S(t) =

n=+


S(nT )

n=

sen(2fM (t nT ))
2fM (t nT )

(A.3)

donde T = 12 fM , siendo fM la denominada frecuencia de Nyquist y 1/T la frecuencia


de muestreo.
A la funci
on
h(t) =

sen(2fM t
2fM t

(A.4)

se la denomina retenci
on cardinal, coincidiendo con la respuesta impulsional de un
ltro de paso bajo ideal.
Muestreo de se
nales pasabanda. Este tipo de muestreo se da en aplicaciones
industriales e instrumentacion, cuando la se
nal portadora se modula en amplitud
por la magnitud de interes, cuya frecuencia es mucho menor que la de la portadora.
Muestreo repetitivo secuencial. Cuando a priori se conoce que la se
nal que se
muestrea es repetitiva, se puede emplear este conocimiento para tomar muestras
de la se
nal en periodos diferentes. Se precisa de un punto de sincronismo y un
circuito de temporizaci
on que genere con respecto a dicho punto la base de tiempos
para la adquisici
on. En caso de no conocer el periodo de la se
nal original es preciso
determinarlo. Esta tecnica de submuestreo se emplea en osciloscopios digitales de
bajo coste y voltmetros digitales de precision.

A.2 Cuanticaci
on.

A.2.

215

Cuanticaci
on.

Mediante este procedimiento no lineal se representa el valor de amplitud de la


se
nal anal
ogica mediante una serie nita de niveles de amplitud. Existen dos tipos de
cuanticaci
on.
Cuanticaci
on uniforme. En la gura siguiente se representa el proceso de
cuanticaci
on uniforme. Dependiendo del valor de la entrada, x, la salida, y, toma
una serie de valores discretos, as si (0 x q/2) y = 1, si (q/2 x 3q/2)
y = 2, y as sucesivamente.

Figura A.1: Cuanticaci


on uniforme.

A q se le denomina intervalo de cuanticaci


on, siendo la diferencia entre los valores
de entrada mayor y menor para los que la salida mantiene el mismo valor. Si la
salida del cuanticador s
olo depende del valor actual de la entrada, y no de valores
anteriores, al cuanticador se le denomina de memoria cero, en contraposici
on con
los cuanticadores secuenciales que consideran el valor de la entrada en el momento
actual y anteriores.

216

Adquisici
on de se
nal.

Dependiendo del n
umero de estados considerados, N , as sera la resolucion de
cuanticador, la cual se expresa en bits (n), N = 2n .
El margen de entrada, M , viene determinado por la diferencia entre los valores
maximo y mnimo aceptados a la entrada. Para los cuanticadores uniformes q es
constantes en todo el margen M , cumpliendose:
q=

M
2n

(A.5)

Como puede observarse la curva en escalera de la cuanticacion introduce un error,


ya que la entrada, x(t), no puede reconstruirse a partir de la secuencia de valores ya
cuanticados, y(t). El m
aximo error cometido en cuanticadores uniformes ideales
es de q/2, teniendo una curva en forma de diente de sierra, con valor medio nulo,
e = 0, y varianza:
 2
q2
e
2
de =
(A.6)
vare = E(e e) =
12
q
El valor ecaz del ruido es equivalente a la raz cuadrada de la suma del valor medio
al cuadrado y la varianza, obteniendose
q
R=
2 3

(A.7)

De d
onde se desprende que para reducir el valor del ruido hay que reducir
proporcionalmente el intervalo de cuanticaci
on, q. Reducci
on que queda limitada
por factores tecnologicos y el ruido asociado a los componentes electronicos.
La relacion se
nal / ruido (S/R), calculada como el cociente del valor ecaz de una
a:
se
nal senoidal de amplitud entre 0 y (2n 1/2)q y el ruido presente ser
S/R =

(2n 1/2)2 q 2 /2
= 6 22n para n > 4.
q 2 /12

S/R(dB) = 10log6 + 20nlog2 = 7,78 + 6,02n

(A.8)
(A.9)

Como puede comprobarse la expresi


on anterior se obtiene para se
nales cuyo rango de
amplitud cubre el margen de entrada del cuanticador, como es obvio para se
nales
menores la relacion S/R ser
a menor, motivo por el que es muy importante amplicar
la se
nal de entrada antes de proceder a la cuanticaci
on
Cuanticaci
on no uniforme. Como se ha indicado en el punto anterior, la relaci
on
S/R disminuye cuando la amplitud de la entrada anal
ogica es menor que el
margen del cuanticador, el error relativo es menor para se
nales peque
nas que
para se
nales grandes, en caso de querer tener una relaci
on S/R constante se puede

A.3 Codicaci
on.

217

variar el intervalo de cuanticaci


on proporcionalmente a la amplitud de entrada.
Tecnicas como la Modulaci
on de Impulsos Codicados1 hacen uso de este tipo de
cuanticaci
on, permitiendo a su vez reducir el n
umero de bits

A.3.

Codicaci
on.

Mediante el proceso de codicaci


on se asocia biunvocamente cada uno de los
valores discretos de la salida del codicador a un smbolo dentro de un alfabeto nito,
[Shannon 48]. Si el alfabeto queda compuesto por combinaciones de dos caracteres, y la
posici
on de cada uno de ellos se corresponde con una potencia entera de dos, se obtienen
los codigos binarios, entre los que se encuentran:
Codigo binario unipolar. A = An1 An2 . . . A1 A0 = An1 2n1 + An2 2n2 +
+ A1 21 + A0 20
Codigo binario bipolar. En el que adem
as del valor de la magnitud de la amplitud
es necesario indicar si esta es positiva o negativa. Entre estos codigos se encuentran:
Codigo binario con complemento a uno. Las cantidades negativas se codican
mediante el complemento a uno del valor absoluto de la magnitud. Existen pues
dos representaciones para el cero.
Codigo binario con complemento a dos. Por denici
on el complemento a dos
de un n
umero binario es aquel otro n
umero que sumado al primero da cero.
Para las magnitudes positivas se a
nade un cero a la izquierda de la codicaci
on
binaria, mientras que para el c
omputo de las cantidades negativas se calcula el
complemento a uno de la magnitud y se a
nade uno.
Codigo binario decalado. Equivalente al c
odigo binario en complemento a dos
con la salvedad de cambiar el criterio para la representaci
on de las magnitudes
positivas, a
nadiendo un uno a la izquierda en lugar de un cero, y un cero para
las negativas.
Codigo binario con signo a
nadido. En este caso las magnitudes positivas quedan
representadas por el c
odigo binario unipolar a
nadiendo un cero a la izquierda,
mientras que para las negativas se a
nade un uno.
Otros codigos. Existen codicadores que realizan operaciones mas exoticas a efectos
de evitar y detectar comportamientos anomalos, como por ejemplo:
Codigo Gray. Se trata de un c
odigo cclico de representacion, en el que entre un
smbolo y su inmediato seguidor s
olo se permite el cambio de un dgito, se evita
as que en la transici
on secuencial de codigos se produzcan lecturas erroneas.
1

En ingles Pulse Code Modulation, PCM

218

Adquisici
on de se
nal.

Codigos con correccion de errores. Se aplica cuando se realiza transmision o


almacenamiento de la informacion digital proporcionada por el codicador,
a
nadiendo una codicaci
on adicional que facilita la identicaci
on y posible
correccion de errores. Ejemplos de este tipo de c
odigos son los bits de paridad
o el codigo Hamming.

Ap
endice B

Matriz de confusi
on.
Para presentar los resultados de clasicacion obtenidos con la tras la aplicaci
on de un

clasicador a un conjunto de datos se utilizan las matrices de confusi


on. Estas proporcionan
informaci
on detallada sobre el rendimiento del clasicador para cada una de las clases
consideradas [Nabney 02].
En la matriz de confusi
on C, las las representan la asignaci
on real de las muestras
candidatas a cada una de las clases, mientras que las columnas representan las asignaciones
on representa al n
umero
predichas. De este modo la componente Cij de la matriz de confusi
de muestras que perteneciendo a la clase i han sido asignadas dentro de la clase j; as pues
el clasicador ideal, aquel que no comete errores, sera una matriz diagonal.
Uno de los benecios de la utilizaci
on de las matrices de confusi
on es comprobrar si el
clasicador confunde dos o m
as clases entre s.
Para obtener resultados representativos sobre la bondad del clasicador, es
recomendable que el n
umero de muestras considerados en cada una de las clases sea
semejante, en caso contrario la tasa de error puede llega a no ser representativa de la
bondad de su rendimiento.
A modo de ejemplo considerense las matrices de confusion mostradas en las tablas
B.1 y B.2. En la primera, del clasicador ideal, se observa que todas las muestras son
asignadas a las clases correctas, y el n
umero de muestras considerado es equivalente en las
tres clases.
Calculo matematico
Imaginaci
on movimento
Relax

Calculo matematico
60
0
0

Imaginaci
on movimento
0
65
0

Relax
0
0
55

Tabla B.1: Matriz de confusi


on del clasicador ideal.

Mientras que en la matriz de la tabla B.2 se observa que un tercio de las muestras
pertenecientes a C
alculo matem
atico son clasicadas de forma err
onea, con tendencia
a confundirlas con las muestras de la clase Relax. Por su parte todas las muestras de
Imaginaci
on de movimiento son catalogadas de forma correcta. Por u
ltimo, analizando
la clase Relax se observa que el n
umero de muestras consideradas es del orden de la

220

Matriz de confusi
on.

quinta parte del considerado en las otras dos clases, y la confusi


on de cinco de las doce
muestras como pertenecientes a la clase Imaginaci
on de movimiento hace sospechar que
el clasicador en cuesti
on no pueda discriminar entre ambas clases.
Calculo matematico
Imaginaci
on movimento
Relax

Calculo matematico
40
0
0

Imaginaci
on movimento
8
65
5

Relax
12
0
7

Tabla B.2: Matriz de confusi


on para un clasicador real.

El rendimiento de este clasicador sera del 82 %.


Considerando un clasicador que separara entre dos
clases, {+, }, las entradas de la matriz de confusi
on
tienen el siguiente signicado:

Real

()
(+)

Prediccion
() (+)
a
b
c
d

a es el n
umero de predicciones correctas para la clase de muestras negativas.
b es el n
umero de falsos positivos o muestras negativas clasicadas erroneamente.
c es el n
umero de falsos negativos o muestras positivas clasicadas como positivas.
d es el n
umero de predicciones correctas para la clase de muestras positivas.
Deniendose la siguiente terminologa:
Exactitud (E): porporci
on de clasicaciones correctas.
a+d
E=
a+b+c+d
Tasa de Verdaderos Positivos (TVP):
correctamente clasicadas.
d
TV P =
c+d

proporci
on

(B.1)
de

muestras

positivas
(B.2)

Tasa de Falsos Positivos (TFP): proporci


on de muestras negativas clasicadas
err
oneamente.
b
(B.3)
TFP =
a+b
Tasa de Verdaderos Negativos (TVN):
correctametne clasicadas.
a
TV N =
a+b

proporci
on de muestras negativas
(B.4)

Tasa de Falsos Negativos (TFN): proporci


on de muestras positivas clasicadas
err
oneamente.
c
(B.5)
TFV =
c+d
Precisi
on (P): proporci
on de muestras positivas correctamente clasicadas
considerando todas las predicciones positivas.
d
(B.6)
P =
b+d

Bibliografa
[Alarcon 00]

R. Alarcon & M.J. Blanca. Asimetra hemisferica en la dicotomica


holstica-analtica en tareas de atenci
on focalizada. Psicothema, vol. 12,
no. 2, pages 1517, 2000.

[Allen 77]

J. B. Allen & Lawrence R. Rabiner. A Unied Approach to Short-Time


Fourier Analysis and Synthesis., November 1977 1977.

[Allison 03]

B. Z. Allison & J. A. Pineda. ERPs evoked by dierent matrix sizes:


implications for a brain computer interface (BCI) system. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
110113, 2003.

[Ambler 05]

Scott W. Ambler. The elements of uml 2.0 style. Cambridge University


Press, 2005.

[Areny 93]

Ramon P. Areny. Adquisici


on y distribucion de se
nales. Marcombo
S.A., Barcelona, 1993.

[Arlow 05]

Jim Arlow & Ila Neustadt. Uml 2. Anaya Multimedia, Madrid, 2005.

[Arnao 97]

A. C. Arnao. Guia de acceso al ordenador para personas con


discapacidad. Instituto de Migraciones y Servicios Sociales. Ministerio
de Trabajo y Asuntos Sociales, Madrid, 1997.

[Babiloni 00]

F. Babiloni, F. Cincotti, L. Lazzarini, J. Millan, J. Mourino, M. Varsta,


J. Heikkonen, L. Bianchi & M. G. Marciani. Linear classication of
low-resolution EEG patterns produced by imagined hand movements.
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 186
188, 2000.

[Bai 01]

Ou Bai, M.Nakamura
& H. Shibasaki.
Compensation of hand
movement for patients by assistant force: relationship between human
hand movement and robot arm motion.
Neural Systems and

222

BIBLIOGRAF
IA

Rehabilitation Engineering, IEEE Transactions on [see also IEEE


Trans.on Rehabilitation Engineering], vol. 9, no. 3, pages 302307,
2001.
[Baker 89]

L. A. Geddes; L. E. Baker.
Principles of applied biomedical
instrumentation.
Wiley, New York ; Chichester, 1989.
L.A.
Geddes, L.E. Baker; .A Wiley-Interscience publication.; Includes
bibliographies.

[Barreno 97]

Pedro Garca Barreno. Medicina virtual. en los bordes de lo real.


Debate, Madrid, 1997. 019: M. 1045-1997; Pedro Garca Barreno.

[Barreno 02]

Pedro Garca Barreno. Horizontes culturales. historia de la ciencia


espa
nola. santiago ramon y cajal. .Espasa, 2002.

[Baum 66]

L.E. Baum & Petrie T. Statistical Inference for probabilistic functions


of Finite State Markov Chains, 1966.

[Baum 70]

L.E. Baum, Petrie T., Soules G. & Weiss N. A Maximization Technique


Ocurring in the Statistical Analysis of Probabilistic Functions of
Markov Chains, 1970.

[Bayliss 00]

J. D. Bayliss & D. H. Ballard.


A virtual reality testbed for
brain-computer interface research. Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Neural Systems and
Rehabilitation], vol. 8, no. 2, pages 188190, 2000.

[Bayliss 03]

J. D. Bayliss. Use of the evoked potential P3 component for control in


a virtual apartment. Neural Systems and Rehabilitation Engineering,
IEEE Transactions on [see also IEEE Trans.on Rehabilitation
Engineering], vol. 11, no. 2, pages 113116, 2003.

[Bengio 96]

Y. Bengio & P. Frasconi. Input-output HMMs for sequence processing,


1996.

[Bianchi 03]

L. Bianchi, F. Babiloni, F. Cincotti, M. Arrivas, P. Bollero & M. G.


Marciani. Developing wearable bio-feedback systems: a general-purpose
platform. Neural Systems and Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Rehabilitation Engineering],
vol. 11, no. 2, pages 13, 2003.

[Birbaumer 00]

N. Birbaumer, A. Kubler, N. Ghanayim, T. Hinterberger, J. Perel


mouter, J. Kaiser, I. Iversen, B. Kotchoubey, N.Neumann
& H. Flor.
The thought translation device (TTD) for completely paralyzed patients. Rehabilitation Engineering, IEEE Transactions on [see also

BIBLIOGRAF
IA

223

IEEE Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages


190193, 2000.
[Birbaumer 03]

N. Birbaumer, T. Hinterberger, A. Kubler & N.Neumann.


The thoughttranslation device (TTD): neurobehavioral mechanisms and clinical
outcome. Neural Systems and Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Rehabilitation Engineering],
vol. 11, no. 2, pages 120123, 2003.

[Birch 00]

G. E. Birch & S. G. Mason. Brain-computer interface research


at the Neil Squire Foundation. Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Neural Systems and
Rehabilitation], vol. 8, no. 2, pages 193195, 2000.

[Birch 03]

G. E. Birch, S. G. Mason & J. F. Boriso. Current trends in braincomputer interface research at the Neil Squire foundation. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
123126, 2003.

[Bishop 95]

Christopher M. Bishop. Neural networks for pattern recognition.


Oxford University Press, Great Britain, 2000 1995.

[Blankertz 04]

B. Blankertz, K. R Muller, G. Curio, T. M. Vaughan, G. Schalk,

J. R. Wolpaw, A. Schlogl, C.Neuper,


G. Pfurtscheller, T. Hinterberger,
M. Schroder & N. Birbaumer. The BCI competition 2003: progress
and perspectives in detection and discrimination of EEG single trials.
Biomedical Engineering, IEEE Transactions on, vol. 51, no. 6, pages
10441051, 2004.

[Boriso 04]

J. F. Boriso, S. G. Mason, A. Bashashati & G. E. Birch. Braincomputer interface design for asynchronous control applications:
improvements to the LF-ASD asynchronous brain switch. Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 985992, 2004.

[Bronzino 95a]

Joseph D. Bronzino. The biomedical engineering handbook. CRC Press


: IEEE Press, Boca Raton, 1995. editor-in-chief, Joseph D. Bronzino;
Includes bibliographical references and index.

[Bronzino 95b]

Joseph D. Bronzino. The biomedical engineering handbook. CRC Press


: IEEE Press, Boca Raton, 1995. editor-in-chief, Joseph D. Bronzino;
Includes bibliographical references and index.

[Burges 98]

Christopher J.C. Burges. A Tutorial on Support Vector Machines for


Pattern Recognition., 1998.

224

BIBLIOGRAF
IA

[Cajal 05]

Santiago Ramon y Cajal. Histologa del sistema nervioso del hombre y


de los vertebrados, 1905.

[Canu 05]

Y. Grandvalet; V. Guigue; A. Rakotomamonjy; S. Canu. SVM and


Kernel Methods Matlab Toolbox. Perception Systemes et Information,
INSA de Rouen, Rouen, France, 2005.

[Castro 03]

J.L. Alba Castro. Maquinas de Soporte de Vectores, 2003.

[Chang 07]

Chih-Chung Chang & Chih-Jen Lin. LIBSVM A Library for Support


Vector Machines, 2007.

[Chapin 99]

J. K. Chapin & K. A. Moxon. Real-time control of a robot arm using


simultaneously recorded neurons in the motor cortex, 1999 1999.

[Chervonenkis 74] V. Vapnik; A. Chervonenkis. Theory of Pattern Recognition. Nakua,


Moscow, 1974.
[Chiappa 06]

Silvia Chiappa. ANALYSIS AND CLASSIFICATION OF EEG SIGNALS USING PROBABILISTIC MODELS FOR BRAIN COMPUTER INTERFACES. PhD thesis, IDIAP Research Institute, 2006.

[Chinchilla 43]

Anastasio Chinchilla. Anales hist


oricos de la medicina en general, y
biogr
aco-bibliogr
aco de la espa
nola en particular. Imprenta de Lopez
y Cia., 1843.

[Cincotti 03]

F. Cincotti, D. Mattia, C. Babiloni, F. Carducci, S. Salinari, L. Bianchi,


M. G. Marciani & F. Babiloni. The use of EEG modications due
to motor imagery for brain-computer interfaces. Neural Systems and
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 131133,
2003.

[Colbert 98]

Charles Colbert. A measure of perfection: Phrenology and the ne arts


in america. The University of North Carolina Press, 1998.

[Cox 00]

Richard V. Cox, Candace A. Kamm, Lawrence R. Rabiner, Juergen


Schroeter & Jay G. Wilpon. Speech and Language Processing for NextMillennium Communications Services., August 2000 2000.

[Cristianini 00]

Nello Cristianini & John Shawe-Taylor. An introduction to support


vector machines : and other kernel-based learning methods. Cambridge
University Press, Cambridge, 2000. Nello Cristianini and John ShaweTaylor.; Includes bibliographical references and index.

[Cristianini 05a]

Nello Cristianini. Kernel Methods for General Pattern Analysis, 2005.

BIBLIOGRAF
IA

225

[Cristianini 05b]

Nello Cristianini & John Shawe-Taylor. And Introduction to Support


Vector Machines and other kernel-based learning methods. Cambridge
University Press, The Edinburgh Building, Cambridge CB2 2RU, UK,
2005.

[Donchin 00]

E. Donchin, K. M. Spencer & R. Wijesinghe.


The mental
prosthesis: assessing the speed of a P300-based brain-computer
interface. Rehabilitation Engineering, IEEE Transactions on [see also
IEEE Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages
174179, 2000.

[Duda 01]

Richard Oswald Duda, Peter Elliot Hart & David G. Strok. Pattern
classication. John Wiley and sons, New York etc., 2001. Richard O.
Duda, Peter E. Hart, David G. Strok.

[Espinoza 03]

J.W. Espinoza. El Genoma Humano y sus implicancias jur


udico
penales dentro de la antropologa jurdica., 2003.

[Ferre 97]

M. Ferre. Dise
no de Interfases Avanzados para Robots Teleoperados.
Desarrollo de un Entorno de Teleoperaci
on. PhD thesis, Universidad
Politecnica de Madrid, 1997.

[Fisher 36]

R. A. Fisher. THE USE OF MULTIPLE MEASUREMENTS IN


TAXONOMIC PROBLEMS. Annals of Eugenics, vol. 7, pages 179
188, 1936 1936.

[Florian 98]

G. Florian, C. Andrew & G. Pfurtscheller. Do changes in coherence


always reect changes in functional coupling? Electroencephalography
and Clinical Neurophysiology,, vol. 106, no. 1, pages 8791, 1 1998.

[Forney 73]

G.D. Forney. The Viterbi Algorithm, 1973.

[Freeman 93]

James A. Freeman & David M. Skapura.


Redes neuronales :
algoritmos, aplicaciones y tecnicas de programacion. Addison-Wesley
Iberoamericana; Daz de Santos, Reading Massachusetts; Madrid, 1993.
James A. Freeman, David M. Skapura; 19930929.

[Friedman 89]

J. H. Friedman. Regularized Discriminant Analysis. Journal of the


American Statistical Association, July 1988 1989.

[Fuente OConnor 93] Jose Luis Fuente OConnor. Tecnologas computacionales para
sistemas de ecuaciones, optimizacion lineal y entera. Editorial Reverte,
Espa
na, 1993.

BIBLIOGRAF
IA

226

[Galan 07]

F. Galan & R. Millan. Feature Extraction for Multi-class BCI using


Canonical Variates Analysis. Presentacion WISP 2007 2007 IEEE
International Symposium on Intelligent Signal Processing, Octuber
2007.

[Garrett 03]

D. Garrett, D. A. Peterson, C. W. Anderson & M. H. Thaut.


Comparison of linear, nonlinear, and feature selection methods for EEG
signal classication. Neural Systems and Rehabilitation Engineering,
IEEE Transactions on [see also IEEE Trans.on Rehabilitation
Engineering], vol. 11, no. 2, pages 141144, 2003.

[Gazzaniga 92]

Michael Gazzaniga. Natures Mind: The biological roats of thinking,


emotions, sexuality, language and Intelligence. Harmonsdsworth,
Penguin Books, 1992.

[Gerstner 04]

J. R. Millan; F. Renkens; J. Mourino; W. Gerstner. Noninvasive


brain-actuated control of a mobile robot by human EEG. Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 10261033,
2004.

[Guger 99]

B. Obermaier; C. Guger & G. Pfurtscheller. HMM used for the oine


classication of EEG data, 1999.

[Guger 05]

Christoph Guger. g.tec, 2005.

[Gunn 98]

Steve R. Gunn.
Regression, 1998.

[Gunn 03]

Steve R. Gunn. Sparse Kernel Methods, 2003.

[Gunn 05]

Steve Gunn. Matlab Support Vector Machine Toolbox, 2005.

[Harrington 97]

Anne Harrington. The placebo eect : an interdisciplinary exploration.


Harvard University Press, Cambridge, Mass. ; London, 1997. editor,
Anne Harrington.; Includes bibliographical references and index.

[Herreo 98]

Oscar Luengo Herreo. TELEOPERACION BILATERAL SEMIATOMATICA EN ACTIVIDADES CON ELEVADAS FUERZAS DE REACCION CON EL CONTORNO, 1998.

Support Vector Machines for Classication and

[Hinterberger 04] T. Hinterberger, N. Weiskopf, R. Veit, B. Wilhelm, E. Betta &


N. Birbaumer. An EEG-driven brain-computer interface combined
with functional magnetic resonance imaging (fMRI). Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 971974, 2004.

BIBLIOGRAF
IA

227

[Holzapfel 98]

S. Holzapfel, Strehl U., Kotchoubey B. & Birbaumer N. Behavioral


Psychophysiological Intervention in a Mentally Retarded Epileptic
Patient with Brain Lesion. Applied Psychophysiology and Biofeedback,
vol. 23, pages 189202(14), September 1998.

[HONDA 09]

HONDA. HONDA, 2009.

[Hoogerwerf 94]

A. C. Hoogerwerf. A three-dimensional microelectrode array for chronic


neural recording, 1994. ID: 1.

[Instruments 01]

National Instruments. The Measurement and Automation, 2001.

[Isaacs 00]

R. E. Isaacs. Work toward real-time control of a cortical neural


prothesis, 2000. ID: 1.

[Ivanciuc 07]

Ovidiu Ivanciuc.
Chemistry, 2007.

[J. 75]

Baker J. The Dragon System. An overview., February 1975.

[Jacques 94]

G. E. Jacques.
Application of quality function deployment in
rehabilitation engineering, 1994. ID: 1.

[Jelinek 80]

F. Jelinek & R. L. Mercer. Interpolated estimation of Markov source


parameters from sparse data, 1980.

[Jessell 91]

E. R. Kandel; J. H. Schwartz; T. M. Jessell. Principles of neural science.


.Elsevier/North Holland, New York Elsevier/North Holland, 1991.

[Jessell 97]

E. R. Kandel; J. H. Schwartz; T. M. Jessell. Neurociencia y conducta.


Prentice Hall, 1997.

[Juang 91]

B. H. Juang & Lawrence R. Rabiner. Hidden Markov Models for Speech


Recognition, August 1991 1991.

[Kennedy 97]

Philip R. Kennedy & Roy A. E. Bakay. Activity of single action


potentials in monkey motor cortex during long-term task learning.
Brain Research,, vol. 760, no. 1-2, pages 251254, 6/20 1997.

[Kennedy 00]

P. R. Kennedy, R. A. E. Bakay, M. M. Moore, K. Adams &


J. Goldwaithe. Direct control of a computer from the human central
nervous system. Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2,
pages 198202, 2000.

Applications of Support Vector Machines in

228

BIBLIOGRAF
IA

[Kipke 03]

D. R. Kipke, R. J. Vetter, J. C. Williams & J. F. Hetke. Siliconsubstrate intracortical microelectrode arrays for long-term recording
of neuronal spike activity in cerebral cortex. Neural Systems and
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 151155,
2003.

[Kositsky 03]

M. Kositsky, A. Karniel, S. Alford, K. M. Fleming & F. A. MussaIvaldi. Dynamical dimension of a hybrid neurorobotic system. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
155159, 2003.

[Kostov 00]

A. Kostov & M. Polak. Parallel man-machine training in development


of EEG-based cursor control.
Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Neural Systems and
Rehabilitation], vol. 8, no. 2, pages 203205, 2000.

[Krusienski 00]

D. J. Krusienski, E. W. Sellers, D. J. McFarland, T. M. Vaughan &


J. R. Wolpaw. Toward enhanced P300 speller performance. Journal of
Neuroscience Methods,, vol. In Press, Corrected Proof, page 550, 2000.

[Kumlbler 01]

Andrea Kumlbler, Nicola Neumann, Jochen Kaiser, Boris Kotchoubey,


Thilo Hinterberger & Niels P. Birbaumer.
Brain-computer
communication: Self-regulation of slow cortical potentials for verbal
communication. Archives of Physical Medicine and Rehabilitation,,
vol. 82, no. 11, pages 15331539, 11 2001.

[Laitinen 03]

L. Laitinen. Neuromagnetic sensorimotor signals in brain computer


interfaces. PhD thesis, Helsinki University of Technology, 2003.

[Larman 03]

C. Larman. UML Y PATRONES. Una introduccion al analisis y dise


no
orientado a objetos y al proceso unicado. Pearson Educacion, Madrid,
2003.

[Lauer 00]

R. T. Lauer, P. H. Peckham, K. L. Kilgore & W. J. Heetderks.


Applications of cortical signals to neuroprosthetic control: a critical
review. Rehabilitation Engineering, IEEE Transactions on [see also
IEEE Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages
205208, 2000.

[Lauritzen 96]

S. Lauritzen. Graphical models. Oxford Science Publications, 1996.

[Lauzon; 01]

Y. Bengio; V. P. Lauzon; & R. Ducharme. Experiments on the


applications of IOHMMs to model nancial return series, 2001.

BIBLIOGRAF
IA

229

[Leeb 05]

Robert Leeb. Usefulness of an EEG-based brain-computer interface to


establish communication in ALS. Journal of the Neurological Sciences,,
vol. 238, no. 1, pages 341458, 2005.

[Levine 00]

S. P. Levine, J. E. Huggins, S. L. BeMent, R. K. Kushwaha, L. A.


Schuh, M. M. Rohde, E. A. Passaro, D. A. Ross, K. V. Elisevich &
B. J. Smith. A direct brain interface based on event-related potentials.
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 180
185, 2000.

[Luengo 98]

O. Luengo. Teleoperaci
on Bilateral Semiaut
onoma en Actividades con
Elevadas Fuerzas de Reacci
on con el Entorno. PhD thesis, Universidad
Politecnica de Madrid, 1998.

[Mahajan 98]

D. Mahajan, D. B. Reynolds, K. S. Rattan, C. A. & Phillips. A Fuzzy


Logic Controller For Leg Extension Exercise in a Spinal Cord Injured
Person, 1998 1998.

[Mardia 79]

K.V. Mardia. Multivariate analysis. Academic Press, 1979.

[Martinez 01]

A. M. Martinez & A. C. Kak. PCA versus LDA. IEEE Transactions


on Pattern Analysis and Machine Intelligence, vol. 23, no. 2, pages
228233, February 2001 2001.

[Martinez 09]

J.L. Martinez & A. Barrientos. Feedback eect analysis by comparison


of discrimination capability of On-line and O-line experimental
procedures based on LDA.
Proceedings of the BIODEVICES
International Conference on Biomedical Electronics and Devices.,
vol. 1, no. 1, pages 2025, January 2009.

[Martinez 10]

J.L. Martinez & A. Barrientos. Brain Computer Interface. Application


of an adaptive bi-stage classier based on RBF-HMM. Proceedings of
the BIODEVICES International Conference on Biomedical Electronics
and Devices., vol. 1, no. 1, page Pr
oxima aparici
on, January 2010.

[Martnez 06]

J.L. Martnez & A. Barrientos. The windowing Eect in Cerebral


Pattern Classication. An Application to BCI Technology. IASTED
Biomedical Engineering BioMED 2006, pages 11861191, February
2006.

[Martnez 07]

J.L. Martnez & A. Barrientos. Linear Discriminant Analysis on Brain


Computer Interface. IEEE. Internacional Symposium on Intelligent
Signal Processing. Conference Proceedings Book, pages 859864,
November 2007.

230

BIBLIOGRAF
IA

[Martnez 08]

J.L. Martnez & A. Barrientos. Brain Computer Interface. Comparison


of neural networks classiers. Proceedings of the BIODEVICES
International Conference on Biomedical Electronics and Devices.,
vol. 1, no. 1, pages 310, January 2008.

[Maynard 99]

E. M. Maynard, N. G. Hatsopoulos, C. L. Ojakangas, B. D. Acuna,


Sanes, R. A. Normann & J. P. Donoghue. Neuronal Interactions
J.N.
Improve Cortical Population Coding of Movement Direction. Journal
of Neuroscience, vol. 19, no. 18, pages 80838093, September 15 1999.

[McFarland 97]

D. J. McFarland & Jonathan R. Wolpaw. Design and operation of


an EEG-based brain-computer interface with digital signal processing
technlogy, 1997 1997.

[McLachlan 97]

McLachlan & T. Krishnan. The em algorithm and extensions. John


Wiley and Sons, 1997.

[McLachlan 04]

Georey J. McLachlan. Discriminant analysis and statistical pattern


recognition. John Wiley and sons, Hoboken New Jersey, 2004. Geory
J. McLachlan.

[Middendorf 00]

M. Middendorf, G. McMillan, G. Calhoun & K. S. Jones. Braincomputer interfaces based on the steady-state visual-evoked response.
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 211
214, 2000.

[Millan 03]

J.R. Millan & J. Mourino. Asynchronous BCI and local neural


classiers: an overview of the adaptive brain interface project. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
159161, 2003.

[Millan 04]

J.R. Millan, F. Renkens, J. Mourino & W. Gerstner. Brain-actuated


interaction. Articial Intelligence,, vol. 159, no. 1-2, pages 241259, 11
2004.

[Miner 98]

Laurie A. Miner, Dennis J. McFarland & Jonathan R. Wolpaw.


Answering questions with an electroencephalogram-based braincomputer interface, ,.
Archives of Physical Medicine and
Rehabilitation,, vol. 79, no. 9, pages 10291033, 9 1998.

[Montaner 91]

Montaner. Diccionario Enciclopedico Hispano-Americano., 1891.

[Montoya 02]

R. S. Montoya. Ordenador y discapacidad. CEPE, Madrid, 2002.

BIBLIOGRAF
IA

231

[Moreno 06]

J.C. Moreno. Exoesquelos Rob


oticos para Valoraci
on y Compensaci
on
Funcional de Marcha Patol
ogica. PhD thesis, Universidad Politecnica
de Madrid, 2006.

[Muller 03a]

B. Obermaier; G. R. Muller & G.Pfurtscheller.


controlled by spontaneous EEG activity, 2003.

[Muller 03b]

K. R Muller, C. W. Anderson & G. E. Birch.


Linear and
nonlinear methods for brain-computer interfaces. Neural Systems
and Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 165169,
2003.

[Nabney 02]

Ian Nabney. Netlab : algorithms for pattern recognition. Springer,


London, 2002. Ian T. Nabney.; Includes bibliographical references (p.
[407]-412) and indexes.; NETLAB toolbox is available via the Internet.

[NASA 08]

NASA. Air Force and NASA Research on pilots has revealed the
secrects of peak mental performance, 2008.

[Neuper 01]

B. Obermaier; C. Guger; C. Neuper & G. Pfurtscheller. Hidden Markov


Models for online classication of single trial EEG data, 2001.

[Nicolau 08]

N.; Nicolau, J. Georgiou & M.Polycarpou. Autoregressive features


for thought to speech converter. Proceedings of the BIODEVICES
International Conference on Biomedical Electronics and Devices.,
vol. 1, no. 1, pages 1116, January 2008.

[Obermaier 01a]

B. Obermaier. Dessign and implementation of an EEG based virtual


keyboard using hidden Markov models, 2001.

[Obermaier 01b]

Bernhard Obermaier, Christa Neuper, Christoph Guger & Gert


Pfurtscheller. Information Transfer Rate in a Five-Classes BrainComputer Interface. IEEE Transactions on Neural Systems and
Rehabilitation Engineering, vol. 9, no. 3, pages 283288, September
2001. Importante.

[Oppenheim 96]

A. Oppenheim. Signals and systems. Prentice-Hall Signal Processing


Series, Cambridge, 1996.

Virtual Keyboard

[Pe
na S
anchez 86] Daniel Pe
na S
anchez. Estadstica : modelos y metodos, volume 109110. Alianza, Madrid, 1986. Daniel Pe
na S
anchez de Rivera; 2 v. 23
cm; 1. Fundamentos 2. Modelos lineales y series temporales.
[Penny 99]

W. Penny & S. Roberts.


interface, 1999.

Experiments with an eegbased computer

232

BIBLIOGRAF
IA

[Penny 00]

W. D. Penny, S. J. Roberts, E. A. Curran & M. J. Stokes. EEGbased communication: a pattern recognition approach. Rehabilitation
Engineering, IEEE Transactions on [see also IEEE Trans.on Neural
Systems and Rehabilitation], vol. 8, no. 2, pages 214215, 2000.

[Perelmouter 99]

J. Perelmouter. Language support program for thought-translationdevices, 1999 1999.

[Perelmouter 00]

J. Perelmouter & N. Birbaumer. A binary spelling interface with


random errors. Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2,
pages 227232, 2000.

[Pe
nn 98]

L.F. Pe
nn. Control Bilateral de Robots Teleoperados. Contribuci
on en
Reexi
on de Fuerzas. PhD thesis, Universidad Politecnica de Madrid,
1998.

[Pfurtscheller 00] G. Pfurtscheller, C.Neuper,


C. Guger, W. Harkam, H. Ramoser,
A. Schlogl, B. Obermaier & M. Pregenzer. Current trends in Graz
brain-computer interface (BCI) research. Rehabilitation Engineering,
IEEE Transactions on [see also IEEE Trans.on Neural Systems and
Rehabilitation], vol. 8, no. 2, pages 216219, 2000.

[Pfurtscheller 03] G. Pfurtscheller, C.Neuper,


G. R. Muller, B. Obermaier, G. Krausz,
A. Schlogl, R. Scherer, B. Graimann, C. Keinrath, D. Skliris, M. Wortz,
G. Supp & C. Schrank. Graz-BCI: state of the art and clinical
applications. Neural Systems and Rehabilitation Engineering, IEEE
Transactions on [see also IEEE Trans.on Rehabilitation Engineering],
vol. 11, no. 2, pages 14, 2003.
[Pierce 80]

John Robinson Pierce. An introduction to information theory :


symbols, signals and noise. Dover Publications, New York, 1961 1980.
John R. Pierce.; Previously published as: Symbols, signals, and noise.
1961.; Includes bibliographical references and index.

[Pilone 05]

Dan Pilone & Neil Pitman. Uml 2.0 in a nutshell. OReilly, 2005.

[Pineda 00]

J. A. Pineda, B. Z. Allison & A. Vankov. The eects of selfmovement, observation, and imagination on /spl mu/ rhythms and
readiness potentials (RPs): toward a brain-computer interface (BCI).
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 219
222, 2000.

BIBLIOGRAF
IA

233

[Pineda 03]

J. A. Pineda & et al. Learning to Control Brain Rhythms: Making a


Brain-Computer Interface Possible. IEEE TRANS. ON REH. ENG.,
vol. 11, no. 2, pages 181184, June 2003.

[Pintado 77]

Prudencio Gomez Pintado. Caminos abiertos por santiago ramon y


cajal. Libreria y Casa Editorial Hernando, S.A., 1977.

[Proakis 97]

John G. Proakis & Dimitri G. Manolakis. Tratamiento digital de


se
nales : [principios, algoritmos y aplicaciones]. Prentice-Hall, Madrid,
1997.

[Rabiner 89]

Lawrence R. Rabiner. A Tutorial on Hidden Markov Models and


Selected Applications in Speech Recognition, February 1989.

[Ratey 03]

John J. Ratey. El cerebro: Manual de instrucciones.


Barcelona Constitucio 19, 2003.

[Reilly 99]

R. B. Reilly.
Adaptive noncontact gesture-based system for
augmentative communication, 1999.

[Rezek 00]

A. Flexer; P. Sykacek; I. Rezek & G. Dorner. Using hidden Markov


models to build an automatic, continuous and probabilistic sleep stager,
2000.

[Rich 94]

Elaine Rich & Kevin Knight. Inteligencia articial. McGrawHill, Madrid, 1994. Elaine Rich, Kevin Knight; Agotado (3-11-05);
19950223.

[Ripley 96]

Brian D. Ripley. Pattern recognition and neural networks. Cambridge


University Press, United Kingdom, 2000 1996.

[Roberts 89]

N. Birbaumer; Larry E. Roberts.


Self-Report During Feedback
Regulation of Slow Cortical Potentials, July 1989 1989.

[Robinson 93]

C. Robinson. What is rehabilitation engineering? IEEE Transactions


on Rehabilitation Engineering, vol. 1, no. 1, March 1993.

[Robinson 00a]

C. Robinson. Commentary on Brain-Computer Interfacing and its


impact on rehabilitation science and clinical applicability. IEEE
Transactions on Rehabilitation Engineering, vol. 8, pages 161163,
June 2000.

[Robinson 00b]

Charles J. Robinson. A Commentary on Brain-Computer Interfacing


and Its Impact on Rehabilitation Science and Clinical Applicability,
June 2000 2000.

DeBolsillo,

234

BIBLIOGRAF
IA

[Rockstroh 89]

Brigitte Rockstroh. Slow brain potentials and behavior. Urban


and Schwarzenberg, Baltimore, 1989. Brigitte Rockstroh ... [et al.].;
Bibliography: p. 229-250.

[Rocon 06]

Eduardo Rocon. Reducci


on activa de temblor patol
ogico de miembro
superior mediante exoesqueletos rob
oticos. PhD thesis, Universidad
Politecnica de Madrid, 2006.

[Rousche 98]

Patrick J. Rousche & Richard A. Normann. Chronic recording


capability of the Utah Intracortical Electrode Array in cat sensory
cortex. Journal of Neuroscience Methods,, vol. 82, no. 1, pages 115,
7/1 1998.

[Rubio 00]

Jose Luis Bardasano Rubio & Jose Ignacio Elorrieta Perez de Diego.
Bioelectromagnetismo. ciencia y salud. McGraw-Hill, Madrid etc.,
2000. 019: M. 10344-2000; Jose Luis Bardasano Rubio, Jose Ignacio
Elorrieta Perez de Diego.

[Rumbaugh. 99]

Jacobson; Booch; Rumbaugh. El lenguaje unicado de modelado.


Addison Wesley Iberoamericana, Madrid, 1999.

[Rumbaugh. 00a] Jacobson; Booch; Rumbaugh. El lenguaje unicado de modelado.


manual de referencia. Pearson Educacion, Madrid, 2000.
[Rumbaugh 00b]

Jacobson; Booch; Rumbaugh. El proceso unicado de desarrollo de


software. Pearson Educacion, Madrid, 2000.

[Rupp 06]

1 ller-Putz, R. Scherer, G. Pfurtscheller & H. J.


R. Rupp, G. MA
4
Gerner. Moving thoughts. A brain-computer interface for control of
grasp neuroprostheses in tetraplegic patients. Journal of Biomechanics,,
vol. 39, no. Supplement 1, pages S371548, 2006.

[Sarcinelli 09]

Andre Ferreira; Teodiano Freire; Mario Sarcinelli & J. L. MartAn


Sanchez. Evaluation of PSD components and AAR parameters as
input features for a SVM classier applied to a robotic wheelchair.
Proceedings of the BIODEVICES International Conference on
Biomedical Electronics and Devices., vol. 1, no. 1, pages 712, January
2009.

[Schalk 04]

G. Schalk. BCI2000: a general-purpose brain-computer interface (BCI)


system, 2004. ID: 1.

[Scherer 04]

R. Scherer, G. R. Muller, C.Neuper,


B. Graimann & G. Pfurtscheller. An asynchronously controlled EEG-based virtual keyboard: improvement of the spelling rate. Biomedical Engineering, IEEE Transactions
on, vol. 51, no. 6, pages 979984, 2004.

BIBLIOGRAF
IA

235

[Schmidt 88]

E. Schmidt, J. Mcintosh & M. Bak.


Long-term implants of
Parylene-C coated microelectrodes. Medical and Biological Engineering
and Computing, vol. 26, no. 1, pages 96101, 01/29 1988. M3:
10.1007/BF02441836.

[S.E.; 83]

Levinson S.E.; & Rabiner L.R. An introduction to the Application of


the Theory of Probabilistic Functions of a Markov Process to Automatic
Speech Recognition, April 1983.

[Segovia 38]

A.M. Segovia. Frenonologa. Semanario Pintoresco, vol. III, no. 11,


pages 770774, November 1838.

[Sellers 06]

EricW Sellers & Emanuel Donchin. A P300-based brain-computer


interface: Initial tests by ALS patients. Clinical Neurophysiology,,
vol. 117, no. 3, pages 538548, 3 2006.

[Shannon 48]

C. E. Shannon. A Mathematical Theory of Communication, July,


October, 1948 1948.

[Shannon 75]

Claude E. Shannon & Warren Weaver. The mathematical theory of


communication. University of Illinois Press, Urbana, 1975. by Claude
E. Shannon, and Warren Weaver.

[Sheikh 03]

Hesham Sheikh, Dennis J. McFarland, William A. Sarnacki


& Jonathan R. Wolpaw.
Electroencephalographic(EEG)-based
communication: EEG control versus system performance in humans.
Neuroscience Letters,, vol. 345, no. 2, pages 8992, 7/17 2003.

[Siegfried 97]

Othmer Siegfried, F. Othmer Susan, & A. Kaiser David. EEG


Biofeedback: A Generalized Approach to Neuroregulation, 1997.

[Sutter 92]

Erich E. Sutter. The brain response interface: communication through


visually-induced electrical brain responses. Journal of Microcomputer
Applications,, vol. 15, no. 1, pages 3145, 1 1992.

[Sykacek 03]

P. Sykacek, S. Roberts, M. Stokes, E. Curran, M. Gibbs &


L. Pickup. Probabilistic methods in BCI research. Neural Systems
and Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 192194,
2003.

[Taylor 03]

D. M. Taylor, S. I. H. Tillery & A. B. Schwartz. Information


conveyed through brain-control: cursor versus robot. Neural Systems
and Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 195199,
2003.

236

BIBLIOGRAF
IA

[Tome 07]

A.M. Tome & A. R. Teixeira. Single-channel electroencephalogram


analysis using non-linear subspace techniques. IEEE. Internacional
Symposium on Intelligent Signal Processing. Conference Proceedings
Book, pages 871876, November 2007.

[Vapnik 63]

V. Vapnik & A. Lerner. Pattern Recognition Using Generalized Portrait


Method., 1963.

[Vapnik 92]

Vapnik. A training algorithm for optimal


B.E. Boser; I.M. Guyon; V.N.
margin classiers., 1992.

[Vapnik 95]

Vapnik. Support-Vector Networks, 1995.


Corinna Cortes; V.N.

[Vel
azquez 97]

J.M. Vel
azquez. Curso elemental de Psicologa, October 1997.

[Vidal 73]

Jacques J. Vidal. Toward direct brain-computer communication, 1973.

[Vidal 77]

J. J. Vidal. Real-time detection of brain events in EEG, 1977. ID: 1.

[Wang 04]

Yijun Wang, Zhiguang Zhang, Yong Li, Xiaorong Gao, Shangkai Gao
& Fusheng Yang. BCI competition 2003-data set IV:An algorithm
based on CSSD and FDA for classifying single-trial EEG. Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 10811086,
2004.

[Wang 08]

S. Aamodt; S. Wang. Entra en tu cerebro. Ediciones B, Barcelona,


2008.

[Webster 78]

John G. Webster & John W. Clark. Medical instrumentation :


application and design. Houghton Miin, Boston, 1978. John G.
Webster, editor ; contributing authors, John W. Clark ... [et al.].;
Includes bibliographies and index.

[Webster 92]

John G. Webster & John G. Webster. Solutions manual [for] : Medical


instrumentation : application and design. Houghton Miin, Boston,
1992. John G. Webster, editor ; contributing authors, John W. Clark
... [et al.].

[Webster 95]

John G. Webster & John W. Clark. Medical instrumentation :


application and design. Wiley, New York ; Chichester, 1992 1995. John
G. Webster, editor ; contributing authors, John W. Clark, Jr. ... [et al.];
Includes bibliographical references.

[Webster 98]

John G. Webster & John W. Clark. Medical instrumentation.


application and design. Wiley, New York ; Chichester, 1998. John
G. Webster, editor ; contributing authors: John W. Clark, Jr. ... [et
al.].; Includes bibliographical references and index.

BIBLIOGRAF
IA

237

[Webster 04]

John G. Webster. Bioinstrumentation. John Wiley & Sons, Hoboken,


N.J., 2004.
John G. Webster, editor.; Includes bibliographical
references and index.

[Williams 99]

Justin C. Williams, Robert L. Rennaker & Daryl R. Kipke. Long-term


neural recording characteristics of wire microelectrode arrays implanted
in cerebral cortex. Brain Research Protocols,, vol. 4, no. 3, pages 303
313, 12 1999.

[Wolpaw 00a]

J. R. Wolpaw, N. Birbaumer, W. J. Heetderks, D. J. McFarland,


P. H. Peckham, G. Schalk, E. Donchin, L. A. Quatrano, C. J.
Robinson & T. M. Vaughan. Brain-computer interface technology: a
review of the rst international meeting. Rehabilitation Engineering,
IEEE Transactions on [see also IEEE Trans.on Neural Systems and
Rehabilitation], vol. 8, no. 2, pages 164173, 2000.

[Wolpaw 00b]

J. R. Wolpaw, D. J. McFarland & T. M. Vaughan.


Braincomputer interface research at the Wadsworth Center. Rehabilitation
Engineering, IEEE Transactions on [see also IEEE Trans.on Neural
Systems and Rehabilitation], vol. 8, no. 2, pages 222226, 2000.

[Wolpaw 02]

Jonathan R. Wolpaw, Niels Birbaumer, Dennis J. McFarland, Gert


Pfurtscheller & Theresa M. Vaughan. Brain-computer interfaces for
communication and control, March 2002. Articulo muy bueno.

[Wolpaw 03]

J. R. Wolpaw, D. J. McFarland, T. M. Vaughan & G. Schalk.


The Wadsworth Center brain-computer interface (BCI) research and
development program. Neural Systems and Rehabilitation Engineering,
IEEE Transactions on [see also IEEE Trans.on Rehabilitation
Engineering], vol. 11, no. 2, pages 14, 2003.

[Wolpaw 07]

Jonathan R. Wolpaw. BRAIN-COMPUTER INTERFACES AS NEW


BRAIN OUTPUT PATHWAYS. THE JOURNAL OF PHYSIOLOGY,
Jan 25, 2007 2007.

[Zhong 02]

S. Zhong & J. Ghosh. HMMs and coupled HMMs for multi-channel


EEG classication, 2002.

Das könnte Ihnen auch gefallen