Sie sind auf Seite 1von 25

Cognición musical: relaciones

entre música y lenguaje1


CARLOS J. GÓMEZ-ARIZA*, M. TERESA BAJO**,
M. CARMEN PUERTA-MELGUIZO* Y PEDRO MACIZO**
*Universidad de Jaén; **Universidad de Granada

Resumen
El presente trabajo pretende ser un primer acercamiento a la cognición musical poniendo de manifiesto algu-
nos paralelismos entre el lenguaje y la música. En primer lugar, se discuten las distintas propuestas de represen-
tación musical. Aunque las teorías que intentan explicar la manera en que la música está representada men-
talmente varían en los fenómenos que explican y en las unidades que postulan, si se establecen comparaciones
entre música y lenguaje es posible identificar distintos niveles de representación (fonológica, sintáctica o semánti-
ca) que hacen posible la organización de estas teorías. En segundo lugar, se discuten características de los patro-
nes musicales que muestran similitudes con el lenguaje y que formarían lo que podemos llamar la estructura del
lenguaje musical. En tercer lugar, se plantea la posibilidad de que música y lenguaje compartan sistemas de
almacenamiento. Así, se discuten los fenómenos de integración de música y texto en la retención de melodías, la
posible existencia de una memoria a corto plazo para la retención de tonos e información fonológica y los datos de
tipo neuropsicológico que intentan determinar el substrato biológico del procesamiento musical. Se concluye que,
aunque los mecanismos de procesamiento lingüístico y musical no son idénticos, existe un paralelismo entre músi-
ca y lenguaje que permite organizar los datos empíricos y las teorías explicativas de los mismos.
Palabras clave: Cognición musical, representación de la música, percepción de la música, memoria
de melodías, psicología de la música.

Musical cognition: Relations between


music and language
Abstract
This paper approaches musical cognition trying to establish a parallelism between music and language.
First, we discuss different proposal for representing music. Although, the theories on how music is represented
vary in the phenomena that they try to explain and in the proposed units, if we make a parallel between music
and language, we can identify different levels of representation (phonology, syntax and semantic) that may
organize them. Second, we discuss some characteristics of the musical patterns that show similarities with lan-
guage and that conform what we may call “the structure of the musical language”. Third, we review data that
address the possibility that music and language share storage systems. We discuss the manner in which music is
integrated with text in the retention of melodies; the possible existence of a common short term memory mecha-
nism for the retention of tones and phonological information. Finally, we introduce some neuropsychological
data addressing this issue. We conclude that, although the processing mechanisms for music and language are
not identical, it is possible to establish a parallelism at different levels of linguistic and musical that it is useful
to organize theories and empirical data.
Keywords: Musical cognition, representation of music, music perception, memory for melodies,
psychology of music.

Correspondencia con los autores: M. Teresa Bajo Molina. Dpto. de Psicología Experimental. Campus
Universitario de Cartuja. Universidad de Granada. 18071 Granada. E-mail: Mbajo@goliat.ugr.es
© 2000 by Fundación Infancia y Aprendizaje, ISSN: 0214-3550 Cognitiva, 2000, (12) 1, 63-87
64
1. INTRODUCCIÓN

A pesar de que desde edades tempranas somos capaces de recordar y reconocer


melodías, y de que a nuestro alrededor una gran parte de la estimulación es
musical, los intentos de comprensión por parte de la psicología de los procesos
de interacción con la música han sido, en general, escasos si se comparan con los
dedicados a otro tipo de información como la verbal o la pictórica. Además, el
conocimiento sobre este tema por parte de psicólogos cognitivos ajenos a esta
área es muy limitado, a pesar de la vinculación de estos trabajos con muchas de
las investigaciones que se llevan a cabo en psicología cognitiva. Aunque el inte-
rés por conocer los elementos psicológicos relacionados con la música no es
nuevo (Drobish, 1846, citado en Ruckmick, 1929; Meyer 1904; Révèsz, 1954,
etc. ...), la literatura sobre el tema se ha desarrollado fundamentalmente en los
últimos años. Debido a su naturaleza, existe una gran diversidad de temas y pro-
blemas abordados en su estudio, además de una gran cantidad de resultados
empíricos. Sin embargo, la integración y la estructuración teóricas son insufi-
cientes.
Los investigadores interesados en el tema han tratado de responder a una gran
cantidad de preguntas, similares muchas de ellas a otros dominios. Así, una ojea-
da por estos trabajos evidencia una clara transición desde una perspectiva princi-
palmente psicoacústica, a otra más marcadamente cognitiva con un mayor inte-
rés por aspectos como el aprendizaje, la memoria o la representación (Krum-
hansl, 1991). Una revisión exhaustiva de las investigaciones que se realizan en el
momento pone de manifiesto un importante paralelismo entre la música y el
lenguaje; las unidades de análisis y representación parecen ser paralelas para los
dos tipos de estímulos. Ambos tienen una estructura profunda y una superficial,
y ambos se generan a partir de unas reglas que permiten la creación de infinitas
formas. Sin embargo, aunque en algunos trabajos se menciona este paralelismo
(Aiello, 1994; Jackendoff, 1987; Meyer, 1956), no se ha intentado de forma sis-
temática ver todos aquellos aspectos en que música y lenguaje coinciden. La
conexión entre estas dos líneas es importante, ya que la psicolingüística puede
ofrecer un marco organizador donde entender distintos fenómenos musicales. El
presente trabajo intenta poner de manifiesto, en aquellos puntos en que es posi-
ble, el paralelismo entre el lenguaje y la música. Con ello no se pretende mostrar
que el estudio de la cognición musical no tiene entidad propia o que se puede
asumir desde la psicolingüística. Aunque se haga especial hincapié en aquellos
datos y fenómenos que indican similitudes entre música y lenguaje, el objetivo
es mostrar que se pueden establecer niveles de organización similares para ambos
y que estos niveles pueden servir para clasificar datos y teorías que parecen dis-
persos en el estudio de la música.
En este primer artículo nos centramos en la discusión de aquellos fenómenos
que aparecen tanto con estímulos lingüísticos como musicales. En un segundo
artículo (Gómez-Ariza, Bajo, Puerta-Melguizo y Macizo, 2000) hacemos una
revisión de variables púramente musicales que parecen tener un papel en la per-
cepción y el reconocimiento de secuencias musicales, pero siguiendo el esquema
organizativo esbozado en este primer artículo.
Los dos artículos están dirigidos a aquellos investigadores interesados en
conocer los temas y objetivos en el estudio de la música y pretenden ofrecer
una revisión teórica sobre aspectos relacionados con memoria y representación
musical. En primer lugar, los problemas relacionados con la forma de repre-
sentación se harán evidentes al revisar las diferentes propuestas teóricas al res-
pecto. Los modelos que intentan explicar la manera en que la música está
65
representada mentalmente varían ampliamente en el rango de fenómenos que
explican y en las unidades de representación que postulan. Sin embargo, si se
establecen comparaciones entre música y lenguaje es posible identificar distin-
tas unidades de representación (fonológica, sintáctica o semántica) que hacen
posible la organización de estas teorías y de los fenómenos que intentan expli-
car. En el segundo apartado, se discuten distintas características de los patro-
nes musicales que muestran similitudes con el lenguaje y que formarían lo que
podemos llamar la estructura del lenguaje musical. En este primer artículo, no se
revisan de forma exhaustiva las variables y parámetros de los factores que com-
ponen este lenguaje musical, sólo se mencionan y se intentan establecer parale-
lismos con el lenguaje. Una revisión más exhaustiva de estos factores se ofrece
en el segundo de los artículos (Gómez-Ariza y cols., 2000). Finalmente, en el
tercer apartado, se plantea la posibilidad de que música y lenguaje compartan
sistemas de almacenamiento. Así, se discuten los fenómenos de integración de
música y texto en la retención de melodías, la posible existencia de una memo-
ria a corto plazo para la retención de tonos e información fonológica y los datos
de tipo neuropsicológico que intentan determinar el substrato biológico del
procesamiento musical.
En resumen, el papel central de la memoria y la representación de la informa-
ción musical se mostrará de forma global. Otras aproximaciones al área de la psi-
cología de la música como la referente a la ejecución de expertos (por ejemplo,
Sloboda, 1990; Palmer, 1997) o las propias de los estudios púramente psicoacús-
ticos (por ejemplo, Bregman, 1990) no serán tratadas aquí. Por otro lado, se
asume que el lector no es un experto en teoría de la música, si bien tiene un
mínimo conocimiento sobre ella, por lo que se tratarán los contenidos al respecto
de la forma más sencilla posible.

2. EL PROBLEMA DE LA REPRESENTACIÓN

Existe una gran cantidad de modelos teóricos para explicar la forma en que la
música puede estar representada mentalmente. Las diferentes propuestas no sólo
difieren en los supuestos que les dan contenido, sino también, y más importante,
en los fenómenos que tratan de explicar. Tal vez, uno de los primeros problemas
para entender la cognición musical está en delimitar cuáles son las características
de la música que determinan la manera en que la percibimos y, posteriormente,
la recordamos. Una pieza musical se caracteriza no sólo por la frecuencia de los
tonos que la componen y el orden en que estos aparecen, sino también por la
escala y la tonalidad que la definen, por el tamaño de los intervalos armónicos y
melódicos, así como por el patrón rítmico de la secuencia de tonos. Como vere-
mos, las teorías propuestas se centran en distintos aspectos de las melodías, así
como en distintas combinaciones de estos elementos.
Los primeros modelos que se propusieron (por ejemplo, Stevens y Volkmann,
1940) se centraron, fundamentalmente, en las características acústicas de los
estímulos musicales, y ofrecieron explicaciones basadas en los niveles de repre-
sentación neural y neurofisiológico. Las primeras teorías de este tipo trataron de
desarrollar escalas psicológicas unidimensionales de los tonos, en la mayoría de
los casos centrándose en el parámetro de frecuencia. La representación se suponía
implementada linealmente en la membrana basilar desde los tonos agudos (de
alta frecuencia) a los tonos graves (de frecuencia baja). Así, dos tonos serían más
similares cuanto más corta fuese la distancia entre sus representaciones en dicha
membrana. Pronto, numerosos datos cuestionaron la importancia que los tonos
66
aislados, y por tanto la frecuencia absoluta, tienen en la percepción y el recuerdo
de la música.
Versiones más modernas de estas teorías se reflejan en los modelos geométri-
cos. Estos tratan de especificar los diferentes factores que hacen que dos tonos
sean percibidos como relacionados o semejantes, suponiendo que están represen-
tados mediante algún tipo de esquema basado en un conjunto de dimensiones.
Por tanto, aunque estos modelos se basan en las características acústicas, se cen-
tran en las relaciones entre ellas (Shepard, 1982). Por ejemplo, el modelo de
doble hélice de Shepard (1982) combina una dimensión que representa el nom-
bre de los tonos (do-re-mi-fa-sol-la-si-do), con otra que representa la frecuencia de
los mismos. La combinación de estas dos dimensiones mostraría, por ejemplo,
que una nota separada de otra por una octava en la dirección ascendente (desde
un do hasta el siguiente do o desde un re el siguiente re), tiene el doble de frecuen-
cia. Una tercera dimensión representa la cercanía armónica compartida por la
nota tónica y la nota dominante de una escala (estas dos notas tienen un estatus
especial en teoría de la música2). De este modo, la estructura propuesta por la
teoría preserva las relaciones tonales descritas por la teoría de la música. Si hace-
mos un paralelismo con el lenguaje, los modelos geométricos se centran en la
fonología de la música; en la combinación de sonidos que da significado a la
misma.
Otro tipo de teoría se centra en las leyes y reglas que gobiernan la combina-
ción de tonos y acordes para formar una estructura musical. Los modelos de
reglas postulan que, igual que el lenguaje contiene un conjunto de elementos
que pueden ser combinados para formar unidades mayores, los elementos musi-
cales básicos (los 12 semitonos que repiten cíclicamente cada octava en la cultura
occidental), son combinados para formar melodías y armonías. Pero también,
como en el lenguaje, no cualquier combinación es suficiente para recrear una
música, sino que existen leyes y reglas que las determinan. Deutsch y Feroe
(1981) [véase también Lerdahl y Jackendoff (1983) como otro ejemplo del
mismo tipo de modelo] propusieron que la secuencia de tonos que compone una
pieza musical, puede representarse mediante un alfabeto afectado por un conjun-
to de reglas formales que organizaría los tonos en estructuras jerárquicas. Estas
estructuras pueden a su vez representarse mediante alfabetos de mayor nivel con
sus propias reglas de organización. Estos conjuntos de reglas y alfabetos desarro-
llarían códigos jerárquicos que, para estos autores, influirían en la codificación de
las melodías en la memoria. Está fuera del alcance del artículo describir en deta-
lle los supuestos de la teoría, pero lo esencial de ella es que, siguiendo nuestro
paralelismo con el lenguaje, se centra en la sintaxis de la música y, por lo tanto,
intentaría explicar aquellos fenómenos relacionados con la misma.
Finalmente, también se han propuesto modelos conexionistas para represen-
tar relaciones armónicas (Bharucha y Stoecking, 1987; Large, Palmer y Pollack,
1995). En el modelo propuesto por Bharucha (Bharucha y Stoeckig, 1987; Bha-
rucha, 1994), los acordes y los tonos son representados por nodos en una red, y
están conectados por punteros (links) a otros nodos que representan los acordes de
la clave musical de la que se derivan. La activación de los nodos de clave provoca-
rá activación por expansión a los nodos “hijos”, generando expectativas armóni-
cas en el oyente. Estos modelos, como los geométricos, se centran en las relacio-
nes entre notas y las dimensiones que determinan su semejanza. Las propiedades
de la red especifican las distancias entre dos sonidos dados y la fuerza de cual-
quier tipo de relación entre ellos, en función de un supuesto espacio determinado
por dimensiones como la posición en la octava, la frecuencia, etc. (Hubbard y
Stoeckig, 1992). Sin embargo, como ocurre con los modelos conexionistas pro-
67
puestos para el procesamiento del lenguaje, este tipo de modelo es capaz de
explicar no sólo las relaciones acústicas entre los sonidos, sino también la forma
en que estos se organizan dando estabilidad a la melodía y creando expectativas
musicales.
Aunque estos modelos se han propuesto como alternativos y hay datos que
favorecen en mayor o menor medida a cada uno de ellos, pensamos que cada una
de las teorías hace hincapié en un conjunto de fenómenos que debe estar inclui-
dos en las explicaciones sobre la cognición musical. Si, como venimos haciendo,
suponemos que existe un paralelismo entre la música y el lenguaje, podemos
asumir que existen distintos niveles y unidades de representación (fonología, sin-
taxis, semántica) y que todos ellos están en la base de algunos fenómenos musica-
les. Como hemos mencionado, los modelos psicoacústicos hacen referencia a la
codificación de relaciones entre sonidos (fonología), los modelos de reglas expli-
can los fenómenos organizativos mediante la representación interna de reglas y
leyes (sintaxis) y, finalmente, los modelos de redes, como ocurre en el lenguaje,
explican relaciones entre sonidos y las reglas de organización, basándose en las
propiedades de la red. Como veremos, estas teorías también pueden explicar
algunos efectos que podríamos considerar de semántica de la música.
En el apartado que sigue discutimos aquellos fenómenos musicales que nos
hacen defender el paralelismo entre música y lenguaje. Por tanto, al hablar de “la
estructura del lenguaje musical” introducimos efectos que hacen referencia a la com-
binación de sonidos, la sintaxis y el significado de la música.

3. LA ESTRUCTURA DEL LENGUAJE MUSICAL

3.1. Fonología musical: el sistema de sonidos

Los tonos. De la misma manera que en el lenguaje el estudio de los fonemas y


de las secuencias de sonidos que pueden formar palabras (fonología) es esencial
para comprender la competencia lingüística, en la música es importante el estu-
dio de los tonos que la componen y más aún, de las secuencias permisibles de
tonos que le dan estructura y significado. Si en el lenguaje la unidad de sonido
básica es el fonema, en la música esta unidad la constituye el tono.
Como se dijo más arriba, las primeras teorías de procesamiento musical se
centraron, principalmente, en las características acústicas de los estímulos musi-
cales. Los sonidos (tonos) que componen una pieza musical se caracterizan, física-
mente hablando, por tener una frecuencia, una intensidad y un timbre determi-
nado. Por tanto, las teorías psicoacústicas se propusieron como objetivo entender
cómo se perciben y recuerdan estas características y especialmente la frecuencia,
ya que determina la entonación del sonido (por ejemplo, Stevens y Volkmann,
1940).
La habilidad para distinguir y categorizar los fonemas de nuestra lengua está
ampliamente demostrada (Repp, 1984). Por ejemplo, es fácil discriminar entre
sonidos de diferentes categorías fonéticas como la /b/ y la /p/, pero es difícil dis-
criminar entre dos sonidos de la categoría /b/. En música, esta habilidad se
correspondería con la categorización y discriminación entre sonidos musicales.
En este sentido, Cutting y Rosner (1974) encontraron percepción categórica
entre dos estímulos musicales que variaban en la rapidez de su comienzo (stimu-
lus onset). Estas variaciones son las que producen la distinción entre sonidos frica-
tivos y africados en percepción del habla. Los comienzos o ataques rápidos pro-
ducían un sonido similar al que produce el punteo de la cuerda de una guitarra,
68
mientras que los ataques lentos se parecían al paso de un arco por las cuerdas de
un violín. Los autores presentaron dos tipos de estímulos para su identificación y
discriminación. Por una parte, los estímulos musicales (punteo y arco) y por otra,
los sonidos sintetizados de fonemas fricativos y africados. Ambos variaban en su
tiempo de comienzo de 0 a 80 ms. Los resultados mostraron que los dos tipos de
estímulos mostraban límites claros entre categorías a los 40-50 ms. (identifica-
ción) y curvas similares de discriminación con la forma típica que reflejan los
experimentos de percepción categórica. Por lo tanto, parece que al menos algu-
nas dimensiones que permiten categorizar sonidos pueden ser comunes al habla
y a la música
Sin embargo, a diferencia del lenguaje, la habilidad de asignar nombre a los
sonidos (do, re, mi) parece una tarea difícil cuando los estímulos son musicales.
De hecho, mientras que la mayor parte de las personas aprenden a discriminar
entre fonemas y a etiquetarlos, la habilidad para discriminar entre notas parece
depender de las personas. Siegel (1974) encontró que los sujetos eran capaces de
discriminar entre dos sonidos, sólo cuando la frecuencia de los mismos era lo
suficientemente diferente (3/4 de semitono) como para que cada una de ellos
pudiera categorizarse y etiquetarse con su nombre (do, re, sol#, si, etc.). Cuando la
diferencia entre ellos era muy pequeña (1/10 de semitono), la discriminación era
pobre. Sin embargo, estas tareas sólo son capaces de realizarlas músicos expertos.
Cuando se comparan músicos y no músicos, los datos muestran que estos últi-
mos son incapaces de identificar de forma precisa el nombre (do, re, sol#, si, etc...)
de una nota presentada, o de, inversamente, producir una nota específica sin
recurrir a otra de referencia (Locke y Kellar, 1973; Wapnick, Bourassa, y Samp-
son, 1982). Esta dificultad se mantiene incluso en personas con educación musi-
cal. De hecho, la capacidad de discriminar y etiquetar las notas se conoce como
oído perfecto o absoluto (absolute pitch) y sólo un conjunto pequeño de personas la
poseen. Esto ha hecho cuestionar el paralelismo en la percepción de sonidos en el
lenguaje y la música. Como hemos mencionado, mientras que la mayor parte de
las personas aprendemos a identificar sonidos y a asignarlos a la categoría fonéti-
ca correspondiente, durante mucho tiempo se ha mantenido la creencia de que la
habilidad de identificar notas musicales y asignarle su nombre es de naturaleza
innata, y que su posesión es del tipo todo o nada. Sin embargo, estudios más
recientes parecen indicar que tal capacidad depende de un entrenamiento tem-
prano. En un experimento de Miyazaki (1988), la tarea consistía en decir el
nombre de tonos generados electrónicamente. Como es habitual en estos estu-
dios, sólo algunos sujetos eran capaces de realizar la tarea de manera correcta y
rápida. La característica más importante de éstos era la de tener una edad prome-
dio de entre 3 y 5 años cuando comenzó su entrenamiento musical. Además, la
ejecución de estas personas no era igual de buena con los 12 tonos de la escala
cromática3 (semitonos en la escala diatónica). Esto es importante ya que el entre-
namiento musical en nuestra cultura se realiza, fundamentalmente, con los tonos
implicados en la escala diatónica de do mayor (teclas blancas del piano), por lo que
podemos relacionar el oído perfecto con el entrenamiento intensivo y temprano
en esta tonalidad.
Se puede argüir que la dependencia del entrenamiento en la adquisición del
oído perfecto está en contra del paralelismo entre la música y el lenguaje. Experi-
mentos sobre percepción de características fonéticas muestran que incluso bebés
de muy poca edad son capaces de discriminar entre categorías fonéticas (Eimas,
1974; Streeter, 1976) y que, por lo tanto, esta habilidad es innata, universal y no
dependiente del entrenamiento. Sin embargo, otros estudios también muestran
que, a pesar de su innatismo, la percepción del habla también es dependiente de
69
la experiencia. De esta manera, los hablantes de una determinada lengua parecen
restringir su capacidad de discriminación a aquellos fonemas que son relevantes
en su idioma (Eislers, Gavin y Wilson, 1979; Ohde y Sharf, 1989). Estudios
recientes con sujetos bilingües también parecen mostrar que, a pesar de su bilin-
güismo, estos sujetos tienen dificultades para discriminar entre sonidos de su
lengua no-dominante, si no aprendieron estos sonidos cuando eran pequeños
(Sebastián-Gallés y Bosch, 1999). Por lo tanto, la capacidad para discriminar
entre algunos sonidos del habla depende de la experiencia temprana con los mis-
mos. Aunque no queremos llevar el argumento tan lejos, se podría pensar que en
un principio todas las personas serían capaces de discriminar entre las notas
musicales, pero que, como ocurre con el lenguaje, esta habilidad se restringe a
aquellos sonidos que nuestro ambiente nos exige discriminar y que, de esta
forma, es la experiencia la que finalmente va a moldear esta capacidad. De hecho,
como ocurre con el lenguaje, parece que esta habilidad se puede automatizar, ya
que en sujetos con oído absoluto aparecen efectos de activación automática y de
interferencia tipo stroop cuando la tarea consiste en nombrar un tono emitido con
un nombre incongruente con su frecuencia (Klein, Coles y Donchin, 1984; Zac-
kay, Roziner y Ben-Arzi, 1984).
Sin embargo, no es nuestro objetivo mostrar que los mecanismos de percep-
ción de la música son idénticos a los de la percepción del habla, sino que existen
similitudes en los fenómenos que se han de explicar. Así, de la misma manera
que en el lenguaje se pueden clasificar sonidos y se pueden estudiar las caracterís-
ticas físicas de los mismos, en la música es posible identificar las características
acústicas que definen las unidades musicales (frecuencia, espectros sonoros y for-
mantes, intensidad, etc.); los sujetos entrenados son capaces de discriminar entre
estos sonidos y etiquetarlos y, finalmente, también aparecen efectos de facili-
tación e interferencia debido a la activación automática de los mismos. En el
siguiente apartado también mostraremos que, como ocurre en el lenguaje con
los fonemas, el contexto en que aparecen los tonos determina la forma en que se
perciben y recuerdan. Numerosos datos cuestionan la importancia que los tonos
aislados tienen en la percepción y el recuerdo de la música.
Segmentos melódicos.Una melodía es un conjunto de sonidos organizados, for-
mando un todo estético, y con una significación diferente a la que aportan los
tonos que lo forman de forma aislada. Si en el lenguaje la presencia de una pala-
bra mejora la percepción de una fonema (efecto de superioridad de la palabra), la
presencia de un segmento melódico puede cambiar la forma en que se procesa
una nota. Por ejemplo, Dewar, Cuddy y Mewhort (1977) pusieron a prueba la
hipótesis de que los elementos relacionales inmersos en una melodía proporcio-
nan información sobre los tonos individuales de la secuencia. En su primer expe-
rimento, los sujetos oían una primera secuencia melódica (estándar) seguida de
la presentación de, bien dos tonos aislados (uno de los cuales estaba incluido en la
secuencia estándar), bien dos melodías diferentes, una de las cuales era idéntica a
la estándar y otra en la que uno de los sonidos de la secuencia era sustituido por
otro diferente. Esto se hacía varias veces para cada melodía estándar a lo largo de
las sesiones. La tarea de los sujetos era, en el primer caso, decir cuál de los dos
tonos de prueba estaba incluido en la melodía estándar y, en el segundo, cuál de
las dos melodías era idéntica a la primera presentada. Los resultados mostraron
que la ejecución mejoraba cuando los tonos estaban inmersos en una melodía, lo
que podría interpretarse como que la secuencia entera ofrece información rele-
vante sobre elementos individuales. En experimentos posteriores presentaron
tonos aislados, pero indicando la posición que ocupaban los tonos en la secuencia
estándar (el orden en que aparecían), así como los tonos que les seguían o prece-
70
dían. Sin embargo, esto no modificaba los resultados, de manera que proporcio-
nar esa información no incrementaba la ejecución hasta los niveles obtenidos en
el caso de las melodías enteras. Por lo tanto, parece que es la presencia de la
melodía lo que facilita el reconocimiento de los sonidos y no tanto la frecuencia o
la posición de los mismos.
Un efecto similar fue el encontrado por De Witt y Samuel (1990). Los sujetos
escuchaban una serie de melodías familiares; una de las notas de estas melodías se
reemplazaba por un ruido y los sujetos debían indicar qué nota era la sustituida.
Como ocurre en el lenguaje, si se sustituye un fonema por un ruido, los sujetos
no perciben el ruido (efecto de restauración del fonema). Su conocimiento de la
palabra o de la melodía proporciona la información que falta, de manera que los
sujetos parecen percibir el tono y no el ruido. De nuevo, es la presencia de la
melodía la que influye en la percepción de los tonos y no tanto su frecuencia ais-
lada.
La importancia de la frecuencia en el conjunto de una melodía también se ha
estudiado. La frecuencia de los tonos dentro de una melodía se puede manipular
de forma independiente a otras características de la misma (tonalidad, ritmo, etc.)
variando la octava a la que pertenece el tono. Idson y Massaro (1978) y Massaro,
Kallman y Kelly (1980) pidieron a sus sujetos que trataran de identificar melodí-
as familiares y no familiares, bien cuando eran presentadas en su forma original,
bien cuando lo eran sujetas a transformaciones como la de cambiar la octava en
que se tocaba la melodía, mientras que el resto de sus características permanecía
constante. Si la frecuencia de los tonos fuese importante para el buen reconoci-
miento de las melodías, la ejecución debería verse perjudicada cuando ésta se viese
alterada. Sin embargo, sólo se observó una pequeña disminución en la condición
en que únicamente se alteraba la frecuencia de algunos de los tonos de la secuen-
cia. Es decir, si todos los tonos de forma conjunta sufrían transformaciones a una
octava diferente, el reconocimiento de la melodía era bueno, mientras que si unos
tonos sufrían transformaciones mientras que otros permanecían constantes el
reconocimiento de la melodía empeoraba. Transformaciones en la octava de sólo
algunos tonos hace que el patrón de subidas y bajadas en la melodía cambie y, por
tanto, parezca haber un cambio en la melodía entera. De nuevo, esto sugiere que
no es la frecuencia por sí sola la que determina el reconocimiento de una melodía,
sino patrones globales de la misma. Como se discute en Gómez-Ariza y cols.
(2000), el contorno, el tamaño de los intervalos, la escala y la tonalidad son facto-
res esenciales en la representación de la música (Dowling, Kwak y Andrews,
1995; Krumhansl y Kessler, 1982; Taylor, Walls y Barry, 1995).

3.2. Sintaxis musical: estructura y reglas de formación de la música

La mayor parte de la música que oímos está compuesta siguiendo un sistema


de reglas que le da coherencia. Aunque no seamos conscientes de ello, los oyentes
adquirimos este sistema de reglas que nos permite entender la complejidad sin-
táctica de la música, su estilo y su forma. En música, como ocurre en el lenguaje,
procesamos una serie de características gramaticales de los estímulos. Por ejem-
plo, Deutsch (1982) pidió a un grupo de músicos que escribiese la notación
musical de una pieza compuesta de 12 notas que habían escuchado previamente.
Los resultados mostraron que el recuerdo de los sujetos dependía de que la pieza
siguiese una estructura tonal y de que los silencios coincidiesen con esta estruc-
tura. La importancia de la estructura musical (sintáctica) y su similitud con el
lenguaje también se ha evidenciado en estudios recientes que utilizan la técnica
71
ERPS. Por ejemplo, Patel, Gibson, Ratner, Besson, Holcomb (1998) han mos-
trado la importancia de la congruencia sintáctica en el procesamiento de frases
musicales. Investigaciones psicolingüísticas (ej. Osterhout y Holcomb, 1993)
describen la aparición de un cambio positivo en potencial eléctrico (P600) aso-
ciado al procesamiento de palabras que son difíciles de integrar sintácticamente
en la oración. Patel y cols. (1998) encuentran un efecto similar (aparición del
P600) ante la aparición de incongruencia armónica en secuencias musicales. Con
ambos tipos de estímulos (lingüísticos y musicales), la incongruencia sintáctica y
armónica elicitaba cambios en los potenciales corticales cuya latencia y localiza-
ción era estadisticamente indistingible.
De igual manera, datos de Sloboda (1985) y de Aiello y Bever (1985) mues-
tran que, como en el lenguaje, segmentamos una pieza musical en frases que
representan la estructura gramatical del estímulo. Experimentos en los que la
tarea consiste en la lectura de una partitura, muestran que los sujetos se adelan-
tan en la lectura hasta el final de una frase musical, esperan hasta terminar de
procesarla y después continúan leyendo hasta los límites de otra oración. De
igual manera, el recuerdo de una pieza musical corta por sujetos entrenados en
música es sensible a la estructura en frases. Si se compara el recuerdo de una pieza
organizada con la de otra que no lo está, se observa un aumento en el recuerdo al
comienzo de la frase y un decremento al final de la misma (Chiappe y Schmuc-
ker, 1997). Parece, pues, que tanto en la música como en el lenguaje la frase es
una unidad psicológica importante. ¿Cómo ocurren estos procesos de segmenta-
ción? Numerosos datos muestran que el patrón rítmico en combinación con la
estructura tonal parecen jugar un papel importante en el agrupamiento y la
segregación de segmentos musicales (Boltz, 1998). En el segundo de estos artí-
culos (Gómez-Ariza y cols., 2000) presentamos una discusión detallada del
papel que distintos factores como las reglas de formación, el patrón rítmico, los
acentos o la estructura tonal tienen en los procesos de segmentación de estructu-
ras musicales.

Gramáticas musicales. El paralelismo entre la estructura musical y la lingüísti-


ca ha hecho que se proponga y desarrolle toda una serie de gramáticas musicales.
Desde la musicología, una de las teorías estructurales más desarrollada y extendi-
da ha sido la propuesta por Schenker (1979). De la misma manera que la teoría
lingüística de Chomsky (1957) distingue entre las estructuras superficial y pro-
funda de una oración, en la teoría Schenckeriana se puede diferenciar entre la
estructura superficial de una frase musical formada por sus relaciones melódicas
y la estructura profunda representada por las relaciones armónicas. Los análisis
musicales de Schenker permiten hacer un seguimiento de la melodía hasta la
estructura armónica que está en su base. Desde un punto de vista más intuitivo,
Aiello (1994) propone que podemos pensar que la estructura profunda está
representada por “el tema” de una pieza musical, mientras que las variaciones de
ese tema componen su estructura superficial. Las transformaciones del ritmo, los
acentos, o la estructura tonal y armónica permiten al compositor crear variacio-
nes superficiales que mantienen la estructura profunda de ese tema.
Como vimos, muy influidos por la teoría musicológica de Schenker se han
desarrollado una serie de modelos de corte más psicológico que intentan especifi-
car las reglas y estrategias que hacen posible la producción y comprensión de la
música. Teorías de reglas como la de Deutsch y Feroe (1981) o la de Lerdahl y
Jackendoff (1983), constituyen intentos importantes de sistematizar estas reglas
de composición musical, enfatizando su estructura jerárquica. Las reglas de agru-
pamiento y segmentación se dan a distintos niveles. Se producen agrupamientos
72
de motivos y frases, agrupamientos rítmicos de pulsos fuertes y débiles, agrupa-
mientos basados en la posición de las notas dentro de una escala tonal, y agrupa-
mientos basados en las relaciones armónicas. Los intentos de validar de forma
empírica estas teorías no son muy numerosos y no siempre muestran un éxito
absoluto. Tal vez, el intento más directo de comprobar las predicciones de una
teoría de reglas como la de Lerdahl y Jackendoff (1983) lo ofreció Deliège
(1987). En sus experimentos, sujetos expertos y no expertos en música escucha-
ban piezas musicales de diversos estilos (desde Bach hasta Stravinsky). A los
sujetos se les ofrecía una copia simplificada de las partituras de esas piezas con la
petición de que las segmentaran trazando líneas en los límites entre frases. Las
respuestas de los sujetos se compararon con la segmentación predicha de la apli-
cación de las reglas propuestas por la teoría. Los resultados mostraron que aun-
que había un alto grado de correspondencia entre las respuestas de los sujetos
expertos en música y las predicciones de la teoría, esta correspondencia no era tan
estrecha cuando se comparaban las respuestas de los sujetos no-músicos. De
forma parecida, manipulaciones de la complejidad de las reglas de formación no
siempre muestran, como predeciría la teoría, que reglas más complejas producen
un peor recuerdo de la melodía. Por ejemplo, Boltz y Jones (1986) presentaron a
sujetos expertos en música melodías que diferían en la complejidad de las reglas
de composición de las mismas. Inmediatamente después de cada presentación,
los sujetos debían de reproducir la melodía escribiéndola sobre un pentagrama.
Los resultados mostraron que las reglas de formación por sí mismas no producí-
an el efecto esperado en el recuerdo de las piezas musicales siendo más importan-
te la estructura rítmica y los acentos rítmico y melódicos.
Más recientemente, sin embargo, Large, Palmer y Pollack (1995), basados en
la teoría de Lerdahl y Jackendoff (1983), han creado un modelo de red neuronal
que aprende a reducir variaciones de una misma melodía para crear una repre-
sentación del “tema” o estructura profunda de la melodía. Esta representación
esquemática se realiza mediante la aplicación de reglas que recoge la estructura
jerárquica de la música. Utilizando un mecanismo de codificación recursiva, el
modelo en primer lugar segmenta el fragmento musical en constituyentes
teniendo en cuenta la estructura rítmica de la pieza. El resultado de la segmenta-
ción sirve de input a un proceso de reducción que organiza los distintos constitu-
yentes en una estructura jerárquica que refleja la importancia relativa de cada
uno de ellos. Aunque el modelo es bastante complejo, lo más importante es que
el resultado del mismo es la creación del “esqueleto” o esencia de la melodía que
predice qué elementos se consideran más importantes en la representación del
“tema” de una determinada pieza musical. Por ejemplo, Large y cols. (1995)
pidieron a seis pianistas que improvisaran variaciones de una melodía nueva para
ellos. La improvisación de variaciones dentro del sistema tonal de la música occi-
dental, requiere la identificación de una estructura melódica y armónica que
contenga los elementos más importantes y la aplicación de procedimientos que
creen variaciones de la melodía manteniendo esta estructura constante. Por
tanto, las variaciones que se produzcan indican qué elementos se consideran los
más importantes en esta estructura (aquellos que se mantienen a través de distin-
tas variaciones) y qué elementos son accesorios en la misma (aquellos elementos
que cambian en las distintas variaciones). El análisis de las variaciones ofrecidas
por los participantes mostraba un alto grado de acuerdo entre la representación
de la estructura del fragmento musical improvisado por los pianistas y la repre-
sentación ofrecida por el modelo. Por tanto, aunque el modelo de reglas de Ler-
dahl y Jackendoff (1983) no siempre tiene éxito al predecir el recuerdo de aspec-
tos locales de las melodías, si parece tener éxito a la hora de captar “la esencia”
73
(gist) de la pieza musical. Esto es importante porque en muchos casos es esta
estructura temática la que da coherencia y sentido de unidad a una pieza musical
(Large y cols., 1995)

3.3. Semántica de la música: expectativas y emociones musicales

Una parte de las diferencias entre música y lenguaje surge de los significados
que pueden transferir. El lenguaje se basa en comprender la interacción de sus
niveles fonético, sintáctico y semántico. La especificidad de sus componentes
semánticos hace, por ejemplo, que la comunicación verbal no sea posible si los
oyentes no comprenden el contenido del mensaje. En música, sin embargo, esto
no es necesario ya que transmite significados aunque su nivel semántico no esté
tan bien definido como en el lenguaje (Aiello, 1994). Pero, ¿de dónde derivamos
el significado de la música?
Podemos pensar que, en general, el componente semántico de la música se
encuentra en las emociones y sentimientos que elicita (véase Meyer, 1956). Pre-
cisamente por este motivo, el significado de una música puede llegar a ser tan
personal y variado. Comprenderla implica la combinación de multitud de ele-
mentos que transcurren simultáneamente en una estructura global, por lo que
no existe un único significado a comprender de una composición musical. Esta
carencia de componentes semánticos rígidos es la que permite a los oyentes
extraer, de entre los significados del conjunto de combinaciones, su propia inter-
pretación de la pieza como un todo. Esto confiere a la música una flexibilidad y
riqueza que el lenguaje no tiene.
Aunque hemos mencionado que la música es ambigua en cuanto a la variedad
de significados que una pieza musical puede transmitir, ha habido varios inten-
tos de caracterizar la manera en que la música comunica significado emocional.
Los primeros intentos se centraron en especificar los elementos de la estructura
musical que producen emociones directas. De esta forma, algunos estudios
intentaron caracterizar el vocabulario emocional de la música (Cook, 1959;
Maher, 1980; Sloboda, 1991) o identificar sus estructuras formales que provocan
reacciones emocionales en el oyente (Lerdahl, 1988). Otros se han basado en la
creación de expectativas musicales y la ruptura de las mismas (Bharucha, 1994;
Gaver y Mandler, 1987). Factores formales como las jerarquías tonales y cultura-
les o las variaciones en tempo e intensidad han mostrado su eficacia para produ-
cir reacciones emocionales (Bharucha, 1994; Gaver y Mandler 1987; Repp,
1999). Finalmente, la importancia de variables como la familiaridad o la com-
plejidad en las preferencias musicales de los sujetos también se han estudiado
(Heyduk, 1975; Gaver y Mandler, 1987).
Una lectura cuidadosa de estos intentos de especificar la naturaleza del signifi-
cado en la música, muestra la existencia de dos grandes enfoques. Por una parte,
enfoques como el de Cook (1959) o Lerdahl (1988) proponen que el significado
de una pieza musical surge directamente de su estructura. Por ejemplo, Cook
(1959) considera que la música, como el lenguaje, tiene un vocabulario específico
que se utiliza para transmitir emociones. Los compositores, según este enfoque,
utilizan una serie de elementos musicales que de forma regular y conocida trans-
miten diferentes emociones. Cada nota e intervalo tonal tendría un significado
específico. De forma similar, Lerdahl (1988) ha propuesto que sólo las estructuras
musicales con propiedades formales como las descritas por la teoría de la música
(Zamacois, 1994) pueden detectarse de forma directa por el oyente, y pueden
crear el tipo de tensión y resolución necesarios para provocar reacciones emociona-
74
les en el oyente. La búsqueda de un catálogo de vocabulario musical para transmi-
tir emociones o la búsqueda de reglas organizativas del lenguaje musical que
determinen el significado, hacen pensar que este está en la misma estructura del
lenguaje musical y no tanto en la forma en que lo percibimos y lo representamos.
El valor más importante de este enfoque ha sido el ofrecer un impresionante con-
junto de secuencias musicales que de forma regular se utilizan para producir esta-
dos afectivos. Sin embargo, los intentos de verificar las ideas de Cook de manera
empírica no han tenido mucho éxito (Maher, 1980; Sloboda, 1994).
Por otra parte, teorías como la de Bharucha (1994) o Gaver y Mandler (1987)
se centran en la forma en que esas estructuras se representan en la memoria de los
individuos, por lo que es la representación y no la estructura la que determina el
significado. El modelo conexionista de Bharucha (1994) propone que los objetos
y características del mundo se representan mediante nodos unidos entre sí. La
red, en su totalidad, representaría las complejas relaciones entre los objetos
representados por los nodos. En las redes musicales los nodos representarían los
tonos y los acordes, y las conexiones entre estas unidades reflejarían las relaciones
que se mantienen entre unos y otros en la cultura musical del sujeto. El estado de
activación de una unidad representa el grado en que ese tono o acorde está siendo
atendido o esperado. Cada nodo puede ser activado directamente por un estímu-
lo en el ambiente, un tono o acorde, o indirectamente a través de la red asociativa
de esos nodos. Cuando una unidad es activada de forma indirecta, el tono o acor-
de que representa es el esperado. Hay bastantes argumentos para postular una
red asociativa en la comprensión de la cognición musical (Bharucha, 1994). Por
ejemplo, explicaría los resultados de experimentos que muestran efectos de pri-
ming armónico (la presentación previa de un tono o acorde cercano en la estructu-
ra tonal facilita el procesamiento de otro tono o acorde). También acomoda fácil-
mente las ambigüedades que tanto abundan en la música. Muchas unidades
pueden estar activas simultáneamente en diferente grado, representando los dife-
rentes niveles en los que distintos tonos, acordes o claves son evocados. De forma
similar explican cómo se produce el aprendizaje. Éste ocurriría cambiando las
fuerzas de las conexiones entre las unidades de representación cuando combina-
ciones de tonos son oídas repetidamente (Bharucha, 1987a y 1987b, para una
descripción detallada). Tras el aprendizaje, cuando los tonos do, mi y sol son pre-
sentados, las unidades que representan los acordes que contienen estos tonos se
activan. Estas unidades de acordes activan a su vez a las unidades de los tonos
contenidos en estos acordes. El proceso de activación se disipa y la red alcanza un
estado de equilibrio. Los modelos conexionistas, por tanto, ofrecen otra vía de
acercamiento a la comprensión de cómo algunos aspectos de la música son proce-
sados conforme a las leyes de la armonía. A la vez, aportan evidencia a favor de
los procesos que pueden subyacer a algunos de los aspectos más interesantes en la
conducta implicada en la escucha de la música, la generación de expectativas
armónicas y la adquisición de jerarquías tonales que influirían en la percepción
de la música, dado que determinarían el ajuste y la integración de la información
entrante con tales estructuras. Las regularidades musicales serían, por lo tanto,
representadas internamente de forma que influirían en el procesamiento de esa
información. Un mismo proceso, la expansión de la activación a lo largo de una
red de nodos musicales, podría explicar diferentes fenómenos observados en la
interacción con material musical
Por otra parte, la teoría constructivista de Mandler (Mandler, 1984; Gaver y
Mandler, 1987) utiliza el concepto de esquema para describir la estructura de
representación de la música. Los esquemas tienen como función organizar e
interpretar el mundo. De esta manera, los esquemas musicales organizan nuestro
75
conocimiento musical y nos ayudan a interpretar la música que escuchamos. La
presentación de una pieza musical activará unos determinados esquemas y, por
tanto, producirá unas determinadas expectativas. Según Gaver y Mandler (1987)
cuando la música es congruente con los esquemas disponibles, produciría la
experiencia de familiaridad que conlleva una evaluación emocional positiva.
Cuando una pieza no cubre nuestras expectativas, cuando es incongruente con
nuestros esquemas, las discrepancias resultantes producirán un incremento en el
arousal. El grado de intensidad emocional dependerá del grado de discrepancia
entre las expectativas del oyente y la música que se interpreta. La existencia de
incongruencias hará que el oyente intenté asimilar la nueva información a los
esquemas ya existentes o cambiar los esquemas ya existentes para acomodarlos a la
nueva información. En general, si se consigue la asimilación a los esquemas o la
acomodación a los mismos, el resultado es una evaluación emocional positiva de
la obra. En caso contrario, la respuesta afectiva sería negativa.
Es interesante que los dos grandes enfoques mencionados (estructural y repre-
sentacional) tienen su paralelo en el lenguaje, de manera que posturas como las
de Chomsky sitúan el significado en la estructura misma del lenguaje, mientras
que una teoría como la de Jonhson-Laird (1983) pone el énfasis en la estructura
mental (modelo mental) que representa las relaciones lingüísticas.
Dentro de las posturas que enfatizan la representación también podemos dis-
tinguir, como ocurre con las teorías de procesamiento lingüístico, entre teorías
que se centran en el procesamiento de arriba a abajo o guiado por la representa-
ción conceptual, teorías que se centran en el procesamiento de abajo a arriba o
guiado por los datos y teorías que suponen interacciones entre los dos tipos de
procesamiento. Los modelos de esquemas (Gaver y Mandler, 1987) son modelos
del primer tipo, mientras que el modelo conexionista de Bharucha (1994), aun-
que propone interacciones entre distintos niveles de representación, hace mayor
hincapié en el procesamiento de abajo a arriba. Como ocurre con las teorías de
procesamiento lingüístico, posiblemente una combinación de ambas cubra un
mayor número de fenómenos a explicar. De hecho, la teoría conexionista se ha
centrado en cómo se generan las expectativas musicales, mientras que las teorías
de esquemas intenta explicar cómo la violación de esas expectativas genera las
emociones positivas o negativas que le dan significado a la música.
Por tanto, aunque las teorías conexionistas y las de esquemas proponen dis-
tintas unidades de representación, no son necesariamente incompatibles, ya que
se centran en distintos y conjuntos complementarios de fenómenos. Las teorías
conexionistas ofrecen una forma de representación musical más elaborada, mien-
tras que las teorías de esquemas ofrecen explicaciones más completas de los pro-
cesos por los que se violan las expectativas y por los que se resuelven las discre-
pancias entre la estructura de representación y la estructura de pieza musical. Ya
que ambos tipos de explicación son necesarios, las dos teorías tienen un campo
de aplicación importante.

4. SISTEMAS Y MECANISMOS DE PROCESAMIENTO

La tesis fundamental de este artículo es que existe un paralelismo importante


entre música y lenguaje, de manera que las investigaciones psicolingüísticas
pueden ayudar a organizar y comprender el procesamiento de la música. Hasta
ahora nos hemos centrado en las distintas unidades de procesamiento y la forma
en que se representan en nuestra memoria. Los fenómenos que tratamos a conti-
nuación se centran más en el almacenamiento de esas estructuras musicales. Por
76
un lado, en muchas ocasiones la música aparece acompañada de texto. ¿Se inte-
gran música y lenguaje para crear una única representación en la memoria? ¿Se
almacenan de forma conjunta? El apartado 4.1 intenta contestar a estas pregun-
tas. Por otra parte, en el apartado 4.2 revisamos un conjunto de estudios que han
intentado delimitar si los mecanismos de almacenamiento a corto plazo son
compartidos por música y lenguaje; ¿se almacena la información fonológica y la
información tonal en el mismo sistema? Finalmente, en el apartado 4.3 discuti-
mos la existencia de datos de tipo neuropsicológico que parecen mostrar diferen-
cias en lateralización del procesamiento musical y lingüístico.

4.1. Integración de texto y música en memoria

Uno de los aspectos sobre las melodías que ha sido investigado, es el de su rela-
ción con el recuerdo del texto que las acompaña en el caso de canciones. Serafine,
Crowder y Repp (1984) encontraron que se producía un mejor reconocimiento de
secuencias sonoras cuando el texto que las acompañaba era igual al escuchado pre-
viamente con ellas, frente a oír otro diferente. Además, la letra de las canciones era
mejor identificada cuando se vocalizaba junto a su melodía original. Aunque los
datos encontrados por Serafine y cols. (1984) podrían ser explicados por los aspec-
tos semánticos que el texto podría imponer a la melodía, o por la existencia de un
artefacto (en la condiciones de no igualación de texto-melodía originales podría
producirse una confusión o distracción que redujese el reconocimiento), experi-
mentos posteriores descartaron estas alternativas (Serafine, Davidson, Crowder y
Repp, 1986). Serafine y cols. (1986) defienden la existencia de una representación
en memoria que integra el texto y la propia melodía. El primero, genera efectos
prosódicos en la secuencia sonora, destacando los acentos, las pausas o los decai-
mientos de los tonos que la forman. Igualmente, la melodía podría ejercer su
influencia sobre la letra de la canción resaltando la pronunciación de determina-
das palabras que coincidan con destacados elementos melódicos. Además, los
autores relacionan sus postulados con la hipótesis de Tulving (1983) sobre la
especificidad de la codificación, de manera que la presencia conjunta en la fase de
aprendizaje de texto y melodía facilitaría la recuperación de cualquiera de los dos
elementos cuando el otro fuese utilizado como clave.
Aunque, como ya se ha dicho, algunos autores consideran que música y len-
guaje estarían fuertemente relacionados, uno de los aspectos que los distingue es
el potencial poder mnemónico de la música. Mucha gente encuentra más senci-
llo recordar canciones que recordar prosa, y determinados materiales verbales,
como las tablas de multiplicar, son mejor recordados si se aprenden inmersos en
una melodía. En este sentido, la música puede proporcionar una estructura esta-
ble en la que la información verbal puede quedar fuertemente asociada (Cohen,
1996). Pero la relación entre música e información verbal no sólo se hace eviden-
te a partir del hecho de que elementos de ambos puedan recuperarse de la
memoria conjuntamente. Como veremos en breve, los problemas de recupera-
ción de la información son aún más extensos, sobre todo si caemos en la cuenta
de que la memoria de tipo musical debe estar estrechamente relacionada con
otras de contenido diferente.

4.2. Memoria a corto plazo

El hecho de que las características de los tonos (frecuencia, timbre, posición


en la escala, etc.) puedan ser almacenadas durante más tiempo del que emplearía
77
una memoria puramente sensorial, ha suscitado el interés por dilucidar qué
mecanismo de la memoria a corto plazo es el responsable de la retención de estas
características. De la misma manera que existe un mecanismo de almacenamien-
to fonológico, la música podría utilizar un mecanismo similar para su retención a
corto plazo.
En gran medida, las investigaciones sobre la memoria a corto plazo han hecho
uso del paradigma de interferencia utilizado por Deutsch (Deutsch, 1982, para
una revisión). En este paradigma, los sujetos oyen un primer tono (llamado tono
estándar), y poco después una serie de seis tonos (llamados de interferencia) dife-
rentes entre sí. El intervalo temporal entre ambos conjuntos de tonos suele
manipularse en estos estudios. Tras los tonos de interferencia, y después de una
pausa de aproximadamente 2 segundos, se presenta un segundo tono (de compa-
ración) que puede o no ser idéntico al primero. La tarea de los sujetos es juzgar si
los tonos “estándar” y “de comparación” son idénticos. Los resultados muestran
un aumento en el número de errores cuando los tonos de interferencia son simi-
lares en frecuencia al estándar (especialmente si la frecuencia del segundo tono de
la lista de interferencia difiere dos tercios de un tono del estándar).
Este paradigma ha servido para estudiar las similitudes entre los sonidos y
distintos tipos de material lingüístico y musical. Por ejemplo, Pechmann y
Mohr (1992) manipularon el contenido de la lista de interferencia. De esta
manera, además de secuencias de tonos, la lista de interferencia podía estar com-
puesta de material visual y verbal. Los resultados mostraron que cuando los estí-
mulos intermedios eran tonos, la ejecución era significativamente peor que
cuando los estímulos eran patrones visuales o palabras. Esta mayor interferencia
para los tonos ocurría tanto en sujetos entrenados como no entrenados musical-
mente. Sin embargo, la interferencia de palabras y dibujos sí dependía de la
experiencia musical. Los sujetos entrenados musicalmente sólo mostraban inter-
ferencia cuando los estímulos interpolados eran tonos, mientras que a los noveles
también les afectaban las palabras y los patrones visuales. Estos autores proponen
la existencia de un “lazo tonal”, un mecanismo encargado de la retención de las
características de un tono de una forma similar a como el lazo articulatorio traba-
jaría con el material fonológico (Baddeley, 1986). Las diferencias observadas en
función de la experiencia musical podrían explicarse por la diferencia en eficacia
de ese mecanismo entre ambos grupos de sujetos. Los sujetos entrenados no se
verían afectados por estímulos no tonales debido a que el lazo tonal trabajaría
automáticamente, incluso cuando una tarea concurrente demandase atención.
Sin embargo, el funcionamiento del almacén tonal requeriría una gran cantidad
de recursos atencionales en sujetos sin entrenamiento y, por ello, el procesamien-
to de cualquier tipo de estímulo interferiría con su funcionamiento.
Resultados similares se obtienen cuando el material verbal es el objetivo a
recordar y el musical es el interpuesto. Salamé y Baddeley (1989) encontraron
que la escucha de música vocal interfería la retención de secuencias de dígitos
presentados visualmente casi tanto como la escucha de material verbalizado en
una lengua extranjera. La música instrumental perjudicaba significativamente
menos la ejecución aunque su presencia producía un peor recuerdo que el de los
grupos control de silencio y ruido. El hecho de que la música instrumental tenga
algún efecto de interferencia hace cuestionar la total independencia entre el lazo
tonal y el fonológico. Salamé y Baddeley (1989) sugieren que podría haber algún
solapamiento entre los mecanismos funcionales implicados en la retención de
secuencias tonales y los de material verbal. Según Baddeley, el sistema encargado
de la retención de los sonidos de las palabras (el lazo fonológico) podría haberse
desarrollado a partir de un sistema más primitivo, responsable del almacena-
78
miento temporal de sonidos ambientales. Por ejemplo, podría haber un único
sistema de almacenamiento a corto plazo (fonólogico y tonal) con un filtro que
dejase fuera el ruido y el material menos similar al habla, y que permitiese la
entrada gradual de material más semejante a las características del habla. Esta
explicación, como la de independencia y automaticidad relativa ofrecida por
Pechmann y Mohr (1992), es a posteriori y, por lo tanto, deja bastante abierta la
cuestión de si existe un lazo tonal independiente del fonológico.
La dificultad para dilucidar entre la hipótesis de unicidad de sistemas o la
independencia de los mismos también la muestran los experimentos de Logie y
Edworthy (1986). Estos autores presentaron a los sujetos pares de secuencias de
tonos. En la mitad de los ensayos, las dos melodías de un par eran idénticas y en
los restantes diferían en una nota de cualquier lugar de la secuencia. La tarea de
los sujetos era decir si los dos miembros de un par eran o no idénticos. La tarea
podía ejecutarse sola ó con tres tipos de tareas concurrentes: Supresión articulato-
ria, juicios de homófonos entre palabra y no palabra y juicios de igualdad de
series de caracteres no alfabéticos. Los resultados mostraron que sólo las tareas de
juicios de homófonos y supresión eran disruptivas. Por lo tanto, se podría supo-
ner que la comparación de secuencias de tonos y las tareas de homófonos y supre-
sión dependen del uso del lazo fonológico, y que por ello su realización simultá-
nea produce interferencia. Sin embargo, en un segundo experimento Logie y
Edworthy utilizaron una tarea de comparación entre tonos (similar a las de
Deutsch) que requería sólo el almacenamiento de un tono. Los resultados fueron
que la única tarea secundaria que interfería con la principal de comparación de
tonos era la de juicios de homófonos, no la supresión articulatoria. Según Badde-
ley, estos resultados podrían explicarse suponiendo que la supresión articulatoria
y los juicios de homófonos implican mecanismos separados, y que la memoria de
melodías incorpora ambos mecanismos mientras que la de tonos sólo uno de
ellos. Desde nuestro punto de vista, lo que este conjunto de datos indica es la
complejidad de la interacción entre música y lenguaje, de manera que distintos
aspectos de los mismos pueden procesarse por mecanismos similares, mientras
otros lo hacen por mecanismos diferentes. Como veremos posteriormente, la
complejidad de esta interacción también la muestran los datos de tipo neurop-
sicológico. Lo que estos estudios muestran es la necesidad de considerar distintas
dimensiones de los estímulos verbales y musicales, así como la experiencia de los
sujetos en el procesamiento musical.
Otra línea de investigación relacionada hace referencia a los posibles procesos
de repaso de la información musical. De la misma manera que el material verbal
se repasa y esto impide su decaimiento, el repaso de secuencias de tonos podría
facilitar su posterior retención. Por ejemplo, Keller, Cowan y Saults (1995) han
demostrado que la representación de las características de un tono puede ser
mantenida eficazmente mediante repaso. Estos autores utilizaron una tarea de
comparación entre tonos en la que durante el intervalo entre ellos, los sujetos
podían estar realizando una tarea distractora auditiva, una tarea verbal, o bien
simplemente “repasando” abiertamente el tono escuchado en primer lugar, sin
ser interferidos por ninguna tarea concurrente. Los resultados mostraron que
tanto el procesamiento de material verbal como auditivo durante la presentación
del segundo tono de prueba, producía una retención significativamente menor
en comparación con la obtenida cuando se permitía a los sujetos repasar el mate-
rial.
Una pregunta adicional es si la retención de secuencias de tonos se produce
por medio de alguna forma de “canto subvocal” que mantenga las características
temporales de la música. Halpern (1988a, 1988b) ha propuesto que del mismo
79
modo que existen imágenes visuales que preservan las características espaciales
de los objetos reales que representan, deben existir imágenes auditivas que pre-
serven la extensión temporal de las melodías. Es decir, así como la representación
de la extensión espacial es de interés en el estudio de las imágenes visuales, la
extensión y ordenamiento en el tiempo es relevante para el procesamiento de
secuencias melódicas. Halpern (1988a) pidió a sus sujetos que imaginasen la
melodía de una serie de canciones conocidas. Cada ensayo consistía en la presen-
tación del nombre de una de las canciones seguido de una palabra que estaba
incluida en la letra de la canción. Posteriormente aparecía una segunda palabra y
los sujetos debían decir si esta pertenecía a la letra de la canción. A un grupo de
sujetos (grupo de imágenes) se les dio instrucciones para que cuando la primera
palabra correspondiese a la canción ejecutaran mentalmente la melodía hasta
“llegar” a la segunda palabra del par, momento en el que debían presionar una
tecla. Si la palabra no pertenecía a la letra debían presionar la tecla rápidamente.
A otro grupo de sujetos (condición sin imágenes), sólo se les pedía que se centra-
ran en la primera palabra y que cuando la segunda apareciese, indicaran si perte-
necía o no a la canción. La distancia entre las dos palabras en la canción se mani-
puló a lo largo del experimento. Los resultados mostraron que los tiempos de
reacción se incrementaban con la distancia entre las dos palabras y que este incre-
mento se produjo en ambos grupos. Por lo tanto, parecía que los sujetos “canta-
ban mentalmente” la canción hasta llegar a la segunda palabra y que operaban
sobre una representación de las canciones en tiempo real. Este “canto mental”
parece producirse de forma espontánea, ya que estaba presente tanto en los suje-
tos que recibían instrucciones como en los que no las recibían. En otros experi-
mentos, Halpern (1988b) ha mostrado que las imágenes auditivas de melodías
familiares contienen información no sólo de la extensión temporal, sino también
del ritmo y la tonalidad.
En resumen, si bien existe poca coordinación entre los estudios que han trata-
do de investigar los aspectos relacionados con el procesamiento y el almacena-
miento temporal de material musical, la realidad de estos procesos es más que
evidente. Sin embargo, los autores que han tratado esta cuestión no sólo no par-
ten de los mismos supuestos —Baddeley considera dentro del lazo fonológico el
tratamiento de información musical, mientras que Pechmann y Morr defienden
la existencia de un subsistema independiente—, sino que además han utilizado
distintos procedimientos (comparación de tonos, retención de melodías), mate-
riales (tonos aislados, secuencias de tonos, canciones con letras) y tipos de sujetos
(expertos y no expertos). En cualquier caso, el valor de las investigaciones realiza-
das parece innegable. Primero, porque se han establecido una serie de procedi-
mientos que permitirán el estudio de estos fenómenos. Segundo, porque aunque
no quede claro si la música y el lenguaje comparten el mismo mecanismo de
procesamiento a corto plazo, todos los estudios parecen mostrar ciertas similitu-
des en la forma en que se procesan ambos, de manera que se produce interferen-
cia entre los tipos de materiales, y que fenómenos conocidos cuando se utiliza
material verbal o incluso visual aparecen cuando los estímulos son musicales.

4.3. Datos neuropsicológicos

Como antes mencionamos, los datos funcionales sobre los mecanismos de alma-
cenamiento a corto plazo muestran que la posible interacción entre música y len-
guaje es compleja y dependiente de distintas características de los estímulos, e
incluso de la experiencia de los sujetos. Esta complejidad también se refleja en los
80
estudios de tipo neuropsicológico que han intentado identificar el substrato bioló-
gico que subyace al reconocimiento de la música. Por una parte, algunos datos
parecen mostrar que las habilidades musicales son funciones autónomas e indepen-
dientes. Por ejemplo, existen casos de pacientes con daños cerebrales que presentan
pérdidas en su capacidad de reconocimiento de piezas musicales y que, sin embar-
go, mantienen intactas sus capacidades lingüísticas (Eustache, Echevalier, Viander
y Lambert 1990; Pèretz, 1996; Shapiro, Grossman y Gradner, 1981). Por ejemplo,
Pèretz , Kolinsky, Tramo, Labreckque y Hubler (1994) y Pèretz (1996) describen
el caso de una paciente que, después de varias operaciones en los lóbulos tempora-
les, no era capaz de reconocer la música de canciones muy conocidas para ella, si
éstas no estaban acompañadas de su letra. Tampoco era capaz de juzgar su familia-
ridad, recordar el nombre de las canciones o memorizar melodías. Sin embargo,
esta paciente no tenía ninguna dificultad de comprensión o comunicación.
De manera similar, los primeros datos con la técnica de escucha dicótica indi-
caban una disociación entre las habilidades lingüísticas y musicales. Estos datos
mostraban una ventaja en el reconocimiento de estímulos lingüísticos cuando
estos se presentaban por el oído derecho (OD) (hemisferio izquierdo), mientras
que el reconocimiento de estímulos musicales era mejor cuando estos se presenta-
ban por el oído izquierdo (OI) (Kimura, 1961; Jonhson,1977; Spellacy, 1970).
Estos datos adscribían el procesamiento lingüístico al hemisferio izquierdo (HI) y
el procesamiento musical al derecho (HD). Sin embargo, mientras que los traba-
jos sobre lateralidad han sido bastantes consistentes para estímulos lingüísticos
(Geffen y Quinn, 1984), cuando los estímulos son musicales no existe tal consis-
tencia y se han descrito casos de ventajas del OD, otros del OI y casos de igualdad
entre ambos oídos (Pèretz, 1989). Esta inconsistencia parece deberse a la influen-
cia de un conjunto de variables que determinan qué hemisferio muestra su predo-
minancia. El grado de experiencia musical parece ser un primer determinante de
la ventaja hemisférica (Bever y Chiarello, 1974). Así, los sujetos sin entrenamien-
to musical suelen presentar una mayor lateralizació n derecha, mientras que los
músicos expertos muestran lateralización izquierda o ausencia de asimetría. Estos
datos se han obtenido con tareas dicóticas, paradigmas de interferencia músico-
manual y con registros de potenciales evocados (Bever, 1998; Fabro, Brusaferro y
Bava 1990; Johnson, 1977; Rainbow y Herrick, 1982). Estas diferencias entre
músicos y no músicos parecen estar relacionadas con la orientación más analítica
que los expertos toman ante estímulos músicales. Bever y Chiarello (1974) mos-
traron una ventaja del OD en tareas que requerían un procesamiento analítico (el
reconocimiento de melodías que variaban en un solo tono). Esta superioridad del
OD sólo aparecía en músicos expertos. Los sujetos sin entrenamiento tenían difi-
cultades para discriminar entre estas melodías y, en contraste, mostraban una ven-
taja del OI. Otros estudios también han mostrado esta asimetría entre OI y OD
cuando la tarea que tienen que realizar los sujetos es analítica (discriminar tonos
dentro de melodías) u holística (estimar el número de notas en un acorde, recono-
cer melodias familiares o el contorno de secuencias musicales nuevas) (Gaede y
cols., 1978; Gates y Bradshaw, 1977; Mackinnonn y Schellenberg, 1997). Por
otra parte, la ventaja del OI sobre el OD también depende del componente musi-
cal al que la tarea haga referencia. Si la tarea requiere del individuo el reconoci-
miento del patrón rítmico se produce una superioridad del OD, especialmente
cuando el patrón rítmico es complejo (Bendov y Carmon, 1984; Pèretz y Morais,
1988). Sin embargo, cuando la tarea implica reconocimiento del patrón melódi-
co, los datos muestran superioridad del OI, aunque como mencionamos sólo con
sujetos no entrenados (Pèretz y Morais, 1988). Si bien no de forma tan clara, los
datos de pacientes con daños cerebrales unilaterales también muestran diferencias
81
en los síntomas que produce la lesión. Por ejemplo, en un estudio de Shapiro,
Grossman y Gardner (1981) 28 pacientes tenían que juzgar si un conjunto de
melodías conocidas contenían errores en la secuencia de tonos, en el ritmo o en las
frases. Los pacientes con lesiones en la parte anterior del hemisferio derecho tenían
dificultades en detectar cambios en la melodía y en el ritmo, mientras que los
pacientes con lesiones posteriores izquierdas mostraban un déficit en la detección
del ritmo. Aunque la mayor parte de los casos de agnosia musical descritos son de
pacientes sin ninguna especialización en música, si extrapolamos los resultados de
los experimentos de escucha dicótica podríamos suponer que daños en el hemisfe-
rio izquierdo también podrían producir déficits en el reconocimiento de melodías
en pacientes con experiencia musical. De hecho, datos de Bonvici (1905, descritos
por Pèretz, 1996) y de Lamy (1907) mostraban que músicos expertos no podían
reconocer melodías conocidas tras una lesión en el hemisferio izquierdo. Por lo
tanto, podría interpretarse que la práctica de la música produce un cambio en la
forma en que se procesan los estímulos musicales y que este cambio se traduce en
una mayor especialización del hemisferio izquierdo (Bever, 1998). Como mencio-
namos anteriormente, tanto los datos funcionales como los neuropsicológicos
muestran la necesidad de considerar distintas dimensiones de los estímulos verba-
les y musicales, así como la experiencia de los sujetos en el procesamiento musical.

5. CONCLUSIONES

Cuando uno se aproxima por primera vez al estudio de la música desde una
perspectiva cognitiva, sorprende la diversidad de fenómenos y teorías explicati-
vas de los mismos; la falta de cohesión entre ellas y la dificultad a la hora de orga-
nizarlas. Sin embargo, si, como es habitual en el campo de la psicolingüística,
distinguimos entre distintas unidades y niveles de representación, estos fenóme-
nos y teorías comienzan a adquirir sentido. En primer lugar, de la misma manera
que para entender la comprensión del lenguaje necesitamos identificar un nivel
fonológico, las reglas por las que se combinan los sonidos que componen el len-
guaje, para entender la percepción y comprensión de una pieza musical es nece-
sario delimitar las reglas de combinación de sonidos que determinan la manera
en que percibimos y recordamos una melodía. Como ocurre con el lenguaje,
parece que las características acústicas de los sonidos aislados no son las que
determinan la percepción y recuerdo de una pieza musical. El contexto global de
un segmento musical específico influye incluso en cómo se perciben los sonidos
aislados. Este contexto global en la música parece definirse por el contorno y la
tonalidad de la pieza musical (Gómez-Ariza y cols., 2000). Estos dos factores
parecen determinar la relación entre sonidos y su progresión a lo largo de la
melodía. En segundo lugar, podemos definir un nivel de representación sintácti-
co del sistema de reglas que organiza el conjunto de notas y acordes que compo-
ne un fragmento musical. El patrón rítmico en combinación con la estructura
tonal parecen jugar un papel importante en el agrupamiento y segregación de
segmentos musicales (Gómez-Ariza y cols., 2000). Al igual que en el lenguaje,
se han propuesto una serie de gramáticas musicales. Teorías como la de Deutsch
y Feroe (1981) o la de Lerdahl y Jackendoff (1983) constituyen intentos impor-
tantes de sistematizar las reglas de composición de la música enfatizando su
estructura jerárquica. Finalmente, la creación de expectativas que surgen de la
tonalidad y su combinación con otros factores expresivos como apoyaturas,
tempo, matices, etc., parecen determinar el significado emocional de la música y
la representación semántica de la misma. La teoría conexionista de Bharucha
82
(1994) y la de esquemas de Mandler (1984), intentan explicar cómo se generan
estas expectativas musicales y cómo su ruptura hace que se transmitan distintos
estados emocionales.
Aunque las teorías fueron propuestas como explicaciones alternativas, no
necesariamente lo son ya que en muchos casos se centran en distintos niveles de
representación y, dentro de cada uno de ellos, pueden servir de marco para inte-
grar fenómenos diferentes y predecir otros nuevos. Por otro lado, es interesante
subrayar que algunos de los argumentos y discusiones que existen en las teorías
lingüísticas también están presentes en las teorías musicales. Por ejemplo, teo-
rías unitarias como la de Bharucha (1994) que proponen distintos niveles de
representación, suponen que esos niveles interactúan activándose unos a otros
para crear una única representación de la pieza musical. Por el contrario, segui-
dores de la teoría estructural de Lerdahl y Jackendoff (1983) proponen que cier-
tos mecanismos de abstracción de características musicales se pueden atribuir a
las operaciones de un mecanismo periférico modular que está presente desde
edades muy tempranas y que constituiría uno de los primeros pasos en los pro-
cesos de comprensión musical (Melen y Deliège, 1997). Por otra parte, las teo-
rías también difieren en la importancia que atribuyen a las características super-
ficiales de la música en el reconocimiento de la misma. Aunque algunos datos
parecen dar importancia a características locales de la música como el tamaño
de los intervalos o la duración de las notas (Tighe y Dowling, 1993), las teorías
basadas en las expectativas parecen dar mayor énfasis a los procesos de abstrac-
ción que subyacen a características más globales como el contorno melódico o el
patrón de acentos rítmicos y melódicos (Bigand, 1997; Jones y Boltz, 1989).
Finalmente, distintas teorías proponen distintas unidades de representación y
procesamiento. Aunque teorías como la de Mandler o Bharucha intentan expli-
car cómo atribuimos significado a una pieza musical, ambas difieren en el tipo
de procesos que proponen. De esta manera, el procesamiento, según Mandler,
está guiado por una serie de esquemas almacenados en memoria que recogen la
estructura musical de nuestra cultura y que generan expectativas en el momen-
to de la escucha, mientras que las teorías conexionistas dan mayor importancia
a la activación de distintas unidades en la red a medida que escuchamos un
input musical, por lo que sería este input el que determinaría la activación en
memoria de distintas unidades y, por lo tanto, su representación final en la
memoria.
La similitud entre música y lenguaje no sólo se aprecia en los distintos niveles
de representación y en las discusiones y argumentos teóricos, sino también en el
conjunto de fenómenos que se observan. Como en el lenguaje, los sonidos que
componen la música no se pueden comprender de forma aislada. El segmento
musical en que aparecen parece determinar su recuerdo e incluso su percepción
Fenómenos similares a los efectos de superioridad de la palabra o al de restaura-
ción del fonema aparecen en el reconocimiento de melodías. La importancia del
contorno o de la tonalidad también nos muestra que, como en el lenguaje, exis-
ten procesos de abstracción que median la percepción y el recuerdo de la música.
De esta manera, no se recuerda el patrón melódico exacto de la pieza musical que
escuchamos, las notas exactas ni el tamaño exacto de los intervalos que la compo-
nen; ninguno de estos aspectos parece ser determinante absoluto del recuerdo de
la misma sino estructuras de más alto nivel como el contorno o la tonalidad. Por
otra parte, características estructurales del lenguaje aparecen también en la
música: la importancia de la frase como unidad de procesamiento, los fenómenos
de agrupamiento y segmentación parecen ser similares en los procesos de com-
prensión y reconocimiento de música y lenguaje.
83
Finalmente, aunque algunos datos de tipo neurofisiológico parecen indicar
que son distintos los mecanismos neurales de procesamiento musical y lingüísti-
co, y que ambos se pueden deteriorar de forma independiente (Pèretz, 1996),
esta independencia no se muestra de forma tan clara si se considera el grado de
experiencia de los sujetos o distintas características de los estímulos musicales.
Los datos de tipo funcional, por su parte, muestran que cuando se presentan jun-
tos, música y lenguaje se integran y almacenan de forma conjunta. Incluso el
mecanismo de almacenamiento a corto plazo puede ser común para el material
lingüístico y musical. Hemos visto cómo las características de tonos aislados
pueden ser retenidas en la memoria a corto plazo mediante algún tipo de repaso,
y cómo se produce interferencia en este procesamiento cuando información cua-
litativamente semejante (otros tonos y material verbal presentado auditivamen-
te) es atendida. Igualmente, parece que hay algunos aspectos compartidos entre
música y habla que podrían hacer que el procesamiento de material verbal, que
se llevaría a cabo en un sistema especializado (el lazo fonológico en el modelo de
Baddeley, 1986), se vea interferido por la presentación de música instrumental y
aún en mayor medida por la vocal.
Aunque a lo largo del artículo hemos tratado una gran diversidad de cuestio-
nes, nuestro objetivo no ha sido revisar todos los enfoques y fenómenos de la cog-
nición musical, sino centrarnos en los procesos por los que la música se compren-
de e interpreta poniendo énfasis en aquellos aspectos en que música y lenguaje
ofrecen similitudes o diferencias. Por supuesto, la cognición musical comprende
muchos más elementos que los expuestos aquí; los temas más estrechamente
relacionados con percepción y psicoacústica, así como los aspectos relacionados
con el entrenamiento y la ejecución en instrumentos musicales no han sido con-
siderados aquí. Aunque otros autores han señalado el paralelismo existente entre
música y lenguaje (Aiello, 1994; Lerdahl, 1988), pocos lo han utilizado como
estructura organizativa de los distintos enfoques teóricos y datos empíricos. Cre-
emos que la principal aportación del presente artículo es ofrecer un esquema que
organice la investigación existente y dirija la futura.

Notas
1
Este trabajo se ha realizado como parte del proyecto de la DGICYT PB95-1180 concedido a la segun-
da autora.
2
La nota tónica es la primera de una escala y le da nombre a la misma. Por ejemplo, en la escala de Do
Mayor, la nota tónica es do. La dominante es la quinta nota de la escala. En la escala de do estaría constitui-
da por la nota sol. Estas dos notas son las que más se repiten en una pieza de una determinada tonalidad.
3
La escala diatónica está compuesta de siete notas o grados ordenadas de forma ascendente o descenden-
te. Por ejemplo, la escala de do Mayor está compuesta de la secuencia de notas do-re-mi-fa-sol-la-si .
Todas las escalas mantienen una distribución equivalente de tonos y semitonos dependiendo de que
sean de modo mayor o menor. De esta manera, todas las escalas mayores tienen una distancia de dos
semitonos entre notas sucesivas, excepto entre las notas que ocupan el tercer y cuarto grado en la escala
(mi-fa) y las que ocupan el séptimo y octavo (si-do). Éstas últimas están separadas por un semitono. Las
escalas cromáticas, por su parte, están compuestas de 12 notas o grados separadas todas por una distan-
cia de un semitono (do, do, re, re.....).

Referencias
AIELLO, R. (1994). Music and language: Parallels and contrasts. En R. Aiello y J. A. Sloboda (Eds.),
Musical perceptions (pp.40-63). Nueva York: Oxford University Press.
AIELLO, R. y BEVER, T. G. (1985). Harmonic structure ace to determinant of melodic organization.
Memory and Cognition, 9, 533-539.
84
BADDELEY, A. D. (1986). Working memory. Oxford: Oxford University Press.
BEVER, T. G. (1998). Cerebral asymmetries and cognitive dynamics. Conferencia presentada en el X
Congress of European Society for Cognitive Psychology. Jerusalén.
BEVER, T. G. y CHIARELLO, R. (1974). Cerebral dominance in musicians. Science, 185, 537-539.
BEN-DOV, G. y CARMON, A. (1984). Rhythm length and hemispheric asymmetry. Brain and cognition, 3,
35-41.
BHARUCHA, J. J. (1987a). MUSACT: A connectionist model of musical harmony. En Proceedings of the
Cognitive Psychology Society. Hillsdale, NJ: Lawrence Erlbaum Associates.
BHARUCHA, J. J. (1987b). Music cognition and perceptual facilitation: A connectionist framework.
Music Perception, 5, 1-30.
BHARUCHA, J. J. (1994). Tonality and expectation. En R Aiello y J. Sloboda (Eds.), Musical perceptions.
Nueva York: Oxford University Press.
BHARUCHA, J. J. y STOECKIG, K. (1987). Priming of chords: Spreading activation or overlapping fre-
quency spectra? Perception & Psychophysics, 41, 519-524.
BOLTZ, M. (1998). The processing of temporal and Nontemporal information in the remembered of
event duration and musical structure. Journal of Experimental Psychology: Human Perception and Perfor-
mance, 24, 1087-1104.
BREGMAN, A. S. (1990). Auditory scene analysis: The perceptual organization of sound. Cambridge: MIT
Press.
CHIAPPE, P. y SCHMUCKER, M. A. (1997). Phrasing influences the recognition of melodies. Psychonomic
Bulletin and Review, 4, 254-259.
CHOMSKY, N. (1957). Syntactic structures. La Haya: Mouton.
COHEN, G. (1996). Memory in the real world. Hove: Psychology Press.
COOKE, D. (1959). The language of music. Oxford: Oxford University Press.
CUTTING, J. E. y ROSNER, B. S. (1974). Categories and Boundaries in speech and music. Perception and
Psychophysics, 16, 564-570.
DELIÈGE, I. (1987). Grouping conditions in listening to music: an approach to Lerdahl & Jackendoff’s
grouping preference rules. Music Perception, 4, 325-360
DEUTSCH, D. (1982). The processing of pitch combinations. En D. Deutsch (Ed.), The psychology of music
(pp. 271-316). Nueva York: Academic Press.
DEUTSCH, D. y FEROE, J. (1981). The internal representation of pitch sequences in tonal music. Psycholo-
gical Review, 86, 503-522.
DEWAR, K. M., CUDDY, L. L. y MEWHORT, D. J. K. (1977). Recognition memory for sails rhymes with
and without context. Journal Experimental of Psychology: Human Learning and Memory, 3, 60-67.
DE WITT, L. y SAMUEL, A. (1990). The role of knowledge-bas ed expectations in music perception: Evi-
dence from musical restoration. Journal Experimental of Psychology: General, 119 (2), 123-144.
DOWLING, W. J., KWAK, S., y ANDREWS, M. W. (1995). The cheats course of recognition of beginner
melodies. Perception and Psychophysics, 57, 136-149.
EILERS, R. E., GAVIN, W. y WILSON, W. R. (1979). Linguistic experience and phonemic perception in
infancy: A crosslinguistic study. Child Development, 50, 14-18.
EIMAS, P. D. (1974). Auditory and linguistic processing of cues for place of articulation by infants. Per-
ception and Psychophysics, 16, 513-521.
EUSTACHE, E., ECHEVALIER, B. VIADER, F. y LAMBERT, J. (1990). Identification and discrimination
disorder in auditory perception: A report on two cases. Neuropsychologia, 28, 257-270.
FABRO, F., BRUSAFERRO, A. y BAVA, A. (1990). Opposite musical-manual interference in young vs.
expert musicians. Neuropsychologia, 28, 871-877
GAEDE, S., PARSON, L. y BERTERA, J. (1978). Hemispheric differences in music perception: Aptitude
versus experience. Neuropsychologia, 16, 369-373.
GATES, A. y BRADSHAW, J. (1977). Music perception and cerebral asymmetries. Cortex, 14, 58-70.
GAVER, W. y MANDLER, G. (1987). Play it again, Sam: On liking of music. Cognition & Emotion, 1 (3),
259-282.
GEFFEN, G. y QUINN, K. (1984). Hemispheric specialization and hear advantage in processing speech.
Psychological Bulletin, 96, 273-291.
GÓMEZ-ARIZA, C. J., BAJO, M. T., PUERTA-MELGUIZO, M. C. y MACIZO, P. (2000). Determinantes de la
representación musical. Cognitiva, 12 (1), 89-110.
HALPERN, A. R. (1988a). Mental scanning in auditory imagery for songs. Journal Experimental of Psycho-
logy: Learning, Memory and Cognition, 14, 434-443.
HALPERN, A. R. (1988b). Perceived and imagined tempos of family songs. Music Perception, 6, 193-202.
HALPERN, A. R., KWAK, S. Y., BARTLETT, J. C. y DOWLING, W. J. (1996). Effects of aging musical and
experience on the representation tonal of hierarchies. Psychology and Aging, 11, 235-246.
HEYDUK, R. G. (1975). Rated preference for musical composition is related to complexity and exposure
frequency. Perception and Psychophysics, 17, 84-90.
HUBBARD, T. L., y STOECKIG, K. (1992). The representation of pitch in musical images. En D. Reisberg
(Ed.), Auditory imagery (pp.199-235) . Hillsdale, NJ: Erlbaum.
IDSON, W. L. y MASARO, D. W. (1978). To two-dimensional model of pitch in the recognition of melo-
dies. Perception & Psychophysics, 24, 551-565.
JACKENDOFF, R. (1987). Levels of Musical Structure. En R. Jackendoff (Ed.), Consciousness and the Compu-
tational mind. Cambridge. MA: MIT Press.
85
JOHNSON, R. (1977). Dichotically-stimula ted ear differences in musicians and non-musicians. Cortex,
13, 295-299.
JOHNSON-LAIRD, P. (1983). Mental models. Cambridge: University Press.
KELLER, T. A., COWAN, N. y SAULTS, J. S. (1995). Can auditory memory for tone pitch be rehearsed?.
Journal Experimental of Psychology: Learning, Memory and Cognition, 21, 635 -645.
KIMURA, D. (1961). Cerebral dominance and the perception of verbal stimuli. Canadian Journal of Psy-
chology, 16, 111-116.
KLEIN, M., COLES, M. G. H. y DONCHIN, E. (1984). People with absolute pitch process rhymes without
producing at P300. Science, 223, 1306-1309.
KRUMHANSL, C. L. (1991). Music psychology: Tonal structures in perception and memory. Annual
Review of Psychology, 42, 277-303.
KRUMHANSL, C. L. y KESSLER, E. J. (1982). Tracing of dynamic changes in perceived tonal organization
in to spatial representation of musical keys. Psychological Review, 89, 334-368.
LAMY, M. (1907). Amnésie musicale chez un aphasique sensoriel. Revue Neuropsychologie, 15, 688-893.
LARGE, E. W., PALMER, C. y POLLACK, J. B. (1995). Reduced Memory Representations. Cognitive Science,
19, 53-96.
LERDAHL, F. (1988). Tonal pitch space. Music Perception, 5, 315-350.
LERDAHL, F. y JACKENDOFF, R. (1983). A generative theory of tonal music. Cambridge, MA: MIT Press.
LOCKE, S. y KELLAR, L. (1973). Categorical perception in to non-linguist ic mode. Cortex, 9, 355-369.
LOGIE, R. H. y EDWORTHY, J. (1986). Shared mechanisms in the processing of verbal and musical mate-
rial. En G. Russell, D. Marks y J. Richardson (Eds.), Imagery 2 (pp. 33-37). Dunedin, Nueva Zelan-
da: Human Performance Associates.
MAHER, T. F. (1980). To rigorous test of the proposition that musical intervals have different psycholo-
gical effects, American Journal of Psychology, 93, 309-327.
MANDLER, G. (1984). Mind and body: Psychology of emotion and stress. Nueva York: Norton.
MASSARO, D. W., KALLMAN, H. J. y KELLY, J. L. (1980). The role of tone height, melodic contour, and
tone chroma in melody recognition. Journal Experimental of Psychology: Human Learning and Memory,
6, 77-90.
MCKINNON, M. C. y SCHELLENBER, E. G. (1997). A left-ear advantage for forced-choice judgements of
melodic contour. Canadian Journal of Experimental Psychology, 51, 171-175
MEYER, L. B. (1956). Emotion and meaning in music. Chicago: University of Chicago Press.
MEYER, L. B. (1973). Explaining music: Essays and explorations. Chicago: University of Chicago Press.
MEYER, M. (1904). On the attributes of the sensations. Psychological Review, 11, 83-103.
MIYAZAKY, K. (1988). Musical pitch identification by absolute pitch possessors. Perception & Psychophy-
sics, 44, 501-512.
OHDE, R. N. y SHARF, D. J. (1988). Perceptual categorization and consistency of synthesized /r-w/ con-
tinua by adults, normal children and /r/-misarticulation children. Journal of Speech and Hearing Rese-
arch, 31, 556-568.
OSTEHOUT, L. y HOLCOMB, P. J. (1993). Event-related potentials elicited by syntactic anomaly. Journal
of Memory and Language, 31, 785-806.
PALMER, C. (1997). Music performance. Annual Review of Psychology, 48, 115-138
PATEL, A. D., GIBSON, E., RATNER, J., BESSON, M., HOLCOMB, P. J. (1998). Processing syntactic rela-
tions in language and music: An Event Related Potential Study. Journal of Cognitive Neuroscience, 10,
717-733.
PECHMANN, T. y MOHR, G. (1992). Interference in memory for tonal pitch: Implications for to wor-
king-memory model. Memory & Cognition, 20, 314-320.
PÈRETZ, I. (1989). Clustering in music: An appraisal of tasks factors. International Journal of Psychology,
24, 157-178.
PÈRETZ, I. (1996). Do we loose memory for music - music agnosia in a nonmusician. Journal of Cognitive
Neuroscience, 8, 481-496.
PÈRETZ, I. y MORAIS, J. (1988). Determinants of laterality for music: Towards and information proces-
sing account. En K. Hugdahl (Ed.), Handbook of dichotic listening: Theory, methods and research. Chiches-
ter: Wiley & Sons.
PÈRETZ, I., KOLINSKY, R., TRAMO, M., LABRECQUE, R., HUBLET, C., DEMEURISSE, G. y BELLEVILLE, S.
(1994). Functional dissotiations following bilateral lesions of the auditory cortex. Brain, 117, 1283-
1302.
RAINBOW , E. y HERRICK, C. (1982). An investigation of hemispheric specialization for the pitch and
rhythmic. Psychology of Music, 10, 96-100.
REPP, B. (1984). Categorical perception,: issues, methods, findings. En N. J. Lass (Ed.), Speech and Lan-
guage: Advances in Basic Research and Practice. Vol. 10, Nueva York: Academic Press.
REPP, B. (1999). Detecting deviations from metronomic timing in music: effects of perceptual structure
on the mental time keeper. Perception & Psychophysics, 61, 529-548
RÈVÉSZ, G. (1954). A introduction to the psychology of music. Norman: Oklahoma University Press.
SALOMÉ, P. y BADDELEY, A. D. (1989). Effects of background music on phonological short-term
memory. Quarterly Journal Experimental of Psychology, 41A, 107-122.
SEBASTIÁN-GALLÉS, N. y BOSCH , L. (1999). Estudios sobre los espacios vocálicos en bilingües catalán-
español. Las fronteras entre categorí as. Ponencia presentada en el IV Simposio de Psicolingüística.
Madrid.
86
SPELLACY, F. (1970). Lateral preference in the identification of patterned stimuli. Journal of the acoustical
Society of America, 47, 574-578.
SERAFINE, M. L., CROWDER, R. y REPP, B. (1984). Integration of melody and text in memory for songs.
Cognition, 16, 285-303.
SERAFINE, M. L., DAVIDSON, J., CROWDER, R. y REPP, B. (1986). On the nature of melody-text integra-
tion in memory for songs. Journal of Memory and Language, 25, 123-135.
SCHENKER, H. (1979). Free composition. Nueva York: Longman. (Original publicado en 1935)
SCHEPARD, R. N. (1982). Structural representation s of musical pitch. En D. Deutsch (Ed.), The psycho-
logy of music (pp. 343-390). Nueva York: Academic Press.
SHAPIRO, B., GROSSMAN , M. y GARDNER, H. (1981). Selective musical processing deficits in brain
damaged populations. Neuropsychologia, 19, 161-169.
SIEGEL, J. A. (1974). Sensory and verbal coding strategies in subjects with absolute pitch. Journal Experi-
mental of Psychology, 103, 37-44.
SLOBODA, J. A. (1985). The musical mind: The cognitive psychology of music. Londres: Oxford University
Press.
SLOBODA, J. A. (1990). Musical excellence: How does it develop? En M. J. A. Howe (Ed.), Encouraging
the Development of Exceptional Skills and Talents. Leicester: British Psychological Society.
SLOBODA, J. A. (1991). Music structure and emotional response: Some empirical findings. Psychology of
Music, 19, 110-120.
SLOBODA, J. A. (1994). Music performance: expression and the development of excellence. En R. Aiello
y J. A. Sloboda (Eds.), Musical Perception. New York: Oxford University Press.
STEVENS, S. S. y VOLKMANN, J. (1940). The relation of pitch to frequency: Revised scale. American Jour-
nal of Psychology, 53, 329-353.
STREETER, L. A. (1976). Language perception of 2-months-old infants shows effects of both innate
mechanisms and experience. Nature, 259, 39-41.
TAYLOR, J. A., WALLS, K. C. y BARRY, N. H. (1995). The effect of melodic contexts on the perception
of scale degrees. Psychomusicology, 14, 35-52.
TULVING, E. (1983). Elements of Episodic Memory. Oxford: Oxford University Press.
WAPNICK, J., BOURASSA, G. y SAMPSON, J. ( 1982). The perception of tonal intervals in isolation and in
melodic context. Psychomusicology, 2, 21-36.
ZACKAY, D., ROZINER, I. y BEN-ARZI, S. (1984). On the nature of absolute pitch. File für Psychologie,
136, 163-166.
ZAMACOIS, J. (1994). Teoría de la música. Madrid: Labor.

Extended Summary
An important problem in the study of musical cognition lies in the amount
and diversity of theories, the lack of coherence among them, the diversity of
effects and the difficulty when organizing them. The models that try to explain
the way in which music is represented in the human mind vary in the range of
phenomena that they explain and in the units of representation that they postu-
late. The aim of this paper is to offer a coherent organizational structure where
to integrate phenomena and theory. First, we introduce the different types of
theories proposed to explain the way in which the music is represented in
memory. If we compare music and language it is possible to identify different
representational units (phonological, syntactic and semantics) that makes possi-
ble to classify them. Some theories (Krumhansl, 1991; Shepard, 1982) try to
understand the way in which the musical sounds are combined to determine the
way in which we perceived a melody (phonological theories). A second group of
theories (Deutsch and Feroe, 1981; Lerdahl and Jackendoff, 1983) try to iden-
tify the system of rules that segment and organize the notes and chords compo-
sing a musical fragment (syntactic theories). Finally, a third group of theories
(Bharucha, 1994; Mandler, 1984) have tried to specified how musical expectan-
cies are created and how the rupture of these expectancies create the tension and
emotional stated that define the semantic of the music. This classification is
based on the unit for representation used by the theory and on the range of
empirical data that they try to explain.
87
It is also possible to compare music and language when considering some of
the characteristics of musical knowledge. Thus, the second section revised some
of the phenomena that show this similarity. We discuss the influence of the con-
text in the perception of isolated tones, the presence of categorical effects of
musical sounds, the importance of phrase structures and compositions rules, the
attempts to create a musical grammar, specify a simple musical vocabulary and
the finding of local and global priming effects. In the third section, we review
data that address the possibility that music and language are processed and sto-
red by common mechanisms. We discuss the manner in which music is integra-
ted with text in the retention of melodies and the possible existence of a com-
mon short term memory mechanism for the retention of tones and phonological
information. In addition, we introduced some neuropsychological data addres-
sing this issue. Although, some of these data (Pèretz, 1996) seem to indicate
that music and language are processed by different neural mechanisms, the
independence of the two system is not that clear if the degree of musical experti-
se is considered. In addition, the findings of music/ speech interference effects
seem to indicate that some of the components of working memory are shared by
music and speech processes. In general, we argue that many musical phenomena
have important correspondences with equivalent linguistic phenomena. The
awareness of this parallelism offers a clear organizational structure that may help
to put some order in field of musical cognition.

Das könnte Ihnen auch gefallen