Beruflich Dokumente
Kultur Dokumente
Resumen
El presente trabajo pretende ser un primer acercamiento a la cognición musical poniendo de manifiesto algu-
nos paralelismos entre el lenguaje y la música. En primer lugar, se discuten las distintas propuestas de represen-
tación musical. Aunque las teorías que intentan explicar la manera en que la música está representada men-
talmente varían en los fenómenos que explican y en las unidades que postulan, si se establecen comparaciones
entre música y lenguaje es posible identificar distintos niveles de representación (fonológica, sintáctica o semánti-
ca) que hacen posible la organización de estas teorías. En segundo lugar, se discuten características de los patro-
nes musicales que muestran similitudes con el lenguaje y que formarían lo que podemos llamar la estructura del
lenguaje musical. En tercer lugar, se plantea la posibilidad de que música y lenguaje compartan sistemas de
almacenamiento. Así, se discuten los fenómenos de integración de música y texto en la retención de melodías, la
posible existencia de una memoria a corto plazo para la retención de tonos e información fonológica y los datos de
tipo neuropsicológico que intentan determinar el substrato biológico del procesamiento musical. Se concluye que,
aunque los mecanismos de procesamiento lingüístico y musical no son idénticos, existe un paralelismo entre músi-
ca y lenguaje que permite organizar los datos empíricos y las teorías explicativas de los mismos.
Palabras clave: Cognición musical, representación de la música, percepción de la música, memoria
de melodías, psicología de la música.
Correspondencia con los autores: M. Teresa Bajo Molina. Dpto. de Psicología Experimental. Campus
Universitario de Cartuja. Universidad de Granada. 18071 Granada. E-mail: Mbajo@goliat.ugr.es
© 2000 by Fundación Infancia y Aprendizaje, ISSN: 0214-3550 Cognitiva, 2000, (12) 1, 63-87
64
1. INTRODUCCIÓN
2. EL PROBLEMA DE LA REPRESENTACIÓN
Existe una gran cantidad de modelos teóricos para explicar la forma en que la
música puede estar representada mentalmente. Las diferentes propuestas no sólo
difieren en los supuestos que les dan contenido, sino también, y más importante,
en los fenómenos que tratan de explicar. Tal vez, uno de los primeros problemas
para entender la cognición musical está en delimitar cuáles son las características
de la música que determinan la manera en que la percibimos y, posteriormente,
la recordamos. Una pieza musical se caracteriza no sólo por la frecuencia de los
tonos que la componen y el orden en que estos aparecen, sino también por la
escala y la tonalidad que la definen, por el tamaño de los intervalos armónicos y
melódicos, así como por el patrón rítmico de la secuencia de tonos. Como vere-
mos, las teorías propuestas se centran en distintos aspectos de las melodías, así
como en distintas combinaciones de estos elementos.
Los primeros modelos que se propusieron (por ejemplo, Stevens y Volkmann,
1940) se centraron, fundamentalmente, en las características acústicas de los
estímulos musicales, y ofrecieron explicaciones basadas en los niveles de repre-
sentación neural y neurofisiológico. Las primeras teorías de este tipo trataron de
desarrollar escalas psicológicas unidimensionales de los tonos, en la mayoría de
los casos centrándose en el parámetro de frecuencia. La representación se suponía
implementada linealmente en la membrana basilar desde los tonos agudos (de
alta frecuencia) a los tonos graves (de frecuencia baja). Así, dos tonos serían más
similares cuanto más corta fuese la distancia entre sus representaciones en dicha
membrana. Pronto, numerosos datos cuestionaron la importancia que los tonos
66
aislados, y por tanto la frecuencia absoluta, tienen en la percepción y el recuerdo
de la música.
Versiones más modernas de estas teorías se reflejan en los modelos geométri-
cos. Estos tratan de especificar los diferentes factores que hacen que dos tonos
sean percibidos como relacionados o semejantes, suponiendo que están represen-
tados mediante algún tipo de esquema basado en un conjunto de dimensiones.
Por tanto, aunque estos modelos se basan en las características acústicas, se cen-
tran en las relaciones entre ellas (Shepard, 1982). Por ejemplo, el modelo de
doble hélice de Shepard (1982) combina una dimensión que representa el nom-
bre de los tonos (do-re-mi-fa-sol-la-si-do), con otra que representa la frecuencia de
los mismos. La combinación de estas dos dimensiones mostraría, por ejemplo,
que una nota separada de otra por una octava en la dirección ascendente (desde
un do hasta el siguiente do o desde un re el siguiente re), tiene el doble de frecuen-
cia. Una tercera dimensión representa la cercanía armónica compartida por la
nota tónica y la nota dominante de una escala (estas dos notas tienen un estatus
especial en teoría de la música2). De este modo, la estructura propuesta por la
teoría preserva las relaciones tonales descritas por la teoría de la música. Si hace-
mos un paralelismo con el lenguaje, los modelos geométricos se centran en la
fonología de la música; en la combinación de sonidos que da significado a la
misma.
Otro tipo de teoría se centra en las leyes y reglas que gobiernan la combina-
ción de tonos y acordes para formar una estructura musical. Los modelos de
reglas postulan que, igual que el lenguaje contiene un conjunto de elementos
que pueden ser combinados para formar unidades mayores, los elementos musi-
cales básicos (los 12 semitonos que repiten cíclicamente cada octava en la cultura
occidental), son combinados para formar melodías y armonías. Pero también,
como en el lenguaje, no cualquier combinación es suficiente para recrear una
música, sino que existen leyes y reglas que las determinan. Deutsch y Feroe
(1981) [véase también Lerdahl y Jackendoff (1983) como otro ejemplo del
mismo tipo de modelo] propusieron que la secuencia de tonos que compone una
pieza musical, puede representarse mediante un alfabeto afectado por un conjun-
to de reglas formales que organizaría los tonos en estructuras jerárquicas. Estas
estructuras pueden a su vez representarse mediante alfabetos de mayor nivel con
sus propias reglas de organización. Estos conjuntos de reglas y alfabetos desarro-
llarían códigos jerárquicos que, para estos autores, influirían en la codificación de
las melodías en la memoria. Está fuera del alcance del artículo describir en deta-
lle los supuestos de la teoría, pero lo esencial de ella es que, siguiendo nuestro
paralelismo con el lenguaje, se centra en la sintaxis de la música y, por lo tanto,
intentaría explicar aquellos fenómenos relacionados con la misma.
Finalmente, también se han propuesto modelos conexionistas para represen-
tar relaciones armónicas (Bharucha y Stoecking, 1987; Large, Palmer y Pollack,
1995). En el modelo propuesto por Bharucha (Bharucha y Stoeckig, 1987; Bha-
rucha, 1994), los acordes y los tonos son representados por nodos en una red, y
están conectados por punteros (links) a otros nodos que representan los acordes de
la clave musical de la que se derivan. La activación de los nodos de clave provoca-
rá activación por expansión a los nodos “hijos”, generando expectativas armóni-
cas en el oyente. Estos modelos, como los geométricos, se centran en las relacio-
nes entre notas y las dimensiones que determinan su semejanza. Las propiedades
de la red especifican las distancias entre dos sonidos dados y la fuerza de cual-
quier tipo de relación entre ellos, en función de un supuesto espacio determinado
por dimensiones como la posición en la octava, la frecuencia, etc. (Hubbard y
Stoeckig, 1992). Sin embargo, como ocurre con los modelos conexionistas pro-
67
puestos para el procesamiento del lenguaje, este tipo de modelo es capaz de
explicar no sólo las relaciones acústicas entre los sonidos, sino también la forma
en que estos se organizan dando estabilidad a la melodía y creando expectativas
musicales.
Aunque estos modelos se han propuesto como alternativos y hay datos que
favorecen en mayor o menor medida a cada uno de ellos, pensamos que cada una
de las teorías hace hincapié en un conjunto de fenómenos que debe estar inclui-
dos en las explicaciones sobre la cognición musical. Si, como venimos haciendo,
suponemos que existe un paralelismo entre la música y el lenguaje, podemos
asumir que existen distintos niveles y unidades de representación (fonología, sin-
taxis, semántica) y que todos ellos están en la base de algunos fenómenos musica-
les. Como hemos mencionado, los modelos psicoacústicos hacen referencia a la
codificación de relaciones entre sonidos (fonología), los modelos de reglas expli-
can los fenómenos organizativos mediante la representación interna de reglas y
leyes (sintaxis) y, finalmente, los modelos de redes, como ocurre en el lenguaje,
explican relaciones entre sonidos y las reglas de organización, basándose en las
propiedades de la red. Como veremos, estas teorías también pueden explicar
algunos efectos que podríamos considerar de semántica de la música.
En el apartado que sigue discutimos aquellos fenómenos musicales que nos
hacen defender el paralelismo entre música y lenguaje. Por tanto, al hablar de “la
estructura del lenguaje musical” introducimos efectos que hacen referencia a la com-
binación de sonidos, la sintaxis y el significado de la música.
Una parte de las diferencias entre música y lenguaje surge de los significados
que pueden transferir. El lenguaje se basa en comprender la interacción de sus
niveles fonético, sintáctico y semántico. La especificidad de sus componentes
semánticos hace, por ejemplo, que la comunicación verbal no sea posible si los
oyentes no comprenden el contenido del mensaje. En música, sin embargo, esto
no es necesario ya que transmite significados aunque su nivel semántico no esté
tan bien definido como en el lenguaje (Aiello, 1994). Pero, ¿de dónde derivamos
el significado de la música?
Podemos pensar que, en general, el componente semántico de la música se
encuentra en las emociones y sentimientos que elicita (véase Meyer, 1956). Pre-
cisamente por este motivo, el significado de una música puede llegar a ser tan
personal y variado. Comprenderla implica la combinación de multitud de ele-
mentos que transcurren simultáneamente en una estructura global, por lo que
no existe un único significado a comprender de una composición musical. Esta
carencia de componentes semánticos rígidos es la que permite a los oyentes
extraer, de entre los significados del conjunto de combinaciones, su propia inter-
pretación de la pieza como un todo. Esto confiere a la música una flexibilidad y
riqueza que el lenguaje no tiene.
Aunque hemos mencionado que la música es ambigua en cuanto a la variedad
de significados que una pieza musical puede transmitir, ha habido varios inten-
tos de caracterizar la manera en que la música comunica significado emocional.
Los primeros intentos se centraron en especificar los elementos de la estructura
musical que producen emociones directas. De esta forma, algunos estudios
intentaron caracterizar el vocabulario emocional de la música (Cook, 1959;
Maher, 1980; Sloboda, 1991) o identificar sus estructuras formales que provocan
reacciones emocionales en el oyente (Lerdahl, 1988). Otros se han basado en la
creación de expectativas musicales y la ruptura de las mismas (Bharucha, 1994;
Gaver y Mandler, 1987). Factores formales como las jerarquías tonales y cultura-
les o las variaciones en tempo e intensidad han mostrado su eficacia para produ-
cir reacciones emocionales (Bharucha, 1994; Gaver y Mandler 1987; Repp,
1999). Finalmente, la importancia de variables como la familiaridad o la com-
plejidad en las preferencias musicales de los sujetos también se han estudiado
(Heyduk, 1975; Gaver y Mandler, 1987).
Una lectura cuidadosa de estos intentos de especificar la naturaleza del signifi-
cado en la música, muestra la existencia de dos grandes enfoques. Por una parte,
enfoques como el de Cook (1959) o Lerdahl (1988) proponen que el significado
de una pieza musical surge directamente de su estructura. Por ejemplo, Cook
(1959) considera que la música, como el lenguaje, tiene un vocabulario específico
que se utiliza para transmitir emociones. Los compositores, según este enfoque,
utilizan una serie de elementos musicales que de forma regular y conocida trans-
miten diferentes emociones. Cada nota e intervalo tonal tendría un significado
específico. De forma similar, Lerdahl (1988) ha propuesto que sólo las estructuras
musicales con propiedades formales como las descritas por la teoría de la música
(Zamacois, 1994) pueden detectarse de forma directa por el oyente, y pueden
crear el tipo de tensión y resolución necesarios para provocar reacciones emociona-
74
les en el oyente. La búsqueda de un catálogo de vocabulario musical para transmi-
tir emociones o la búsqueda de reglas organizativas del lenguaje musical que
determinen el significado, hacen pensar que este está en la misma estructura del
lenguaje musical y no tanto en la forma en que lo percibimos y lo representamos.
El valor más importante de este enfoque ha sido el ofrecer un impresionante con-
junto de secuencias musicales que de forma regular se utilizan para producir esta-
dos afectivos. Sin embargo, los intentos de verificar las ideas de Cook de manera
empírica no han tenido mucho éxito (Maher, 1980; Sloboda, 1994).
Por otra parte, teorías como la de Bharucha (1994) o Gaver y Mandler (1987)
se centran en la forma en que esas estructuras se representan en la memoria de los
individuos, por lo que es la representación y no la estructura la que determina el
significado. El modelo conexionista de Bharucha (1994) propone que los objetos
y características del mundo se representan mediante nodos unidos entre sí. La
red, en su totalidad, representaría las complejas relaciones entre los objetos
representados por los nodos. En las redes musicales los nodos representarían los
tonos y los acordes, y las conexiones entre estas unidades reflejarían las relaciones
que se mantienen entre unos y otros en la cultura musical del sujeto. El estado de
activación de una unidad representa el grado en que ese tono o acorde está siendo
atendido o esperado. Cada nodo puede ser activado directamente por un estímu-
lo en el ambiente, un tono o acorde, o indirectamente a través de la red asociativa
de esos nodos. Cuando una unidad es activada de forma indirecta, el tono o acor-
de que representa es el esperado. Hay bastantes argumentos para postular una
red asociativa en la comprensión de la cognición musical (Bharucha, 1994). Por
ejemplo, explicaría los resultados de experimentos que muestran efectos de pri-
ming armónico (la presentación previa de un tono o acorde cercano en la estructu-
ra tonal facilita el procesamiento de otro tono o acorde). También acomoda fácil-
mente las ambigüedades que tanto abundan en la música. Muchas unidades
pueden estar activas simultáneamente en diferente grado, representando los dife-
rentes niveles en los que distintos tonos, acordes o claves son evocados. De forma
similar explican cómo se produce el aprendizaje. Éste ocurriría cambiando las
fuerzas de las conexiones entre las unidades de representación cuando combina-
ciones de tonos son oídas repetidamente (Bharucha, 1987a y 1987b, para una
descripción detallada). Tras el aprendizaje, cuando los tonos do, mi y sol son pre-
sentados, las unidades que representan los acordes que contienen estos tonos se
activan. Estas unidades de acordes activan a su vez a las unidades de los tonos
contenidos en estos acordes. El proceso de activación se disipa y la red alcanza un
estado de equilibrio. Los modelos conexionistas, por tanto, ofrecen otra vía de
acercamiento a la comprensión de cómo algunos aspectos de la música son proce-
sados conforme a las leyes de la armonía. A la vez, aportan evidencia a favor de
los procesos que pueden subyacer a algunos de los aspectos más interesantes en la
conducta implicada en la escucha de la música, la generación de expectativas
armónicas y la adquisición de jerarquías tonales que influirían en la percepción
de la música, dado que determinarían el ajuste y la integración de la información
entrante con tales estructuras. Las regularidades musicales serían, por lo tanto,
representadas internamente de forma que influirían en el procesamiento de esa
información. Un mismo proceso, la expansión de la activación a lo largo de una
red de nodos musicales, podría explicar diferentes fenómenos observados en la
interacción con material musical
Por otra parte, la teoría constructivista de Mandler (Mandler, 1984; Gaver y
Mandler, 1987) utiliza el concepto de esquema para describir la estructura de
representación de la música. Los esquemas tienen como función organizar e
interpretar el mundo. De esta manera, los esquemas musicales organizan nuestro
75
conocimiento musical y nos ayudan a interpretar la música que escuchamos. La
presentación de una pieza musical activará unos determinados esquemas y, por
tanto, producirá unas determinadas expectativas. Según Gaver y Mandler (1987)
cuando la música es congruente con los esquemas disponibles, produciría la
experiencia de familiaridad que conlleva una evaluación emocional positiva.
Cuando una pieza no cubre nuestras expectativas, cuando es incongruente con
nuestros esquemas, las discrepancias resultantes producirán un incremento en el
arousal. El grado de intensidad emocional dependerá del grado de discrepancia
entre las expectativas del oyente y la música que se interpreta. La existencia de
incongruencias hará que el oyente intenté asimilar la nueva información a los
esquemas ya existentes o cambiar los esquemas ya existentes para acomodarlos a la
nueva información. En general, si se consigue la asimilación a los esquemas o la
acomodación a los mismos, el resultado es una evaluación emocional positiva de
la obra. En caso contrario, la respuesta afectiva sería negativa.
Es interesante que los dos grandes enfoques mencionados (estructural y repre-
sentacional) tienen su paralelo en el lenguaje, de manera que posturas como las
de Chomsky sitúan el significado en la estructura misma del lenguaje, mientras
que una teoría como la de Jonhson-Laird (1983) pone el énfasis en la estructura
mental (modelo mental) que representa las relaciones lingüísticas.
Dentro de las posturas que enfatizan la representación también podemos dis-
tinguir, como ocurre con las teorías de procesamiento lingüístico, entre teorías
que se centran en el procesamiento de arriba a abajo o guiado por la representa-
ción conceptual, teorías que se centran en el procesamiento de abajo a arriba o
guiado por los datos y teorías que suponen interacciones entre los dos tipos de
procesamiento. Los modelos de esquemas (Gaver y Mandler, 1987) son modelos
del primer tipo, mientras que el modelo conexionista de Bharucha (1994), aun-
que propone interacciones entre distintos niveles de representación, hace mayor
hincapié en el procesamiento de abajo a arriba. Como ocurre con las teorías de
procesamiento lingüístico, posiblemente una combinación de ambas cubra un
mayor número de fenómenos a explicar. De hecho, la teoría conexionista se ha
centrado en cómo se generan las expectativas musicales, mientras que las teorías
de esquemas intenta explicar cómo la violación de esas expectativas genera las
emociones positivas o negativas que le dan significado a la música.
Por tanto, aunque las teorías conexionistas y las de esquemas proponen dis-
tintas unidades de representación, no son necesariamente incompatibles, ya que
se centran en distintos y conjuntos complementarios de fenómenos. Las teorías
conexionistas ofrecen una forma de representación musical más elaborada, mien-
tras que las teorías de esquemas ofrecen explicaciones más completas de los pro-
cesos por los que se violan las expectativas y por los que se resuelven las discre-
pancias entre la estructura de representación y la estructura de pieza musical. Ya
que ambos tipos de explicación son necesarios, las dos teorías tienen un campo
de aplicación importante.
Uno de los aspectos sobre las melodías que ha sido investigado, es el de su rela-
ción con el recuerdo del texto que las acompaña en el caso de canciones. Serafine,
Crowder y Repp (1984) encontraron que se producía un mejor reconocimiento de
secuencias sonoras cuando el texto que las acompañaba era igual al escuchado pre-
viamente con ellas, frente a oír otro diferente. Además, la letra de las canciones era
mejor identificada cuando se vocalizaba junto a su melodía original. Aunque los
datos encontrados por Serafine y cols. (1984) podrían ser explicados por los aspec-
tos semánticos que el texto podría imponer a la melodía, o por la existencia de un
artefacto (en la condiciones de no igualación de texto-melodía originales podría
producirse una confusión o distracción que redujese el reconocimiento), experi-
mentos posteriores descartaron estas alternativas (Serafine, Davidson, Crowder y
Repp, 1986). Serafine y cols. (1986) defienden la existencia de una representación
en memoria que integra el texto y la propia melodía. El primero, genera efectos
prosódicos en la secuencia sonora, destacando los acentos, las pausas o los decai-
mientos de los tonos que la forman. Igualmente, la melodía podría ejercer su
influencia sobre la letra de la canción resaltando la pronunciación de determina-
das palabras que coincidan con destacados elementos melódicos. Además, los
autores relacionan sus postulados con la hipótesis de Tulving (1983) sobre la
especificidad de la codificación, de manera que la presencia conjunta en la fase de
aprendizaje de texto y melodía facilitaría la recuperación de cualquiera de los dos
elementos cuando el otro fuese utilizado como clave.
Aunque, como ya se ha dicho, algunos autores consideran que música y len-
guaje estarían fuertemente relacionados, uno de los aspectos que los distingue es
el potencial poder mnemónico de la música. Mucha gente encuentra más senci-
llo recordar canciones que recordar prosa, y determinados materiales verbales,
como las tablas de multiplicar, son mejor recordados si se aprenden inmersos en
una melodía. En este sentido, la música puede proporcionar una estructura esta-
ble en la que la información verbal puede quedar fuertemente asociada (Cohen,
1996). Pero la relación entre música e información verbal no sólo se hace eviden-
te a partir del hecho de que elementos de ambos puedan recuperarse de la
memoria conjuntamente. Como veremos en breve, los problemas de recupera-
ción de la información son aún más extensos, sobre todo si caemos en la cuenta
de que la memoria de tipo musical debe estar estrechamente relacionada con
otras de contenido diferente.
Como antes mencionamos, los datos funcionales sobre los mecanismos de alma-
cenamiento a corto plazo muestran que la posible interacción entre música y len-
guaje es compleja y dependiente de distintas características de los estímulos, e
incluso de la experiencia de los sujetos. Esta complejidad también se refleja en los
80
estudios de tipo neuropsicológico que han intentado identificar el substrato bioló-
gico que subyace al reconocimiento de la música. Por una parte, algunos datos
parecen mostrar que las habilidades musicales son funciones autónomas e indepen-
dientes. Por ejemplo, existen casos de pacientes con daños cerebrales que presentan
pérdidas en su capacidad de reconocimiento de piezas musicales y que, sin embar-
go, mantienen intactas sus capacidades lingüísticas (Eustache, Echevalier, Viander
y Lambert 1990; Pèretz, 1996; Shapiro, Grossman y Gradner, 1981). Por ejemplo,
Pèretz , Kolinsky, Tramo, Labreckque y Hubler (1994) y Pèretz (1996) describen
el caso de una paciente que, después de varias operaciones en los lóbulos tempora-
les, no era capaz de reconocer la música de canciones muy conocidas para ella, si
éstas no estaban acompañadas de su letra. Tampoco era capaz de juzgar su familia-
ridad, recordar el nombre de las canciones o memorizar melodías. Sin embargo,
esta paciente no tenía ninguna dificultad de comprensión o comunicación.
De manera similar, los primeros datos con la técnica de escucha dicótica indi-
caban una disociación entre las habilidades lingüísticas y musicales. Estos datos
mostraban una ventaja en el reconocimiento de estímulos lingüísticos cuando
estos se presentaban por el oído derecho (OD) (hemisferio izquierdo), mientras
que el reconocimiento de estímulos musicales era mejor cuando estos se presenta-
ban por el oído izquierdo (OI) (Kimura, 1961; Jonhson,1977; Spellacy, 1970).
Estos datos adscribían el procesamiento lingüístico al hemisferio izquierdo (HI) y
el procesamiento musical al derecho (HD). Sin embargo, mientras que los traba-
jos sobre lateralidad han sido bastantes consistentes para estímulos lingüísticos
(Geffen y Quinn, 1984), cuando los estímulos son musicales no existe tal consis-
tencia y se han descrito casos de ventajas del OD, otros del OI y casos de igualdad
entre ambos oídos (Pèretz, 1989). Esta inconsistencia parece deberse a la influen-
cia de un conjunto de variables que determinan qué hemisferio muestra su predo-
minancia. El grado de experiencia musical parece ser un primer determinante de
la ventaja hemisférica (Bever y Chiarello, 1974). Así, los sujetos sin entrenamien-
to musical suelen presentar una mayor lateralizació n derecha, mientras que los
músicos expertos muestran lateralización izquierda o ausencia de asimetría. Estos
datos se han obtenido con tareas dicóticas, paradigmas de interferencia músico-
manual y con registros de potenciales evocados (Bever, 1998; Fabro, Brusaferro y
Bava 1990; Johnson, 1977; Rainbow y Herrick, 1982). Estas diferencias entre
músicos y no músicos parecen estar relacionadas con la orientación más analítica
que los expertos toman ante estímulos músicales. Bever y Chiarello (1974) mos-
traron una ventaja del OD en tareas que requerían un procesamiento analítico (el
reconocimiento de melodías que variaban en un solo tono). Esta superioridad del
OD sólo aparecía en músicos expertos. Los sujetos sin entrenamiento tenían difi-
cultades para discriminar entre estas melodías y, en contraste, mostraban una ven-
taja del OI. Otros estudios también han mostrado esta asimetría entre OI y OD
cuando la tarea que tienen que realizar los sujetos es analítica (discriminar tonos
dentro de melodías) u holística (estimar el número de notas en un acorde, recono-
cer melodias familiares o el contorno de secuencias musicales nuevas) (Gaede y
cols., 1978; Gates y Bradshaw, 1977; Mackinnonn y Schellenberg, 1997). Por
otra parte, la ventaja del OI sobre el OD también depende del componente musi-
cal al que la tarea haga referencia. Si la tarea requiere del individuo el reconoci-
miento del patrón rítmico se produce una superioridad del OD, especialmente
cuando el patrón rítmico es complejo (Bendov y Carmon, 1984; Pèretz y Morais,
1988). Sin embargo, cuando la tarea implica reconocimiento del patrón melódi-
co, los datos muestran superioridad del OI, aunque como mencionamos sólo con
sujetos no entrenados (Pèretz y Morais, 1988). Si bien no de forma tan clara, los
datos de pacientes con daños cerebrales unilaterales también muestran diferencias
81
en los síntomas que produce la lesión. Por ejemplo, en un estudio de Shapiro,
Grossman y Gardner (1981) 28 pacientes tenían que juzgar si un conjunto de
melodías conocidas contenían errores en la secuencia de tonos, en el ritmo o en las
frases. Los pacientes con lesiones en la parte anterior del hemisferio derecho tenían
dificultades en detectar cambios en la melodía y en el ritmo, mientras que los
pacientes con lesiones posteriores izquierdas mostraban un déficit en la detección
del ritmo. Aunque la mayor parte de los casos de agnosia musical descritos son de
pacientes sin ninguna especialización en música, si extrapolamos los resultados de
los experimentos de escucha dicótica podríamos suponer que daños en el hemisfe-
rio izquierdo también podrían producir déficits en el reconocimiento de melodías
en pacientes con experiencia musical. De hecho, datos de Bonvici (1905, descritos
por Pèretz, 1996) y de Lamy (1907) mostraban que músicos expertos no podían
reconocer melodías conocidas tras una lesión en el hemisferio izquierdo. Por lo
tanto, podría interpretarse que la práctica de la música produce un cambio en la
forma en que se procesan los estímulos musicales y que este cambio se traduce en
una mayor especialización del hemisferio izquierdo (Bever, 1998). Como mencio-
namos anteriormente, tanto los datos funcionales como los neuropsicológicos
muestran la necesidad de considerar distintas dimensiones de los estímulos verba-
les y musicales, así como la experiencia de los sujetos en el procesamiento musical.
5. CONCLUSIONES
Cuando uno se aproxima por primera vez al estudio de la música desde una
perspectiva cognitiva, sorprende la diversidad de fenómenos y teorías explicati-
vas de los mismos; la falta de cohesión entre ellas y la dificultad a la hora de orga-
nizarlas. Sin embargo, si, como es habitual en el campo de la psicolingüística,
distinguimos entre distintas unidades y niveles de representación, estos fenóme-
nos y teorías comienzan a adquirir sentido. En primer lugar, de la misma manera
que para entender la comprensión del lenguaje necesitamos identificar un nivel
fonológico, las reglas por las que se combinan los sonidos que componen el len-
guaje, para entender la percepción y comprensión de una pieza musical es nece-
sario delimitar las reglas de combinación de sonidos que determinan la manera
en que percibimos y recordamos una melodía. Como ocurre con el lenguaje,
parece que las características acústicas de los sonidos aislados no son las que
determinan la percepción y recuerdo de una pieza musical. El contexto global de
un segmento musical específico influye incluso en cómo se perciben los sonidos
aislados. Este contexto global en la música parece definirse por el contorno y la
tonalidad de la pieza musical (Gómez-Ariza y cols., 2000). Estos dos factores
parecen determinar la relación entre sonidos y su progresión a lo largo de la
melodía. En segundo lugar, podemos definir un nivel de representación sintácti-
co del sistema de reglas que organiza el conjunto de notas y acordes que compo-
ne un fragmento musical. El patrón rítmico en combinación con la estructura
tonal parecen jugar un papel importante en el agrupamiento y segregación de
segmentos musicales (Gómez-Ariza y cols., 2000). Al igual que en el lenguaje,
se han propuesto una serie de gramáticas musicales. Teorías como la de Deutsch
y Feroe (1981) o la de Lerdahl y Jackendoff (1983) constituyen intentos impor-
tantes de sistematizar las reglas de composición de la música enfatizando su
estructura jerárquica. Finalmente, la creación de expectativas que surgen de la
tonalidad y su combinación con otros factores expresivos como apoyaturas,
tempo, matices, etc., parecen determinar el significado emocional de la música y
la representación semántica de la misma. La teoría conexionista de Bharucha
82
(1994) y la de esquemas de Mandler (1984), intentan explicar cómo se generan
estas expectativas musicales y cómo su ruptura hace que se transmitan distintos
estados emocionales.
Aunque las teorías fueron propuestas como explicaciones alternativas, no
necesariamente lo son ya que en muchos casos se centran en distintos niveles de
representación y, dentro de cada uno de ellos, pueden servir de marco para inte-
grar fenómenos diferentes y predecir otros nuevos. Por otro lado, es interesante
subrayar que algunos de los argumentos y discusiones que existen en las teorías
lingüísticas también están presentes en las teorías musicales. Por ejemplo, teo-
rías unitarias como la de Bharucha (1994) que proponen distintos niveles de
representación, suponen que esos niveles interactúan activándose unos a otros
para crear una única representación de la pieza musical. Por el contrario, segui-
dores de la teoría estructural de Lerdahl y Jackendoff (1983) proponen que cier-
tos mecanismos de abstracción de características musicales se pueden atribuir a
las operaciones de un mecanismo periférico modular que está presente desde
edades muy tempranas y que constituiría uno de los primeros pasos en los pro-
cesos de comprensión musical (Melen y Deliège, 1997). Por otra parte, las teo-
rías también difieren en la importancia que atribuyen a las características super-
ficiales de la música en el reconocimiento de la misma. Aunque algunos datos
parecen dar importancia a características locales de la música como el tamaño
de los intervalos o la duración de las notas (Tighe y Dowling, 1993), las teorías
basadas en las expectativas parecen dar mayor énfasis a los procesos de abstrac-
ción que subyacen a características más globales como el contorno melódico o el
patrón de acentos rítmicos y melódicos (Bigand, 1997; Jones y Boltz, 1989).
Finalmente, distintas teorías proponen distintas unidades de representación y
procesamiento. Aunque teorías como la de Mandler o Bharucha intentan expli-
car cómo atribuimos significado a una pieza musical, ambas difieren en el tipo
de procesos que proponen. De esta manera, el procesamiento, según Mandler,
está guiado por una serie de esquemas almacenados en memoria que recogen la
estructura musical de nuestra cultura y que generan expectativas en el momen-
to de la escucha, mientras que las teorías conexionistas dan mayor importancia
a la activación de distintas unidades en la red a medida que escuchamos un
input musical, por lo que sería este input el que determinaría la activación en
memoria de distintas unidades y, por lo tanto, su representación final en la
memoria.
La similitud entre música y lenguaje no sólo se aprecia en los distintos niveles
de representación y en las discusiones y argumentos teóricos, sino también en el
conjunto de fenómenos que se observan. Como en el lenguaje, los sonidos que
componen la música no se pueden comprender de forma aislada. El segmento
musical en que aparecen parece determinar su recuerdo e incluso su percepción
Fenómenos similares a los efectos de superioridad de la palabra o al de restaura-
ción del fonema aparecen en el reconocimiento de melodías. La importancia del
contorno o de la tonalidad también nos muestra que, como en el lenguaje, exis-
ten procesos de abstracción que median la percepción y el recuerdo de la música.
De esta manera, no se recuerda el patrón melódico exacto de la pieza musical que
escuchamos, las notas exactas ni el tamaño exacto de los intervalos que la compo-
nen; ninguno de estos aspectos parece ser determinante absoluto del recuerdo de
la misma sino estructuras de más alto nivel como el contorno o la tonalidad. Por
otra parte, características estructurales del lenguaje aparecen también en la
música: la importancia de la frase como unidad de procesamiento, los fenómenos
de agrupamiento y segmentación parecen ser similares en los procesos de com-
prensión y reconocimiento de música y lenguaje.
83
Finalmente, aunque algunos datos de tipo neurofisiológico parecen indicar
que son distintos los mecanismos neurales de procesamiento musical y lingüísti-
co, y que ambos se pueden deteriorar de forma independiente (Pèretz, 1996),
esta independencia no se muestra de forma tan clara si se considera el grado de
experiencia de los sujetos o distintas características de los estímulos musicales.
Los datos de tipo funcional, por su parte, muestran que cuando se presentan jun-
tos, música y lenguaje se integran y almacenan de forma conjunta. Incluso el
mecanismo de almacenamiento a corto plazo puede ser común para el material
lingüístico y musical. Hemos visto cómo las características de tonos aislados
pueden ser retenidas en la memoria a corto plazo mediante algún tipo de repaso,
y cómo se produce interferencia en este procesamiento cuando información cua-
litativamente semejante (otros tonos y material verbal presentado auditivamen-
te) es atendida. Igualmente, parece que hay algunos aspectos compartidos entre
música y habla que podrían hacer que el procesamiento de material verbal, que
se llevaría a cabo en un sistema especializado (el lazo fonológico en el modelo de
Baddeley, 1986), se vea interferido por la presentación de música instrumental y
aún en mayor medida por la vocal.
Aunque a lo largo del artículo hemos tratado una gran diversidad de cuestio-
nes, nuestro objetivo no ha sido revisar todos los enfoques y fenómenos de la cog-
nición musical, sino centrarnos en los procesos por los que la música se compren-
de e interpreta poniendo énfasis en aquellos aspectos en que música y lenguaje
ofrecen similitudes o diferencias. Por supuesto, la cognición musical comprende
muchos más elementos que los expuestos aquí; los temas más estrechamente
relacionados con percepción y psicoacústica, así como los aspectos relacionados
con el entrenamiento y la ejecución en instrumentos musicales no han sido con-
siderados aquí. Aunque otros autores han señalado el paralelismo existente entre
música y lenguaje (Aiello, 1994; Lerdahl, 1988), pocos lo han utilizado como
estructura organizativa de los distintos enfoques teóricos y datos empíricos. Cre-
emos que la principal aportación del presente artículo es ofrecer un esquema que
organice la investigación existente y dirija la futura.
Notas
1
Este trabajo se ha realizado como parte del proyecto de la DGICYT PB95-1180 concedido a la segun-
da autora.
2
La nota tónica es la primera de una escala y le da nombre a la misma. Por ejemplo, en la escala de Do
Mayor, la nota tónica es do. La dominante es la quinta nota de la escala. En la escala de do estaría constitui-
da por la nota sol. Estas dos notas son las que más se repiten en una pieza de una determinada tonalidad.
3
La escala diatónica está compuesta de siete notas o grados ordenadas de forma ascendente o descenden-
te. Por ejemplo, la escala de do Mayor está compuesta de la secuencia de notas do-re-mi-fa-sol-la-si .
Todas las escalas mantienen una distribución equivalente de tonos y semitonos dependiendo de que
sean de modo mayor o menor. De esta manera, todas las escalas mayores tienen una distancia de dos
semitonos entre notas sucesivas, excepto entre las notas que ocupan el tercer y cuarto grado en la escala
(mi-fa) y las que ocupan el séptimo y octavo (si-do). Éstas últimas están separadas por un semitono. Las
escalas cromáticas, por su parte, están compuestas de 12 notas o grados separadas todas por una distan-
cia de un semitono (do, do, re, re.....).
Referencias
AIELLO, R. (1994). Music and language: Parallels and contrasts. En R. Aiello y J. A. Sloboda (Eds.),
Musical perceptions (pp.40-63). Nueva York: Oxford University Press.
AIELLO, R. y BEVER, T. G. (1985). Harmonic structure ace to determinant of melodic organization.
Memory and Cognition, 9, 533-539.
84
BADDELEY, A. D. (1986). Working memory. Oxford: Oxford University Press.
BEVER, T. G. (1998). Cerebral asymmetries and cognitive dynamics. Conferencia presentada en el X
Congress of European Society for Cognitive Psychology. Jerusalén.
BEVER, T. G. y CHIARELLO, R. (1974). Cerebral dominance in musicians. Science, 185, 537-539.
BEN-DOV, G. y CARMON, A. (1984). Rhythm length and hemispheric asymmetry. Brain and cognition, 3,
35-41.
BHARUCHA, J. J. (1987a). MUSACT: A connectionist model of musical harmony. En Proceedings of the
Cognitive Psychology Society. Hillsdale, NJ: Lawrence Erlbaum Associates.
BHARUCHA, J. J. (1987b). Music cognition and perceptual facilitation: A connectionist framework.
Music Perception, 5, 1-30.
BHARUCHA, J. J. (1994). Tonality and expectation. En R Aiello y J. Sloboda (Eds.), Musical perceptions.
Nueva York: Oxford University Press.
BHARUCHA, J. J. y STOECKIG, K. (1987). Priming of chords: Spreading activation or overlapping fre-
quency spectra? Perception & Psychophysics, 41, 519-524.
BOLTZ, M. (1998). The processing of temporal and Nontemporal information in the remembered of
event duration and musical structure. Journal of Experimental Psychology: Human Perception and Perfor-
mance, 24, 1087-1104.
BREGMAN, A. S. (1990). Auditory scene analysis: The perceptual organization of sound. Cambridge: MIT
Press.
CHIAPPE, P. y SCHMUCKER, M. A. (1997). Phrasing influences the recognition of melodies. Psychonomic
Bulletin and Review, 4, 254-259.
CHOMSKY, N. (1957). Syntactic structures. La Haya: Mouton.
COHEN, G. (1996). Memory in the real world. Hove: Psychology Press.
COOKE, D. (1959). The language of music. Oxford: Oxford University Press.
CUTTING, J. E. y ROSNER, B. S. (1974). Categories and Boundaries in speech and music. Perception and
Psychophysics, 16, 564-570.
DELIÈGE, I. (1987). Grouping conditions in listening to music: an approach to Lerdahl & Jackendoff’s
grouping preference rules. Music Perception, 4, 325-360
DEUTSCH, D. (1982). The processing of pitch combinations. En D. Deutsch (Ed.), The psychology of music
(pp. 271-316). Nueva York: Academic Press.
DEUTSCH, D. y FEROE, J. (1981). The internal representation of pitch sequences in tonal music. Psycholo-
gical Review, 86, 503-522.
DEWAR, K. M., CUDDY, L. L. y MEWHORT, D. J. K. (1977). Recognition memory for sails rhymes with
and without context. Journal Experimental of Psychology: Human Learning and Memory, 3, 60-67.
DE WITT, L. y SAMUEL, A. (1990). The role of knowledge-bas ed expectations in music perception: Evi-
dence from musical restoration. Journal Experimental of Psychology: General, 119 (2), 123-144.
DOWLING, W. J., KWAK, S., y ANDREWS, M. W. (1995). The cheats course of recognition of beginner
melodies. Perception and Psychophysics, 57, 136-149.
EILERS, R. E., GAVIN, W. y WILSON, W. R. (1979). Linguistic experience and phonemic perception in
infancy: A crosslinguistic study. Child Development, 50, 14-18.
EIMAS, P. D. (1974). Auditory and linguistic processing of cues for place of articulation by infants. Per-
ception and Psychophysics, 16, 513-521.
EUSTACHE, E., ECHEVALIER, B. VIADER, F. y LAMBERT, J. (1990). Identification and discrimination
disorder in auditory perception: A report on two cases. Neuropsychologia, 28, 257-270.
FABRO, F., BRUSAFERRO, A. y BAVA, A. (1990). Opposite musical-manual interference in young vs.
expert musicians. Neuropsychologia, 28, 871-877
GAEDE, S., PARSON, L. y BERTERA, J. (1978). Hemispheric differences in music perception: Aptitude
versus experience. Neuropsychologia, 16, 369-373.
GATES, A. y BRADSHAW, J. (1977). Music perception and cerebral asymmetries. Cortex, 14, 58-70.
GAVER, W. y MANDLER, G. (1987). Play it again, Sam: On liking of music. Cognition & Emotion, 1 (3),
259-282.
GEFFEN, G. y QUINN, K. (1984). Hemispheric specialization and hear advantage in processing speech.
Psychological Bulletin, 96, 273-291.
GÓMEZ-ARIZA, C. J., BAJO, M. T., PUERTA-MELGUIZO, M. C. y MACIZO, P. (2000). Determinantes de la
representación musical. Cognitiva, 12 (1), 89-110.
HALPERN, A. R. (1988a). Mental scanning in auditory imagery for songs. Journal Experimental of Psycho-
logy: Learning, Memory and Cognition, 14, 434-443.
HALPERN, A. R. (1988b). Perceived and imagined tempos of family songs. Music Perception, 6, 193-202.
HALPERN, A. R., KWAK, S. Y., BARTLETT, J. C. y DOWLING, W. J. (1996). Effects of aging musical and
experience on the representation tonal of hierarchies. Psychology and Aging, 11, 235-246.
HEYDUK, R. G. (1975). Rated preference for musical composition is related to complexity and exposure
frequency. Perception and Psychophysics, 17, 84-90.
HUBBARD, T. L., y STOECKIG, K. (1992). The representation of pitch in musical images. En D. Reisberg
(Ed.), Auditory imagery (pp.199-235) . Hillsdale, NJ: Erlbaum.
IDSON, W. L. y MASARO, D. W. (1978). To two-dimensional model of pitch in the recognition of melo-
dies. Perception & Psychophysics, 24, 551-565.
JACKENDOFF, R. (1987). Levels of Musical Structure. En R. Jackendoff (Ed.), Consciousness and the Compu-
tational mind. Cambridge. MA: MIT Press.
85
JOHNSON, R. (1977). Dichotically-stimula ted ear differences in musicians and non-musicians. Cortex,
13, 295-299.
JOHNSON-LAIRD, P. (1983). Mental models. Cambridge: University Press.
KELLER, T. A., COWAN, N. y SAULTS, J. S. (1995). Can auditory memory for tone pitch be rehearsed?.
Journal Experimental of Psychology: Learning, Memory and Cognition, 21, 635 -645.
KIMURA, D. (1961). Cerebral dominance and the perception of verbal stimuli. Canadian Journal of Psy-
chology, 16, 111-116.
KLEIN, M., COLES, M. G. H. y DONCHIN, E. (1984). People with absolute pitch process rhymes without
producing at P300. Science, 223, 1306-1309.
KRUMHANSL, C. L. (1991). Music psychology: Tonal structures in perception and memory. Annual
Review of Psychology, 42, 277-303.
KRUMHANSL, C. L. y KESSLER, E. J. (1982). Tracing of dynamic changes in perceived tonal organization
in to spatial representation of musical keys. Psychological Review, 89, 334-368.
LAMY, M. (1907). Amnésie musicale chez un aphasique sensoriel. Revue Neuropsychologie, 15, 688-893.
LARGE, E. W., PALMER, C. y POLLACK, J. B. (1995). Reduced Memory Representations. Cognitive Science,
19, 53-96.
LERDAHL, F. (1988). Tonal pitch space. Music Perception, 5, 315-350.
LERDAHL, F. y JACKENDOFF, R. (1983). A generative theory of tonal music. Cambridge, MA: MIT Press.
LOCKE, S. y KELLAR, L. (1973). Categorical perception in to non-linguist ic mode. Cortex, 9, 355-369.
LOGIE, R. H. y EDWORTHY, J. (1986). Shared mechanisms in the processing of verbal and musical mate-
rial. En G. Russell, D. Marks y J. Richardson (Eds.), Imagery 2 (pp. 33-37). Dunedin, Nueva Zelan-
da: Human Performance Associates.
MAHER, T. F. (1980). To rigorous test of the proposition that musical intervals have different psycholo-
gical effects, American Journal of Psychology, 93, 309-327.
MANDLER, G. (1984). Mind and body: Psychology of emotion and stress. Nueva York: Norton.
MASSARO, D. W., KALLMAN, H. J. y KELLY, J. L. (1980). The role of tone height, melodic contour, and
tone chroma in melody recognition. Journal Experimental of Psychology: Human Learning and Memory,
6, 77-90.
MCKINNON, M. C. y SCHELLENBER, E. G. (1997). A left-ear advantage for forced-choice judgements of
melodic contour. Canadian Journal of Experimental Psychology, 51, 171-175
MEYER, L. B. (1956). Emotion and meaning in music. Chicago: University of Chicago Press.
MEYER, L. B. (1973). Explaining music: Essays and explorations. Chicago: University of Chicago Press.
MEYER, M. (1904). On the attributes of the sensations. Psychological Review, 11, 83-103.
MIYAZAKY, K. (1988). Musical pitch identification by absolute pitch possessors. Perception & Psychophy-
sics, 44, 501-512.
OHDE, R. N. y SHARF, D. J. (1988). Perceptual categorization and consistency of synthesized /r-w/ con-
tinua by adults, normal children and /r/-misarticulation children. Journal of Speech and Hearing Rese-
arch, 31, 556-568.
OSTEHOUT, L. y HOLCOMB, P. J. (1993). Event-related potentials elicited by syntactic anomaly. Journal
of Memory and Language, 31, 785-806.
PALMER, C. (1997). Music performance. Annual Review of Psychology, 48, 115-138
PATEL, A. D., GIBSON, E., RATNER, J., BESSON, M., HOLCOMB, P. J. (1998). Processing syntactic rela-
tions in language and music: An Event Related Potential Study. Journal of Cognitive Neuroscience, 10,
717-733.
PECHMANN, T. y MOHR, G. (1992). Interference in memory for tonal pitch: Implications for to wor-
king-memory model. Memory & Cognition, 20, 314-320.
PÈRETZ, I. (1989). Clustering in music: An appraisal of tasks factors. International Journal of Psychology,
24, 157-178.
PÈRETZ, I. (1996). Do we loose memory for music - music agnosia in a nonmusician. Journal of Cognitive
Neuroscience, 8, 481-496.
PÈRETZ, I. y MORAIS, J. (1988). Determinants of laterality for music: Towards and information proces-
sing account. En K. Hugdahl (Ed.), Handbook of dichotic listening: Theory, methods and research. Chiches-
ter: Wiley & Sons.
PÈRETZ, I., KOLINSKY, R., TRAMO, M., LABRECQUE, R., HUBLET, C., DEMEURISSE, G. y BELLEVILLE, S.
(1994). Functional dissotiations following bilateral lesions of the auditory cortex. Brain, 117, 1283-
1302.
RAINBOW , E. y HERRICK, C. (1982). An investigation of hemispheric specialization for the pitch and
rhythmic. Psychology of Music, 10, 96-100.
REPP, B. (1984). Categorical perception,: issues, methods, findings. En N. J. Lass (Ed.), Speech and Lan-
guage: Advances in Basic Research and Practice. Vol. 10, Nueva York: Academic Press.
REPP, B. (1999). Detecting deviations from metronomic timing in music: effects of perceptual structure
on the mental time keeper. Perception & Psychophysics, 61, 529-548
RÈVÉSZ, G. (1954). A introduction to the psychology of music. Norman: Oklahoma University Press.
SALOMÉ, P. y BADDELEY, A. D. (1989). Effects of background music on phonological short-term
memory. Quarterly Journal Experimental of Psychology, 41A, 107-122.
SEBASTIÁN-GALLÉS, N. y BOSCH , L. (1999). Estudios sobre los espacios vocálicos en bilingües catalán-
español. Las fronteras entre categorí as. Ponencia presentada en el IV Simposio de Psicolingüística.
Madrid.
86
SPELLACY, F. (1970). Lateral preference in the identification of patterned stimuli. Journal of the acoustical
Society of America, 47, 574-578.
SERAFINE, M. L., CROWDER, R. y REPP, B. (1984). Integration of melody and text in memory for songs.
Cognition, 16, 285-303.
SERAFINE, M. L., DAVIDSON, J., CROWDER, R. y REPP, B. (1986). On the nature of melody-text integra-
tion in memory for songs. Journal of Memory and Language, 25, 123-135.
SCHENKER, H. (1979). Free composition. Nueva York: Longman. (Original publicado en 1935)
SCHEPARD, R. N. (1982). Structural representation s of musical pitch. En D. Deutsch (Ed.), The psycho-
logy of music (pp. 343-390). Nueva York: Academic Press.
SHAPIRO, B., GROSSMAN , M. y GARDNER, H. (1981). Selective musical processing deficits in brain
damaged populations. Neuropsychologia, 19, 161-169.
SIEGEL, J. A. (1974). Sensory and verbal coding strategies in subjects with absolute pitch. Journal Experi-
mental of Psychology, 103, 37-44.
SLOBODA, J. A. (1985). The musical mind: The cognitive psychology of music. Londres: Oxford University
Press.
SLOBODA, J. A. (1990). Musical excellence: How does it develop? En M. J. A. Howe (Ed.), Encouraging
the Development of Exceptional Skills and Talents. Leicester: British Psychological Society.
SLOBODA, J. A. (1991). Music structure and emotional response: Some empirical findings. Psychology of
Music, 19, 110-120.
SLOBODA, J. A. (1994). Music performance: expression and the development of excellence. En R. Aiello
y J. A. Sloboda (Eds.), Musical Perception. New York: Oxford University Press.
STEVENS, S. S. y VOLKMANN, J. (1940). The relation of pitch to frequency: Revised scale. American Jour-
nal of Psychology, 53, 329-353.
STREETER, L. A. (1976). Language perception of 2-months-old infants shows effects of both innate
mechanisms and experience. Nature, 259, 39-41.
TAYLOR, J. A., WALLS, K. C. y BARRY, N. H. (1995). The effect of melodic contexts on the perception
of scale degrees. Psychomusicology, 14, 35-52.
TULVING, E. (1983). Elements of Episodic Memory. Oxford: Oxford University Press.
WAPNICK, J., BOURASSA, G. y SAMPSON, J. ( 1982). The perception of tonal intervals in isolation and in
melodic context. Psychomusicology, 2, 21-36.
ZACKAY, D., ROZINER, I. y BEN-ARZI, S. (1984). On the nature of absolute pitch. File für Psychologie,
136, 163-166.
ZAMACOIS, J. (1994). Teoría de la música. Madrid: Labor.
Extended Summary
An important problem in the study of musical cognition lies in the amount
and diversity of theories, the lack of coherence among them, the diversity of
effects and the difficulty when organizing them. The models that try to explain
the way in which music is represented in the human mind vary in the range of
phenomena that they explain and in the units of representation that they postu-
late. The aim of this paper is to offer a coherent organizational structure where
to integrate phenomena and theory. First, we introduce the different types of
theories proposed to explain the way in which the music is represented in
memory. If we compare music and language it is possible to identify different
representational units (phonological, syntactic and semantics) that makes possi-
ble to classify them. Some theories (Krumhansl, 1991; Shepard, 1982) try to
understand the way in which the musical sounds are combined to determine the
way in which we perceived a melody (phonological theories). A second group of
theories (Deutsch and Feroe, 1981; Lerdahl and Jackendoff, 1983) try to iden-
tify the system of rules that segment and organize the notes and chords compo-
sing a musical fragment (syntactic theories). Finally, a third group of theories
(Bharucha, 1994; Mandler, 1984) have tried to specified how musical expectan-
cies are created and how the rupture of these expectancies create the tension and
emotional stated that define the semantic of the music. This classification is
based on the unit for representation used by the theory and on the range of
empirical data that they try to explain.
87
It is also possible to compare music and language when considering some of
the characteristics of musical knowledge. Thus, the second section revised some
of the phenomena that show this similarity. We discuss the influence of the con-
text in the perception of isolated tones, the presence of categorical effects of
musical sounds, the importance of phrase structures and compositions rules, the
attempts to create a musical grammar, specify a simple musical vocabulary and
the finding of local and global priming effects. In the third section, we review
data that address the possibility that music and language are processed and sto-
red by common mechanisms. We discuss the manner in which music is integra-
ted with text in the retention of melodies and the possible existence of a com-
mon short term memory mechanism for the retention of tones and phonological
information. In addition, we introduced some neuropsychological data addres-
sing this issue. Although, some of these data (Pèretz, 1996) seem to indicate
that music and language are processed by different neural mechanisms, the
independence of the two system is not that clear if the degree of musical experti-
se is considered. In addition, the findings of music/ speech interference effects
seem to indicate that some of the components of working memory are shared by
music and speech processes. In general, we argue that many musical phenomena
have important correspondences with equivalent linguistic phenomena. The
awareness of this parallelism offers a clear organizational structure that may help
to put some order in field of musical cognition.