Sie sind auf Seite 1von 9

El Cerebro Vacío

Tu cerebro no procesa información, recupera conocimiento o guarda


memorias: tu cerebro no es un computador
Por Robert Epstein

No importa que tan duro lo intenten, los científicos que estudian el cerebro y los psicólogos
cognitivos nunca encontrarán una copia de la 5ta Sinfonía de Beethoven en el cerebro – o copias de
palabras, imágenes, reglas gramaticales o cualquier otro tipo de estímulo ambiental. El cerebro
humano no está realmente vacío, por supuesto. Pero no contiene la mayoría de las cosas que la
gente piensa – ni siquiera cosas simples como “memorias”.

Nuestro burdo pensamiento sobre el cerebro tiene raíces históricas profundas, pero la invención de
los computadores en los años 40 nos dejó especialmente confusos. Por más de medio siglo hasta
ahora, psicólogos, lingüistas, neurocientistas y otros expertos sobre el comportamiento humano han
estado aseverando que el cerebro humano funciona como un computador.

Para ver cuán vacua es esta idea, consideremos los cerebros de los bebes. Gracias a la evolución, los
neonatos humanos, como los recién nacidos de todas las demás especies de mamíferos, entran al
mundo preparados para interactuar con él efectivamente. La visión de un bebé es borrosa, pero
presta especial atención a los rostros, y es capaz de identificar rápidamente a su madre. Prefiere el
sonido de voces a sonidos no relacionados al habla, y puede distinguir entre una forma básica de
habla de otra. Estamos, sin duda, construidos para realizar relaciones sociales.

Un recién nacido saludable está equipado también con más de una docena de reflejos – reacciones
pre-fabricadas a ciertos estímulos que son importantes para su supervivencia. Voltea su cabeza en la
dirección de algo que froté su mejilla y luego succiona lo que sea que entre en su boca. Mantiene la
respiración cuando es sumergido en el agua. Agarra cosas dejadas en sus manos con tanta fuerza
que casi puede soportar su propio peso. Quizás lo más importante, es que los recién nacidos vienen
equipados con poderosos mecanismos de aprendizajes que les permiten cambiar rápidamente para
que puedan interactuar de forma cada vez más eficaz con su mundo, incluso si ese mundo es
distinto del que sus ancestros lejanos encontraron.

Sentidos, reflejos y mecanismos de aprendizaje –esto es con lo que empezamos, y es bastante,


cuando piensas al respecto. Si careciéramos de cualquiera de estas capacidades al nacer,
probablemente tendríamos problemas para sobrevivir.

Pero aquí está aquello con lo que no nacemos: información, datos, reglas, software, conocimiento,
léxicos, representaciones, algoritmos, programas, modelos, memorias, imágenes, procesadores,
subrutinas, codificadores, decodificadores, símbolos o buffers. – elementos de diseño que permiten
a los computadores digitales comportarse como algo inteligente. No solo no nacemos con esas
cosas, tampoco las desarrollamos – jamás.

Nosotros no almacenamos palabras o las reglas que nos dicen como manipularlas. Nosotros no
creamos representaciones de estímulos visuales, los almacenamos en un buffer de memoria a corto
plazo, y luego transferimos la representación a un dispositivo de memoria de largo plazo. No
recuperamos información o imágenes o palabras de registros de memoria. Los computadores hacen
todas estas cosas, pero los organismos no.

Los computadores, de forma bastante literal, procesan información – números, letras, palabras,
formulas, imágenes. La información primero tiene que ser codificada en un formato que los
computadores puedan usar, lo que significa patrones de unos y ceros (‘bits’) organizados en
pequeñas cantidades (‘bytes’). En mi computador, cada byte contiene 8 bits, y un cierto patrón de
esos bits representan la letra d, otro la letra o, y otro la letra g. Lado a lado, esos tres bytes forman la
palabra dog (perro). Una sola imagen – digamos, la fotografía de mi gato Henry en mi escritorio –
está representada por un patrón muy especifico de un millón de estos bytes (‘un megabyte’),
rodeado de algunos caracteres especiales que le dicen al computador que figure una imagen, no una
palabra.

Los computadores, literalmente, mueven estos patrones de lugar en lugar en diferentes áreas de
almacenamiento físico fijados en componentes electrónicos. A veces también copian esos patrones,
y a veces los transforman de varias formas – digamos, como cuando estamos corrigiendo errores en
un manuscrito o cuando estamos retocando una fotografía. Las reglas que siguen los computadores
para mover, copiar y operar en estas formaciones de datos también son almacenadas dentro del
computador. Juntas, un grupo de reglas es llamado ‘programa’ o ‘algoritmo’. Un grupo de
algoritmos que trabajan juntos para ayudarnos a hacer algo (como comprar acciones o encontrar una
cita online) es llamado ‘aplicación’ – lo que la mayoría de la gente ahora llama una ‘app’.

Perdónenme por esta introducción a la computación, pero necesito dejar claro: los computadores
realmente operan con representaciones simbólicas del mundo. Realmente almacenan y recobran.
Realmente procesan. Realmente tienen memorias físicas. Realmente están guiados en todo lo que
hacen, sin excepción, por algoritmos.

Los humanos, por otro lado, no lo están – nunca lo han estado, nunca lo estarán. Dada esta realidad,
¿por qué tantos científicos hablan sobre nuestra vida mental como si fuésemos computadores?

En su libro, In Our Own Image (2015), el experto en inteligencia artificial George Zarkadakis
describe seis metáforas diferentes que la gente ha usado durante los últimos 2.000 años para tratar
de explicar la inteligencia humana.

En la más antigua, preservada eventualmente en la Biblia, los humanos fueron formados del barro o
el polvo, que un dios inteligente infundio con su espíritu. Ese espíritu ‘explicaba’ nuestra
inteligencia – gramaticalmente, al menos.

La invención de la ingeniería hidráulica en el siglo tercero antes de Cristo llevó a la popularidad del
modelo hidráulico de la inteligencia humana, la idea de que el movimiento de diferentes fluidos en
el cuerpo – los ‘humores’- daban cuenta de nuestro funcionamiento físico y mental. La metáfora
hidráulica persistió por más de 1.600 años, perjudicando la práctica médica todo el tiempo.

Por los 1.500s, autómatas motorizados por cuerdas y engranajes fueron diseñados, inspirando
eventualmente a líderes intelectuales como René Descartes a aseverar que los humanos son
maquinas complejas. En los 1.600s, el filósofo británico Thomas Hobbes sugirió que el
pensamiento surgió de pequeños movimientos en el cerebro. Por los 1.700s, descubrimientos sobre
la electricidad y la química llevaron a nuevas teorías de la inteligencia humana –de nuevo, muy
metafóricas en naturaleza. A mediados de los 1.800s, inspirado por los recientes avances en las
comunicaciones, el físico alemán Herman von Helmholtz comparó el cerebro con un telégrafo.

Cada metáfora reflejó los pensamientos más avanzados de la era que los generó. Predeciblemente,
solo pocos años después del nacimiento de la tecnología computacional en los años 40, se dijo que
el cerebro operaba como un computador, con el rol del hardware físico interpretado por el cerebro
mismo y nuestros pensamientos sirviendo como el software. El evento destacado que impulsó lo
que hoy es generalmente llamada ‘ciencia cognitiva’ fue la publicación de Lenguaje y
Comunicación (1951) por el psicólogo George Miller. Miller propuso que el mundo mental podría
ser estudiado rigurosamente usando conceptos de la teoría de la información, la computación y la
lingüística.

Este tipo de pensamiento fue llevado hasta su última expresión en el pequeño libro llamado El
Computador y el Cerebro (1958), en el que el matemático John von Neumann declaró
rotundamente que la función del sistema nervioso humano es “prima facie digital”. Aunque
reconoció que poco se sabía sobre el rol que jugaba el cerebro en el razonamiento humano y la
memoria, dibujo paralelismos entre los componentes de las maquinas computacionales del día y los
componentes del cerebro humano.

Propulsado por los avances subsecuentes tanto en la tecnología computacional como en la


investigación sobre el cerebro, se desarrolló gradualmente un ambicioso esfuerzo multidisciplinario
por entender la inteligencia humana, fuertemente enraizado en la idea de que los humanos son,
como los computadores, procesadores de información. Este esfuerzo ahora involucra a miles de
investigadores, consume miles de dólares en fondos, y ha generado una extensa literatura de
artículos y libros, tanto técnicos como corrientes. El libro de Ray Kurzweil, How to Create a Mind:
The Secret of Human Thought Revealed (2013), ejemplifica esta perspectiva, especulando respecto
de los ‘algoritmos’ del cerebro, cómo el cerebro ‘procesa datos’, e incluso cómo superficialmente se
asemejan circuitos integrados en su estructura.

La metáfora del procesamiento de la información (IP) de la inteligencia humana domina ahora el


pensamiento humano, tanto en las calles como dentro de la ciencia. Virtualmente no hay forma de
discurso sobre el comportamiento humano inteligente que proceda sin emplear esta metáfora, tal
como no hubo formas de discurso sobre el comportamiento humano inteligente que pudiesen
proceder en ciertas eras y culturas sin referencias a un espíritu o deidad. La validez de la metáfora
IP en el mundo de hoy esta asumida generalmente sin cuestionamiento,

Pero la metáfora IP es, después de todo, solo otra metáfora – una historia que contamos para darle
sentido a algo que de hecho no entendemos. Y cómo todas las metáforas que le preciedieron,
ciertamente será descartada en algún momento. – ya sea, reemplazada por otra metáfora o, al final,
reemplazada por conocimiento real.

Tan sólo hace un año atrás, en una visita a uno de los más prestigiosos institutos de investigación
del mundo, desafié a los investigadores que allí estaban a dar cuenta del comportamiento humano
inteligente sin referencias de ningún tipo a la metáfora IP. No pudieron hacerlo, y cuando
cortésmente planteé la cuestión en comunicaciones por correo posteriores, tampoco tenían nada que
ofrecer meses más tarde. Ellos vieron el problema. No desecharon el problema como algo trivial.
Pero no pudieron ofrecer una alternativa. En otras palabras, la metáfora IP es ‘pegajosa’.
Sobrecarga nuestro pensamiento con un lenguaje e ideas que son tan poderosas que hemos tenido
problemas pensando en torno a ellas.

La lógica imperfecta de la metáfora IP es bastante fácil de declarar. Está basada en un silogismo


erróneo – uno con dos premisas razonables y una conclusión equivocada. Premisa razonable #1:
todos los computadores son capaces de comportarse inteligentemente. Premisa razonable #2: todos
los computadores son procesadores de información. Conclusión equivocada: todas las entidades que
son capaces de comportarse inteligentemente son procesadores de información.

Dejando de lado el lenguaje formal, la idea de que los humanos deben ser procesadores de
información sólo porque los computadores son procesadores de información es simplemente una
tontería, y cuando, algún día, la metáfora IP sea finalmente abandonada, es casi seguro que será
vista de esa forma por los historiadores, al igual que ahora vemos las metáforas hidráulicas y
mecánicas como algo absurdo.

Si la metáfora IP es tan absurda, ¿por qué es tan pegajosa? ¿Qué nos impide dejarla de lado, tal
como podríamos quitar de en medio una rama que esté bloqueando nuestro camino? ¿Existe una
forma de entender la inteligencia humana sin apoyarse en una muleta intelectual débil? ¿Y qué
precio hemos pagado por apoyarnos con tanto empeño en esta muleta en particular por tanto
tiempo? La metáfora IP, después de todo, ha estado guiando la escritura y el pensamiento de un
largo número de investigadores en múltiples campos por décadas. ¿A qué costo?

En un ejercicio de clase que he realizado muchas veces a lo largo de los años, empiezo contratando
a un estudiante para que haga un dibujo detallado de un billete de un dólar – ‘lo más detallado
posible’, le digo – en la pizarra al frente de la sala. Cuando el estudiante ha terminado, cubro el
dibujo con una hoja de papel, remuevo un billete de un dólar de mi billetera, lo pongo contra la
pizarra, y pregunto al estudiante que repita la tarea. Cuando él o ella ha terminado, remuevo la
cubierta del primer dibujo, y la clase comenta sobre las diferencias.

Debido a que quizás nunca hayan visto una demostración como esta, o debido a que quizás hayan
tenido problemas imaginando el resultado, le he pedido a Jinny Hyun, una de las estudiantes
internas del instituto donde conduzco mi investigación, que hiciera los dos dibujos. Aquí esta su
dibujo “desde la memoria” (fíjense en la metáfora):
Y aquí está el dibujo que más tarde hiciera con el billete de un dólar presente:

Jinny estaba tan sorprendida por el resultado como probablemente lo estés tú, pero es típico. Como
pueden ver, el dibujo hecho en ausencia del billete de un dólar es horrible comparado con el dibujo
hecho a partir de un ejemplar, incluso a pesar de que Jinny ha visto billetes de un dólar miles de
veces.

¿Cuál es el problema? ¿No tenemos una ‘representación’ de un dólar ‘almacenado’ en un ‘registro


de memoria’ en nuestros cerebros? ¿No podemos simplemente ‘extraerla’ y usarla para hacer
nuestro dibujo?

Obviamente no, y en mil años de neurociencias jamás encontrarán una representación de un dólar
almacenada dentro del cerebro humano por la sencilla razón de que no está allí para que pueda ser
encontrada.
Una gran cantidad de estudios sobre el cerebro nos dicen, de hecho, que múltiples y a veces,
grandes áreas del cerebro están a menudo involucradas incluso en las tareas más mundanas que
usan la memoria. Cuando están involucradas emociones fuertes, millones de neuronas pueden
volverse más activas. En un estudio del 2016 sobre sobrevivientes de un accidente de avión
realizado por el neuropsicólogo Brian Levin y otros de la Universidad de Toronto, recordando el
accidente aumentaba la actividad neural en ‘la amígdala, el lóbulo temporal medial, la línea media
posterior y anterior, y la corteza visual de los pasajeros.

La idea, superada ya por varios científicos, de que memorias específicas son de alguna forma
almacenadas en neuronas individuales es absurda; en todo caso, la afirmación simplemente lleva el
problema de la memoria a un nivel más difícil: ¿cómo y dónde, después de todo, se almacena la
memoria en la célula?

¿Qué ocurre entonces cuando Jinny dibuja el dólar en ausencia del billete? Si Jinny no hubiera visto
nunca un billete de un dólar antes, su primer dibujo probablemente no se habría asemejado al
segundo dibujo de ninguna forma. Habiendo visto dólares antes, ella ha cambiado de alguna forma.
En concreto, su cerebro ha cambiado en una manera que le permitió visualizar un dólar –que sería,
re-experimentar la visión de un dólar, al menos en cierta medida.

La diferencia entre los dos diagramas nos recuerda que visualizando algo (es decir, ver algo en su
ausencia) es mucho menos preciso que ver algo que se encuentra presente. Este es el porqué somos
mucho mejores reconociendo que recordando. Cuando re-cordamos algo (del latín re, ‘de nuevo’, y
memorari, ‘tener en cuenta’), tenemos que intentar revivir una experiencia; pero cuando
reconocemos algo, meramente somos conscientes del hecho de que ya hemos tenido esta
experiencia perceptual antes.

Quizás vayan a objetar esta demostración. Jinny ha visto billetes de un dólar antes, pero no ha
realizado deliberadamente un esfuerzo por “memorizar” los detalles. Si lo hubiese hecho, se podría
argumentar, que presumiblemente podría haber dibujado la segunda imagen sin el billete presente.
Incluso en este caso, sin embargo, ninguna imagen del billete ha sido en ningún sentido
‘almacenada’ en el cerebro de Jinny. Ella simplemente se habría preparado mejor para dibujarlo con
precisión, al igual que, a través de la práctica, un pianista se vuelve más experto en interpretar un
concierto sin inhalar de forma alguna una copia de la partitura.

De este simple ejercicio, podemos comenzar a construir el marco de referencia de una teoría libre
de metáforas sobre el comportamiento humano inteligente – una en la que el cerebro no está
completamente vacío, pero por lo menos está vacía del contenido de la metáfora IP.

A medida que vamos por el mundo, somos cambiados por una variedad de experiencias. Hay tres
tipos de experiencia de especial mención: (1) nosotros observamos que ocurre a nuestro alrededor
(otra gente comportándose, los sonidos de la música, instrucciones dirigidas a nosotros, palabras en
páginas, imágenes en pantallas); (2) Estamos expuestos al emparejamiento de estímulos sin
importancia (como sirenas) con estímulos importantes (como la aparición de autos policiales); (3)
somos castigados o recompensados por comportarnos de ciertas formas.

Nos volvemos más eficaces en nuestras vidas sí cambiamos de maneras que son consistentes con
esas experiencias –si ahora podemos recitar un poema o cantar una canción, si somos capaces de
seguir las instrucciones que nos dan, si respondemos al estimulo sin importancia como lo hacemos
respecto del estímulo importante, si nos refrenamos de comportarnos en maneras que somos
castigados, y nos comportamos frecuentemente en maneras en las que somos recompensados.

A pesar de los titulares engañosos, en realidad nadie tiene la más mínima idea de cómo cambia el
cerebro después de haber aprendido a cantar una canción o de recitar un poema. Pero ni la canción o
el poema han sido ‘almacenados’. El cerebro simplemente ha cambiado de una manera ordenada
que ahora nos permite cantar la canción o recitar el poema bajo ciertas condiciones. Cuando se pide
su actuación, ni la canción ni el poema son de ningún sentido ‘recuperados’ de ninguna parte del
cerebro, como ninguno de los movimientos de mis dedos son ‘recuperados’ cuando tecleo en mi
escritorio. Nosotros simplemente cantamos o recitamos –sin necesitar recuperar nada.

Unos pocos años atrás, le pregunté al neurocientista Eric Kandel de la Universidad de Columbia –
ganador del Premio Nobel por identificar algunos de los cambios químicos que toman lugar en la
sinapsis neuronal de la aplysia (una babosa marina) luego de que aprende algo – cuanto pensaba él
que podría tomarnos a nosotros entender cómo funciona la memoria humana. Él rápidamente
replicó: ‘Cien años’. Ni siquiera pensé en preguntarle si es que él pensaba que la metáfora IP estaba
retrasando a las neurociencias, pero algunos neurocientistas realmente están comenzando a pensar
lo impensable – que la metáfora no es indispensable.

Unos pocos científicos cognitivos – como el notable Anthony Chemero de la Universidad de


Cincinnati, el autor de Radical Embodied Cognitive Science (2009) – ahora están rechazando
completamente la visión de que el cerebro humano funciona como un computador. La visión común
es que nosotros, como los computadores, hacemos sentido del mundo realizando cómputos sobre
representaciones mentales del mismo, pero Chemero y otros más están describiendo otra forma de
entender el comportamiento inteligente – como una interacción directa entre el organismo y su
mundo.

Mi ejemplo favorito de la dramática diferencia entre la perspectiva IP y lo que algunos llaman ahora
la visión ‘anti-representacional’ del funcionamiento humano involucra dos formas diferentes de
explicar como un jugador de baseball se maneja para atrapar una pelota que viene en el aire –
hermosamente explicado por Michael McBeath, ahora en la Universidad Estatal de Arizona, y sus
colegas en un artículo de Ciencia en 1995. La perspectiva IP requiere que el jugador formule un
estimado de varias condiciones iniciales de la pelota volando – la fuerza del impacto, el ángulo de la
trayectoria, ese tipo de cosas – para luego crear y analizar un modelo interno del camino por el que
la pelota probablemente se moverá, usar luego ese modelo para guiar y ajustar los movimientos
motores continuamente a tiempo en orden de interceptar la pelota.

Eso estaría bien y sería suficiente sí funcionásemos como los computadores lo hacen, pero McBeath
y sus colegas dieron cuenta de ello de forma más simple: Para atrapar la pelota, el jugador
simplemente necesita seguir moviéndose de una forma que mantenga la pelota en una relación
visual constante respecto de la base y el paisaje circundante (técnicamente, en una ‘trayectoria
óptica lineal’). Esto podría sonar complicado, pero en realidad es increíblemente simple, y
completamente libre de cómputos, representaciones y algoritmos.
Dos determinados profesores de psicología en la Leeds Becket University en el Reino Unido –
Andrew Wilson y Sabrina Golonka – incluyeron el ejemplo del baseball entre muchos otros se
pueden consultar de forma simple y sensata fuera del marco de referencia IP. Ellos han estado
escribiendo en blogs durante años sobre lo que ellos llaman un ‘enfoque naturalizado más coherente
para el estudio científico del comportamiento humano… en desacuerdo con el enfoque de la
neurociencia cognitiva dominante’. Esto está lejos de ser un movimiento, sin embargo. Las ciencias
cognitivas comunes continúan revolcándose acríticamente dentro de la metáfora IP, y algunos de los
pensadores más influyentes del mundo han hecho grandes predicciones sobre el futuro de la
humanidad que dependen de la validez de la metáfora.

Una predicción – hecha por el Kurzweil futurista, el físico Stephen Hawking y el neurocientista
Randal Koene, entre otros – es que, debido a que la conciencia humana es supuestamente como un
software computacional, pronto será posible descargar mentes humanas a un computador, en los
circuitos gracias a los que nos volveremos inmensamente poderosos intelectualmente y, muy
posiblemente, inmortales. Este concepto condujo la trama de la película distópica Transcendence
(2014) protagonizada por Johnny Depp como el científico cuya mente fue descargada a internet –
con resultados desastrosos para la humanidad.

Afortunadamente, debido a que la metáfora IP no es ni ligeramente valida, no tendremos que


preocuparnos nunca sobre que la mente humana vaya fuera de control en el ciberespacio; Por
desgracia, tampoco vamos a alcanzar la inmortalidad a través de la descarga. Esto no sólo se debe a
la ausencia de un software de consciencia en el cerebro; hay un problema más profundo aquí –
llamémosle el problema de la singularidad – que es al mismo tiempo inspirador y deprimente.

Debido a que ni los ‘bancos de memoria’ o las ‘representaciones’ de estímulos existen en el


cerebro, y debido a que todo lo que requerimos para funcionar en el mundo es que el cerebro
cambie de una forma ordenada como resultado de nuestras experiencias, no hay razón para creer
que haya dos de nosotros que cambiemos de la misma manera por la misma experiencia. Si tú y yo
asistimos al mismo concierto, es casi seguro que los cambios que ocurran en mi cerebro cuando
escucho la 5ta de Beethoven sean completamente diferentes de los cambios que ocurran en tu
cerebro. Esos cambios, sean los que sean, están construidos en una estructura neural única que ya
existe de antemano, habiendo sido desarrollada cada estructura a lo largo de una vida de
experiencias únicas.

Es por esto que, como Sir Frederic Bartlett demostró en su libro Remembering (1932), dos personas
no repetirán una historia que ambos hayan escuchado de la misma manera y por eso, con el tiempo,
sus recitaciones de la historia divergen cada vez más. Ninguna ‘copia’ de la historia es realizada
jamás; en realidad cada individuo, al escuchar la historia, cambia hasta cierto punto –lo suficiente
para que cuando se les pregunta por la historia más tarde (en algunos casos, días, meses o incluso
años luego de que Bartlett les contó por primera vez la historia) – ellos pueden re-experimentar el
escuchar la historia, en cierta medida, aunque no muy bien (vean el primer dibujo del billete un
dólar, más arriba).

Esto es inspirador, supongo, ya que significa que cada uno de nosotros es verdaderamente único, no
solo en nuestra composición genética, sino incluso en la forma en la que nuestros cerebros cambian
a lo largo del tiempo. Es también deprimente, debido a que lleva la tarea de los neurocientíficos a
proporciones casi más allá de la imaginación. Por cada experiencia dada, un cambio ordenado
podría involucrar miles de neuronas, un millón de neuronas o incluso todo el cerebro, con el patrón
de cambio siendo diferente en cada cerebro.

Aun peor, incluso si tuviéramos la habilidad de tomar una foto instantánea de todas las 86 millones
de neuronas y entonces estimuláramos el estado de esas neuronas en un computador, el vasto patrón
no significaría nada fuera del cuerpo del cerebro que lo produjo. Esta es quizás la forma más
escandalosa en la que la metáfora IP ha distorsionado nuestro pensamiento sobre el funcionamiento
humano.

Mientras que los computadores almacenan copias exactas de los datos – copias que pueden perdurar
sin cambios por largos periodos de tiempo, incluso si se ha apagado la energía – el cerebro mantiene
nuestro intelecto solo lo suficiente mientras se mantiene vivo. No hay un interruptor de encendido-
apagado. O bien el cerebro sigue funcionando, o desaparecemos. Lo que es más, como el
neurobiólogo Steven Rose señaló en The Future of the Brain (2005), una instantánea del estado
actual del cerebro puede también carecer de sentido a menos que sepamos la historia de vida
completa del dueño de ese cerebro – quizás incluso sobre el contexto social en el que él o ella fue
criado.

Pensemos cuan dificultoso es este problema. Para entender incluso las bases de cómo el cerebro
mantiene el intelecto humano, puede ser que necesitemos conocer no solo el estado actual de todas
las 86 millones de neuronas y sus 100 trillones de interconexiones, no solo las intensidades
variables con las que están conectadas entre sí, y no solo los estados de más de 1.000 proteínas que
existen en cada punto de conexión, sino que la actividad momento-por-momento del cerebro
contribuye a la integridad del sistema. Agreguémosle a esto la unicidad de cada cerebro, traída en
parte debido a la unicidad de la historia de vida de cada persona, y la predicción de Kandel
comienza a sonar demasiado optimista. (En un artículo de opinión reciente en The New York Times,
el neurocientifico Kenneth Miller sugirió que tomaría siglos tan solo figurar conectividad neuronal
básica.)

Mientras tanto, vastas sumas de dinero están siendo elevadas para la investigación del cerebro,
basadas en algunos casos en ideas erróneas y promesas que no pueden mantener. El ejemplo más
flagrante de la neurociencia que salió mal, documentado recientemente en un informe publicado en
la revista Scientific American, se refiere al Proyecto Cerebro Humano, de $1.3 millones puesto en
marcha por la Unión Europea en 2013. Convencidos por el carismático Henry Markram de que
podrían crear una simulación de todo el cerebro humano en un supercomputador para el año 2023, y
que tal modelo podría revolucionar el tratamiento de la enfermedad del Alzheimer y otros
desordenes, funcionarios Estadounidenses financiaron su proyecto con prácticamente ninguna
restricción. Menos de dos años en ello, el proyecto se convirtió en un “accidente cerebral”, y se
pidió la renuncia de Markram.

Somos organismos, no computadores. Supérenlo. Pongámonos de cara al asunto de tratar de


entendernos a nosotros mismos, pero sin vernos superados por un bagaje intelectual innecesario. La
metáfora IP ha llevado medio siglo en marcha, produciendo pocas, si es que alguna, revelaciones en
el camino. Ha llegado el momento de presionar la tecla de BORRAR.

Das könnte Ihnen auch gefallen