Popular Posts

Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas

martes, 14 de marzo de 2017

Plantear un problema de ajedrez para saber de la conciencia humana

* * * *
La conciencia es la cualidad más importante de un ser humano, pero después de milenios los científicos aún no pueden explicarla, ¿de dónde viene, cómo surge?

Problema de ajedrez. Maarten van den Heuvel / Unsplash

sábado, 11 de marzo de 2017

El cerebro es diez veces más activo de lo previsto

* * * *
Un nuevo estudio de la UCLA podría cambiar la comprensión de cómo funciona el cerebro, además de conducir a nuevos enfoques para el tratamiento de trastornos neurológicos y para el desarrollo del ‘pensamiento’ computacional.

Los científicos de la UCLA han descubierto que las dendritas (mostradas aquí en verde) no son sólo conductos pasivos para las corrientes eléctricas entre las neuronas. Crédito: Shelley Halpain / UC San Diego

jueves, 2 de marzo de 2017

Hallada una neurona gigante que circunda por completo el cerebro

* * * *
Por primera vez, los científicos han detectado una neurona gigante que envuelve toda la circunferencia del cerebro de un ratón, y está tan densamente conectada a través de ambos hemisferios que hace pensar en una explicación sobre el origen neural de la conciencia.

Corona neural. Allen Institute for Brain Science

domingo, 19 de febrero de 2017

Identificada la segunda causa de pérdida auditiva oculta

* * * *
Los pacientes que se quejan de que no pueden escuchar a sus amigos en un restaurante ruidoso y, sin embargo, pasar una prueba de audición médica, pueden estar describiendo una pérdida de audición oculta.

Algunas personas pueden pasar sin problemas una prueba de audición, pero tienen dificultad para entender el habla en un ambiente ruidoso. Una nueva investigación identifica un nuevo mecanismo para esta condición pocos años después de su descubrimiento. Crédito: Michigan Medicine

viernes, 13 de enero de 2017

La importancia de los virus en nuestro genoma

* * * *
Durante millones de años se han ido incorporando retrovirus en nuestro ADN humano, tanto que hoy representan casi el 10% del total de nuestro genoma. Un grupo de investigación de la Universidad de Lund ha descubierto ahora un mecanismo a través del cual estos retrovirus pueden tener un impacto en la expresión génica. Esto significa que pueden haber desempeñado un papel importante en el desarrollo del cerebro humano, así como en diversas enfermedades neurológicas.
Los retrovirus incorporados en nuestro ADN y su importancia en el desarrollo del cerebro humano. Crédito: © WavebreakMediaMicro/Fotolia

domingo, 8 de enero de 2017

La naturaleza de la conciencia

* * * *
La naturaleza de la conciencia: 
Cerebro, mente y lenguaje
Comentario de Alberto Botto
al libro de Maxwell Bennett, Daniel Dennett, Peter Hacker y John Searle

Fruto de la cooperación entre un neurocientífico (Maxwell Bennett) y un filósofo (Peter Hacker), el año 2003 la editorial Blackwell publicó el libro Philosophical Foundations of Neuroscience, una de las primeras revisiones sistemáticas de los fundamentos conceptuales de la neurociencia. Al final del texto se añadieron dos apéndices basados en las críticas y comentarios de los autores hacia la obra, ampliamente difundida, de dos influyentes pensadores: Daniel Dennett y John Searle, “los filósofos más leídos entre la comunidad neurocientífica”.

Al año siguiente la American Philosophical Asso­ciation reunió a los cuatro autores en un encuentro que permitió a los primeros exponer sus críticas y a los segundos sus correspondientes réplicas en un intenso debate a partir del cual se gestó este libro. En la primera parte, titulada La Polémica, se reproducen algunos capítulos de Philosophical Foundations of Neuroscience más un ensayo de Bennett denominado Neurociencia y Filosofía; en la segunda (Las Refutaciones), Dennett y Searle desarrollan sus discrepancias, para finalizar, en la tercera (Réplica a las Refutaciones), con la respuesta de Bennett y Hacker frente a estas críticas.

Cómo percibe el cerebro el ritmo

* * * *
Cuando se trata de percibir la música, el cerebro humano se encuentra mucho más afinado para ciertos tipos de ritmos más que para otros.

LA VIDA ES RITMO es un espectáculo de CAMUT BAND donde se mezclan la percusión africana, el tap dance, la voz y el baile sobre arena, durante más de una hora. 2015 Teatro Talia. Valencia.

jueves, 5 de enero de 2017

Las propiedades eléctricas únicas de las neuronas humanas crean la diferencia

* * * *
Los científicos han presentado la primera evidencia directa de que las neuronas neocorticales humanas tienen propiedades únicas en sus membranas que mejoran el procesamiento de señales. La investigación implica que las neuronas corticales humanas son eficientes microchips eléctricos que utilizan la baja capacitación de las membranas para compensar el mayor tamaño de cerebros y células de los humanos, y también para procesar la información sensorial de manera más eficaz. 


sábado, 3 de diciembre de 2016

Citas de Alva Noë

* * * *
Percibir cómo son las cosas es un modo de explorar cómo parecen ser las cosas.
Sin embargo, su apariencia es sólo un aspecto de cómo son las cosas.
Explorar la apariencia es, pues, explorar el medio ambiente, el mundo.
Descubrir cómo son las cosas, cómo parecen, es descubrir un orden o patrón en su apariencia.
El proceso de percibir, de descubrir cómo son las cosas, es un proceso de encuentro con el mundo; es una actividad de habilidosa exploración.


lunes, 7 de noviembre de 2016

Fuera de nuestras cabezas, de Alva Noë

* * * *
Out of Our Heads


Alva Noë es uno de los filósofos de nuevo cuño, parte científico cognitivo, parte neurocientífico, que están alterando radicalmente el estudio de la conciencia, haciendo preguntas difíciles y señalando las fallas obvias de la ciencia actual. En Out of Our Heads (Fuera de nuestras cabezas), él reafirma y reexamina el problema de la conciencia, y luego propone una solución sorprendente: acabar con los 200 años de viejo paradigma que coloca a la conciencia dentro de los confines del cerebro.


viernes, 28 de octubre de 2016

Un chico inglés despierta de un coma hablando español

* * * *
Un joven de Atlanta, con 16 años de edad, ha sido noticia esta semana: se despertó de un coma hablando español con fluidez.

Rueben Nsemoh es hablante nativo de Inglés, aunque sabía algo de español básico antes de que sufriera una conmoción cerebral durante un partido de fútbol, ​​pero cuando se despertó de la lesión, era capaz de hablar español "como un nativo", y el inglés con esfuerzo.



sábado, 15 de octubre de 2016

Dos nuevos estudios descubren agentes responsables de la plasticidad neuronal y la memoria

* * * *
Los investigadores del Max Planck Institute de Florida para la Neurociencia, Universidad de Duke, y sus colaboradores, han identificado un nuevo sistema de señalización que controla la plasticidad neuronal

Una de las propiedades más fascinantes del cerebro de los mamíferos es su capacidad para cambiar a lo largo de toda su vida. Las experiencias, ya sea estudiando para un examen o experimentando una situación traumática, alteran el cerebro modificando la actividad y la organización de circuitos neuronales específicos, modificando así los consiguientes sentimientos, pensamientos y comportamientos. Estos cambios tienen lugar en y entre las sinapsis, las uniones de comunicación entre las neuronas. Esta alteración de la estructura y función del cerebro impulsada ​​por la experiencia se llama plasticidad sináptica, y se considera la base celular del aprendizaje y la memoria.

lunes, 3 de octubre de 2016

Tenemos un segundo cerebro

* * * *
Nuestro cerebro se compone de aproximadamente 100 mil millones de neuronas que están constantemente disparando señales eléctricas de ida y vuelta que dicen qué hacer, qué pensar y cómo sentirse.



miércoles, 7 de septiembre de 2016

La ilusión fantasma de una 'presencia' recreada en laboratorio

* * * *
Los fantasmas sólo existen en la mente y los científicos saben dónde encontrarlos, según sugiere un estudio de EPFL. Los pacientes que sufren de enfermedades neurológicas o psiquiátricas han informado a menudo de la sensación de una extraña "presencia". Ahora, los investigadores de la EPFL en Suiza han logrado recrear esta llamada ilusión fantasmal en el laboratorio.


jueves, 1 de septiembre de 2016

Representación o código neural

*  *  *  * 
Podemos comprender que la relación entre el cerebro y el medio externo se parece a la que opera entre el sistema nervioso central y los miembros periféricos del cuerpo. Hay mapas neuronales relativamente estables que codifican las peculiaridades de nuestro ambiente. Aquí nos topamos con un problema planteado por algunos neurólogos y que ya he mencionado.

En la concepción de Jean-Pierre Changeux el problema radica en que vivimos en un universo "no etiquetado", que no nos envía mensajes codificados. Nosotros proyectamos las categorías que creamos, con ayuda del cerebro, a un mundo sin destino ni significación. El universo carece de categorías, salvo, aclara Changeux, aquellas creadas por el hombre. El neurólogo está aquí contestando una afirmación del filósofo Paul Ricoeur, a quien le parece un resabio de dualismo cartesiano seguir pensando la actividad mental en términos de representación.
[ .... ]

lunes, 15 de agosto de 2016

Descubrimiento de un interruptor de azúcar en el cerebro


* * * *
Investigadores de la Universidad Técnica de Munich han descubierto que nuestro cerebro toma activamente el azúcar de la sangre. Antes de esto se tenía como un proceso puramente pasivo. Un equipo internacional, dirigido por el experto en diabetes Matthias Tschöp, ha publicado en la revista 'Cell' que el transporte de azúcar sl cerebro está regulado por las denominadas células gliales que reaccionan a las hormonas como la insulina o la leptina. Anteriormente se pensaba que esto sólo era posible para las neuronas.

sábado, 13 de agosto de 2016

El magnetismo de las neuroimágenes: Moda, mito e ideología del cerebro (2)

* * * *
EL MAGNETISMO DE LAS NEUROIMÁGENES:
MODA, MITO E IDEOLOGÍA DEL CEREBRO
por Marino Pérez Álvarez, Universidad de Oviedo



EL DECLIVE DE LAS HUMANIDADES Y DE LAS CIENCIAS SOCIALES

La ascendencia de la neurociencia con su prestigio y seducción va a la par del declive de las humanidades y de las ciencias sociales, a juzgar no sólo por su pérdida de atractivo para carreras profesionales sino por la proliferación de neuro-disciplinas. Tal parece que las disciplinas humanistas y sociales tuvieran que ser validadas y confirmadas por la neurociencia, para el caso, por neuroimágenes reveladoras de las áreas implicadas en la actividad humana, como si ésta fuera cosa del cerebro. Puesto que algún correlato neuronal tiene que haber de cualquier actividad humana (económica, política, religiosa, ética, estética, educativa, psicopatológica, etc.), su conversión en relato neurocientífico explicativo del fenómeno en consideración está servido. Así, el correlato correspondiente, valga por caso, de una acción económica, política, religiosa, ética o de lo que sea, se presta a explicar tal fenómeno en términos del cerebro, pasando por alto a la persona que es en realidad quien realiza la actividad. Se pasa por alto no sólo a la persona, reducida al cerebro, incurriendo en este caso en la falacia mereológica (consistente en atribuir a una parte lo que es de un todo), sino que se pasan por alto las propias condiciones de posibilidad de la persona, incluyendo su cerebro, que son la cultura y la sociedad, sin las cuales ni cerebro que valga habría. Se olvida o pasa por alto que el contexto cultural y el medio social son realidades históricamente dadas, supra-individuales y preexistentes a cualquier cerebro que se estudie en una máquina de neuroimagen. Siendo así, es ocioso reducir al cerebro y deducir de él lo que la persona aprendió y llegó a ser gracias precisamente al contexto social-cultural.

viernes, 12 de agosto de 2016

El magnetismo de las neuroimágenes: Moda, mito e ideología del cerebro (1)

* * * *
EL MAGNETISMO DE LAS NEUROIMÁGENES: 
MODA, MITO E IDEOLOGÍA DEL CEREBRO
por Marino Pérez Álvarez, Universidad de Oviedo


El cerebro se ha convertido en el centro de explicación de los asuntos humanos. De pronto, es como si todo dependiera del cerebro y no fuéramos más que “un montón de neuronas”, como decía Francis Crick en 1994, al presentar la hipótesis revolucionaria para el siglo XXI, según la cual “Usted, sus alegrías y sus penas, sus recuerdos y sus ambiciones, su propio sentido de la identidad personal y su libre albedrío, no son más que el comportamiento de un vasto conjunto de células nerviosas y moléculas asociadas” (Crick, 1994, p. 3). La neuro-revolución ya ha sido declarada, si nos creemos la proclamación de Z. Lynch (2009). El papel creador del cerebro está dado por hecho ya en el mismo título de libros recientes de importantes autores, como el de Michael Gazzaniga: ¿Qué nos hace humanos? (de 2008) y el de Antonio Damasio: Y el cerebro hizo al hombre (de 2010), poco menos que una declaración bíblica.

miércoles, 10 de agosto de 2016

Damasio y El error de Descartes

* * * *
En 2002 Manuel Daza Ramos y Pablo Arcas Díaz, hicieron una síntesis de las ideas del libro de Antonio Damásio, El error de Descartes. Aquí expongo un resumen de dicha síntesis que llamaron, “Una apuesta teórica: Damásio y El error de Descartes”

domingo, 22 de mayo de 2016

Tu cerebro no es un computador

* * * *
Tu cerebro no procesa información ni recupera conocimientos ni almacena recuerdos. En pocas palabras: tu cerebro no es un computador.

No importa lo mucho que lo intenten, los neurocientíficos y psicólogos cognitivos nunca encontrarán una copia de la 5ª Sinfonía de Beethoven en el cerebro, ni copias de palabras, imágenes, reglas gramaticales o de cualquier otro tipo de estímulos ambientales. Por supuesto, el cerebro humano no está realmente vacío, pero tampoco contiene la mayoría de cosas que la gente piensa que tiene, ni siquiera las cosas más simples, como los "recuerdos".

Este lamentable pensar acerca del cerebro tiene profundas raíces históricas, pero la invención de las computadoras en la década de 1940 lo volvió especialmente confuso. Desde hace más de medio siglo, los psicólogos, lingüistas, neurólogos y otros expertos en el comportamiento humano han estado afirmando que el cerebro humano funciona como un ordenador.

Para ver cuán vacua es esta idea es, consideremos los cerebros de los bebés. Gracias a la evolución, los neonatos humanos, igual que los recién nacidos de otras especies de mamíferos, entran en el mundo preparados para interactuar con él de manera efectiva. La visión de un bebé es borrosa, pero prestan especial atención a las caras, y es capaz de identificar rápidamente a su madre. Prefiere el sonido de voces a los no hablados, y puede distinguir el sonido básico de la voz de cualquier otro. Estamos, sin duda, construidos para crear conexiones sociales.

Un recién nacido sano también está equipado con más de una docena de reflejos, reacciones prefabricadas hacia ciertos estímulos que son importantes para su supervivencia. Gira la cabeza en la dirección de algo que roza su mejilla y luego chupa todo lo que entra en su boca. Contiene la respiración cuando se sumerge en el agua. Se agarra a las cosas colocadas en sus manos con tanta fuerza que casi puede soportar su propio peso. Y tal vez lo más importante, los recién nacidos están equipados con potentes mecanismos de aprendizaje que les permiten cambiar rápidamente para poder interactuar cada vez con más eficacia con el mundo, incluso si ese mundo es diferente al que se enfrentaron sus antepasados ​​lejanos.

Los sentidos, los reflejos y los mecanismos de aprendizaje, con esto es con lo que empezamos, y es mucho, cuando se piensa en ello. Si nos faltara alguna de estas capacidades al nacer, probablemente tendríamos problemas para sobrevivir.

He aquí con lo que no hemos nacido: información, datos, reglas, software, conocimientos, léxicos, representaciones, algoritmos, programas, modelos, recuerdos, imágenes, procesadores, subrutinas, codificadores, decodificadores, símbolos, o buffers, elementos de diseño que permiten comportarse a los computadores digitales de manera un tanto inteligente. No sólo no hemos nacido con este tipo de cosas, tampoco lo desarrollamos, nunca.

No almacenamos las palabras o las reglas que nos indican cómo manipularlas. No creamos representaciones de estímulos visuales, ni los almacenamos en un búfer de memoria a corto plazo, para luego transferir la representación a un dispositivo de memoria a largo plazo. No recuperamos la información, las imágenes ni las palabras de los registros de memoria. Las computadoras hacen todas estas cosas, pero los organismos no.

Los computadores, literalmente, procesan la información, números, letras, palabras, imágenes, fórmulas. La información tiene primero que ser codificada en un formato que el ordenador pueda utilizar, y ello significa unos patrones de unos y ceros ( "bits"), organizados en pequeños paquetes ( 'bytes'). En mi ordenador, cada byte contiene 8 bits, y un cierto patrón de esos bits indica la letra h, otro la letra o, y otro la letra y. Uno al lado del otro, los tres bytes forman la palabra hoy. Una sola imagen, por ejemplo, la fotografía de mi gato Henry en mi escritorio, está representado por un patrón muy concreto de un millón de estos bytes (‘un megabyte'), rodeado de algunos caracteres especiales que le dicen al computador que debe esperar una imagen, no una palabra.

Las computadoras trasladan, literalmente, estos patrones de un lugar a otro, grabandolos en diferentes áreas de almacenamiento físico de componentes electrónicos. A veces también copian estos patrones, y a veces los transforman de diversas formas, por ejemplo, cuando estamos corrigiendo errores en un manuscrito o cuando estamos tocando una fotografía. Los ordenadores siguen unas reglas para mover, copiar y operar con estos conjuntos de datos que también se almacenan dentro de la computadora. A todo ese conjunto de reglas se le llama "programa" o "algoritmo". El grupo de algoritmos que trabajan conjuntamente para ayudarnos a hacer algo (como comprar acciones o encontrar una fecha en internet) se denomina "aplicación", o lo que la mayoría de la gente ahora llaman una 'app'.

Perdón por esta introducción a la informática, pero veo necesario aclarar que, las computadoras sí operan realmente con representaciones simbólicas del mundo. Realmente almacenan y recuperan. Realmente procesan y, realmente, tienen memorias físicas. Y para todo lo que hacen se guían, sin excepción, por algoritmos.

Los seres humanos, por el contrario, no, nunca lo han hecho y nunca lo harán. Dada esta realidad, ¿por qué tantos científicos hablan de nuestra vida mental como si fuéramos los ordenadores?

En su libro “Our Own Image” (2015), el experto en inteligencia artificial, George Zarkadakis, describe seis diferentes metáforas que la gente ha empleado en los últimos 2.000 años para tratar de explicar la inteligencia humana.

La más antigua, se ha preservado del tiempo en la Biblia, los humanos se formaron a partir del barro o la tierra, que seguidamente un Dios inteligente impregnó de su espíritu. Ese espíritu 'explica' nuestra inteligencia, gramaticalmente, al menos.

La invención de la ingeniería hidráulica en el tercer siglo aC. conllevó la popularidad de un modelo hidráulico para la inteligencia humana, la idea entonces, fue que el flujo de diferentes fluidos del cuerpo, los "humores", representaban tanto nuestro funcionamiento físico como mental. La metáfora hidráulica continuó durante más de 1.600 años, dificultando la práctica médica durante todo ese tiempo.

Allá por 1500, los autómatas impulsados por resortes y engranajes que se idearon, inspiraron con el tiempo a los principales pensadores, como René Descartes, que llegaron a afirmar que los seres humanos son máquinas complejas. En 1600, el filósofo inglés, Thomas Hobbes, sugirió que el pensamiento surgía de pequeños movimientos mecánicos en el cerebro. En 1700, los descubrimientos sobre la electricidad y la química llevaron a nuevas teorías de la inteligencia humana, de nuevo, la gran metáfora de la naturaleza. A mediados de 1800, inspirado en los últimos avances en las comunicaciones, el físico alemán Hermann von Helmholtz comparó el cerebro con un telégrafo.

Cada metáfora refleja el pensamiento más avanzado de la época que lo generó. Como era de esperar, sólo unos pocos años después de los albores de la tecnología informática, en la década de 1940, se dijo que el cerebro podría funcionar como una computadora, con el cerebro en su papel de hardware físico y nuestros pensamientos que sirvían como software. Este hito puso en marcha lo que hoy se denomina, en general, "ciencia cognitiva", con la publicación de “Language and Communication” (1951) por el psicólogo George Miller. Miller propuso que el mundo mental podría ser estudiado rigurosamente usando conceptos de la teoría de la información, la computación y la lingüística.

Este tipo de pensamiento fue llevado a su máxima expresión en un pequeño libro “The Computer and the Brain” (1958), donde el matemático John von Neumann declaraba rotundamente que la función del sistema nervioso humano es "prima facie digital". Aunque reconoció que poco se sabe sobre el papel que juega el cerebro en el razonamiento humano y la memoria, dibujó paralelismos entre los componentes de las máquinas de computación y los componentes del cerebro humano.

Impulsado por los siguientes avances, tanto en tecnología informática como en investigación del cerebro, se fue desarrollando gradualmente un esfuerzo multidisciplinario ambicioso para entender la inteligencia humana, firmemente enraizado en la idea de que los seres humanos son, como los ordenadores, procesadores de información. Este esfuerzo ahora involucra a miles de investigadores, consume miles de millones de dólares en fondos, y ha generado una extensa literatura que consta de artículos técnicos y una corriente principal y de libros. El libro de Ray Kurzweil, “How to Create a Mind: The Secret of Human Thought Revealed” (2013), es un ejemplo de esta perspectiva, especulando sobre los "algoritmos" del cerebro, como que el cerebro ‘procesa los datos', e incluso que la forma de su superficie se parece a los circuitos integrados en su estructura.

La metáfora del ‘information processing’ (IP: procesamiento de información) de la inteligencia humana domina ahora el pensamiento humano, tanto en la calle como en las ciencias. No hay prácticamente ninguna forma de discurso sobre el comportamiento humano inteligente que no emplee esta metáfora, así como ninguna forma de discurso sobre el comportamiento humano inteligente pudo proceder en otras épocas y culturas sin hacer referencia a un espíritu o deidad. La validez de la metáfora del IP en el mundo actual se asume generalmente sin mediar duda alguna.

Pero la metáfora IP es, después de todo, sólo otra metáfora, una historia que contamos para dar sentido a algo que en realidad no entendemos. Y al igual que todas las metáforas que la han precedido, será abandonada en algún momento, ya sea sustituida por otra metáfora o sustituida por un conocimiento más real.

Hace poco más de un año, en una visita a uno de los centros de investigación más prestigiosos del mundo, desafié a los investigadores a que contaran de la conducta humana inteligente sin hacer referencia a cualquier aspecto de la metáfora IP. No pudieron hacerlo, y cuando cortésmente planteé la cuestión en correos electrónicos posteriores, tampoco tuvieron nada que ofrecer meses más tarde. Vieron el problema. Ellos no descartaron el reto como trivial, pero no podían ofrecer una alternativa. En otras palabras, la metáfora IP es "pegajosa". Entorpece nuestro pensamiento con un lenguaje e ideas tan poderosos que nos dificulta pensar lo que les nos rodea.

La incorrecta lógica de la metáfora IP es bastante fácil de declarar. Se basa en un silogismo defectuoso: dos premisas razonables y una conclusión defectuosa. Premisa razonable # 1: todos los computadores son capaces de comportarse de forma inteligente. Premisa razonable # 2: todos los computadores son procesadores de información. Conclusión errónea: todas las entidades que son capaces de comportarse de manera inteligente son procesadores de información.

Dejando a un lado el lenguaje formal, la idea de que los seres humanos deben ser procesadores de información sólo porque las computadoras son procesadores de información es, simplemente, una tontería, y cuando, algún día, la metáfora IP sea finalmente abandonada, casi seguro que se verá así por los historiadores, justo como ahora vemos la metáfora hidráulica y la mecánica, como tontas.

Si la metáfora IP es tan tonta, ¿por qué es tan pegajosa? Qué nos impide apartarla un lado, del mismo modo que podríamos apartar una rama que estaba bloqueando nuestro camino? ¿Hay una manera de entender la inteligencia humana sin apoyarse en una muleta intelectual tan débil? Y ¿qué precio tenemos que pagar por apoyarnos en gran medida en esta particular muleta, durante tanto tiempo? La metáfora IP, después de todo, ha estado guiando la escritura y el pensamiento de un gran número de investigadores en varios campos desde hace décadas. ¿A qué coste?

En un ejercicio de clase que he realizado muchas veces a lo largo de los años, comienzo por reclutar a un estudiante para que haga un dibujo detallado de un billete de un dólar, 'lo más detallado posible', digo, en la pizarra al frente de la sala. Cuando el estudiante ha terminado, cubro el dibujo con una hoja de papel, cogo el billete devolviéndolo a mi cartera, y pido al alumno que repita la tarea. Una vez que lo ha hecho, levanto la tapa del primer dibujo, y comentamos en clase sobre las diferencias.

Dado que es posible que nunca hayas visto una demostración de este tipo, o porque no puedas imaginar el resultado, le he pedido a Jinny Hyun, una de los estudiantes en prácticas del instituto donde llevo a cabo mi investigación, para que hiciera los dos dibujos. Aquí está su dibujo 'de memoria' (nótese la metáfora):
Y aquí el dibujo que posteriormente se hizo con un billete de un dólar presente:
Jinny estaba tan sorprendido por el resultado como usted, pero es normal. Como se puede ver, el dibujo realizado en ausencia del billete de un dólar es horrible comparado con el dibujo a partir del ejemplar, a pesar de que Jinny ha visto un billete de dólar miles de veces.

¿Cuál es el problema? ¿No tenemos una "representación" del billete de un dólar "almacenada" en un "registro de memoria” en nuestro cerebro? ¿No podemos 'recuperarlo' y utilizarlo para hacer nuestro dibujo?

Obviamente no, y mil años de neurociencia nunca localizará una representación de un billete de un dólar almacenado en el interior del cerebro humano, por la sencilla razón de que no está ahí para ser encontrado.

Una gran cantidad de estudios del cerebro nos dice que, de hecho, las múltiples y, a veces grandes áreas del cerebro, están implicadas, incluso en las tareas de memoria más mundanas. Cuando las emociones fuertes están involucradas, millones de neuronas se vuelven más activas. En un estudio de 2016 a supervivientes de un accidente aéreo, por el neuropsicólogo Brian Levine y otros, de la Universidad de Toronto, que al recordar el accidente se incrementó la actividad neuronal de “la amígdala, el lóbulo temporal medial, el anterior y posterior medial, y la corteza visual" de los pasajeros.

La idea, adelantada por varios científicos, de que los recuerdos concretos se almacenan de alguna manera en las neuronas individuales es ridícula; en todo caso, tal afirmación simplemente empuja el problema de la memoria a un nivel aún más difícil: ¿cómo y dónde se almacena la memoria en la célula?

Así pues, ¿qué está ocurriendo cuando Jinny dibuja el billete ausente de un dólar? Si Jinny nunca hubiera visto un billete de un dólar, su primer dibujo probablemente en nada se parecería al segundo dibujo en absoluto. Al haberlo visto antes, a ella le cambió de alguna manera. En concreto, su cerebro cambió de una manera que le permitió visualizar un billete de dólar, esto es, pudo volver a tener la experiencia de ver un billete de un dólar, al menos en cierta medida.

La diferencia entre los dos gráficos nos recuerda que visualizar algo (es decir, ver algo en su ausencia) es mucho menos preciso que ver algo en su presencia. Es por esto que somos mucho mejores en el reconocimiento que en el recuerdo. Cuando rememoramos algo (del latín re, 'otra vez', y memorari, 'consciente de'), tenemos que tratar de revivir una experiencia; pero cuando reconocemos algo, simplemente hay que ser consciente del hecho de que hemos tenido esa experiencia perceptiva antes.

Tal vez pueda objetarse a esta demostración que, Jinny había visto antes de billetes de un dólar, pero no había hecho el esfuerzo deliberado de 'memorizar' los detalles. De haberlo hecho, se podría argumentar, que presumiblemente podría haber dibujado la segunda imagen sin estar presente el billete. Incluso en este caso, tampoco tiene sentido que ninguna imagen del billete de un dólar haya sido 'almacenada' en el cerebro de Jinny. Ella, simplemente, está mejor preparada para dibujar con precisión, al igual que, a través de la práctica, un pianista se hace más experto para su interpretación en un concierto, sin que de ninguna manera haya grabado una copia de la partitura.

A partir de este sencillo ejercicio, podemos empezar a construir el marco de una teoría libre de metáforas del comportamiento humano inteligente, una en la que el cerebro no está completamente vacío, pero al menos esté vacío del bagaje de la metáfora IP.

Mientras navegamos a través del mundo, somos cambiados por una gran variedad de experiencias. Son de especial interés las experiencias de tres tipos: (1) observamos lo que está sucediendo a nuestro alrededor (el comportamiento de otras personas, los sonidos de la música, instrucciones dirigidas a nosotros, palabras en las páginas, imágenes en las pantallas); (2) estamos expuestos al emparejamiento de estímulos poco importantes (como sonidos de sirenas) con estímulos importantes (como la aparición de coches de policía); (3) somos castigados o recompensados ​​por comportarnos de cierta manera.

Llegamos a ser más efectivos en nuestras vidas si cambiamos la forma en que se hacen consistentes estas experiencias, si ahora podemos recitar un poema o cantar una canción, si somos capaces de seguir las instrucciones que se nos dan, si respondemos a los estímulos sin importancia más que a los estímulos importantes, si nos abstenemos de comportarnos para no ser castigados, si nos comportamos con mayor frecuencia de formas que seamos recompensados.

Pese a ello, los titulares son engañosos, en realidad nadie tiene la más mínima idea de cómo cambia el cerebro después de que haya aprendido a cantar una canción o recitar un poema. Pero ni la canción ni el poema han sido 'almacenados' en él. El cerebro simplemente ha cambiado su ordenación de manera que ahora nos permite cantar la canción o recitar el poema bajo ciertas condiciones. Cuando se quiere realizar, ni la canción ni el poema está, en ningún sentido, 'recuperados' desde ninguna parte del cerebro, al igual que el movimiento de mis dedos cuando toco en el escritorio tampoco están 'recuperados'. Simplemente cantan o recitan, sin necesidad de recuperación.

Hace algunos años, le pregunté al neurólogo Eric Kandel, de la Universidad de Columbia, ganador de un Premio Nobel por la identificación de algunos de los cambios químicos que tienen lugar en las sinapsis neuronales de la Aplysia (un caracol marino), después de aprender algo, ¿cuánto tiempo piensa que nos llevará entender cómo funciona la memoria humana? Rápidamente respondió: “Unos cien años", No le pregunté si pensaba que la metáfora IP estuviera entorpeciendo la neurociencia, pero algunos neurocientíficos ya empiezan a pensar, de hecho, en lo impensable, que la metáfora no es indispensable.

Unos cuantos científicos cognitivos, como Anthony Chemero, de la Universidad de Cincinnati, autor de “Radical Embodied Cognitive Science” (2009), rechazan ahora completamente la idea de que el cerebro humano funcione como una computadora. La opinión más extendida es que, como las computadoras, que dan sentido al mundo mediante la realización de cálculos de las representaciones mentales de la misma, pero Chemero y otros, describen otra forma de entender el comportamiento inteligente, como una interacción directa entre los organismos y su mundo.

Mi ejemplo favorito de la gran diferencia entre la perspectiva de la IP y lo que algunos ahora llaman la visión "anti-representacional” del funcionamiento humano, implica dos formas distintas de explicar cómo un jugador de béisbol logra atrapar un “fly ball” (pelota al vuelo), muy bien explicados por Michael McBeath, ahora en la Universidad Estatal de Arizona, y sus colegas, en un estudio de 1995 en Science. La perspectiva IP requiere que el jugador formule una estimación de las diferentes condiciones iniciales de vuelo de la pelota, la fuerza del impacto, el ángulo de la trayectoria, ese tipo de cosas, a continuación, crear y analizar un modelo interno de la trayectoria en la que es probable que se mueva la pelota, y luego use ese modelo para orientar y ajustar los movimientos motores de forma continua en el tiempo, con el fin de interceptar la pelota.

Todo eso está muy bien, si funcionáramos como las computadoras, pero McBeath y sus colegas nos dan un relato más simple: para atrapar la pelota, el jugador necesita, simplemente, seguir el movimiento que de alguna manera mantiene la pelota en una relación visual constante respecto a la base y el escenario circundante (técnicamente, en una "trayectoria óptica lineal"). Esto puede sonar complicado, pero en realidad es muy simple, y completamente libre de los cálculos, representaciones y algoritmos.

Dos profesores de psicología de la Universidad de Leeds Beckett en el Reino Unido, Andrew Wilson y Sabrina Golonka, incluyeron este ejemplo de béisbol entre muchos otros que se pueden consultar de forma sencilla y con sensatez fuera del marco IP. Ellos han estado bloggeando durante años acerca de lo que llaman un "enfoque más coherente y naturalizado del estudio científico del comportamiento humano ... en franco desacuerdo con el enfoque de la neurociencia cognitiva dominante". Esto está lejos aún de moverse, sin embargo; las ciencias cognitivas principales continúan acríticamente revolcándose en la metáfora IP, y algunos de los pensadores más influyentes del mundo han hecho grandes predicciones sobre el futuro de la humanidad que dependen de la validez de esta metáfora.

Una predicción, hecha por el futurista Kurzweil, el físico Stephen Hawking y el neurocientífico Randal Koene, entre otros, es que, debido a que la conciencia humana es, supuestamente, igual que los programas informáticos, pronto será posible descargar la mente humana en un ordenador, y en tales circuitos llegaremos a ser inmensamente poderosos intelectualmente y, muy posiblemente, inmortales. Este concepto llevó a la trama de la película distópica “Transcendence” (2014), protagonizada por Johnny Depp, como el científico Kurzweil cuyo pensamiento fue descargado a internet con resultados desastrosos para la humanidad.
“Transcendence” (2014), protagonizada por Johnny Depp
Afortunadamente, debido a que la metáfora IP no es válida ni siquiera un poco, nunca tendremos que preocuparnos porque una mente humana vaya fuera de control por el ciberespacio; por desgracia, nunca vamos a alcanzar la inmortalidad a través de la descarga. Esto no es sólo haya una ausencia de software de la conciencia en el cerebro, hay aquí un problema más profundo, vamos a llamarlo un único problema, el cual es a su vez fuente de inspiración y depresivo.

Dado que no existen ni los ‘bancos de memoria’ ni ‘representaciones’ de los estímulos en el cerebro, y ya que todo lo que se requiere para que podamos funcionar en el mundo es que el cerebro cambie de manera ordenada, como resultado de nuestras experiencias, no hay razones para creer que cualquiera de nosotros cambie de la misma manera por la misma experiencia. Si usted y yo asistimos a un mismo concierto, los cambios que se producen en mi cerebro cuando escucho la 5ª de Beethoven es casi seguro que será completamente diferente de los cambios que se producen en tu cerebro. Estos cambios, cualesquiera que sean, están basadas en una estructura neuronal única existente, y cada estructura se ha ido desarrollando durante toda una vida de experiencias únicas.

Es por esto que, tal como Sir Frederic Bartlett demostró en su libro “Remembering” (1932), no hay dos personas que puedan repetir una historia que han escuchado de la misma manera, y por eso, con el tiempo, sus recitaciones de la historia divergen cada vez más. No existe una "copia" de la historia; más bien, cada individuo, al escuchar la historia, cambia en cierto modo, lo suficiente para que cuando se le preguntó más adelante acerca de esa historia (en algunos casos, días, meses o incluso años después de que Bartlett les leyera la historia), ellos puedan volver a experimentar la audición de la historia, en cierta medida, aunque no muy bien (ver el primer dibujo del billete de un dólar, expuesto más arriba).

Esto es fuente de inspiración, supongo, porque significa que cada uno de nosotros es verdaderamente único, no sólo en nuestra composición genética, sino en la forma en que nuestro cerebro cambia con el tiempo. También es deprimente, ya que hace de la neurociencia una tarea de enormes proporciones, casi más allá de la imaginación. Para cualquier experiencia dada, el cambio ordenada podría implicar un millar de neuronas, un millón de neuronas o incluso todo el cerebro, con el correspondiente patrón de cambio diferente en cada cerebro.

Peor aún, incluso si tuviéramos la capacidad de tomar una instantánea del total de los 86 mil millones de neuronas del cerebro y luego poder simular el estado de tales neuronas en una computadora, ese vasto patrón no significaría nada fuera del cuerpo cerebral que lo produjo. He aquí, quizá, la forma más atroz en el que la metáfora IP ha distorsionado nuestro pensamiento sobre el funcionamiento humano. Mientras que las computadoras almacenan copias exactas de los datos (los ejemplares pueden persistir sin cambios durante largos períodos de tiempo, incluso si la alimentación se ha apagado), el cerebro mantiene nuestro intelecto sólo en tanto se mantiene vivo. No hay un interruptor de encendido-apagado. O bien el cerebro sigue funcionando, o desaparece. Es más, como el neurobiólogo Steven Rose señaló en “The Future of the Brain” (2005), una instantánea del estado actual del cerebro también podría no tener sentido a menos que supiéramos toda la historia vital del dueño de ese cerebro, e incluso sobre el contexto social en el cual se crió.

Pensemos lo difícil de este problema. Para entender hasta lo más básico de cómo el cerebro mantiene el intelecto humano, es posible que necesite saber no sólo el estado actual de todos los 86 mil millones de neuronas y sus 100 mil billones de interconexiones, no sólo la variedad de puntos fuertes con los que están conectados, no sólo con el estado particular de las más de 1.000 proteínas que existen en cada punto de conexión, sino de cómo la actividad de momento a momento del cerebro contribuye a la integridad del sistema. Añadir a esto el carácter único de cada cerebro, provocado en parte por la singularidad de la historia vital de cada persona ..., entonces la predicción de Kandel comienza a sonar demasiado optimista. (En un reciente artículo de opinión en The New York Times, el neurocientífico Kenneth Miller sugirió que llevará 'siglos' tan sólo averiguar la conectividad neuronal básica).

Entre tanto, se están gastando grandes sumas de dinero para la investigación del cerebro, basándose en algunos casos en ideas y promesas erróneas que no pueden mantenerse. El ejemplo más flagrante de la neurociencia que salió mal, documentado recientemente en un informe en Scientific American, se refiere a los 1,3 mil millones de dólares del Human Brain Project, puesto en marcha por la Unión Europea en 2013. Convencidos por el carismático Henry Markram de que se podía crear una simulación de todo el cerebro humano en un superordenador para el año 2023, y que tal modelo revolucionaría el tratamiento de la enfermedad de Alzheimer y otros trastornos, los funcionarios de la UE financiaron su proyecto con prácticamente ninguna restricción. Pasaron menos de dos años para que el proyecto se convirtiera en un "desecho de cerebros", y se pidió a Markram que renunciara.

Somos organismos, no computadoras. Supéralo. Vamos a seguir adelante con el asunto de tratar de comprendernos a nosotros mismos, pero sin vernos entorpecidos por el innecesario bagaje intelectual. La metáfora IP ha tenido una carrera de medio siglo, produciendo pocos, por no decir ninguno, puntos de vista en el camino. Ha llegado el momento de pulsar la tecla ‘Eliminar’.

#####
Artículo original en AEON.co, “The empty brain” .
Autor: Robert Epstein, es psicólogo investigador del Instituto Americano sobre Investigación y Tecnología del Comportamiento en California. Es autor de 15 libros, y ex-editor jefe de la revista Psychology Today.
Imagen: What’s in a brain? Photo by Gallery Stock
Imagen: Los cuatro humores o fluidos: la sangre, la bilis amarilla, la flema y la bilis negra.
Imagen: Andre Ethier atrapa una pelota al vuelo (fly ball).
Imagen: “Transcendence” (2014), protagonizada por Johnny Depp