Está usted en una fiesta. La música suena a todo volumen, los hielos titilan en sus copas, se oyen risas y voces de decenas de invitados; sin embargo, usted solo tiene oídos para esa persona con quien está hablando. Desde la década de 1950, los científicos tratan de explicar cómo el cerebro filtra las señales sonoras que le importan. De hecho, en neurociencias se conoce como ‘el problema de la fiesta de cóctel’.

Ahora, investigadores estadounidenses han desvelado los mecanismos por los que el cerebro, sin que seamos conscientes de haber realizado un esfuerzo excesivo, consigue reducir todo el barullo que nos rodea y quedarse solo con lo que le interesa, una capacidad cognitiva de gran importancia social.

Los resultados han sido publicados hoy en la revista Neuron y desvelan que el proceso de filtrado de la información se produce en dos etapas. En la corteza auditiva primaria se modulan las señales –es decir, se sube el volumen de lo que interesa y se baja lo demás, pero todo está presente–. Al mismo tiempo, áreas destinadas a funciones superiores hacen una selección y eliminan ya totalmente lo que se quiere ignorar.

El estudio requería el registro de la actividad eléctrica directamente sobre la corteza cerebral. Por eso se realizó, previo consentimiento, en seis pacientes con epilepsia aprovechando que, para identificar las zonas donde se originaban los ataques de epilepsia, se les iba a realizar una electrocorticografía. En esta intervención se aplican electrodos sobre la superficie expuesta del cerebro.

Los participantes observaron un vídeo con dos personas hablando simultáneamente y se les dio instrucciones de prestar atención solamente a uno de los discursos, ignorando el otro. Durante el experimento se midieron sus ondas cerebrales con electrodos. Observar la cara y gestos del hablante contribuye al procesamiento del discurso, lo que da lugar a pensar que algunos de los efectos observados en el estudio estén influenciados no solo con lo escuchado sino también con estímulos visuales.

En la corteza auditiva primaria se percibieron tanto las señales del discurso principal, como las que no interesaban; algo esperable, puesto que, como dice Charles Schroeder, científico de la Universidad de Columbia y uno de los autores principales del estudio, “no podemos cerrar los oídos”. Sin embargo, ya en este momento la señal correspondiente al discurso de interés se detectaba con una amplitud mayor que las demás.

Por otro lado y simultáneamente, se analizaron las ondas cerebrales de áreas dedicadas a funciones superiores, como el lenguaje o el control de la atención. Es en este punto cuando el cerebro selecciona específicamente lo que le interesa. La señal del discurso de interés era muy clara, pero las demás conversaciones no fueron detectadas.

“Esta es la primera evidencia clara de que hay zonas del cerebro donde solo se tiene en cuenta la conversación a la que se atiende, mientras las ignoradas se filtran y eliminan” declara Schroeder.

El cerebro predice los giros del discurso

Pero, además, a medida que la frase toma forma y significado, la señal se hace cada vez más definida. Esto parece ocurrir porque la forma en la que se estructura el discurso permite al cerebro predecir cuándo van a tener lugar ciertos eventos clave y así las propias neuronas se predisponen para encenderse con mayor facilidad en estos momentos.

Otras investigaciones para revelar las zonas del cerebro implicadas en focalizar la atención habían utilizado estímulos simples, como pitidos breves o frases cortas. Esta vez, se ha utilizado un discurso natural y completo, lo cual proporciona herramientas para alcanzar los objetivos del proyecto mundial de mapeo de la actividad cerebral –Brain Activity Map Project–.

Hasta ahora este tipo de estudios solamente se habían realizado en animales. Schroeder y sus colegas han demostrado que es posible aprovechar operaciones en pacientes con epilepsia para el estudio de capacidades puramente humanas, como el lenguaje o la música.

Referencia bibliográfica:

E. M. Z. Golumbic, N. Ding, S. Bickel, P. Lakatos, C. A. Schevon, G. M. McKhann, R. R. Goodman, R. Emerson, A. D. Mehta, J. Z. Simon, D. Poeppel “Mechanisms Underlying Selective Neuronal Tracking of Attended Speech at a “Cocktail Party” Neuron 77, 2013 doi: doi: 10.1016/j.neuron.2012.12.037

Los comentarios están cerrados.