Descubren cómo el cerebro sube el volumen para escuchar a alguien en una multitud

  • Un estudio desentraña los pasos que da el cerebro para elegir una voz entre muchas

Nuestro cerebro tienen una capacidad notable para elegir una voz entre muchas. Un equipo de neuroingenieros de la Universidad de Columbia ha descubierto los pasos que tienen lugar en el cerebro para hacer posible esta hazaña. El estudio ayuda a resolver cómo el centro de audición del cerebro puede decodificar y amplificar una voz sobre otras, a velocidades ultrarrápidas. Este nuevo conocimiento también puede estimular el desarrollo de tecnologías de audífonos e interfaces cerebro-computadora que se parecen más al cerebro.

La corteza auditiva es el centro de escucha del cerebro. El oído interno envía a esta región del cerebro señales eléctricas que representan un revoltijo de ondas de sonido del mundo exterior. La corteza auditiva debe entonces distinguir sonidos significativos de ese revoltijo.

"Hace tiempo que sabemos que las áreas de la corteza auditiva están dispuestas en una jerarquía, con decodificación cada vez más compleja en cada etapa, pero no hemos observado cómo se procesa la voz de un hablante en particular a lo largo de este camino", dijo James O ' Sullivan, primer autor del artículo que completó este trabajo. "Para comprender este proceso, necesitábamos registrar la actividad neuronal del cerebro directamente".

Los investigadores estaban particularmente interesados en dos partes de la jerarquía de la corteza auditiva: la circunvolución de Heschl (HG) y la circunvolución temporal superior (STG). La información del oído llega primero a HG, la atraviesa y llega a STG más tarde. Para comprender estas regiones del cerebro , los investigadores se reunieron con varios neurocirujanos y especialistas. Con base en el Centro Médico Irving de la Universidad de Columbia y Northwell Health, estos médicos tratan a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías cerebrales regulares. Para este estudio, los pacientes se ofrecieron como voluntarios para escuchar grabaciones de personas que hablaban mientras los doctores Nima Mesgarani y James O'Sullivan monitorearon sus ondas cerebrales a través de electrodos implantados en las regiones HG o STG de los pacientes.

Los electrodos permitieron al equipo identificar una distinción clara entre los roles de las dos áreas del cerebro en la interpretación de los sonidos. Los datos mostraron que HG crea una representación rica y multidimensional de la mezcla de sonido, por lo que cada altavoz está separado por diferencias de frecuencia. Esta región no mostró preferencia por una voz u otra. Sin embargo, los datos recopilados de STG cuentan una historia claramente diferente.

HG representa y STG selecciona, todo ello en 150 milisegundos

"Descubrimos que es posible amplificar la voz de un hablante u otro ponderando correctamente la señal de salida que proviene de HG. Según nuestras grabaciones, es posible que la región STG realice esa ponderación", dijo el Dr. O'Sullivan. Tomados en conjunto, estos hallazgos revelan una clara división de deberes entre estas dos áreas de la corteza auditiva: HG representa, mientras que STG selecciona. Todo sucede en alrededor de 150 milisegundos, lo que parece instantáneo para un oyente.

Los investigadores también encontraron un papel adicional para STG. Después de la selección, STG forma un objeto auditivo, una representación del sonido que es análoga a nuestras representaciones mentales de los objetos que vemos con nuestros ojos. Esto demuestra que incluso cuando una voz está oscurecida por otro hablante, como cuando dos personas hablan entre sí, STG puede representar al orador deseado como un todo unificado que no se ve afectado por el volumen de la voz competidora.

La información obtenida aquí podría usarse como base para algoritmos que replican este proceso biológico artificialmente, como en los audífonos. A principios de este año, la doctora Mesgarani y su equipo anunciaron el desarrollo de un audífono controlado por el cerebro, que utiliza uno de estos algoritmos para amplificar los sonidos de un altavoz sobre otro. Los investigadores planean estudiar la actividad de HG y STG en escenarios cada vez más complejos, con más oradores e incluyendo señales visuales. Estos esfuerzos ayudarán a crear una imagen detallada y precisa de cómo funciona cada área de la corteza auditiva.