26 may. 2025

Leer el cerebro mediante colores y música es posible gracias a investigación

Interpretar la actividad del cerebro a través de la neuroimagen genera grandes cantidades de datos que pueden ser difíciles de explorar, una labor que resulta más fácil si pueden traducirse a un formato audiovisual, con un vídeo acompañado de banda sonora.

cerebro.jpg

Los investigadores mostraron cómo pueden prepararse representaciones audiovisuales con datos procedentes de diversos enfoques de obtención de imágenes cerebrales.

Imagen ilustrativa (laprensa.com.ni).

Este es el resultado de un novedoso conjunto de herramientas capaz de traducir los datos de neuroimagen a formatos audiovisuales para facilitar la interpretación de lo que ocurre en el cerebro al realizar determinados comportamientos.

El equipo responsable del avance, encabezado por la Universidad de Columbia (EEUU), presenta estas nuevas herramientas en un estudio que publica Plos One.

Lea más: Fin de la controversia: Cerebro de hombres y mujeres es muy distinto, según la inteligencia artificial

Los últimos avances tecnológicos han permitido registrar en tiempo real múltiples componentes de la actividad del cerebro despierto y permiten observar, por ejemplo, lo que ocurre en el cerebro de un ratón cuando realiza comportamientos específicos o recibe un determinado estímulo.

icono whatsappRecibí las noticias en tu celular, unite al canal de ÚH en WhatsApp

Un tipo de investigación que genera gran cantidad de datos que pueden resultar difíciles de explorar intuitivamente para comprender mejor los mecanismos biológicos que subyacen a los patrones de actividad cerebral, explica la revista en un comunicado.

El equipo encabezado por David Thibodeaux de Columbia desarrolló un conjunto de herramientas flexibles que permite traducir distintos tipos de datos de imágenes cerebrales -y las correspondientes grabaciones de vídeo del comportamiento de animales de laboratorio- a representaciones audiovisuales.

Sepa más: El ser humano usa varias partes del cerebro para procesar la melodía musical

Los investigadores demostraron la nueva técnica en tres escenarios experimentales diferentes, mostrando cómo pueden prepararse representaciones audiovisuales con datos procedentes de diversos enfoques de obtención de imágenes cerebrales.

En concreto, se tomaron imágenes a través de las técnicas de mapeo óptico de campo amplio (WFOM) en 2D y la microscopía de excitación planar confocal alineada (SCAPE) en 3D.

Las nuevas herramientas se aplicaron a los datos de WFOM recopilados previamente, que detectaban tanto la actividad neuronal como los cambios en el flujo sanguíneo cerebral de ratones que adoptaban distintos comportamientos, como correr o acicalarse.

Entérese más: Descifran los circuitos neuronales implicados en la toma de decisiones

Los datos neuronales se representaron mediante sonidos de piano que sonaban al mismo tiempo que los picos de actividad cerebral. El volumen de cada nota indicaba la magnitud de la actividad y su tono, el lugar del cerebro donde se producía la actividad.

Los datos del flujo sanguíneo se representaron con sonidos de violín.

Así, los sonidos de ambos instrumentos reproducidos en tiempo real, demuestran la relación entre la actividad neuronal y el flujo sanguíneo. Vistos junto a un vídeo del ratón, “el espectador puede discernir qué patrones de actividad cerebral corresponden a los distintos comportamientos”, agrega la publicación.

Más información: Diseñan un transistor similar al cerebro que trata de imitar la inteligencia humana

Los autores señalan que su conjunto de herramientas no sustituye al análisis cuantitativo de los datos de neuroimagen, pero podría ayudar a examinar grandes conjuntos de datos en busca de patrones que, de otro modo, podrían haber pasado desapercibidos y merecerían un análisis más detallado.

“Escuchar y ver representaciones de datos -de actividad cerebral- es una experiencia inmersiva que puede aprovechar nuestra capacidad de reconocer e interpretar patrones”, escriben los investigadores, quienes consideran que una representación auditiva de los datos hace que sea mucho más sencillo ver (y oír) cuando las cosas suceden exactamente al mismo tiempo”.

Fuente: EFE.

Más contenido de esta sección
La Corte Suprema de Brasil aceptó este martes las denuncias contra nueve militares y un policía acusados de planificar el asesinato del presidente Luiz Inácio Lula da Silva y otras autoridades en el marco de una conspiración golpista atribuida al ex mandatario Jair Bolsonaro.
Google presentó este martes su última versión de lentes inteligentes, Android XR, un modelo que incorpora su inteligencia artificial Gemini y que es capaz de traducir en vivo, aunque la demostración de esa función dio fallos durante la conferencia para desarrolladores Google I/O. También introdujo cambios en su motor de búsqueda de la mano de la inteligencia artificial.
Google lanzó este martes su nuevo modelo de generación de video con inteligencia artificial (IA), Veo 3, que por primera vez puede generar video y audio -música, efectos especiales y diálogo-, pues hasta ahora la IA solo podía generar imágenes, pero no sonido.
El secretario de Salud de Estados Unidos, Robert F. Kennedy Jr., instó este martes a otros países a retirarse de la Organización Mundial de la Salud (OMS) y crear instituciones alternativas y afirmó que esta agencia de la ONU está moribunda.
El Ministerio de Educación de Brasil anunció que prohíbe la oferta de cursos totalmente a distancia en cinco carreras de gran demanda, según reportaron medios brasileños.
El juicio por la muerte de Diego Armando Maradona se suspendió este martes por el plazo de una semana para que se investigue si existen motivos para recusar a una de las juezas del tribunal, Julieta Makintach, acusada de parcialidad y de haber permitido el ingreso de dos documentalistas sin autorización.