Home » La IA puede recrear lo que ves a partir de un escáner cerebral

La IA puede recrear lo que ves a partir de un escáner cerebral

by admin
La IA puede recrear lo que ves a partir de un escáner cerebral

La resonancia magnética funcional, o fMRI, es una de las herramientas más avanzadas para comprender cómo pensamos. A medida que una persona en un escáner fMRI completa varias tareas mentales, la máquina produce imágenes fascinantes y coloridas de su cerebro en acción.

Observar la actividad cerebral de alguien de esta manera puede decirles a los neurocientíficos qué áreas del cerebro está usando una persona pero no qué ese individuo está pensando, viendo o sintiendo. Los investigadores han estado tratando de descifrar ese código durante décadas, y ahora, utilizando inteligencia artificial para procesar los números, han logrado un gran progreso. Dos científicos en Japón combinaron recientemente datos de fMRI con IA avanzada de generación de imágenes para traducir la actividad cerebral de los participantes del estudio en imágenes que se parecían asombrosamente a las que vieron durante los escaneos. Las imágenes originales y recreadas se pueden ver en el sitio web de los investigadores.

“Podemos usar este tipo de técnicas para construir posibles interfaces cerebro-máquina”, dice Yu Takagi, neurocientífico de la Universidad de Osaka en Japón y uno de los autores del estudio. Dichas interfaces futuras podrían algún día ayudar a las personas que actualmente no pueden comunicarse, como las personas que aparentemente no parecen responder pero aún pueden estar conscientes. El estudio fue aceptado recientemente para ser presentado en la Conferencia 2023 sobre Visión por Computador y Reconocimiento de Patrones.

El estudio ha causado sensación en línea desde que se publicó como una versión preliminar (lo que significa que aún no ha sido revisado por pares ni publicado) en diciembre de 2022. Los comentaristas en línea incluso han comparado la tecnología con la “lectura de la mente”. Pero esa descripción exagera lo que esta tecnología es capaz de hacer, dicen los expertos.

“No creo que estemos leyendo la mente”, dice Shailee Jain, neurocientífica computacional de la Universidad de Texas en Austin, que no participó en el nuevo estudio. “No creo que la tecnología esté cerca de ser realmente útil para los pacientes, o de ser utilizada para cosas malas, en este momento. Pero estamos mejorando, día a día”.

El nuevo estudio está lejos de ser el primero que utilizó IA en la actividad cerebral para reconstruir imágenes vistas por personas. En un experimento de 2019, investigadores en Kioto, Japón, utilizaron un tipo de aprendizaje automático llamado red neuronal profunda para reconstruir imágenes a partir de escaneos de IRMf. Los resultados se parecían más a pinturas abstractas que a fotografías, pero los jueces humanos aún podían hacer coincidir con precisión las imágenes creadas por IA con las imágenes originales.

Desde entonces, los neurocientíficos han continuado este trabajo con generadores de imágenes de IA más nuevos y mejores. En el estudio reciente, los investigadores utilizaron Stable Diffusion, el llamado modelo de difusión de la start-up Stability AI con sede en Londres. Los modelos de difusión, una categoría que también incluye generadores de imágenes como DALL-E 2, son “el personaje principal de la explosión de la IA”, dice Takagi. Estos modelos aprenden añadiendo ruido a sus imágenes de entrenamiento. Al igual que la estática de la televisión, el ruido distorsiona las imágenes, pero de formas predecibles que el modelo comienza a aprender. Eventualmente, el modelo puede construir imágenes solo a partir de lo “estático”.

Lanzado al público en agosto de 2022, Stable Diffusion ha sido entrenado en miles de millones de fotografías y sus leyendas. Ha aprendido a reconocer patrones en imágenes, por lo que puede mezclar y combinar características visuales a voluntad para generar imágenes completamente nuevas. “Simplemente dígale, correcto, ‘Un perro en una patineta’, y luego generará un perro en una patineta”, dice Iris Groen, neurocientífica de la Universidad de Amsterdam, que no participó en el nuevo estudio. Los investigadores “simplemente tomaron ese modelo y luego dijeron: ‘Está bien, ¿podemos vincularlo ahora de manera inteligente con los escáneres cerebrales?'”.

Los escáneres cerebrales utilizados en el nuevo estudio provienen de una base de datos de investigación que contiene los resultados de un estudio anterior en el que ocho participantes acordaron colocarse regularmente en un escáner fMRI y ver 10 000 imágenes en el transcurso de un año. El resultado fue un enorme depósito de datos de fMRI que muestra cómo los centros de visión del cerebro humano (o al menos los cerebros de estos ocho participantes humanos) responden al ver cada una de las imágenes. En el estudio reciente, los investigadores utilizaron datos de cuatro de los participantes originales.

Para generar las imágenes reconstruidas, el modelo de IA necesita trabajar con dos tipos diferentes de información: las propiedades visuales de nivel inferior de la imagen y su significado de nivel superior. Por ejemplo, no es solo un objeto angular y alargado contra un fondo azul, es un avión en el cielo. El cerebro también trabaja con estos dos tipos de información y los procesa en diferentes regiones. Para vincular los escáneres cerebrales y la IA, los investigadores utilizaron modelos lineales para emparejar las partes de cada uno que se ocupan de la información visual de nivel inferior. También hicieron lo mismo con las partes que manejan información conceptual de alto nivel.

“Básicamente, al mapearlos entre sí, pudieron generar estas imágenes”, dice Groen. El modelo de IA podría entonces aprender qué patrones sutiles en la activación cerebral de una persona corresponden a qué características de las imágenes. Una vez que el modelo pudo reconocer estos patrones, los investigadores lo alimentaron con datos de fMRI que nunca antes había visto y le encargaron que generara la imagen que lo acompañara. Finalmente, los investigadores pudieron comparar la imagen generada con la original para ver qué tan bien se desempeñó el modelo.

Muchos de los pares de imágenes que los autores muestran en el estudio se ven sorprendentemente similares. “Lo que encuentro emocionante es que funciona”, dice Ambuj Singh, científico informático de la Universidad de California, Santa Bárbara, que no participó en el estudio. Aún así, eso no significa que los científicos hayan descubierto exactamente cómo el cerebro procesa el mundo visual, dice Singh. El modelo de Difusión Estable no procesa necesariamente las imágenes de la misma manera que lo hace el cerebro, incluso si es capaz de generar resultados similares. Los autores esperan que la comparación de estos modelos y el cerebro pueda arrojar luz sobre el funcionamiento interno de ambos sistemas complejos.

Por fantástica que parezca esta tecnología, tiene muchas limitaciones. Cada modelo debe ser entrenado y utilizar los datos de una sola persona. “El cerebro de todos es realmente diferente”, dice Lynn Le, neurocientífica computacional de la Universidad de Radboud en los Países Bajos, que no participó en la investigación. Si quisiera que la IA reconstruyera imágenes de sus escáneres cerebrales, tendría que entrenar un modelo personalizado, y para eso, los científicos necesitarían grandes cantidades de datos de fMRI de alta calidad de su cerebro. A menos que consienta en quedarse completamente quieto y concentrarse en miles de imágenes dentro de un tubo de resonancia magnética claustrofóbico y ruidoso, ningún modelo de IA existente tendría suficientes datos para comenzar a decodificar su actividad cerebral.

Incluso con esos datos, los modelos de IA solo son buenos en tareas para las que han sido entrenados explícitamente, explica Jain. Un modelo entrenado sobre cómo percibes las imágenes no funcionará para tratar de decodificar los conceptos en los que estás pensando, aunque algunos equipos de investigación, incluido el de Jain, están construyendo otros modelos para eso.

Todavía no está claro si esta tecnología funcionaría para reconstruir imágenes que los participantes solo han imaginado, no visto con sus ojos. Esa capacidad sería necesaria para muchas aplicaciones de la tecnología, como el uso de interfaces cerebro-computadora para ayudar a aquellos que no pueden hablar o gesticular para comunicarse con el mundo.

“Hay mucho que ganar, neurocientíficamente, con la construcción de tecnología de decodificación”, dice Jain. Pero los beneficios potenciales vienen con posibles dilemas éticos, y abordarlos será aún más importante a medida que mejoren estas técnicas. Las limitaciones actuales de la tecnología “no son una excusa lo suficientemente buena como para tomar a la ligera los daños potenciales de la decodificación”, dice. “Creo que ahora es el momento de pensar en la privacidad y los usos negativos de esta tecnología, aunque es posible que no estemos en la etapa en que eso podría suceder”.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy