Los científicos han logrado decodificar y reconstruir la experiencia visual humana, consiguiendo una mezcla vanguardista de imágenes del cerebro y de simulación por ordenador a través de la que han vislumbrado escenarios futuristas que, quizás, permitan a largo plazo observar las imágenes de la mente de un paciente en coma, o ver un sueño propio en YouTube. El estudio ha sido publicado en la revista Current Biology.
Aunque han advertido que con esta tecnología no se puede adivinar el pensamiento, sí es una gran avance, pero hay que seguir perfeccionándolo: "Las imágenes se parecen al trabajo de Vincent Van Gogh, o aún Jackson Pollock, en un día malo", afirma uno de los investigadores
Utilizando una resonancia magnética funcional (FMRI, por sus siglas en inglés) y modelos computacionales, los investigadores de Berkeley han tenido éxito decodificando y reconstruyendo experiencias visuales dinámicas, en este caso mientras los sujetos del estudio visionaban 'trailer' de películas de Hollywood.
Hasta el momento, la única tecnología disponible solo era capaz de reconstruir imágenes en movimiento que las personas ya habían visto. Sin embargo, este gran avance abre el camino para la reproducción de películas dentro de nuestra cabeza que nadie más ve, como sueños y recuerdos. "Este es un gran paso hacia la reconstrucción de imágenes internas", afirma el profesor Jack Gallant, neurocientífico de la Universidad de Berkeley y coautor del estudio.
Con el tiempo, las aplicaciones prácticas de esta tecnología podrían incluir una mejor comprensión de lo que sucede en las mentes de las personas que no pueden comunicarse verbalmente, como las víctimas de un accidente cerebrovascular, los pacientes en coma y las personas con enfermedades neurodegenerativas. También puede sentar las bases para el desarrollo de la interfaz cerebro-máquina, de manera que las personas con parálisis cerebral, por ejemplo, puedan guiar a sus ordenadores con sus mentes. Sin embargo, los investigadores señalan que la tecnología está a décadas de permitir a los usuarios leer los pensamientos de los demás y sus intenciones.
Un complejo proceso
Shinji Nishimoto, autor principal del estudio, y otros dos miembros del equipo de investigación sirvieron como sujetos para el experimento, ya que el procedimiento requiere que los voluntarios a permanezcan inmóviles dentro del escáner durante horas. Visionaron dos conjuntos separados de 'trailers' de películas de Hollywood, mientras que la fMRI medía el flujo sanguíneo de la corteza visual --la parte del cerebro que procesa la información visual. En el ordenador, el cerebro se dividió en pequeños cubos tridimensionales conocidos como píxeles volumétricos, o 'voxels'. "Hemos construido un modelo para cada voxel que describe cómo se forma la información del movimiento en la película asignada a la actividad del cerebro", explica Nishimoto.La actividad cerebral registrada mientras que los sujetos visionaban la primera serie de clips se introdujo en un programa de ordenador, segundo a segundo, para asociar patrones visuales de la película con la actividad cerebral correspondiente.
Del mismo modo, la actividad cerebral evocada por el segundo conjunto de clips se utilizó para probar el algoritmo de reconstrucción de la película. Esto se llevó a cabo introduciendo 18 millones de segundos de vídeos de YouTube al azar en el programa informático para que pudiese predecir la actividad cerebral que cada clip de película evocaba.
Finalmente, los 100 clips que el programa informático decidió que eran los más parecidos al clip que el sujeto había visto, se fusionaron para producir una reconstrucción borrosa pero continua de la película original.
No hay comentarios:
Publicar un comentario