¿Podemos leer la mente? Estrictamente hablando no. Pero nuevos avances indican que en el futuro las cosas cambiarán.
En cierto modo estamos permanentemente leyendo la mente de las personas con las que interaccionamos. Hacemos supuestos de lo que piensan (teoría de la mente) y acertamos en buena medida. El lenguaje no verbal es un buen indicador de lo que pasa por la cabeza de nuestro interlocutor: sus gestos, su cara, sus movimientos, sus ojos. Por supuesto tenemos una buena idea si esa persona usa el lenguaje, nos habla y nos dice lo que piensa.
Con las nuevas herramientas de neuroimagen, especialmente la resonancia funcional magnética fMRI, entramos en una nueva dimensión. La fMRI mide el consumo de oxigeno del cerebro con una resolución de un voxel (aproximadamente un cubo de 2mm de lado). No mide la actividad neuronal, esta se infiere a partir del consumo de oxígeno. La resolución espacial es muy alta (aunque en un voxel caben cientos de miles de neuronas). El problema (entre otros) es que la resolución temporal es muy baja (1s frente a las neuronas que disparan en la frontera de 1ms).
En la imagen adjunta de 2008 se observa que la decodificación de imágenes estáticas es bastante buena y se puede leer neuron, la palabra presentada al sujeto.
Pero la experiencia visual común es la de imágenes en movimiento. Y aunque no pretendamos llegar al milisegundo de la neurona, sí al ritmo del cine: 24 imágenes por segundo, lejos de la resolución temporal del fMRI.
En el último estudio publicado, el equipo de la Universidad de Berkeley logra decodificar los vídeos que el sujeto está viendo. El resultado es muy borroso, pero la tecnología y los modelos se irán refinando.
El cerebro está organizado en áreas jerárquicas (aunque no solo). El córtex visual tiene un área primaria V1 que recibe los impulsos de la retina y analiza formas simples como líneas de determinada orientación y movimiento. El resultado de V1 pasa a otras áreas jerárquicamente superiores que analizan otros rasgos progresivamente más complejos hasta llegar al reconocimiento de caras, objetos y palabras.
En el estudio se presentan horas de vídeo a los sujetos participantes y se recogen sus datos de fMRI. Para cada voxel se crea un diccionario de datos. Después se presentan imágenes nuevas y se utiliza el diccionario para suponer lo que está viendo el sujeto. El diccionario es una media de imágenes de youtube.
Aunque el resultado es borroso, en el futuro la tecnología mejorará. Pero no solo eso. Solo hay creado el diccionario del área visual primaria V1. Los investigadores quieren crear los diccionarios del resto de áreas visuales de modo que el programa relacionará ángulos y líneas con caras de personas concretas y realizará predicciones mucho más fiables.
No podemos leer la mente pero nos acercamos.
ç
Entrevista a Jack Gallant, profesor de Psychology and Neuroscience Programs in Bioengineering, Biophysics and Vision Science at UC Berkeley
ç
Entrevista a Jack Gallant, profesor de Psychology and Neuroscience Programs in Bioengineering, Biophysics and Vision Science at UC Berkeley
No hay comentarios:
Publicar un comentario