domingo, 25 de noviembre de 2012

Memoria de trabajo (working memory), RAM y biblioteca

Es posible realizar una analogía a tres niveles entre el funcionamiento de la memoria de trabajo (working memory) del cerebro, la RAM de un ordenador y una biblioteca.

La memoria de trabajo (WM) es un concepto introducido por Alan Baddeley en 1976 para sustituir a la memoria a corto plazo, más imprecisa. Es un modelo discutible, como todos, pero interesante.
Se refiere a la memoria activa que se utiliza en los procesos conscientes. Tiene tres componentes:
  • El ejecutivo central. Decide a que prestar atención y organiza la secuencia de operaciones
  • El bucle fonológico. Maneja y mantiene en memoria el material hablado y escrito.
  • El bloc de notas visuoespacial. Maneja y mantiene las imágenes.
La memoria de trabajo (WM) se encuentra en la corteza prefontal y sus contenidos se actualizan constantemente. Se alimenta tanto de los sentidos como de la memoria a largo plazo (que se encuentra distribuida por toda la corteza).
Es tentador imaginar que los contenidos de la memoria a largo plazo se transfieren a la memoria de trabajo, se modifican y se vuelven a almacenar en la memoria a largo plazo. Pero el cerebro no funciona así. Más bien, la memoria de trabajo activa las zonas del cerebro que contienen los recuerdos en una acción conjunta que llamamos conciencia.


Algunas de las características de la memoria de trabajo son: su capacidad es limitada (el número mágico de 7 items), sus contenidos se actualizan permanentemente, es reverberante (para evitar que los contenidos decaigan), en buena medida es serial y no paralela, de modo que genera cuellos de botella y problemas de rendimiento. También se ha relacionado con el espacio de trabajo global (Global Workspace de Baars).
Los ordenadores tienen tres componentes clásicos:
  • La CPU procesa las instrucciones. Utiliza unas diminutas memorias llamadas registros que carga y descarga de la memoria RAM
  • La memoria principal o RAM. Es volátil, se borra cuando se apaga el ordenador.
  • La memoria auxiliar. Es permanente. En general se trata del disco duro.
La CPU es muchas veces más rápida que la RAM y la RAM muchas veces más rápida que el disco. A su vez, el disco es más barato que la RAM y esta es más barata que la CPU. El almacenamiento en disco es mucho mayor que la RAM Entre estos componentes hay múltiples memorias intermedias llamadas cachés.
La analogía es clara. La memoria RAM se parece a la memoria de trabajo (WM) y el disco duro se parece a la memoria a largo plazo.
Imagina ahora que vas a una biblioteca. Un bibliotecario maneja los libros en las estanterías y tú ocupas unamesa de trabajo. No puedes trabajar sin libros y a la vez no puedes trabajar con los libros que están almacenados en las estanterías. Cuando llegas tu mesa está vacía y la limpias cuando te vas. La analogía es de nuevo clara. Por un lado tienes:
  • la mesa de trabajo,
  • la memoria RAM
  • la memoria de trabajo (WM).
Por otro lado:
  • las estanterías con los libros,
  • el disco duro
  • la memoria a largo plazo.
Cuando llegas, tu mesa está vacía y pides al bibliotecario que te traiga unos libros, es decir, cargas la RAM con información del disco duro o traes a la conciencia los contenidos de la memoria a largo plazo. El acceso a la información en la mesa es rápido del mismo modo que lo es en la RAM o en la memoria de trabajo (WM). Procesas los contenidos, los comparas y los modificas. Después devuelves los libros actualizados a las estanterías (no lo hagas, por favor, lleva tu propio cuaderno), grabas la RAM en el disco duro o modificas los contenidos de la memoria a largo plazo. Finalmente la mesa de trabajo, la memoria RAM y la memoria de trabajo (WM) quedan vacías.
El proceso de carga de datos es análogo en los tres sistemas; es trabajoso y lento:
  • Lees el índice, seleccionas la ficha, se la das al bibliotecario que recorre las estanterías hasta dar con el libro y traértelo.
  • El ordenador lee el fichero de índices, busca el registro pedido, va al fichero de datos, lee el registro (y de paso otros muchos registros) y lo carga en memoria. Índice, fichero o registro son de hecho términos importados en la informática desde el mundo de los libros y el papel.
  • Buscar la información es un proceso penoso para el cerebro. Sabes que lo sabes (metacognición), lo tienes en la punta de la lengua pero ahora no caes: ¿A quién tienes enfrente? Repasas la claves (índices): lo vi en un congreso, contaba chistes, su nombre empieza por e o por f, era conocido de alguien… Ah sí, es Fernando. Y con el nombre traes a la memoria de trabajo otra información: ciudad, relaciones, deporte…
Una simple analogía en tres niveles, más válida entre los ordenadores y la biblioteca, cosas ambas creadas por nosotros. Una analogía más débil en el caso del cerebro.

Artículo publicado originalmente en ALT1040

viernes, 23 de noviembre de 2012

Watson, el ordenador que quería ser el mejor de la clase

El servicio de información y noticias científicas SINC ha publicado un reportaje llamado Watson, el ordenador que quería ser el mejor de la clase, de la periodista Ana Hernando en el que soy mencionado varias veces.

Watson es un ordenador que promete cambiar esencialmente la computación futura. En lugar de tener ordenadores que necesitan ser programados, Watson propone un nuevo paradigma en el que los ordenadores serán entrenados.



Adjunto el artículo completo.


Los científicos de IBM trabajan en sistemas que abrirán la era cognitiva de la computación. El primer ejemplo de esta nueva etapa es su ordenador Watson, que entiende el lenguaje natural y es capaz aprender. Watson bucea en gigantescas cantidades de información no estructurada, genera hipótesis y busca evidencias para dar con la mejor respuesta. No se ha quedado como proyecto de laboratorio ni de exhibición televisiva y ya se está aplicando para mejorar el diagnostico en oncología y en el sector financiero.

Ana Hernando | 23 noviembre 2012 09:17

IBM cumplió el pasado año su primer siglo de vida. La tecnología le debe muchos de sus avances, desde las tarjetas perforadas de comienzos del siglo XX al primer ordenador personal, pasando por el código de barras e incluso las bandas magnéticas de las tarjetas de crédito. Ahora, este gigante ha puesto a sus científicos a trabajar en lo que llama la ‘computación cognitiva’, “una tercera era en la informática con máquinas que pueden aprender, emulando algunas de las funciones del cerebro humano”, explica a SINC Mark Ritter, director de la división de analítica y proceso de IBM Research y experto en sistemas cognitivos.

“Primero las máquinas podían contar, luego eran programadas y en esta nueva era podrán aprender y ayudarnos a descubrir cosas nuevas”, añade Ritter.

Según este experto, uno de los primeros ejemplos de esta nueva tecnología es Watson, un potente ordenador creado por IBM –llamado así en honor a Thomas John Watson, fundador de la  multinacional–, que el pasado año batió a los dos mejores jugadores de un concurso televisivo muy famoso en EE UU llamado Jeopardy.

No es la primera vez que una máquina de IBM reta a los humanos. En 1997 su ordenador Deep Blue derrotó al campeón de ajedrez Gary Kasparov, pero aquel desafío se basó en la lógica precisa y matemática del ajedrez. En cambio, en Jeopardy, Watson “venció respondiendo correctamente, en segundos, a preguntas formuladas en lenguaje coloquial en las que se utilizaba el doble sentido, la ambigüedad, la ironía y los juegos de palabras, algo no alcanzado hasta el momento por ninguna máquina”, subraya Ritter .

Cientos de algoritmos compitiendo

Watson, un ordenador con 2.880 núcleos de procesador y 15 terabytes de de RAM, opera a 80 teraflops (80 billones de operaciones por segundo) y está basado en la arquitectura multiprocesador POWER7 de IBM. Pero, según Antonio Orbe, experto en sistemas cognitivos de IBM España, “lo más novedoso de este ordenador es su software, con cientos de algoritmos que compiten entre sí para encontrar la mejor respuesta”.

Muchos de los sistemas actuales de pregunta y respuesta se basan tan solo en un puñado de algoritmos y, por ello, no funcionan bien. “Es imposible simular la habilidad humana para analizar lenguaje e información con único programa”, añade Orbe.

Pero Watson usa más de 100 algoritmos al mismo tiempo para analizar una pregunta de diferentes formas, generando cientos de posibles soluciones. Otro conjunto de instrucciones hace un ranking de esas respuestas, según su verosimilitud. Por ejemplo, si un buen número de algoritmos, trabajando en diferentes direcciones, llega a la misma respuesta, es más probable que sea la correcta, explica.

“En esencia –añade Orbe– Watson trabaja con probabilidades. No produce solo una respuesta correcta si no un enorme número de posibilidades y luego las clasifica, valorando cuál de ellas es la mejor, de una forma similar a como lo hace la mente humana”. El sistema también es capaz de aprender de sus errores y averigua que para determinado tipo de preguntas unos algoritmos funcionan mejor que otros.

Todo este proceso lo realiza Watson con una gran velocidad. “Este ordenador es capaz de de analizar inmensas cantidades de datos no estructurados de una forma excepcionalmente rápida. En el prototipo que venció en Jeopardy, analizó un millón de libros, el equivalente a 200 millones de páginas en tres segundos”, subraya el experto español.

Además, el sistema, dice Antonio Orbe, “es capaz de analizar, entender y hallar correlaciones de los datos de una manera muy novedosa”.

Los científicos de la multinacional están ahora trabajando para que Watson en el futuro pueda establecer un dialogo interactivo, desarrollar perfiles de las evidencias encontradas, revelando el origen de sus respuestas y establecer un aprendizaje constante basado en su propia experiencia.

Información no estructurada

Así como el sistema Deep Blue no trajo consigo aplicaciones posteriores en el ámbito empresarial, IBM ya ha puesto a Watson a trabajar y se está usando, por ejemplo, en investigación y mejora del diagnóstico en oncología, en colaboración con Memorial Sloan Kettering Cancer Center de Nueva York. Y en el mundo de las finanzas, tras un acuerdo con Citigroup. Tanto la medicina como las finanzas manejan cantidades masivas de datos y comparten una necesidad imperiosa de gestionar la información rápidamente.

Watson está recibiendo ya entrenamiento y engulle toda la información relevante de estos ámbitos. “Es muy importante reiterar que Watson, contrariamente a los sistemas convencionales, es capaz de trabajar con información no estructurada, como una conversación, un artículo científico o datos procedentes de internet y de redes sociales, subraya Orbe.

Según Mark Ritter, el volumen de información mundial está creciendo a una velocidad inusitada. El 90% de la información que usamos en la actualidad se ha generado en los últimos dos años y casi 90% de estos datos no están estructurados, es decir, que no se encuentran en bases de datos y, por lo tanto, no son accesibles para los sistemas convencionales, aunque sí lo serían para los ordenadores Watson. “No hace falta decir lo valiosa que es toda esa información para el mundo empresarial”, añade.

Por su parte, Antonio Orbe subraya que en los próximos años se verá una eclosión de aplicaciones de Watson en múltiples áreas.

Colaboración con universidades

En este sentido, la firma está colaborando con cocho universidades en Estados Unidos para la búsqueda aplicaciones de Watson en los negocios del transporte, las telecomunicaciones, la energía, la distribución y el sector público.   

Asimismo, IBM ha creado un equipo de software y servicios en su sede de Bangalore (India) para crear nuevos algoritmos que permitan aplicar Watson a nuevos sectores.

Ritter señala que Watson supone solo el inicio de la era cognitiva en la computación. “Son solo los primeros pasos”. Todavía se basa en la arquitectura Von Neumann, que es la que ha regido la informática durante los últimos 40 años.

IBM ya está diseñando componentes para una futura arquitectura que rompe totalmente con el actual paradigma y que combina la nanociencia, la neurociencia y la supercomputación.

domingo, 18 de noviembre de 2012

Terapia electroconvulsiva o electroshock en la actualidad


La terapia electroconvulsiva TEC o electroshock se usó por primera vez en 1938. Consiste en una descarga eléctrica en la cabeza que produce una convulsión. Es una técnica que tiene muy mala fama pese a lo cual más de un millón de personas la reciben cada año.

En la excelente película One Flew Over the Cuckoo’s Nest, de Milos Forman, Jack Nicholson encarna a un personaje que es recluido en un hospital psiquiátrico. Tras revolucionar el centro y amenazar la estabilidad de la institución, es sometido a electroshock y finalmente a lobotomía que acaba con su resistencia. La realidad difiere, sin embargo de la presentada en la película en varios aspectos. Si bien la lobotomía es una técnica brutal y uno de los mayores errores médicos que dejó de usarse hace tiempo, la TEC sigue utilizándose hoy en día.
La TEC se aplica, bajo condiciones muy rigurosas, en pacientes con depresión severa que no responden a tratamientos con medicación. Consiste en la aplicación de una descarga eléctrica en la cabeza de unos 40 segundos. Se aplica dos o tres veces por semana hasta un máximo de 12 sesiones. El paciente está bajo anestesia general de corta duración y se le administran miorrelajantes de modo que no se producen espasmos musculares. Después de despertar el paciente esta bajo observación y reposo relativo el resto del día.
La eficacia en el tratamiento de la depresión severa está demostrada y es efectiva en más de la mitad de los casos, aunque sus efectos suelen ser temporales.
Uno de los efectos secundarios más notorios es la amnesia. El paciente pierde los recuerdos hacia atrás, olvidando los acontecimientos previos a la TEC hasta un periodo de tiempo variable. Después los va recuperando desde atrás hacia adelante, hasta el momento de la administración de la TEC. Esto muestra que los recuerdos son débiles cuando se forman y que el paso del tiempo los va consolidando. Los ya consolidados no se ven afectados por la TEC.
No se sabe cómo funciona la TEC pero parece que reduce la actividad neuronal y específicamente la hiperactividad de la zona cerebral que está causando la depresión.
Se supone que la parte del cerebro responsable de los sentimientos depresivos influye de manera anormal sobre la región responsable de los pensamientos y la concentración. La TEC reduciría esta hiperconectividady el paciente estaría menos pendiente de sus sentimientos depresivos quedando más libre para ocuparse de otras sensaciones más positivas.
Los datos inducen a pensar que medicamentos más específicos pueden actuar sobre la zona causante de la depresión. También que técnicas más localizadas como la estimulación transcraneal magnética TMS pueden producir efectos similares sin afectar a todo el cerebro.
La terapia electroconvulsiva no es un plato de buen gusto, pero supone un alivio de los síntomas depresivos en casos graves con tendencias suicidas y vida muy limitada por la enfermedad. En espera de que surjan otras técnicas o medicamentos, hoy sigue en uso.
Artículo publicado originalmente en ALT1040

domingo, 11 de noviembre de 2012

El autismo puede deberse a un crecimiento neuronal excesivo

Un aumento desordenado del crecimiento neuronal unido a una poda de neuronas menor de lo normal pueden estar detrás de las causas del autismo.

Desarrollo del sistema nervioso

El modo en que unos pocos genes genera un organismo entero es del todo sorprendente y tiene a los genetistas en la búsqueda de los factores que llevan esta misteriosa complejidad. En el caso del sistema nervioso el asunto es aún más fascinante.

Durante los primeros días del embrión se forma el tubo neural que dará lugar a la médula espinal y al encéfalo.

Según la posición en el tubo neural, los genes de transcripción y diversas sustancias químicas, se van formando distintas poblaciones de células, primero precursoras de neuronas y luego neuronas.

Un extremo del tubo neural se va engrosando en lo que más tarde será el encéfalo y sus distintos componentes. Con el tiempo, las neuronas se van diferenciando hasta desarrollar su propia identidad que incluye la forma, los neurotransmisores con los que trabaja y su posición física en el conjunto. Agentes químicos señalizadores junto con interacciones célula a célula intervienen en este proceso de diferenciación.

Con posterioridad, las neuronas migran desde su lugar de nacimiento hasta su posición definitiva, a veces varios milímetros. El proceso de migración es desde dentro hacia afuera, siendo las neuronas más superficiales en el cerebro las más jóvenes creadas.

Después de generarse las neuronas y migrar a su emplazamiento definitivo, estas deben de conectarse con sus neuronas diana con las que hacer sinapsis. Para ello, el axón debe de crecer hasta llegar a su zona de destino. Después debe de hacer sinapsis con las neuronas adecuadas. Para ello el axón tiene un cono de crecimiento en su punta que va siendo guiado por distintas señales hasta su objetivo (en ocasiones el axón crece a lo largo de una enorme distancia, de un hemisferio a otro o de la médula espinal a los dedos del pie).

Una vez en la región adecuada, el axón debe de elegir sobre qué neuronas debe de establecer sinapsis lo que de nuevo está determinado por señaladores moleculares en el entorno. Sin embargo, esto no está totalmente determinado por los genes y se realizan sinapsis que no sobrevivirán. La neurona postsináptica envía señales hacia atrás, al axón presináptico, que hacen que la sinapsis se debilite o se refuerce.

La primera parte del desarrollo del sistema nervioso se considera independiente de la actividad y predeterminada por los genes. La segunda parte es dependiente de la actividad ya que la actividad de las neuronas y el efecto del ambiente determinan el desarrollo final del sistema nervioso.

Si un axón ha hecho sinapsis con una neurona diana y esta no refuerza la conexión, la sinapsis se debilita y eventualmente la neurona presinaptica muere.

En el momento álgido se crean 250.000 neuronas por minuto, una tasa asombrosa. El cerebro crea el doble de las neuronas que sobrevivirán. La mitad muere por apoptosis o muerte programada (llamada así porque se activan genes que causan la muerte de la célula). Se establece una competencia entre las neuronas y las que están mejor situadas y hacen sinapsis más efectivas sobreviven, mientras que el resto se suicida. Durante los primeros años de existencia, estamos recortando sinapsis y neuronas, más que crearlas. Aprender significa tanto crear conexiones valiosas como destruir las inútiles. Ser más inteligente no significa solo tener más neuronas, sino tener mejores neuronas.

Autismo

Ya se sospechaba que el autismo tenia que ver con un exceso de neuronas y ahora nuevos datos parecen confirmarlo. Se especula que durante los cinco primeros años de vida el cerebro autista continúa creando neuronas desordenadamente, las cuales crecen y forman conexiones. A partir de los cinco años, comienzan a perder neuronas de un modo más rápido que los cerebros típicos.

En un estudio postmortem, encontraron que el cerebro de los seis niños autistas analizados tenía un 67% más de neuronas en el córtex frontal. Esta zona se localiza sobre los ojos y es responsable de funciones de alto nivel como la planificación, la personalidad, la memoria de trabajo, la atención y la inhibición de impulsos.

Investigando en los genes de las personas autistas, averiguaron que los genes que realizan reparaciones en el DNA, se expresaban por debajo de lo normal. Por el contrario los que regulaban el crecimiento neuronal se expresaban en exceso.

El equipo ofrece una explicación tentativa. Quizá durante la gestación, los genes encargados de corregir los errores genéticos funcionan mal, bien por una mutación o por un agente externo como una toxina o un virus. Los errores se acumulan, nuevas neuronas se forma de manera explosiva, crecen y forman más conexiones de las necesarias que a su vez no son podadas como es habitual. Más tarde, en la adolescencia, el sistema inmune reacciona y comienza a deshacerse de neuronas, pero el mal ya está hecho.

Naturalmente la teoría tiene detractores, pero va ganando peso. El autismo sigue siendo un problema muy complejo, pero si determinamos que se debe a la actividad genética, será una buena noticia ya que esta puede ser modificada.

Artículo publicado originalmente en ALT1040

domingo, 4 de noviembre de 2012

¿Por qué reconocemos las caras y no los nombres?


Acudes a una fiesta y te presentan a una persona cuyo nombre, te dicen, es Pedro. Hablas un rato con él y tienes que presentárselo a otro amigo. Este es… ¿Cómo se llamaba? Apenas hace quince minutos que te han dicho su nombre pero no lo recuerdas. Pasan 6 meses y te lo vuelves a encontrar. Reconoces perfectamente su cara y recuerdas donde lo conociste. Hola… ¿Cómo se llamaba? Él, que es hombre de mundo, te lo dice: “Soy Pedro”. Puede que lo recuerdes o puede que te des cuenta de que nunca lo retuviste y temes que te vuelva a pasar.

Es un hecho común que recordamos mucho mejor las caras que los nombres. Hay varias razones para ello. La primera es el esfuerzo cognitivo. Cuando tienes delante una cara debes decidir si la reconoces o no. Cuando quieres recordar un nombre debes buscarlo en el almacén de la memoria. No es un simple sí o no, debes traer a la memoria un nombre concreto. La primera tarea tiene una respuesta sencilla sí o no mientras que en la segunda debes buscar un nombre concreto: Pedro.
Además, todas las caras son distintas, pero muchas personas comparten el nombre. Aunque en realidad es una ventaja. Si cada persona tuviera un nombre distinto, nuestro almacén de nombres sería mucho mayor del que es. Simplemente nuestro cerebro no puede almacenar tantos nombres.
Pero la razón principal es de índole computacional y evolutivo. La capacidad para recordar caras es mucho más poderosa y antigua que la facultad para recordar nombres.
El lenguaje humano es una característica evolutiva muy reciente. No sabemos si los neandertales hablaban. En todo caso la antigüedad del lenguaje puede cifrarse en unos pocos cientos de miles de años. Digamos cien mil años. Y las áreas cerebrales involucradas en el lenguaje, aún siendo un prodigio, no son muy grandes.

Reconocimiento de caras

Por el contrario, las áreas visuales del cerebro son enormes. Y evolutivamente son muy antiguas. Los monos Rhesus Macacus y los humanos procesamos las caras de una forma muy similar. Las investigaciones indican que es una habilidad que evolucionó hace 30 millones de años en un antepasado común que compartimos con los macacos (como comparación, recuerda que los dinosaurios se extinguieron hace 60 millones de años).
Reconocer caras es algo muy difícil en lo que los humanos somos expertos. No se trata de algo que hacemos usando áreas inespecíficas del cerebro como calcular, jugar al ajedrez, razonar… Disponemos de un área concreta de reconocimiento de caras, un área congénita, precableada. Esto es debido a que debemos reconocer caras con exactitud y premura sin que ello dificulte el resto de operaciones mentales. Es decir, en paralelo. Reconocemos caras pese a que hayan cambiado con los años, con el maquillaje, con las gafas, con la barba, en distintas condiciones de iluminación, en distintos ángulos y en movimiento. Lo hacemos muy bien. Puedes probar tu destreza en esta página.

El efecto Thatcher




Se llama así porque se probó por primera vez con el rostro de la Primera Dama británica. Se consigue cogiendo la foto de una cara, cortando los ojos y la boca y pegándolos boca arriba. Si tomamos a su vez la cara resultante y la ponemos cabeza abajo (de modo que los ojos y la boca están en posición correcta pero el resto de la cabeza está girada), es difícil encontrar algo erróneo. Si por el contrario colocamos la cabeza en posición correcta ( y entonces los ojos y la boca están girados), la imagen resulta chocante. Algo está mal.
Los humanos percibimos esto claramente en los rostros humanos pero no en los de los monos. De la misma forma, los monos lo detectan en los rostros de sus congéneres pero no en los de los humanos.
Ambas especies percibimos las caras de nuestros semejantes inmediatamente mientras que las de otras especies las procesamos de forma distinta.
Aun cuando el reconocimiento de caras conespecificas se realiza por medios holísticos, las partes individuales tales como boca, la nariz y los ojos así como las proporciones faciales siguen siendo importantes.
Desde una edad temprana estamos acostumbrados a las caras de otros seres humanos: una nariz larga, la curva de los labios o las espesas cejas. Aprendemos reconocer las pequeñas diferencias que contribuyen al aspecto individual

Prosopagnosia

La prosopagnosia es la incapacidad de reconocer caras familiares o conocidas.
No es un fenómeno unitario. Puede ser congénita o resultado de lesiones cerebrales. Puede ser perceptiva o asociativa. En algunos casos pueden reconocerse personas que tengan un rasgo sumamente llamativo. En ocasiones sólo se reconocen personas de un sexo y no del otro.

Los casos de prosopagnosia congénita son muy curiosos con pacientes que tardaron años en descubrir que había algo raro en ellos. Un abogado dejó la profesión porque no podía convencer a sus clientes de su competencia: cuando llegaba al juicio, no reconocía quien era su cliente. Una modelo descubrió que era muy guapa cuando sus amigos la animaron a que se presentara a un concurso de belleza. Un pintor de retratos con bonitos fondos pero sin cara. Un judío que no podía reconocer a sus semejantes porque en su comunidad todos vestían igual.
Sin duda el caso más conocido es el recogido en el fascinante libro de Oliver Sacks, “El hombre que confundió a su mujer con un sombrero”.
Pareció también decidir que la visita había terminado y empezó a mirar en torno buscando el sombrero. Extendió la mano y cogió a su esposa por la cabeza intentando ponérsela. ¡Parecía haber confundido a su mujer con un sombrero! Ella daba la impresión de estar habituada a aquellos percances.

Alguna regla mnemotécnica

Hacer un gran esfuerzo para recordar sirve de poco. Mucho más útil es repetir. Por ejemplo, cuando te presentan a Pedro, en lugar de responder “Hola, qué tal?, decir “Hola Pedro, qué tal?
También sirve usar las asociaciones: Pedro el de la piedra, Ángeles la de los cielos, Víctor el victorioso, Ana la anaconda…
Y sobre todo, si sospechas que tu interlocutor no se acuerda de tu nombre, ayúdale: “Hola, soy Antonio”.

Artículo publicado originalmente en ALT1040