miércoles, 10 de marzo de 2021

Androides en el espejo: el investigador español que intenta crear robots conscientes de su propia presencia

Pablo Lanillos ha dedicado los últimos cinco años a poner los cimientos para que las máquinas puedan aprender de su entorno y responder con flexibilidad ante escenarios de incertidumbre.


 

Los robots actuales son incapaces de reconocer su propia existencia y, por ende, de identificarse en un espejo. Aunque era de esperar, lo han demostrado empíricamente proyectos como el del estudio creativo Waltz Binaire, que plantó ante el azogue a un robot equipado un sistema de reconocimiento de imágenes. Narciss —así se llamaba la máquina— alcanzó a ver una tostadora, un árbol, una señal de stop y una bicicleta aparcada en frente de un televisor. Pero nunca se reconoció a sí mismo.

Este test de Turing de la conciencia de uno mismo lo propuso el psicólogo Gordon Gallup en 1970. En su experimento y después de una exposición prolongada a sus imágenes en espejos, los chimpancés demostraron ser capaces de reconocerse en el reflejo e identificar que habían sido marcados con tinta roja. La misma prueba la han superado delfines mulares, elefantes asiáticos, urracas comunes, bebés de 20 meses en adelante y, ahora, gracias al los esfuerzos de Pablo Lanillos (Madrid, 1981), un selecto grupo de robots.

Por mediación de este investigador español, profesor del instituto Donders para el Cerebro, Cognición y Comportamiento, un androide desarrollado por la empresa barcelonesa Pal Robotics, se vio a sí mismo saludando ante un espejo. Nao, de Softbank, ha sido el último en lograrlo, al dar señales de identificar una nota adhesiva pegada en su cara. “Lo del espejo es la punta del iceberg”, matiza el científico, parte del departamento de Inteligencia artificial de la Universidad Radboud (Holanda). Lanillos considera este experimento una mera demostración de sus avances hacia el desarrollo de robots capaces de reconocer su propia presencia y basar en ella sus interacciones con el entorno. “En un coche autónomo o un robot social, lo que ocurre es que entra la imagen, se detecta el entorno y se ejecuta una acción totalmente involuntaria, aprendida por datos. El robot no es consciente de lo que está haciendo”.

Llevar a las máquinas a ese nivel de autoconocimiento exige determinar primero qué hace que los humanos y otros animales sean capaces de reconocerse en el espejo y moverse por el mundo con tanto desparpajo, ajenos a la mayoría de los procesos que se están ejecutando en la trastienda. “Nuestro cerebro funciona como una máquina de predicción. Aprende patrones y sabe más o menos lo que va a ocurrir”, razona Lanillos. Para el investigador, dotar a los robots de esta capacidad se reduce a encontrar la manera de dar respuesta cuatro preguntas: ¿Dónde está mi cuerpo?, ¿cómo debería moverme?, ¿cómo sé que soy yo?, ¿esto lo he hecho yo?

Las dos primeras son relativamente fáciles y traducibles a sistemas robóticos. “Si no vemos nuestro brazo, sabemos más o menos dónde está”, explica el científico. En el caso de los robots, esta habilidad se reproduce mediante la incorporación de sensores que permitan identificar la posición original y las modificaciones necesarias en esta para alcanzar un nuevo estado. Pero los sistemas actuales están limitados por su escasa flexibilidad.

Para una persona acostumbrada a usar todos los días la misma escalera mecánica, encontrarla detenida exige un reajuste de la realidad conocida y un cambio en la acción: subir los peldaños en lugar de dejarnos llevar. Para un robot cuyas habilidades se limitan al desplazamiento de forma autónoma y basado en parámetros conocidos, la incertidumbre es fatal. “A final tienes el robot en un entorno controlado. Y si ocurre algo fuera de lugar, se para”, resume Lanillos.

En este sentido, el investigador defiende que un robot consciente de su propio cuerpo es el primer paso en el camino hacia sistemas que sean también conscientes del entorno que les rodea y puedan modificar sus interacciones con este en función de cómo varía. Esto nos lleva al espejo y a la respuesta de la tercera pregunta: ¿cómo sé que soy yo? “Lo interesante aquí es que neurocientíficos como Michael Graziano dicen que esta capacidad deriva de un desarrollo social en el cual queremos entender lo que ocurre en la mente de otra persona. Para eso necesitas desarrollar la diferenciación entre el yo y el otro”.

El último paso es ser conscientes de nuestros actos —¿esto lo he hecho yo?—, perogrullada entre humanos, pero santo grial del camino hacia una robótica capaz de integrar una inteligencia general –adaptable y no centrada en una única tarea–. “Desde mi punto de vista este proceso tiene lugar a nivel de organización y de entender lo que haces en el mundo, pero también es una forma de evaluar”, precisa Lanillos. En teoría, un robot capaz de identificar sus actos, también podría valorar su rendimiento y aprender de sus errores. “Hay gente que dice que no es importante. Yo pienso que la simple evaluación del efecto que vas a producir en el mundo sirve para que el aprendizaje sea más seguro”.

Lanillos no busca inteligencias capaces de resolver ecuaciones diferenciales —”eso ya lo pueden hacer las máquinas”—, sino la que permite adaptarse al entorno. “Esa inteligencia que hace que no seas bueno en el ajedrez, pero puedas cruzar un pasillo y hablar con una persona mientras entiendes lo que está ocurriendo”, sentencia. ¿La veremos pronto en el interior de un robot? Probablemente no. Además de una progresiva escalada hacia procesos mucho más complejos que reconocerse ante un espejo, estos sistemas exigen avances en muchas disciplinas. “Son muchas líneas de investigación que tienen que moverse en paralelo: materiales, sensorización, actuación, inteligencia artificial, matemáticas, computación…”.

Sin embargo, con la referencia de los últimos cinco años de avances, el investigador se muestra optimista. “Al final, a los científicos nos pasa que cada vez que terminamos algo parece que era fácil”, comenta. Para él el punto de inflexión fue implementar su modelo algorítmico por primera vez en un robot. “Esa fue la primera vez que conseguimos tener una máquina con una percepción inspirada en la de los humanos”.



Fuente: El Pais

 

No hay comentarios:

Publicar un comentario