jueves, 18 de marzo de 2021

Las máquinas ya nos ganaban, ahora también nos convencen

IBM desarrolla una inteligencia artificial capaz de competir con humanos en el arte de la oratoria.

 

Project Debater, el aparato negro de la izquierda, contesta a Harish Natarajan, líder mundial
de victorias en competiciones de debates, en 2019, en San Francisco.


Imagine que en el próximo debate electoral madrileño apareciera una nueva candidata desconocida que convenciera a la mayor parte de la audiencia. Y que este repaso dialéctico no lo diera una persona, sino un ordenador. Es el territorio en el que se mueve el último hito de la inteligencia artificial, el de la complejidad del debate y la oratoria humanas. La compañía IBM presenta en la revista científica más prestigiosa, Nature, un logro en el que han trabajado durante casi una década: una máquina capaz de convencer con argumentos. El equipo científico defiende que es un salto cualitativo enorme desde las brillantes victorias que los cerebros de silicio se han anotado frente a humanos en terrenos como el ajedrez, el Go y los videojuegos más sofisticados.

Esta máquina con voz femenina, denominada Project Debater, es capaz de estudiar un asunto controvertido, como la legalización de las drogas o las subvenciones a la educación infantil, para plantear un discurso articulado que defienda una postura a favor o en contra. No solo eso: en la dinámica de los debates que ya ha mantenido con expertos en oratoria, también se ha mostrado capaz de rebatir los argumentos de su oponente. El resultado: el 64% de los especialistas que servían de jurado consideraron que la máquina demuestra un buen rendimiento como orador convincente en el debate.

Tenemos que alejarnos de los juegos, de los retos de blanco o negro. La inteligencia artificial va a lidiar con la subjetividad de la realidad humana

Ranit Aharonov, IBM

La máquina comete errores peculiares desde la perspectiva humana. Por ejemplo, al defender el uso de inseminación artificial, Project Debater incluyó argumentos que hacían referencia a la inseminación de ganado, “algo que puede sonar raro en este debate”, reconoce el equipo científico en Nature. Esto sucede por la forma en la que el ordenador de IBM construye su argumentación, basada en cuatro módulos de trabajo: “Estos errores de naturaleza compleja ilustran la necesidad de un entendimiento matizado y general del contexto”, señalan los investigadores en el estudio.

Los dos primeros pasos que da la máquina se centran en la recopilación de contenidos y argumentos. Nada más establecerse el tema de la discusión, el programa extrae razonamientos de una gran base de datos con 400 millones de artículos periodísticos, que se estructuran gracias a los conceptos que cataloga la Wikipedia. Después, la máquina encuentra semejanzas entre razonamientos generales de distintos debates; por ejemplo, si se discute la prohibición de sustancias o actividades, se suscita la posible aparición de un mercado negro.

Además, en ese mismo proceso de análisis de un tema, Project Debater comienza a recopilar posibles contrargumentaciones a los previsibles razonamientos que usará su adversario. También se sirve de términos clave que apelen a sentimientos, como “dañino”, que podrían usarse para afianzar su discurso. Por último, la máquina es capaz de hilar una argumentación que evite redundancias y que tenga una forma de alegato que sea convincente, no una simple concatenación de frases y datos. Esos discursos son los que evaluaron los jueces para concluir que da el pego.

Aunque en el estudio no se mencionan, este robot con forma de tele alargada también usa recursos retóricos muy humanos. Por ejemplo, parecía atacar el amor propio de su rival humano al descalificar como ingenuos, pasados de moda o románticos sus argumentos. En otro, informó en voz alta del número de palabras que su oponente decía por minuto y provocó la hilaridad del público cuando le espetó: “No te apresures, tenemos mucho tiempo. Por favor, reduce la velocidad y presenta tus argumentos de forma sosegada”. Sus programadores aseguran que no le escriben ninguna frase, salvo la oración inicial de saludo en cada evento.

La compañía buscaba un nuevo reto tras sus dos grandes éxitos anteriores: cuando Deep Blue descifró los mecanismos del ajedrez para vencer a Garry Kasparov y cuando Watson deconstruyó el lenguaje natural para vencer en el popular concurso televisivo Jeopardy. Pero el reto era notable, como explica Ranit Aharonov, directora del proyecto, en un documental de IBM sobre su máquina: “Al contrario que en los juegos, en los problemas del mundo real no tienes un resultado final victorioso claro. Tenemos que alejarnos de los juegos, de los retos de blanco o negro. La inteligencia artificial ahora va a lidiar con la subjetividad de la realidad humana”, explicaba Aharonov, que firma el estudio junto a su equipo.

Su equipo asegura que ha sacado a la inteligencia artificial de la “zona de confort”, la de las reglas simples de los juegos. En ese terreno, las máquinas siempre pueden optimizar su rendimiento con la vista puesta en la victoria, usando atajos y reforzando solo estrategias eficientes de victoria, algo que no sirve de nada en un contexto subjetivo como el de la argumentación. En este caso, además, los pasos a seguir no están definidos de antemano: un peón avanza por el tablero en línea recta y come en diagonal, pero ¿qué es un buen argumento? Todavía está por ver si este desarrollo informático dará claves que den la vuelta como un calcetín al razonamiento humano, como pasó con el ajedrez y el Go cuando la inteligencia artificial aterrizó en sus tableros.

Por el momento, IBM ya vende su proyecto para “tomar mejores decisiones en tiempos de noticias falsas y cámaras de eco”, como soluciones estratégicas empresariales, la construcción de argumentos legales y el análisis entre posibles tratamientos médicos. Pero se atreve a ir mucho más allá, y habla incluso del “futuro de la democracia”. En la ciudad suiza de Lugano se usó para “entender” lo que piensan sus ciudadanos sobre los coches autónomos sin conductor. Allí la máquina solo se alimentó con el millar de opiniones que dejaron los lugareños. Una experiencia que ilustra las dudas que genera cómo deciden las inteligencias artificiales, con qué sesgos y qué intereses, a partir de la información que se le proporciona y, por ejemplo, al determinar qué ciudadanos intervienen en la conversación.

“La inteligencia artificial no podrá tomar decisiones moralmente correctas porque la moralidad es exclusiva de los humanos”, aseguró la “suave voz femenina” de Project Debater en la Universidad de Cambridge, en un debate sobre ese asunto. Un argumento que pudo calmar a quienes temen las consecuencias de su desarrollo, hasta que después añadió una afirmación que podría entenderse como contradictoria: “La inteligencia artificial tiene una tasa de error más baja que los humanos”.

 

Fuente: El Pais

No hay comentarios:

Publicar un comentario