Lograr
el éxito en la creación de la inteligencia
artificial (IA) sería el mayor evento en la historia humana. Tanto si es
por la máxima potencialización de sus beneficios como de los riesgos que puede
conllevar su uso. Por un lado, se podría lograr erradicar las guerras, las
enfermedades y la pobreza. Y por otro, se podría usar para crear máquinas
asesinas y autónomas que puedan elegir sus propios objetivos, incrementar el
desempleo hasta niveles inimaginables y, por lo tanto, aumentar la pobreza y
generar más guerras y caos, según han advertido grandes científicos.
Es difícil predecir cuál de los dos caminos seguirá
el transcurrir del futuro o si serán ambos. Desafortunadamente, y esto se
deduce por aprendizaje de la historia, “lo más probable es que el escenario
sea este último, a menos que se logre aprender a evitar los riesgos. Lo más
importante es que estamos a tiempo”, señalaron científicos como Stephen Hawking,
entre otros.
Estas predicciones pueden parecer de ciencia ficción; sin embargo, primero, la
IA ya existe; segundo, está presente en la cotidianidad de gran parte de la
humanidad; tercero, se están tomando decisiones sobre su funcionamiento;
cuarto, cada vez está evolucionando más, y quinto, hay alarmas sobre su uso
negativo.
La IA que funciona hoy en día se conoce como IA estrecha o IA débil, ya que está diseñada para realizar una tarea en específico, por ejemplo, solo reconocimiento facial o búsquedas en internet o solo conducir un automóvil. Sin embargo, el objetivo a largo plazo de muchos investigadores es crear IA general o IA fuerte. Para que se entienda la magnitud de su potencialidad: si bien la IA estrecha ya puede superar a los humanos en algunas tareas específicas como jugar al ajedrez o resolver ecuaciones, la IA fuerte superaría a los humanos en casi todas las tareas cognitivas.
A largo plazo, una pregunta importante es qué
sucederá si la búsqueda de una IA fuerte tiene éxito y un sistema de IA se
vuelve mejor que los humanos en todas las tareas cognitivas. Esto no es algo
nuevo, ya se había advertido.
El matemático I. J. Good, quien trabajó durante la Segunda Guerra Mundial
descifrando los códigos secretos de los alemanes y que en 1965 escribió
tratados como ‘Especulaciones sobre la primera máquina ultrainteligente’ y ‘La
lógica del hombre y la máquina’, aseguró: “Deje que una máquina
ultrainteligente se defina como una máquina que puede superar con creces todas
las actividades intelectuales de cualquier hombre, por inteligente que sea.
Dado que el diseño de máquinas es una de estas actividades intelectuales, una
máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente
habría una ‘explosión de inteligencia’, y la inteligencia del hombre quedaría
muy atrás. Así, la primera máquina ultrainteligente es el último invento que el
hombre necesita hacer”.
La mayoría de los investigadores coinciden en decir
que están de acuerdo en que es poco probable que una IA superinteligente
muestre emociones humanas como el amor o el odio, y que no hay razón para
esperar que la IA se vuelva intencionalmente benevolente o malévola. En cambio,
al considerar cómo la IA podría convertirse en un riesgo, los expertos
piensan dos escenarios más probables: que sea programada para hacer algo
devastador o que sea programada para hacer algo beneficioso, pero desarrolle un
método destructivo para lograr su objetivo.
“Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los
expertos seguramente están haciendo todo lo posible para garantizar el mejor
resultado, ¿verdad? Incorrecto. (...) Aunque estamos enfrentando potencialmente
lo mejor o lo peor que le ha pasado a la humanidad, se dedica poca
investigación seria a estos temas”, advirtieron en una carta publicada en el
año 2014 no cuatro ‘conspirólogos’, sino cuatro grandes científicos, empezando
por Stephen Hawking, Stuart Russell (profesor de Ciencias de la Computación en
Berkeley y coautor de ‘Inteligencia artificial: un enfoque moderno’), Frank
Wilczek (profesor de Física en el MIT y premio Nobel 2004 por su trabajo en la
fuerza nuclear fuerte).
Y otro personaje más, Max Tegmark, profesor de Física e Investigación de IA en el MIT, uno de los más importantes defensores y promotores del uso positivo de la tecnología como presidente del Future of Life Institute, y uno de los pocos investigadores sobre el buen uso de la IA. Autor de más de 250 publicaciones, así como de varios ‘best sellers’. En la carta que él también firmó decía: “Todos nosotros, no solo los científicos, industriales y generales, debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de obtener los beneficios y evitar los riesgos”. EL TIEMPO, junto con otros periodistas, habló con Tegmark en Doha (Catar), durante el evento Wise.
¿Qué es lo que más teme que pueda pasar con la IA?
No hay límite con lo que pueda pasar si optimizamos las máquinas y estas sean capaces de superarnos. Pero imaginen por un momento la lista de sus líderes favoritos en el mundo, imaginen que tienen el control sobre la IA y la pueden impulsar en todo el planeta. ¿Cómo se sentiría sobre eso? Entonces, es mucho peor si esa persona que puede controlar el mundo con IA es un dictador y no el líder que ustedes se imaginan. Hemos aprendido con la historia las cosas horribles que pasan si la gente se rehúsa a las órdenes de ese tipo de gente, entonces imagínese si los seguidores son máquinas que son completamente obedientes...
Usted dice que debemos pensar no en qué va a pasar con la IA, sino en qué
queremos que pase...
No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase. Este futuro no está escrito. Depende mucho de nosotros cómo será. Y podemos compartir una visión positiva. Sin embargo, suele pasar lo opuesto. Me gusta comparar con la manera como la gente piensa individualmente sobre su futuro. Por ejemplo, vamos al cine, vemos ciencia ficción y el futuro siempre es distópico. Si pasas tu vida personal solo haciendo la lista de todas las enfermedades que podrías tener, o todas las cosas malas que te podrían pasar, te conviertes en un paranoico hipocondriaco, no es la mejor estrategia de vida. Y yo siento que tenemos que escapar de esto como especie, deberíamos tener una visión más optimista sobre el futuro.
Difícil tener una visión optimista revisando la historia de la humanidad...
Tenemos el potencial con la IA para amplificar la inteligencia humana resolviendo todos los problemas en los que estamos estancados. Podemos pensar que el cáncer es incurable; sin embargo, es pura mentira. La verdad es que sí es curable, lo que pasa es que aún no tenemos la inteligencia suficiente para curarlo. Sería bueno que por medio de la inteligencia artificial pudiéramos resolver estos problemas que no logramos solucionar hoy: como la pobreza, los problemas del clima... Son casi que ilimitadas las oportunidades; si tenemos gente enfocada en colaborar para encontrar soluciones, las encontraremos. Sin embargo, vamos en la dirección opuesta, lo que está pasando es que está incrementando el desempleo, aumentando la inequidad, y en muchos países, los pobres se están volviendo más pobres.
La tecnología avanza más rápido que las leyes... La IA ya está acá, pero aún
no se legisla. ¿Hay forma de anticiparnos?
Es un problema muy grave. Toma mucho tiempo crear nueva legislación, y para cuando está ya es muy tarde porque la tecnología ya habrá evolucionado. La clave está en crear una línea moral que rechace el uso negativo de la tecnología. Por ejemplo, si las armas biológicas hoy no fueran ilegales, la gente igual tiene claro que son asquerosas. Es como si le ofrecieran trabajo a alguien en una página web de pornografía infantil. Si la gente piensa que es asqueroso y que además desestabiliza la democracia, incluso si fuera legal, en la práctica habría formas de detener su uso.
Aparte del escenario apocalíptico, preocupa el tema laboral. ¿Qué profesiones son las que van a desaparecer?
Sí, algunas carreras desaparecerán, trabajos que son repetitivos y que no involucran contacto con otros humanos. Pero lo que es mucho más importante es que en casi todos los trabajos desaparecerán algunas funciones, y eso significa que en cualquier trabajo en el que quiera estar tendrá que aprender qué está pasando con la IA. De ahí que se debe empezar a usar estas herramientas para ser más productivo.
Entonces, las máquinas reemplazarán a los humanos en casi todo...
Entonces, ¿queremos nosotros que cada vez los
humanos trabajen menos y estén sentados tomando margaritas y los niveles de
desempleo sean mayores y haya más hambre? Creo que tiene más sentido para los
gobiernos y las empresas generar empleos en los que la gente sea feliz. Los
trabajos no solo nos dan dinero, nos dan un propósito, nos dan amigos. Una
sociedad más feliz es en la que tengamos humanos haciendo las cosas que
disfrutan hacer.
Lograr el éxito en la creación de la inteligencia artificial (IA) sería el mayor
evento en la historia humana. Tanto si es por la máxima potencialización de sus
beneficios como de los riesgos que puede conllevar su uso. Por un lado, se
podría lograr erradicar las guerras, las enfermedades y la pobreza. Y por otro,
se podría usar para crear máquinas asesinas y autónomas que puedan elegir sus
propios objetivos, incrementar el desempleo hasta niveles inimaginables y, por
lo tanto, aumentar la pobreza y generar más guerras y caos, según han advertido
grandes científicos.
Es difícil predecir cuál de los dos caminos seguirá
el transcurrir del futuro o si serán ambos. Desafortunadamente, y esto se
deduce por aprendizaje de la historia, “lo más probable es que el escenario
sea este último, a menos que se logre aprender a evitar los riesgos. Lo más
importante es que estamos a tiempo”, señalaron científicos como Stephen Hawking,
entre otros.
Estas predicciones pueden parecer de ciencia ficción; sin embargo, primero, la
IA ya existe; segundo, está presente en la cotidianidad de gran parte de la
humanidad; tercero, se están tomando decisiones sobre su funcionamiento;
cuarto, cada vez está evolucionando más, y quinto, hay alarmas sobre su uso
negativo.
La IA que funciona hoy en día se conoce como IA
estrecha o IA débil, ya que está diseñada para realizar una tarea en
específico, por ejemplo, solo reconocimiento facial o búsquedas en internet o
solo conducir un automóvil. Sin embargo, el objetivo a largo plazo de muchos
investigadores es crear IA general o IA fuerte. Para que se entienda la
magnitud de su potencialidad: si bien la IA estrecha ya puede superar a los
humanos en algunas tareas específicas como jugar al ajedrez o resolver
ecuaciones, la IA fuerte superaría a los humanos en casi todas las tareas
cognitivas.
A largo plazo, una pregunta importante es qué sucederá si la búsqueda de una IA
fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas
las tareas cognitivas. Esto no es algo nuevo, ya se había advertido.
El matemático I. J. Good, quien trabajó durante la Segunda Guerra Mundial
descifrando los códigos secretos de los alemanes y que en 1965 escribió
tratados como ‘Especulaciones sobre la primera máquina ultrainteligente’ y ‘La
lógica del hombre y la máquina’, aseguró: “Deje que una máquina
ultrainteligente se defina como una máquina que puede superar con creces todas
las actividades intelectuales de cualquier hombre, por inteligente que sea.
Dado que el diseño de máquinas es una de estas actividades intelectuales, una
máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente
habría una ‘explosión de inteligencia’, y la inteligencia del hombre quedaría
muy atrás. Así, la primera máquina ultrainteligente es el último invento que el
hombre necesita hacer”.
La mayoría de los investigadores coinciden en decir que están de acuerdo en que
es poco probable que una IA superinteligente muestre emociones humanas como el
amor o el odio, y que no hay razón para esperar que la IA se vuelva
intencionalmente benevolente o malévola. En cambio, al considerar cómo la IA
podría convertirse en un riesgo, los expertos piensan dos escenarios más
probables: que sea programada para hacer algo devastador o que sea programada
para hacer algo beneficioso, pero desarrolle un método destructivo para lograr
su objetivo.
“Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los
expertos seguramente están haciendo todo lo posible para garantizar el mejor
resultado, ¿verdad? Incorrecto. (...) Aunque estamos enfrentando potencialmente
lo mejor o lo peor que le ha pasado a la humanidad, se dedica poca
investigación seria a estos temas”, advirtieron en una carta publicada en el
año 2014 no cuatro ‘conspirólogos’, sino cuatro grandes científicos, empezando
por Stephen Hawking, Stuart Russell (profesor de Ciencias de la Computación en
Berkeley y coautor de ‘Inteligencia artificial: un enfoque moderno’), Frank
Wilczek (profesor de Física en el MIT y premio Nobel 2004 por su trabajo en la
fuerza nuclear fuerte).
Y otro personaje más, Max Tegmark, profesor de Física e Investigación de IA en el MIT, uno de los más importantes defensores y promotores del uso positivo de la tecnología como presidente del Future of Life Institute, y uno de los pocos investigadores sobre el buen uso de la IA. Autor de más de 250 publicaciones, así como de varios ‘best sellers’. En la carta que él también firmó decía: “Todos nosotros, no solo los científicos, industriales y generales, debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de obtener los beneficios y evitar los riesgos”. EL TIEMPO, junto con otros periodistas, habló con Tegmark en Doha (Catar), durante el evento Wise.
¿Qué es lo que más teme que pueda pasar con la IA?
No hay
límite con lo que pueda pasar si optimizamos las máquinas y estas sean capaces
de superarnos. Pero imaginen por un momento la lista de sus líderes favoritos
en el mundo, imaginen que tienen el control sobre la IA y la pueden impulsar en
todo el planeta. ¿Cómo se sentiría sobre eso? Entonces, es mucho peor si esa
persona que puede controlar el mundo con IA es un dictador y no el líder que
ustedes se imaginan. Hemos aprendido con la historia las cosas horribles que
pasan si la gente se rehúsa a las órdenes de ese tipo de gente, entonces
imagínese si los seguidores son máquinas que son completamente obedientes...
Usted dice que debemos pensar no en qué va a pasar con la IA, sino en qué
queremos que pase...
No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase. Este futuro no está escrito. Depende mucho de nosotros cómo será. Y podemos compartir una visión positiva. Sin embargo, suele pasar lo opuesto. Me gusta comparar con la manera como la gente piensa individualmente sobre su futuro. Por ejemplo, vamos al cine, vemos ciencia ficción y el futuro siempre es distópico. Si pasas tu vida personal solo haciendo la lista de todas las enfermedades que podrías tener, o todas las cosas malas que te podrían pasar, te conviertes en un paranoico hipocondriaco, no es la mejor estrategia de vida. Y yo siento que tenemos que escapar de esto como especie, deberíamos tener una visión más optimista sobre el futuro.
Difícil tener una visión optimista revisando la historia de la humanidad...
Tenemos el potencial con la IA para amplificar la inteligencia humana resolviendo
todos los problemas en los que estamos estancados. Podemos pensar que el cáncer
es incurable; sin embargo, es pura mentira. La verdad es que sí es curable, lo
que pasa es que aún no tenemos la inteligencia suficiente para curarlo. Sería
bueno que por medio de la inteligencia artificial pudiéramos resolver estos
problemas que no logramos solucionar hoy: como la pobreza, los problemas del
clima... Son casi que ilimitadas las oportunidades; si tenemos gente enfocada
en colaborar para encontrar soluciones, las encontraremos. Sin embargo, vamos
en la dirección opuesta, lo que está pasando es que está incrementando el
desempleo, aumentando la inequidad, y en muchos países, los pobres se están
volviendo más pobres.
Tenemos el potencial con la IA para amplificar la inteligencia humana resolviendo todos los problemas en los que estamos estancados.
La tecnología avanza más rápido que las leyes... La IA ya está acá, pero aún no se legisla. ¿Hay forma de anticiparnos?
Es un problema muy grave. Toma mucho tiempo crear nueva legislación, y para
cuando está ya es muy tarde porque la tecnología ya habrá evolucionado. La
clave está en crear una línea moral que rechace el uso negativo de la
tecnología. Por ejemplo, si las armas biológicas hoy no fueran ilegales, la gente
igual tiene claro que son asquerosas. Es como si le ofrecieran trabajo a
alguien en una página web de pornografía infantil. Si la gente piensa que es
asqueroso y que además desestabiliza la democracia, incluso si fuera legal, en
la práctica habría formas de detener su uso.
Aparte del escenario apocalíptico, preocupa el tema laboral. ¿Qué
profesiones son las que van a desaparecer?
Sí, algunas carreras desaparecerán, trabajos que son repetitivos y que no
involucran contacto con otros humanos. Pero lo que es mucho más importante es
que en casi todos los trabajos desaparecerán algunas funciones, y eso significa
que en cualquier trabajo en el que quiera estar tendrá que aprender qué está
pasando con la IA. De ahí que se debe empezar a usar estas herramientas para
ser más productivo.
Entonces, las máquinas reemplazarán a los humanos en casi todo...
Si la inteligencia artificial sigue progresando, va a hacer los trabajos más
económicos, entonces, ¿queremos nosotros que cada vez los humanos trabajen
menos y estén sentados tomando margaritas y los niveles de desempleo sean
mayores y haya más hambre? Creo que tiene más sentido para los gobiernos y las
empresas generar empleos en los que la gente sea feliz. Los trabajos no solo
nos dan dinero, nos dan un propósito, nos dan amigos. Una sociedad más feliz es
en la que tengamos humanos haciendo las cosas que disfrutan hacer.
¿Cuál es el rol de la educación en esta transformación?
La IA puede hacer de la educación algo mejor. Hay dos vertientes: IA para la educación, cómo transformarla para que sea mejor, y la segunda es cómo educar a la gente para que florezca en un mundo donde reine la IA. Cuando yo fui a la escuela, la mayoría de lo que me enseñaron era inútil, quizá era útil para el mundo de 50 años atrás. Creo que hay muchas formas de hacer la educación más útil, más individual, pero también pienso que debemos ser cuidadosos en pensar que las tecnologías son una nueva religión y asumir que se puede, por ejemplo, reemplazar a los profesores por máquinas que lo harán mejor. Necesitamos encontrar el balance, pero hay muchas oportunidades. La creatividad es fundamental.
Fuente: El
Tiempo
SIMÓN GRANJA MATIAS
No hay comentarios:
Publicar un comentario