domingo, 20 de junio de 2021

Gemma Galdón: “Somos el cinturón de la inteligencia artificial”

Insiste en que los equipos multidisciplinares ayudan a tomar mejores decisiones

Combinar la sociología con la tecnología para construir algoritmos más libres de sesgos y, por tanto de mejor calidad. Esto es lo que motivó a Gemma Galdón (Mataró, 1976) a fundar, tras doctorarse en la Autónoma de Barcelona, Eticas Consulting, una auditora de algoritmos que pone el foco en la calidad de los datos y en los equipos multidisciplinares para contribuir a que se tomen mejores decisiones.

 

Gemma Galdón, fundadora de Éticas Consulting.


¿Cómo nació este proyecto?

Yo hice mi tesis sobre tecnología desde la sociología dentro de la universidad y empecé a conseguir mucha financiación porque había mucho interés en los perfiles multidisciplinares del ámbito social aplicado a la tecnología. Éticas nace de eso, de una voluntad por mantener mis proyectos de investigación y de aprovechar que había mucho interés en mi campo de trabajo. Pero casi sin comerlo ni beberlo, sin un plan emprendedor ni nada, sino como una forma de sobrevivir profesionalmente.

 

¿Por qué es necesaria una consultora de algoritmos?

Porque la inteligencia artificial plantea nuevos retos. Como hemos adoptado esta línea de Silicon Valley de muévete rápido y rompe cosas, a veces no se tiene en cuenta que se pueden romper derechos fundamentales. Mucha de la tecnología que nos rodea no incorpora cosas tan básicas como el marco legal, la protección de colectivos vulnerables o los sesgos que de forma natural capturan los algoritmos porque nuestra sociedad está atravesada por discriminaciones: machismo, racismo, aporofobia, discriminación de mayores... Todo eso acaba en los datos que nos representan.

 

¿Pero qué evalúan estas auditorías?

Lo que hacemos es auditar los algoritmos, abrirlos, ver cómo funcionan, pero ver también cómo se han tomado las decisiones sobre cómo tomamos las decisiones. Al final cuando programas un algoritmo lo que estás haciendo es describiendo un proceso de toma de decisión. Toman datos medibles y toman una decisión en base a eso. Pero la forma en la que elegimos cuáles van a ser esos indicadores que nos ayudan a tomar mejores decisiones son claves para la calidad de esta decisión. Al final quien vende los algoritmos se los vende igual a un medio de comunicación que a una gran superficie que al departamento de justicia, y acabamos con sistemas de toma de decisiones que toman muy malas decisiones.

 

¿Qué cuestiones hay que plantearse a la hora de trabajar con algoritmos?

Temas de calidad, de precisión y de la representatividad de estos datos. Si están bien seleccionados para los procesos que nos van a ayudar a tomar mejores decisiones. Tendemos a utilizar los datos que tenemos en lugar de los que necesitamos. Nosotros lo que hacemos es ver siempre desde el principio lo que realmente necesitamos y no lo que tenemos. También realizamos temas técnicos, una vez que un algoritmo está funcionando lo monitorizamos para asegurarnos de que no tiene un impacto en colectivos concretos. Y después, la integración organizativa de estos algoritmos, cómo impactan en los procesos de toma de decisiones.

 

¿Se confía en estas fórmulas más de lo que se debería?

Sí, yo creo que nos domina un discurso muy optimista en relación a la tecnología. Es verdad que la tecnología puede ser mejor que los humanos a la hora de tomar decisiones, porque puede procesar un volumen de datos mucho mayor que el de una cabeza humana. No tiene capacidad de innovación, no tiene creatividad, pero sí tienen la capacidad de procesamiento, pero para que esas decisiones sean buenas decisiones habría que trabajar muy bien en esa programación de los algoritmos. Lo que estamos viendo nosotros es que nos rodean algoritmos de muy baja calidad. Es verdad que la inteligencia artificial (IA) bien hecha puede aportarnos mucho, pero la mal hecha aumenta el impacto de los sesgos, hace el proceso aún peor.

 

¿Es posible mejorar la calidad de estos?

Algoritmos mejores que los que estamos haciendo seguro que sí se pueden hacer, pero eso requiere de una inversión adicional y, sobre todo, de equipos multidisciplinares. Yo sola no puedo entrar en un algoritmo, necesitamos también a personas con perfiles legales y de ciencias sociales, que nos ayuden un poco a comprender este mundo que los algoritmos están codificando. A los ingenieros les estamos pidiendo que codifiquen un mundo que no entienden porque nadie les ha enseñado a entenderlo. La mejor forma de hacer algoritmos es juntar a aquellos que entienden el entorno social con los que manejan la tecnología. Ahora mismo lo que abundan son algoritmos baratos hecho al por mayor.

 

¿Llega tarde la regulación de la IA?

A regularla no, está regulada desde el Reglamento Europeo de Protección de Datos, que se publicó en 2016. Lo que pasa es que no se cumple. Estamos tardando en implementarlo y mientras tanto hay gente que es víctima de esto. Cada innovación requiere un tiempo para que entendamos y mitiguemos los impactos. Cuando se inventa el coche, tardamos tiempo en poner limitaciones de velocidad y herramientas de seguridad. Somos como el cinturón de seguridad de la inteligencia artificial, dentro de muy poco será increíble una inteligencia artificial sin auditoría.




Fuente: El País – Cinco días

No hay comentarios:

Publicar un comentario