Twitter ha presentado un nuevo plan que le permitirá estudiar la equidad de sus algoritmos. Esto con el propósito de determinar los “daños no intencionales” que han provocado en sus usuarios.
Este
plan forma parte de la “Iniciativa de aprendizaje automático responsable”,
denominada así por la compañía. En esta, se estudiarán casos de recomendaciones
de contenido, así como de recortes o sesgos de imágenes.
Como bien se sabe, el algoritmo de recorte de imágenes fue fuertemente cuestionado haces unos meses, pues, priorizaba a una persona de tez blanca por encima de la negra. Por tanto la IA de recorte de Twitter fue tachada de racista.
El aprendizaje automático responsable nace de la crítica
“El viaje hacia sistemas de aprendizaje automático (ML) responsables, receptivos e impulsados por la comunidad es colaborativo”, escribió la compañía en una publicación de blog. Y es que la compañía ha venido realizando distintas encuestas para conocer la opinión de sus usuarios respecto a sus políticas.
ML nace de la crítica y se plantea asumir responsabilidades por “decisiones algorítmicas”. Así como garantizar la equidad dentro de la comunidad de Twitter. Incluso, brindar de forma transparente cómo llegó a esos resultados. Es por ello que se propone compartir los resultados de sus estudios con los usuarios de la plataforma social.
“… estamos creando soluciones de aprendizaje automático explicables para que pueda comprender mejor nuestros algoritmos, qué los informa y cómo afectan lo que ve en Twitter. De manera similar, la elección algorítmica permitirá a las personas tener más participación y control en la configuración de lo que quieren que sea Twitter para ellos”, indica la compañía.
De esta forma, los usuarios comprenderían cómo funcionan los algoritmos y en tal caso podrían sugerir posibles soluciones. Con esta iniciativa, Twitter responde de forma positiva a las exigencias de legisladores de Estados Unidos y a las críticas de su comunidad.
Fuente: Tekcrispy
No hay comentarios:
Publicar un comentario