EstĆ” tomando fuerza el concepto de āinteligencia artificial justaā, que propone incluir formulaciones para la toma de decisiones no discriminatorias

La inteligencia artificial y el big data āmacrodatos, datos masivosā, se encuentran estrechamente relacionados. La primera se refiere a la capacidad de las mĆ”quinas para aprender y resolver problemas. La segunda, a la producción de datos a una escala enorme y creciente, que no habĆamos conocido antes. Se estima, por ejemplo, que el 90% de los datos existentes, fue generado en los Ćŗltimos 2 aƱos.
La inteligencia artificial no es un tema de ciencia ficción ni del futuro. Ya la tenemos aquà y cada vez estarÔ mÔs presente en nuestras vidas.
El desarrollo tecnológico permite que la sociedad produzca constantemente datos, almacenando la mayor parte de forma digital: información geogrĆ”fica y estadĆstica; datos meteorológicos; información relacionada con las decisiones y hĆ”bitos de las personas, provenientes de las redes sociales y el comercio electrónico; asĆ como datos provenientes de sensores y una variedad de dispositivos conectados que conocemos como el internet de las cosas.
La gran cantidad de datos disponibles conlleva la necesidad de contar con tecnologĆas, procesos y capacidad para: recolectarlos y almacenarlos; filtrarlos, validarlos y estandarizarlos; analizarlos; aplicarles modelos predictivos y relacionales; y, finalmente, compartirlos bajo estĆ”ndares de seguridad y privacidad.
La inteligencia artificial utiliza los datos como insumo de distintos procesos cognitivos que desembocan en un aprendizaje similar al que realizamos los humanos. Los resultados de estos procesos dependen de su diseño, es decir, de las reglas y secuencias lógicas empleadas, asà como de los datos con los que se alimentan.
Por lo tanto, no deberĆa sorprendernos ver distintas experiencias que han resultado en que las mĆ”quinas han aprendido a ser racistas y machistas (y otros āistasā) al absorber los sesgos de algĆŗn lenguaje que, por razones históricas, ya los contiene. Una mĆ”quina puede asumir sesgos de forma directa, a travĆ©s de los propios programadores que diseƱan los algoritmos y reglas de la inteligencia artificial, pero tambiĆ©n puede desarrollar un comportamiento discriminador a travĆ©s de los datos que utiliza para aprender.
Inteligencia artificial justa
Caliskan, Bryson y Narayanan [1] realizaron un interesante estudio del que concluyen que, cuando la inteligencia artificial se alimenta de un idioma, termina por adoptar los sesgos humanos implĆcitos en el lenguaje.
En algunos casos, observan cómo las mÔquinas terminan por asociar con mayor probabilidad los nombres femeninos a las tareas domésticas o la familia y, en contraste, los nombres masculinos a conceptos relacionados con una carrera profesional, asà como las palabras mujer y niña a las artes y menos a las matemÔticas o las ciencias.
Se evidencia asĆ la importancia de tomar una perspectiva crĆtica sobre los factores que han llevado a que los humanos discriminen, antes de diseƱar inteligencia artificial para sistemas automatizados que aprendan a tomar decisiones a partir de información derivada del comportamiento humano que históricamente ha estado sesgado. De otra manera, simplemente se transferirĆ”n y potenciarĆ”n dichos defectos de los humanos a las mĆ”quinas.
Los ejemplos se van acumulando, desde el bot Tay de Twitter, desarrollado por Microsoft, que, alimentado por tweets humanos, en unas pocas horas de funcionamiento adquirió un comportamiento sexista, antisemita, racista y malhablado, que llevó a su pronta eliminación.
Otro caso es el que identificó el estudio de Carnegie Mellon University y el Instituto Internacional de Ciencia InformÔtica [2] al demostrar que la interacción de la plataforma de Google con anunciantes, otros sitios de internet y los usuarios, resultaba en la oferta de trabajos mejor pagados a hombres que a mujeres.
Un ejemplo muy reciente es el del sistema de reclutamiento de nuevo personal creado por Amazon en 2014 y que fue retirado en 2017. Entre otros aspectos, Ć©ste discriminaba a las mujeres como candidatas para puestos relacionados con tecnologĆa.
El sistema fue entrenado para revisar perfiles con base en patrones de currĆculums enviados y seleccionados durante una dĆ©cada, donde la mayorĆa correspondĆa a hombres debido al sesgo histórico de la industria tecnológica. El sistema āaprendióā que los candidatos varones eran preferibles para esos puestos, penalizando los perfiles con palabras āmujerā, nombres femeninos y otras caracterĆsticas relacionadas con el gĆ©nero femenino.
Por Ć©sta y numerosas otras experiencias, estĆ” tomando fuerza el concepto de āinteligencia artificial justaā, que propone incluir formulaciones matemĆ”ticas expresamente diseƱadas para la toma de decisiones no discriminatorias. Otra opción es la arquitectura modular de inteligencia artificial, que identifica el aprendizaje de regularidades estadĆsticas y lo complementa con instrucciones explĆcitas relacionadas con lo que debe ser una conducta apropiada.
Estas propuestas obedecen al entendimiento cada vez mĆ”s extendido de que la inteligencia artificial asumirĆ” los sesgos implĆcitos en el lenguaje y en los patrones de las decisiones humanas, a menos de que se tomen medidas expresas para evitarlo.
Para impedir que las tecnologĆas perpetĆŗen los estereotipos culturales se requiere perspectiva de gĆ©nero y un objetivo explĆcito de no discriminación, desde las actividades de anĆ”lisis y procesamiento de datos, hasta el diseƱo de algoritmos y aplicaciones de la inteligencia artificial.
Finalmente, también resulta fundamental generalizar protocolos para la puesta en marcha que contemplen fases de pruebas, supervisión y corrección de fallas, todas ellas bajo un principio de transparencia que facilite el entendimiento de las interacciones complejas que ocurren en estos sistemas.
COLOFĆN: El poder de un pronombre
He estado escuchando comentarios sobre las estadĆsticas que publica el IFT seƱalando por ejemplo que āde cada 100 habitantes, 93 cuentan con un telĆ©fono móvilā, lo cual refiere que el 93% de la población tiene un celular. Pero esta conclusión es incorrecta.
Las estadĆsticas publicadas recientemente por el IFT miden el ānĆŗmero de lĆneas móviles por cada 100 habitantesā, lo que representa el nĆŗmero de accesos con servicio móvil (celulares) que podemos contar por cada 100 personas.
Esto no quiere decir que 93 personas tengan una lĆnea móvil, ya que algunas de ellas concentrarĆ”n 2 lĆneas o inclusive 3, lo que sucede cuando, por ejemplo, alguien cuenta con una lĆnea personal y una lĆnea de trabajo. Es por esta razón que este indicador en muchos paĆses rebasa los 100 accesos, como es el caso de Argentina con 139, Brasil con 113 o Chile con 127 (todos en 2017).
Nuestras 93 lĆneas por cada 100 personas se traducen en que el 72.2% de la población utiliza el telĆ©fono celular, de acuerdo con las cifras del INEGI (ENDUTIH), que no se basan en el nĆŗmero preciso de contratos reportados por la industria, como es el caso de las cifras del IFT, sino en una amplia encuesta realizada a la población sobre sus patrones de uso de las tecnologĆas de la información y comunicación.
Lo que hace cambiar un ādeā por un āporā.
[1] Caliskan-Islam, A., Bryson, J. J., & Narayanan, A. Semantics derived automatically from language corpora necessarily contain human biases. Science 356, abril 2017.
[2] Amit Datta, Michael Carl Tschantz y Anupam Datta: Automated Experiments on Ad Privacy Settings. A Tale of Opacity, Choice, and Discrimination. Proceedings on Privacy Enhancing Technologies 2015.
- Comisionada del IFT y presidenta de la red de mujeres CONECTADAS