EstĆ” tomando fuerza el concepto de ā€œinteligencia artificial justaā€, que propone incluir formulaciones para la toma de decisiones no discriminatorias

La inteligencia artificial y el big data –macrodatos, datos masivos–, se encuentran estrechamente relacionados. La primera se refiere a la capacidad de las mĆ”quinas para aprender y resolver problemas. La segunda, a la producción de datos a una escala enorme y creciente, que no habĆ­amos conocido antes. Se estima, por ejemplo, que el 90% de los datos existentes, fue generado en los Ćŗltimos 2 aƱos.

La inteligencia artificial no es un tema de ciencia ficción ni del futuro. Ya la tenemos aquí y cada vez estarÔ mÔs presente en nuestras vidas.

El desarrollo tecnológico permite que la sociedad produzca constantemente datos, almacenando la mayor parte de forma digital: información geogrĆ”fica y estadĆ­stica; datos meteorológicos; información relacionada con las decisiones y hĆ”bitos de las personas, provenientes de las redes sociales y el comercio electrónico; asĆ­ como datos provenientes de sensores y una variedad de dispositivos conectados que conocemos como el internet de las cosas. 

La gran cantidad de datos disponibles conlleva la necesidad de contar con tecnologƭas, procesos y capacidad para: recolectarlos y almacenarlos; filtrarlos, validarlos y estandarizarlos; analizarlos; aplicarles modelos predictivos y relacionales; y, finalmente, compartirlos bajo estƔndares de seguridad y privacidad.

La inteligencia artificial utiliza los datos como insumo de distintos procesos cognitivos que desembocan en un aprendizaje similar al que realizamos los humanos. Los resultados de estos procesos dependen de su diseño, es decir, de las reglas y secuencias lógicas empleadas, así como de los datos con los que se alimentan.

Por lo tanto, no deberĆ­a sorprendernos ver distintas experiencias que han resultado en que las mĆ”quinas han aprendido a ser racistas y machistas (y otros ā€œistasā€) al absorber los sesgos de algĆŗn lenguaje que, por razones históricas, ya los contiene. Una mĆ”quina puede asumir sesgos de forma directa, a travĆ©s de los propios programadores que diseƱan los algoritmos y reglas de la inteligencia artificial, pero tambiĆ©n puede desarrollar un comportamiento discriminador a travĆ©s de los datos que utiliza para aprender. 

Inteligencia artificial justa

Caliskan, Bryson y Narayanan [1] realizaron un interesante estudio del que concluyen que, cuando la inteligencia artificial se alimenta de un idioma, termina por adoptar los sesgos humanos implĆ­citos en el lenguaje.

En algunos casos, observan cómo las mÔquinas terminan por asociar con mayor probabilidad los nombres femeninos a las tareas domésticas o la familia y, en contraste, los nombres masculinos a conceptos relacionados con una carrera profesional, así como las palabras mujer y niña a las artes y menos a las matemÔticas o las ciencias.

Se evidencia así la importancia de tomar una perspectiva crítica sobre los factores que han llevado a que los humanos discriminen, antes de diseñar inteligencia artificial para sistemas automatizados que aprendan a tomar decisiones a partir de información derivada del comportamiento humano que históricamente ha estado sesgado. De otra manera, simplemente se transferirÔn y potenciarÔn dichos defectos de los humanos a las mÔquinas.

Los ejemplos se van acumulando, desde el bot Tay de Twitter, desarrollado por Microsoft, que, alimentado por tweets humanos, en unas pocas horas de funcionamiento adquirió un comportamiento sexista, antisemita, racista y malhablado, que llevó a su pronta eliminación.

Otro caso es el que identificó el estudio de Carnegie Mellon University y el Instituto Internacional de Ciencia InformÔtica [2] al demostrar que la interacción de la plataforma de Google con anunciantes, otros sitios de internet y los usuarios, resultaba en la oferta de trabajos mejor pagados a hombres que a mujeres.

Un ejemplo muy reciente es el del sistema de reclutamiento de nuevo personal creado por Amazon en 2014 y que fue retirado en 2017. Entre otros aspectos, Ʃste discriminaba a las mujeres como candidatas para puestos relacionados con tecnologƭa.

El sistema fue entrenado para revisar perfiles con base en patrones de currĆ­culums enviados y seleccionados durante una dĆ©cada, donde la mayorĆ­a correspondĆ­a a hombres debido al sesgo histórico de la industria tecnológica. El sistema ā€˜aprendió’ que los candidatos varones eran preferibles para esos puestos, penalizando los perfiles con palabras ā€œmujerā€, nombres femeninos y otras caracterĆ­sticas relacionadas con el gĆ©nero femenino.

Por Ć©sta y numerosas otras experiencias, estĆ” tomando fuerza el concepto de ā€œinteligencia artificial justaā€, que propone incluir formulaciones matemĆ”ticas expresamente diseƱadas para la toma de decisiones no discriminatorias. Otra opción es la arquitectura modular de inteligencia artificial, que identifica el aprendizaje de regularidades estadĆ­sticas y lo complementa con instrucciones explĆ­citas relacionadas con lo que debe ser una conducta apropiada.

Estas propuestas obedecen al entendimiento cada vez mƔs extendido de que la inteligencia artificial asumirƔ los sesgos implƭcitos en el lenguaje y en los patrones de las decisiones humanas, a menos de que se tomen medidas expresas para evitarlo.

Para impedir que las tecnologías perpetúen los estereotipos culturales se requiere perspectiva de género y un objetivo explícito de no discriminación, desde las actividades de anÔlisis y procesamiento de datos, hasta el diseño de algoritmos y aplicaciones de la inteligencia artificial.

Finalmente, también resulta fundamental generalizar protocolos para la puesta en marcha que contemplen fases de pruebas, supervisión y corrección de fallas, todas ellas bajo un principio de transparencia que facilite el entendimiento de las interacciones complejas que ocurren en estos sistemas.

COLOFƓN: El poder de un pronombre

He estado escuchando comentarios sobre las estadĆ­sticas que publica el IFT seƱalando por ejemplo que ā€œde cada 100 habitantes, 93 cuentan con un telĆ©fono móvilā€, lo cual refiere que el 93% de la población tiene un celular. Pero esta conclusión es incorrecta.

Las estadĆ­sticas publicadas recientemente por el IFT miden el ā€œnĆŗmero de lĆ­neas móviles por cada 100 habitantesā€, lo que representa el nĆŗmero de accesos con servicio móvil (celulares) que podemos contar por cada 100 personas.

Esto no quiere decir que 93 personas tengan una línea móvil, ya que algunas de ellas concentrarÔn 2 líneas o inclusive 3, lo que sucede cuando, por ejemplo, alguien cuenta con una línea personal y una línea de trabajo. Es por esta razón que este indicador en muchos países rebasa los 100 accesos, como es el caso de Argentina con 139, Brasil con 113 o Chile con 127 (todos en 2017).

Nuestras 93 líneas por cada 100 personas se traducen en que el 72.2% de la población utiliza el teléfono celular, de acuerdo con las cifras del INEGI (ENDUTIH), que no se basan en el número preciso de contratos reportados por la industria, como es el caso de las cifras del IFT, sino en una amplia encuesta realizada a la población sobre sus patrones de uso de las tecnologías de la información y comunicación.
Lo que hace cambiar un ā€œdeā€ por un ā€œporā€.

[1] Caliskan-Islam, A., Bryson, J. J., & Narayanan, A. Semantics derived automatically from language corpora necessarily contain human biases. Science 356, abril 2017.

[2] Amit Datta, Michael Carl Tschantz y Anupam Datta: Automated Experiments on Ad Privacy Settings. A Tale of Opacity, Choice, and Discrimination. Proceedings on Privacy Enhancing Technologies 2015.

  • Comisionada del IFT y presidenta de la red de mujeres CONECTADAS
Share This