Está tomando fuerza el concepto de “inteligencia artificial justa”, que propone incluir formulaciones para la toma de decisiones no discriminatorias

La inteligencia artificial y el big data –macrodatos, datos masivos–, se encuentran estrechamente relacionados. La primera se refiere a la capacidad de las máquinas para aprender y resolver problemas. La segunda, a la producción de datos a una escala enorme y creciente, que no habíamos conocido antes. Se estima, por ejemplo, que el 90% de los datos existentes, fue generado en los últimos 2 años.

La inteligencia artificial no es un tema de ciencia ficción ni del futuro. Ya la tenemos aquí y cada vez estará más presente en nuestras vidas.

El desarrollo tecnológico permite que la sociedad produzca constantemente datos, almacenando la mayor parte de forma digital: información geográfica y estadística; datos meteorológicos; información relacionada con las decisiones y hábitos de las personas, provenientes de las redes sociales y el comercio electrónico; así como datos provenientes de sensores y una variedad de dispositivos conectados que conocemos como el internet de las cosas. 

La gran cantidad de datos disponibles conlleva la necesidad de contar con tecnologías, procesos y capacidad para: recolectarlos y almacenarlos; filtrarlos, validarlos y estandarizarlos; analizarlos; aplicarles modelos predictivos y relacionales; y, finalmente, compartirlos bajo estándares de seguridad y privacidad.

La inteligencia artificial utiliza los datos como insumo de distintos procesos cognitivos que desembocan en un aprendizaje similar al que realizamos los humanos. Los resultados de estos procesos dependen de su diseño, es decir, de las reglas y secuencias lógicas empleadas, así como de los datos con los que se alimentan.

Por lo tanto, no debería sorprendernos ver distintas experiencias que han resultado en que las máquinas han aprendido a ser racistas y machistas (y otros “istas”) al absorber los sesgos de algún lenguaje que, por razones históricas, ya los contiene. Una máquina puede asumir sesgos de forma directa, a través de los propios programadores que diseñan los algoritmos y reglas de la inteligencia artificial, pero también puede desarrollar un comportamiento discriminador a través de los datos que utiliza para aprender. 

Inteligencia artificial justa

Caliskan, Bryson y Narayanan [1] realizaron un interesante estudio del que concluyen que, cuando la inteligencia artificial se alimenta de un idioma, termina por adoptar los sesgos humanos implícitos en el lenguaje.

En algunos casos, observan cómo las máquinas terminan por asociar con mayor probabilidad los nombres femeninos a las tareas domésticas o la familia y, en contraste, los nombres masculinos a conceptos relacionados con una carrera profesional, así como las palabras mujer y niña a las artes y menos a las matemáticas o las ciencias.

Se evidencia así la importancia de tomar una perspectiva crítica sobre los factores que han llevado a que los humanos discriminen, antes de diseñar inteligencia artificial para sistemas automatizados que aprendan a tomar decisiones a partir de información derivada del comportamiento humano que históricamente ha estado sesgado. De otra manera, simplemente se transferirán y potenciarán dichos defectos de los humanos a las máquinas.

Los ejemplos se van acumulando, desde el bot Tay de Twitter, desarrollado por Microsoft, que, alimentado por tweets humanos, en unas pocas horas de funcionamiento adquirió un comportamiento sexista, antisemita, racista y malhablado, que llevó a su pronta eliminación.

Otro caso es el que identificó el estudio de Carnegie Mellon University y el Instituto Internacional de Ciencia Informática [2] al demostrar que la interacción de la plataforma de Google con anunciantes, otros sitios de internet y los usuarios, resultaba en la oferta de trabajos mejor pagados a hombres que a mujeres.

Un ejemplo muy reciente es el del sistema de reclutamiento de nuevo personal creado por Amazon en 2014 y que fue retirado en 2017. Entre otros aspectos, éste discriminaba a las mujeres como candidatas para puestos relacionados con tecnología.

El sistema fue entrenado para revisar perfiles con base en patrones de currículums enviados y seleccionados durante una década, donde la mayoría correspondía a hombres debido al sesgo histórico de la industria tecnológica. El sistema ‘aprendió’ que los candidatos varones eran preferibles para esos puestos, penalizando los perfiles con palabras “mujer”, nombres femeninos y otras características relacionadas con el género femenino.

Por ésta y numerosas otras experiencias, está tomando fuerza el concepto de “inteligencia artificial justa”, que propone incluir formulaciones matemáticas expresamente diseñadas para la toma de decisiones no discriminatorias. Otra opción es la arquitectura modular de inteligencia artificial, que identifica el aprendizaje de regularidades estadísticas y lo complementa con instrucciones explícitas relacionadas con lo que debe ser una conducta apropiada.

Estas propuestas obedecen al entendimiento cada vez más extendido de que la inteligencia artificial asumirá los sesgos implícitos en el lenguaje y en los patrones de las decisiones humanas, a menos de que se tomen medidas expresas para evitarlo.

Para impedir que las tecnologías perpetúen los estereotipos culturales se requiere perspectiva de género y un objetivo explícito de no discriminación, desde las actividades de análisis y procesamiento de datos, hasta el diseño de algoritmos y aplicaciones de la inteligencia artificial.

Finalmente, también resulta fundamental generalizar protocolos para la puesta en marcha que contemplen fases de pruebas, supervisión y corrección de fallas, todas ellas bajo un principio de transparencia que facilite el entendimiento de las interacciones complejas que ocurren en estos sistemas.

COLOFÓN: El poder de un pronombre

He estado escuchando comentarios sobre las estadísticas que publica el IFT señalando por ejemplo que “de cada 100 habitantes, 93 cuentan con un teléfono móvil”, lo cual refiere que el 93% de la población tiene un celular. Pero esta conclusión es incorrecta.

Las estadísticas publicadas recientemente por el IFT miden el “número de líneas móviles por cada 100 habitantes”, lo que representa el número de accesos con servicio móvil (celulares) que podemos contar por cada 100 personas.

Esto no quiere decir que 93 personas tengan una línea móvil, ya que algunas de ellas concentrarán 2 líneas o inclusive 3, lo que sucede cuando, por ejemplo, alguien cuenta con una línea personal y una línea de trabajo. Es por esta razón que este indicador en muchos países rebasa los 100 accesos, como es el caso de Argentina con 139, Brasil con 113 o Chile con 127 (todos en 2017).

Nuestras 93 líneas por cada 100 personas se traducen en que el 72.2% de la población utiliza el teléfono celular, de acuerdo con las cifras del INEGI (ENDUTIH), que no se basan en el número preciso de contratos reportados por la industria, como es el caso de las cifras del IFT, sino en una amplia encuesta realizada a la población sobre sus patrones de uso de las tecnologías de la información y comunicación.
Lo que hace cambiar un “de” por un “por”.

[1] Caliskan-Islam, A., Bryson, J. J., & Narayanan, A. Semantics derived automatically from language corpora necessarily contain human biases. Science 356, abril 2017.

[2] Amit Datta, Michael Carl Tschantz y Anupam Datta: Automated Experiments on Ad Privacy Settings. A Tale of Opacity, Choice, and Discrimination. Proceedings on Privacy Enhancing Technologies 2015.

Dtd Pets15

  • Comisionada del IFT y presidenta de la red de mujeres CONECTADAS
Share This