Alejandro Pisanty, es profesor en la Facultad de Química de la UNAM, con amplia experiencia e investigaciones en internet, tecnologías de la investigación. Ha sido miembro de los Consejos Directivos de ICANN (Internet Corporation for Assigned Names and Numbers, del cual fue además vicepresidente por seis años) y de la Internet Society; miembro del Grupo de Trabajo para la Gobernanza de Internet, en la ONU, y en la misma ONU miembro del Grupo Asesor del Foro sobre Gobernanza de Internet. Los siguientes, son sus aportes:

1. La recomendación es rica en prevenciones y parca en líneas de acción que hagan crecer el campo de la inteligencia artificial y sus aplicaciones.

2. Es posible que la recomendación esté marcada por la (comprensible) resistencia a los proyectos, procesos, y productos de las grandes empresas de alcance global y no se acompase con empresas e instituciones de menor tamaño y capacidad. El emprendimiento y los proyectos que usan la inteligencia artificial están ya en todas partes, incluso en algunas obras artísticas, en proyectos de Jóvenes Creadores, por ejemplo. 

3. El enfoque ante todo precautorio de la recomendación, estructuralmente produce una atención asimétrica a los riesgos y costos de aquello que puede “salir mal” e induce frenos o cortapisas a las actividades de desarrollo e innovación, sin tomar en cuenta al mismo tiempo el “costo de no hacer”, el costo de la continuación del “status quo”. Así, por ejemplo, por evitar una decena de (innegablemente indeseables) casos de “injusticia algorítmica” con un sistema aplicado a la salud, se puede estar dejando correr un sistema en uso que produzca miles de injusticias “tradicionales” en el mismo lapso. 

4. La recomendación de que cada país establezca marcos de referencia y pruebas para la evaluación de los sistemas puede inducir un sistema de evaluación fácil de “trucar” mediante ¡la propia inteligencia artificial! Específicamente, si se conocen los “benchmarks” o se les hace ingeniería adversa, es factible hacer un “learning to the test”, producir resultados que reciban una alta calificación sin que el sistema realmente cumpla las expectativas no expresadas por el evaluador o la parte contratante. 

5. Los llamados a la “explicabilidad” tienen una fuerte resonancia intuitiva, pero conllevan problemas varios y profundos, desde la cuestión filosófica de la explicación y de la causalidad hasta la posibilidad de que un sistema sea visto en forma favorable por parecer plausibles las explicaciones que ofrece a un observador inocente o sujeto a incentivos que a otros observadores les harían llegar a un resultado diferente. No puede ser el único criterio. Además, puede estarse refiriendo sólo a un tipo de sistemas y proyectos que ven “directamente” al ser humano individual, y no a los muchos otros en los que hay un impresionante desarrollo de la IA, como el descubrimiento de nuevos fármacos o materiales (en la propia UNAM y otras instituciones en México hay estos avances). 

6. Al pensar en esta recomendación y el número ya mayor de un millar de instrumentos normativos u orientadores que existen sobre “Ética de la IA” me encuentro siempre con una dificultad seria: ¿cómo “bajan” a los pizarrones y teclados en los que se deciden, diseñan, desarrollan, implementan, prueban, y evalúan los sistemas? ¿cómo llegan al director de empresa de tarjeta de crédito que va a impulsar una promoción de nuevos productos, a las y los programadores que bajan de la red los programas y los datos para hacer los sistemas, cómo “bajan” a las empresas intermediarias no visibles al público en general que colectan, filtran y procesan datos de los servicios de Internet? ¿cómo bajan al INEGI o a las empresas de estudios de mercado y encuestadoras, a las aseguradoras, a los hospitales y a las aerolíneas? La implementación – tú lo sabes bien – es el talón de Aquiles de los mejores proyectos y éstos no serán la excepción. ¿Se pegan letreros en las paredes que digan “sé bueno”, se ponen “banners” o notificaciones en las pantallas de las computadoras que digan “haz el bien sin mirar a quién”, se distribuye una “cartilla moral”. 

7. Para formular una política nacional en esta compleja materia, la legislación sobre la materia misma debe ser la última herramienta. Lo primero en manos de los legisladores actualmente es el presupuesto, y deben asignarlo a las universidades, al CONACYT y consejos estatales de ciencia y tecnología, etc., para un rápido desarrollo y un intercambio de conocimientos intensificado tanto en el ámbito nacional como en el internacional. Como antecedente citaría el evento sobre inteligencia artificial y otras tecnologías realizado por la Secretaría de Relaciones Exteriores (SRE) y el Senado en febrero de 2020 (si recuerdo bien), y uno anterior de la SRE con un altísimo nivel de participación internacional quizás un año antes. 

8. Un aspecto muy positivo de la recomendación es su profusa propuesta de que las decisiones sean tomadas en consulta con los “stakeholders” de manera tan amplia y abierta como sea posible. Sin embargo, en este ámbito como en muchos otros la lista de “stakeholders” no incluye, y debe incluir, de manera explícita a la comunidad experta o comunidad técnica. Las personas que hacen los sistemas, las que dirigen las investigaciones y las tesis en las universidades, deben ser convocadas y tratadas en pie de igualdad. De esto hizo mucho el Foro Consultivo Científico y Tecnológico y justamente en temas de cómputo, debe haber sido en 2017/2018, para productos como el Programa Especial de Ciencia, Tecnología e Innovación (PECITI).

Share This