El año que comienza enfrenta una matriz de riesgos extraordinariamente preocupante. La intensificación de los fenómenos relacionados con el cambio climático, la extensión geográfica de las guerras actuales, el crecimiento de los flujos migratorios en muchas latitudes, el mal uso creciente de la inteligencia artificial y los arteros ataques sin violencia física a la democracia en muchos países, nos mantendrán permanentemente al borde de un ataque de nervios.

Y es que en este año de 2024 los procesos electorales de muchos países toman la escena, pues se estima que cerca de la mitad de la población mundial tendrá la oportunidad de participar en dichos procesos. Muchos de ellos serán cruciales por las implicaciones geopolíticas que tendrán sus resultados.

La primera elección ya tuvo lugar en Taiwán, en donde eligieron a un político que se opone a la injerencia de China, razón por la cual se incrementarán las tensiones ya de suyo elevadas entre ambas naciones. En la lista de los países que tendrán elecciones críticas a lo largo del año están los Estados Unidos, la India, Pakistán y, por supuesto, México.

En todos los casos la desinformación y la difusión hiperpersonalizada de noticias falsas son riesgos mayores, pues en todos los países hay un cierto porcentaje de la población abiertamente vulnerable a las dos cosas. Como lo he mencionado en otras ocasiones, me parece que en particular la ingenuidad, la aversión a conceptos y explicaciones científicas o complicadas, y la propensión al pensamiento mágico de muchas personas crean contextos de alta vulnerabilidad ante argumentos falsos y maliciosos. Esa población, que son muchos millones de personas, es un caldo de cultivo particularmente fértil para ser manipulada por la inteligencia artificial con mensajes creíbles y convincentes.

La falta de esquemas formalmente constituidos de regulación ética de la inteligencia artificial a nivel internacional ofrece una enorme ventana de incentivos y oportunidades para el uso maligno de esa herramienta. Es cierto que ya empezaron a surgir iniciativas prometedoras para implantar esta regulación, sobre todo en Europa occidental y en los Estados Unidos, pero sus brazos operativos no estarán listos para enfrentar y neutralizar los riesgos electorales en este 2024.

Las oportunidades de negocio ofrecidas por el mercado de la desinformación y las noticias falsas han sido aprovechadas por muchas empresas y organizaciones de diferentes países. Uno de los casos más conocidos en los últimos meses es el de una empresa más de Israel, investigada por un consorcio de periódicos de varios países entre los que se encontraba Le Monde y entre cuyos éxitos menciona el haber influido en una serie de resultados electorales en diferentes partes de mundo, que ofrece un menú de servicios que incluye todo tipo de hackeos, manipulación de cuentas falsas en redes sociales y publicación de artículos perversos en medios de comunicación internacionales.

En un contexto similar, Meta, la matriz de Facebook, Instagram y WhatsApp, reveló el año pasado haber descubierto que más de cien medios de comunicación habían sido clonados por la red Doppelgänger que se dedica a crear páginas falsas de internet con el objetivo de publicar desinformación y propaganda, en ese caso aparentemente alineada con el gobierno ruso.

El uso de inteligencia artificial en los servicios y mecanismos ofrecidos por este tipo empresas y organizaciones seguramente hará que su demanda y sus aplicaciones sigan creciendo, ante la inexistencia de mecanismos legales que puedan impedirlo.

La carrera electoral en México se irá calentando en las próximas semanas y sin duda empezarán a surgir campañas y acciones que harán un uso malicioso de la inteligencia artificial. La desesperante atonía de los órganos y tribunales electorales se manifestará una vez más de manera tardía e ineficaz. Nos queda a los ciudadanos preocupados por ello levantar la voz de alerta y evidenciar lo que podamos de la manera más oportuna posible. Es lo menos que podemos hacer.

Leer en La silla rota

English English Spanish Spanish
Share This