Inicio con éste una serie de artículos en los que iré reflexionando sobre las implicaciones éticas, económicas y sociales de la revolución que estamos viviendo estos días: la de la explosión de aplicaciones de la inteligencia artificial generativa (IAG).

Las noticias falsas y verdaderas sobre el potencial y los alcances de esta tecnología se acumulan todos los días, provocando un revuelo de elucubraciones, preocupaciones y temores fundados que aumentan la confusión y las opiniones encontradas. La incertidumbre sobre los aconteceres que vienen es muy grande y, como ha quedado claro, ni los creadores de la IAG saben bien a bien cuÔl serÔ la configuración de los escenarios que tendremos en el futuro cercano. Todo ello hace que valga la pena tratar de darle un poco de orden a los argumentos de las partes y reflexionar de paso sobre algunas ideas de fondo.

Empecemos por recordar que es esto de la inteligencia artificial generativa. Se trata de un tipo de inteligencia artificial diseñada para crear o generar contenido nuevo en forma de imÔgenes, texto, música o videos. Funciona aprendiendo patrones y estructuras mediante el anÔlisis de billones de datos existentes y luego utilizando ese conocimiento para crear contenido nuevo y original que sea similar a lo que ha aprendido. Estos son los modelos que nos han sorprendido con impresionantes obras de artes plÔsticas, con escritos literarios, con excelentes resultados en exÔmenes arbitrados de derecho, física, química, matemÔticas y otras materias, con la realización eficiente y precisa de actividades y tareas de muchos empleos, con el diseño de estrategias de negocios y de campañas publicitarias, entre otras muchas cosas.

El listado de las ventajas y los beneficios que podemos obtener de estas aplicaciones es largo, pero tambiƩn lo es el de los riesgos potenciales, los cuales son siempre mƔs difƭciles de prever por muchas razones. Por ello me parece que para entender mejor el tamaƱo de los riesgos que enfrentamos ante el uso generalizado de estos modelos, hay que hablar de algunos temas de fondo que resultan cruciales para vislumbrar el abanico de riesgos que enfrentamos.

De entrada, son dos los temas que quisiera traer a la mesa: primero, el de ciertos rasgos muy comunes de personalidad de nosotros los humanos, y segundo, el de la forma en la que estamos organizados política, social y económicamente. Cómo irÔ quedando claro a lo largo de estos textos, estos aspectos son cruciales en lo que se refiere a los alcances y la magnitud de los impactos que pueden llegar a tener las aplicaciones de la IAG.

Empecemos por mencionar que de entre los rasgos comunes de personalidad, entendidos en un sentido muy amplio, la ingenuidad, la aversión por conceptos y explicaciones científicas o complicadas y la propensión al pensamiento mÔgico crean contextos de alta vulnerabilidad ante argumentos falsos o maliciosos. Como se ha comprobado en innumerables ocasiones, suelen ser altas las proporciones de la población que exhiben gran vulnerabilidad ante afirmaciones o noticias falsas y dolosas, lo cual representa un problema serio cuando el uso sin controles éticos de la IAG la convierte en una herramienta potencialmente muy efectiva para la propagación hiperpersonalizada de ese tipo de mensajes.

Los impactos de algo como lo que se menciona se amplifican cuando consideramos otro rasgo bastante común, que es el de la facilidad de sumisión: siempre hay quienes saben cómo usar y abusar del poder y quienes estÔn dispuestos a someterse y a obedecer órdenes irreflexivamente y sin muchos titubeos.

La sumisión contemporÔnea es un problema preocupante, como lo hemos observado con la capitulación de muchas sociedades ante las promesas mÔgicas e irreales de líderes mesiÔnicos y populistas, pero esto se agrava ante la posibilidad de que los sistemas de inteligencia artificial (no necesariamente diseñados con fines maliciosos) incrementen la sumisión ya no a una persona de carne y hueso sino a una mÔquina mediante el rafagueo sistemÔtico de mensajes creíbles y convincentes.

Hoy en día sabemos que este tipo de escenarios ya no son ciencia ficción. Sabemos que son escenarios posibles y que muchos analistas serios y conocedores de los entretelones de la IAG estÔn externando públicamente sus preocupaciones bien fundamentadas. Los peligros para la democracia, asociados al uso libre y no regulado de la inteligencia artificial, son reales y tangibles.

Esos peligros se mueven por varios caminos, como el de la acumulación excesiva de poder en los dueños de estos modelos, quienes estÔn amasando una cantidad inimaginable de información y datos de personas, organizaciones y gobiernos que pueden usar de muchas maneras.

Un ejemplo de esa preocupante concentración de poder es el caso de Elon Musk, el controvertido dueño de una constelación de empresas tecnológicas como Tesla, Space X y Starlink. Con esta última, Musk controla casi totalmente el estratégico sistema mundial de internet satelital, el cual cuenta actualmente con 4,500 satélites en órbita y la meta es llegar a 42,000.

Orgulloso representante del sistema patriarcal, con una personalidad errÔtica, visceral y de bajos umbrales éticos, Musk tiene altamente preocupados a gobiernos y jefes militares de todo el mundo pues tiene acceso a grandes cantidades de información y datos que pueden ser usados para los fines que él quiera.

Aunque en este caso el poder va mƔs allƔ de los datos. Por ejemplo, las operaciones militares de Ucrania dependen crƭticamente de Starlink; los jefes militares de ese paƭs han declarado que si Musk decide un dƭa bajar el switch y dejar sin internet a Ucrania, la guerra estƔ perdida.

Seguimos con el tema en la próxima columna.

Ver en La Silla Rota

Share This