Inicio con Ć©ste una serie de artĆculos en los que irĆ© reflexionando sobre las implicaciones Ć©ticas, económicas y sociales de la revolución que estamos viviendo estos dĆas: la de la explosión de aplicaciones de la inteligencia artificial generativa (IAG).
Las noticias falsas y verdaderas sobre el potencial y los alcances de esta tecnologĆa se acumulan todos los dĆas, provocando un revuelo de elucubraciones, preocupaciones y temores fundados que aumentan la confusión y las opiniones encontradas. La incertidumbre sobre los aconteceres que vienen es muy grande y, como ha quedado claro, ni los creadores de la IAG saben bien a bien cuĆ”l serĆ” la configuración de los escenarios que tendremos en el futuro cercano. Todo ello hace que valga la pena tratar de darle un poco de orden a los argumentos de las partes y reflexionar de paso sobre algunas ideas de fondo.
Empecemos por recordar que es esto de la inteligencia artificial generativa. Se trata de un tipo de inteligencia artificial diseƱada para crear o generar contenido nuevo en forma de imĆ”genes, texto, mĆŗsica o videos. Funciona aprendiendo patrones y estructuras mediante el anĆ”lisis de billones de datos existentes y luego utilizando ese conocimiento para crear contenido nuevo y original que sea similar a lo que ha aprendido. Estos son los modelos que nos han sorprendido con impresionantes obras de artes plĆ”sticas, con escritos literarios, con excelentes resultados en exĆ”menes arbitrados de derecho, fĆsica, quĆmica, matemĆ”ticas y otras materias, con la realización eficiente y precisa de actividades y tareas de muchos empleos, con el diseƱo de estrategias de negocios y de campaƱas publicitarias, entre otras muchas cosas.
El listado de las ventajas y los beneficios que podemos obtener de estas aplicaciones es largo, pero tambiĆ©n lo es el de los riesgos potenciales, los cuales son siempre mĆ”s difĆciles de prever por muchas razones. Por ello me parece que para entender mejor el tamaƱo de los riesgos que enfrentamos ante el uso generalizado de estos modelos, hay que hablar de algunos temas de fondo que resultan cruciales para vislumbrar el abanico de riesgos que enfrentamos.
De entrada, son dos los temas que quisiera traer a la mesa: primero, el de ciertos rasgos muy comunes de personalidad de nosotros los humanos, y segundo, el de la forma en la que estamos organizados polĆtica, social y económicamente. Cómo irĆ” quedando claro a lo largo de estos textos, estos aspectos son cruciales en lo que se refiere a los alcances y la magnitud de los impactos que pueden llegar a tener las aplicaciones de la IAG.
Empecemos por mencionar que de entre los rasgos comunes de personalidad, entendidos en un sentido muy amplio, la ingenuidad, la aversión por conceptos y explicaciones cientĆficas o complicadas y la propensión al pensamiento mĆ”gico crean contextos de alta vulnerabilidad ante argumentos falsos o maliciosos. Como se ha comprobado en innumerables ocasiones, suelen ser altas las proporciones de la población que exhiben gran vulnerabilidad ante afirmaciones o noticias falsas y dolosas, lo cual representa un problema serio cuando el uso sin controles Ć©ticos de la IAG la convierte en una herramienta potencialmente muy efectiva para la propagación hiperpersonalizada de ese tipo de mensajes.
Los impactos de algo como lo que se menciona se amplifican cuando consideramos otro rasgo bastante común, que es el de la facilidad de sumisión: siempre hay quienes saben cómo usar y abusar del poder y quienes estÔn dispuestos a someterse y a obedecer órdenes irreflexivamente y sin muchos titubeos.
La sumisión contemporĆ”nea es un problema preocupante, como lo hemos observado con la capitulación de muchas sociedades ante las promesas mĆ”gicas e irreales de lĆderes mesiĆ”nicos y populistas, pero esto se agrava ante la posibilidad de que los sistemas de inteligencia artificial (no necesariamente diseƱados con fines maliciosos) incrementen la sumisión ya no a una persona de carne y hueso sino a una mĆ”quina mediante el rafagueo sistemĆ”tico de mensajes creĆbles y convincentes.
Hoy en dĆa sabemos que este tipo de escenarios ya no son ciencia ficción. Sabemos que son escenarios posibles y que muchos analistas serios y conocedores de los entretelones de la IAG estĆ”n externando pĆŗblicamente sus preocupaciones bien fundamentadas. Los peligros para la democracia, asociados al uso libre y no regulado de la inteligencia artificial, son reales y tangibles.
Esos peligros se mueven por varios caminos, como el de la acumulación excesiva de poder en los dueños de estos modelos, quienes estÔn amasando una cantidad inimaginable de información y datos de personas, organizaciones y gobiernos que pueden usar de muchas maneras.
Un ejemplo de esa preocupante concentración de poder es el caso de Elon Musk, el controvertido dueño de una constelación de empresas tecnológicas como Tesla, Space X y Starlink. Con esta última, Musk controla casi totalmente el estratégico sistema mundial de internet satelital, el cual cuenta actualmente con 4,500 satélites en órbita y la meta es llegar a 42,000.
Orgulloso representante del sistema patriarcal, con una personalidad errÔtica, visceral y de bajos umbrales éticos, Musk tiene altamente preocupados a gobiernos y jefes militares de todo el mundo pues tiene acceso a grandes cantidades de información y datos que pueden ser usados para los fines que él quiera.
Aunque en este caso el poder va mĆ”s allĆ” de los datos. Por ejemplo, las operaciones militares de Ucrania dependen crĆticamente de Starlink; los jefes militares de ese paĆs han declarado que si Musk decide un dĆa bajar el switch y dejar sin internet a Ucrania, la guerra estĆ” perdida.
Seguimos con el tema en la próxima columna.
Ver en La Silla Rota