Frente a la explosión tecnológica que representa la Inteligencia Artificial (IA), es imprescindible considerar que la ética y responsabilidad de su uso, corresponde no solo al Estado, sino también a las empresas y a los particulares, además de tener muy presente que hay normas aplicables a esta tecnología que deben ser observadas.

Elena Estavillo, directora de Centro i Para la sociedad del Futuro, advirtió que esta tecnología, con todos los beneficios que promete, su uso también implica riesgos tanto para los derechos de privacidad, como en materia de seguridad y de igualdad, por lo que al margen de la necesidad de crear una legislación específica, es imprescindible observar las normas jurídicas vigentes .

En el contexto de la Semana de la Inteligencia Artificial, organizada por el Instituto Federal de Telecomunicaciones (IFT), en la mesa titulada “Articulando el ecosistema digital en y con la Inteligencia Artificial”, la especialista convocó a pensar en esta tecnología antes de aplicarla, pero sobre todo verificar “¿dónde están los impactos y quién los registra: buenos y malos?”

Explicó que las ventajas detectadas en el uso de la IA son importantes, pero aún más relevante, saber exactamente para qué se quiere aplicar, pues al ser una herramienta tan potente, fácilmente se puede caer en el riesgo de “querer usar un cañón para matar moscas”.

Indicó que si bien la discusión internacional sobre la protección de datos está muy avanzada, como ya sucede en la legislación europea que categoriza riesgos en “manejables, altos o inaceptables”, en México todavía se está tratando de definir las políticas públicas que se pueden crear para regular esta tecnología; aunque hay normas jurídicas aplicables al Estado, a las empresas y a los particulares, que no deben olvidar el valor que representa el proteger los datos en el contexto de un amplio proceso de digitalización.

La ética, precisó, debe guiar todo desarrollo de la tecnología, de proteger las fuentes de datos, así como su organización. Desde el momento de concebir la idea hasta entregar el producto final, porque sólo así se podrán prevenir proyectos con sesgos, que terminen por perjudicar.

Al respecto, Sissi de la Peña, directora de Asuntos Gubernamentales e Internacionales de la Academia Mexicana de Ciberseguridad y Derecho Digital (AMCID), recordó que la IA es una tecnología que se puede aplicar a cualquier cosa y sobre todo basada en datos, por lo que no es exagerado recordar el “lugar común que define a los datos como el nuevo oro” que toda las empresas están buscando.

Lo más importante, son los datos, que dene de ser acompañados de algoritmos e infraestructura, tan es así, que a diferencia de los grandes corporativos, si las empresas pequeñas y medianas o de nuevo surgimiento no tienen acceso a información detallada y bien organizada, sus productos digitales o aplicaciones no podrán ser tan precisos y por lo tanto no estarán en posición de competir con los grandes desarrollos.

De ahí la necesidad de garantizar un acceso equitativo a datos tanto públicos como privados con interoperabilidad y respeto a la información personal que ya se está usando a nivel de biométricos “y que nadie cuestiona sus peligros, aunque ya estamos en ese nivel”.

A manera de ejemplo, citó el caso de una persona que recién compró un vehículo nuevo y en la agencia le explicaron que obligatoriamente debía colocar un chip que mide toda la actividad de la auto, (modo de manejo, movimientos, respeto al reglamento de tránsito, cuidado al manejar, etc) y que de lo contrario no se lo entregarían, aunque nunca explicaron cómo sería el uso de estos datos que evidentemente se pueden usar para evaluar el costo de la póliza de seguros para la persona.

Aunque coincidió con Elena Estavillo en el sentido de que existen normas para regular este tipo de cosas, habló de la necesidad de políticas públicas que regulen la IA, a través de mecanismos eficientes y flexibles como los Sandbox Regulatorios que ya han probado su eficacia en distintos sectores.

No obstante, De la Peña Mendoza advirtió que aún con la mejor política pública, si se tiene infraestructura y energía, “no vamos a avanzar” en la aplicación de la IA, tecnología que promete varias ventajas, pero también implica serios riesgos de ciberseguridad, los cuales “ya no se pueden ver como un tema separado del propio desarrollo de esta tecnología”.

Por su parte el comisionado del Instituto Federal de Telecomunicaciones, Arturo Robles Rovalo, ofreció datos que revelan cómo se avanza en materia de infraestructura. Por ejemplo, a nivel mundial hay 7 mil 531 centros de datos distribuidos en 140 países, infraestructura vital para el desarrollo de la IA.

El país con el mayor número de estos centros es Estados Unidos, con 2 mil 868, Reino Unido con 356 y Alemania con 328, mientras en 29 países de América Latina hay 352, de los cuales Brasil,posee 140 y México 50 y aunque en términos de población, América Latina representa sólo 8.0 por ciento de la población mundial, “los algoritmos de la IA no están hechos para nosotros y eso lleva a que la aplicación de la tecnología nos conduzca a un cierto tipo de toma de decisiones que no tomaríamos nosotros”.

De hecho, en el mundo existen ciertos tipos de modelos para la regulación de la tecnología, como es el Europeo, que privilegia el control de los datos; el estadounidense, enfocado al desarrollo de la tecnología; el conocido como “Jardín Vallado”, aplicado en China y Arabia Saudita, donde se permite cualquier desarrollo, dentro de límites establecidos y el de compartición libre y total como en Taiwán y Corea.

Pero no existe un modelo latinoamericano y por tanto, debemos desarrollar uno “que sí tome en cuenta nuestros puntos de vista” y nos convierta en creadores de IA y sus casos de uso, y no en simples consumidores.

Para ello se requiere contar con modelos de gobernanza y ciberseguridad, incluyendo el establecimiento y aplicación de: valores y principios; y buenas prácticas. Así también, establecer un marco jurídico que garantice la transparencia (uno de los temas más relevantes) y la protección de datos personales.

Es oportuno considerar que la IA se puede usar para cualquier cosa, incluyendo la creación de información falsa, por lo que ya se discuten criterios globales, como usar sellos de agua en imágenes producidas con IA, y ante la inseguridad que pueden generar, ya se discute si las amenazas se debn tratar con los mismos criterios que se hace con las amenazas nucleares, en función de la gravedad del ataque y la capacidad de control.

 

Share This