Toca el turno a la aplicación de la inteligencia artificial (IA) a la educación, lo cual se puede dar en una multitud de Ômbitos: en los procesos de admisión de estudiantes y maestros, en la recomendación o asignación de Ôreas de estudio, en el diseño de planes curriculares, en la elaboración de cursos y de los materiales que éstos requieren, en la evaluación de exÔmenes y procesos de aprendizaje y en el seguimiento y evaluación del desempeño de los egresados en el Ômbito profesional, por mencionar algunas de las aplicaciones posibles. En todos los casos los beneficios potenciales son inmensos, pero repasemos algunos de los riesgos que hay que tomar en cuenta.
En un primer grupo estĆ”n los riesgos de los que ya hemos hablado cuando se trata de usar la IA en algĆŗn Ć”mbito: los sesgos algorĆtmicos, la violación de la privacidad y la seguridad de los datos y una eventual profundización de brechas digitales.
Pero cuando se trata de educación en un sentido amplio, hay riesgos especĆficos que hay que tomar en cuenta:
Deshumanización de los procesos de aprendizaje. La IA puede ser una herramienta valiosa para mejorar la eficiencia y personalizar la enseƱanza, pero no puede reemplazar completamente la conexión humana y, al menos hasta ahora, es difĆcil que tenga una comprensión profunda de las necesidades individuales de los estudiantes. La educación no consiste Ćŗnicamente en adquirir conocimientos, se trata tambiĆ©n de enseƱar a desarrollar y usar habilidades interpersonales, y de transmitir los valores Ć©ticos y culturales de cada sociedad. La excesiva dependencia de la IA podrĆa llevar a un enfoque excesivamente eficientista centrado en resultados, descuidando la importancia de las emociones y de la empatĆa en las relaciones humanas.
No alineación con valores fundamentales. Los caminos que toma la IA son frecuentemente opacos y misteriosos. Los mismos creadores de la IA reconocen que las decisiones de la IA provienen en muchos casos de procesos incomprensibles escondidos en cajas negras. Esto plantea un problema si hay que explicar un resultado cuando no se conoce el proceso cognitivo que tuvo lugar para llegar a ello. Si el resultado resuelve un problema, pero va en contra de valores fundamentales de la sociedad, cómo se le puede explicar o justificar si no se conoce su lógica argumentativa.
Dependencia tecnológica. Si los estudiantes dependen en exceso de la IA en sus procesos de aprendizaje, podrĆan perder la oportunidad de desarrollar habilidades necesarias como el pensamiento crĆtico, el planteamiento y resolución de problemas y la creatividad. AdemĆ”s, si la tecnologĆa falla o no estĆ” disponible, los estudiantes podrĆan encontrarse desorientados y mal preparados para aprender de manera autónoma.
Si ahora pasamos a la aplicación de la inteligencia artificial generativa (IAG), que en pocas palabras se refiere a sistemas que pueden generar contenido como textos, imÔgenes y videos de manera autónoma, la lista de riesgos asociados se extiende mÔs:
Contenido generado de baja calidad. Los sistemas de IAG pueden generar contenidos de manera ultrarrĆ”pida y eficiente, pero la calidad no estĆ” garantizada. Existe el riesgo de que se produzcan materiales educativos inexactos, erróneos, irrelevantes o de baja calidad, lo que podrĆa perjudicar el proceso de aprendizaje y llevar a los estudiantes y a la sociedad a estadios de desinformación y de generación de conflictos indeseables.
Plagio y falta de originalidad. Los estudiantes pueden utilizar sistemas de IAG para generar trabajos y materiales creativos sin mucho esfuerzo y sin la obligación ni de verificar quién o quiénes son las fuentes originales, ni de citar correctamente las mismas. Esto plantea un riesgo significativo de plagio y falta de originalidad en los trabajos académico y creativos, lo que socava los principios éticos de la educación.
Dificultades en la detección de fraudes. La detección del fraude académico se vuelve mÔs complicada cuando los estudiantes utilizan sistemas de IAG para generar trabajos. Los profesores y las instituciones educativas enfrentan el reto de invertir en herramientas de detección de plagio mÔs avanzadas y en métodos de evaluación que fomenten la originalidad y la comprensión del contenido.
CĆ”maras de eco en la enseƱanza. Si la IAG se utiliza para personalizar los procesos de aprendizaje, existe el riesgo de que los estudiantes se vean atrapados en una cĆ”mara de eco de contenidos generada por algoritmos. De manera similar a como esto sucede con las cĆ”maras de eco en las redes sociales, este fenómeno limita la exposición de los estudiantes a diferentes hechos y datos, asĆ como a diferentes perspectivas y enfoques de aprendizaje, lo que reduce su conocimiento contextual, merma su capacidad para pensar crĆticamente y reduce sus facultades para adaptarse a situaciones nuevas y diversas. El resultado puede incluso favorecer las condiciones que propician la intolerancia y la polarización.
Esta apretada lista de los peligros que enfrentamos ante la aplicación de la inteligencia artificial a la educación, es suficiente para generarnos algunas inquietudes y algo de preocupación. Por ello hay que seguir insistiendo en la aplicación de criterios éticos en la concepción y aplicación de los sistemas de inteligencia artificial.