Ciudad de México, julio de 2025.- La creciente utilización de inteligencia artificial (IA) en exámenes y pruebas de evaluación representa una amenaza seria para la formación académica y los procesos de selección en empresas, advirtió la firma especializada Lexium.
De acuerdo con un análisis reciente, el uso no supervisado de herramientas de IA para responder evaluaciones se ha convertido en una práctica común entre estudiantes y profesionales, lo que compromete no solo la validez de los resultados, sino también el desarrollo de habilidades críticas y el criterio ético de los evaluados.
“La IA no solo facilita la trampa, sino que desvaloriza el conocimiento”, señaló Laura Elizondo Williams, socia directora de Lexium. “Si las personas ya no necesitan pensar por sí mismas, ¿para qué aprender?”
Evaluaciones en crisis
Según el reporte, esta tendencia se manifiesta con mayor frecuencia en contextos de evaluación en línea, donde los candidatos acceden fácilmente a plataformas de IA para obtener respuestas automáticas. Aunque muchos saben que están cruzando límites éticos, lo hacen porque es rápido, conveniente y, hasta ahora, difícil de detectar.
Este fenómeno impacta directamente en procesos clave como contrataciones, promociones internas, admisiones escolares y certificaciones profesionales. “Si no sabemos con certeza quién domina un tema, ¿cómo podemos confiar en sus decisiones futuras?”, cuestiona el informe.
Medidas para proteger la integridad del conocimiento
Ante este panorama, Lexium propone una serie de medidas para blindar las evaluaciones contra el uso indebido de inteligencia artificial:
- Implementación de plataformas seguras que limiten la navegación paralela.
- Videovigilancia activa en pruebas en línea.
- Detección automatizada de comportamientos inusuales.
- Rediseño estratégico de las evaluaciones con enfoque en análisis y pensamiento crítico.
- Regreso, si es necesario, a evaluaciones presenciales con supervisión estricta.
Estas acciones, asegura la firma, no solo protegerían la integridad de las evaluaciones, sino que también recuperarían su propósito original: medir conocimientos, habilidades y honestidad.
Riesgos más allá de la educación
El impacto de esta problemática no se limita a las aulas. Lexium advierte que muchas empresas podrían estar tomando decisiones basadas en resultados manipulados, lo que afectaría su productividad, ética institucional y reputación.
Una decisión urgente y colectiva
Lexium concluye que la inteligencia artificial no debe ser vista como enemiga, sino como una herramienta que debe usarse con responsabilidad. Sin embargo, alerta que la ventana de tiempo para actuar se acorta. “Proteger la integridad de las evaluaciones es, en el fondo, proteger el valor del conocimiento, el esfuerzo y la honestidad como pilares de una sociedad funcional”, afirma el documento.
La advertencia es clara: si no se toman medidas pronto, podríamos estar frente a una crisis educativa y laboral más profunda de lo que imaginamos.