Los exámenes en línea representan el futuro de las evaluaciones, ya que ofrecen mayor flexibilidad, accesibilidad y precisión frente a los métodos tradicionales. Pueden administrarse a gran escala sin necesidad de viajar ni de contar con centros de examen, facilitando a instituciones y empresas el acceso a un mayor número de personas, a un menor costo. Las pruebas en línea también permiten integrar diversas herramientas tecnológicas, lo que ofrece al participante una experiencia más atractiva e interactiva.
Sin embargo, con el auge de las pruebas en línea surge el desafío de garantizar la honestidad de estos exámenes. Los estudiantes pueden recurrir a métodos no autorizados para aprobarlos, poniendo en riesgo la validez de sus resultados. La aparición de modelos de lenguaje por inteligencia artificial, como ChatGPT, despierta preocupación por la posibilidad de hacer trampas y plantea la necesidad de adoptar medidas para proteger la integridad de estas evaluaciones.
ChatGPT es un chatbot de inteligencia artificial desarrollado por OpenAI, que utiliza un gran modelo de lenguaje (LLM). Está diseñado para generar respuestas similares a las humanas a preguntas en lenguaje natural. ChatGPT ha sido entrenado en una enorme cantidad de datos, lo que le permite generar respuestas coherentes y contextualmente relevantes a diversas preguntas.
ChatGPT, al igual que otros modelos de lenguaje por inteligencia artificial, puede poner en riesgo la integridad de ciertos tipos de evaluaciones en línea. Sin embargo, no todas las formas de evaluación en línea son igual de vulnerables.
Las evaluaciones que requieren respuestas complejas y detalladas, como pensamientos de orden superior, son menos vulnerables a las trampas al utilizar ChatGPT. En estas evaluaciones, los alumnos deben demostrar su comprensión de los matices y el contexto, lo que dificulta que ChatGPT genere respuestas precisas y coherentes.
Asimismo, las herramientas de supervisión remota pueden ser eficaces para evitar los riesgos asociados con el uso de ChatGPT en los exámenes. Estas herramientas utilizan una combinación de tecnologías, como la supervisión de video y audio y el análisis de movimientos del cursor y del teclado, para detectar comportamientos sospechosos durante un examen en línea. Esto incluye la supervisión del uso de máquinas virtuales u otro software que pueda utilizarse para ejecutar ChatGPT.
Mercer | Mettl aplica un enfoque de varios niveles para garantizar la seguridad de las evaluaciones en línea, que incorpora soluciones tanto tecnológicas como de diseño de exámenes.
La taxonomía de Bloom es un marco desarrollado para categorizar las metas y objetivos de aprendizaje. Sirve para evaluar dichos objetivos con diferentes niveles de complejidad.
Mercer | Mettl aplica una versión adaptada del marco de la taxonomía de Bloom para elaborar sus bancos de preguntas. Las evaluaciones que requieren habilidades de pensamiento de orden superior abarcan procesos cognitivos críticos, creativos y complejos que no se limitan a la simple memorización o comprensión de la información. Si bien los modelos de inteligencia artificial como GPT-4 pueden demostrar algunas de estas habilidades, sus capacidades suelen ser limitadas respecto a las de los humanos.
Por ejemplo, GPT-4 puede generar textos que parezcan analíticos o críticos, pero que podrían carecer de una verdadera comprensión. Además, los modelos de inteligencia artificial pueden tener dificultades para realizar tareas de síntesis o evaluación de información que no provenga de datos obtenidos durante su entrenamiento. Sin embargo, resulta fundamental reconocer que las capacidades de la inteligencia artificial mejoran continuamente, y que los futuros modelos podrían superar algunas de estas dificultades con mayor eficacia.
Mercer | Mettl ofrece una gran variedad de herramientas de supervisión remota a través del uso de la inteligencia artificial para garantizar exámenes sin trampas. Estas herramientas analizan la imagen, el video y el audio de la persona que realiza la evaluación para detectar cualquier actividad sospechosa o inusual, como la presencia de un tercero, que el participante se aleje de la ventana de examen, no esté visible o se detecte un teléfono móvil, entre otras.
Los resultados se integran en un informe llamado “Índice de credibilidad”, que clasifica los datos de los participantes en niveles de credibilidad: bajo, medio y alto.
Los evaluadores pueden ver las grabaciones de los informes para identificar los casos en los que la inteligencia artificial ha detectado comportamientos sospechosos. Los supervisores también disponen de toda esta información en caso de que el examen se realice en tiempo real, lo que les permite tomar medidas correctivas, como chatear con los participantes, interrumpir o incluso finalizar el examen.
Haga clic aquí para obtener más información sobre las soluciones de supervisión de Mercer | Mettl.
La mejor manera de evitar que los candidatos obtengan una ventaja injusta durante una evaluación en línea es restringir su acceso a diferentes herramientas y foros en línea.
Mercer | Mettl permite tener una vista de 360 grados del entorno circundante del evaluado, antes y durante la evaluación, para asegurarse de que no haya ningún material de apoyo o persona a su alrededor. Mercer | Mettl también ofrece un navegador con bloqueo antitrampas de última generación que garantiza un entorno de evaluación seguro, al evitar las trampas en pantalla.
Una vez que los participantes comienzan sus evaluaciones a través de estas aplicaciones, su pantalla se coloca en modo kiosco, lo cual evita cualquier actividad desleal. Los navegadores con bloqueo funcionan en todas las plataformas más utilizadas de todos los dispositivos de escritorio y móviles.
Haga clic aquí para obtener más información sobre los navegadores con bloqueo
Mercer | Mettl utiliza soluciones para detectar el plagio en las evaluaciones. La detección del plagio de código implica múltiples enfoques, incluido el uso de la medida Measure of Software Similarity (MOSS).
Para poder detectar con mayor eficacia los códigos generados por herramientas de inteligencia artificial como ChatGPT, en Mercer | Mettl estamos desarrollando un sistema avanzado de detección de plagio de código basado en IA. Pronto estará disponible para nuestros usuarios corporativos.
Mercer | Mettl permite realizar entrevistas en vivo de manera remota. Durante una entrevista en vivo, el entrevistador puede formular preguntas abiertas y evaluar las respuestas del candidato de forma virtual, verificando sus conocimientos y habilidades.
Gracias a las funciones de programación en pareja (pair programming) en directo, se pueden evaluar las competencias de programación de los candidatos en tiempo real.
Además, las entrevistas en vivo pueden ayudar a detectar cualquier comportamiento inusual o conducta sospechosa, como la falta de contacto visual, las pausas prolongadas antes de responder y el pegado desde el portapapeles o el movimiento del cursor entre pestañas del navegador, que pueden indicar el uso de recursos externos como ChatGPT.
Haga clic aquí para obtener más información sobre las entrevistas de Mercer | Mettl.
Como modelo de lenguaje basado en inteligencia artificial, ChatGPT puede influir positivamente en nuestras vidas de muchas maneras. Puede facilitar una mejor comunicación, personalizar las interacciones, automatizar las tareas, ofrecer valiosos recursos educativos y contribuir a debates continuos relacionados con la ética y la responsabilidad en el uso de la inteligencia artificial.
Sin embargo, no debemos olvidar los posibles efectos negativos de su uso y trabajar para mitigar estos riesgos a través de prácticas responsables y éticas.
Originalmente publicado April 26 2023, Actualizado December 6 2023
A hackathon or ideathon is an event where people with different skill sets come together to solve predefined challenges within a specified time frame. Ideathons and hackathons are increasingly being used for corporate branding, hiring at speed, innovating and engaging employees.