El Departamento de Educación planea evaluar los riesgos y beneficios de la IA

El Departamento de Educación ha iniciado una consulta sobre el uso de la IA generativa. El departamento tiene como objetivo explorar las oportunidades que presenta dicha tecnología para la educación, así como comprender las preocupaciones de los educadores y expertos en educación.

El llamado a la evidencia está preguntando a las escuelas, colegios y otros institutos académicos, junto con las autoridades locales, sobre sus experiencias con ChatGPT y otros sistemas generativos de IA. El DfE quiere conocer los principales desafíos en el uso de la IA generativa y cómo se pueden abordar.

“Nos gustaría conocer sus experiencias en el uso de esta tecnología en entornos educativos en Inglaterra”, dijo el DfE. “También nos gustaría escuchar sus opiniones sobre dónde su uso podría beneficiar a la educación y sobre los riesgos y desafíos de su uso”.

El departamento también está interesado en comprender las materias o áreas de educación que quienes presentan evidencia creen que podrían beneficiarse más de las herramientas de IA generativa.

En marzo, el DfE publicó un informe que establece su posición sobre la IA generativa, que encontró que aunque las tecnologías de IA generativa pueden producir respuestas fluidas y convincentes a las indicaciones de los usuarios, el contenido producido puede ser inexacto.

“Los estudiantes necesitan conocimientos y habilidades fundamentales para discernir y juzgar la precisión y adecuación de la información, por lo que un plan de estudios rico en conocimientos es, por lo tanto, aún más importante. Es vital que nuestro sistema de evaluación pueda evaluar de manera justa y sólida las habilidades y el conocimiento de los examinados”, declaró el DfE en el informe.

Más contenido para leer:  El tráfico de datos de itinerancia de IoT global alcanzará los 650 PB en 2026

El Joint Qualifications Council (JCQ) también ha evaluado el impacto del uso de tales sistemas en exámenes y evaluaciones formales. Informó que si bien el potencial de mal uso de la inteligencia artificial por parte de los estudiantes es nuevo, la mayoría de las formas de prevenir su mal uso y mitigar los riesgos asociados no lo son.

Los JCQ Uso de la IA en las evaluaciones: protección de la integridad de las cualificaciones El informe indicó que ya existen medidas establecidas para garantizar que los estudiantes sean conscientes de la importancia de enviar su propio trabajo independiente para su evaluación e identificación de posibles malas prácticas. “Las herramientas de IA solo deben usarse cuando las condiciones de la evaluación permitan el uso de Internet y cuando el estudiante pueda demostrar que la presentación final es el producto de su propio trabajo independiente y pensamiento independiente”, dijo el JCQ.

Si bien el JCQ reconoce que la IA se utilizará en los negocios, ha estipulado que cualquier trabajo presentado para una evaluación formal debe indicar que las herramientas de IA se han utilizado como fuente de información. El JCQ dijo que el reconocimiento de un estudiante debe mostrar el nombre de la fuente de IA utilizada y la fecha en que se generó el contenido.

“El estudiante debe conservar una copia de la(s) pregunta(s) y el contenido generado por computadora para fines de referencia y autenticación, en un formato no editable (como una captura de pantalla), y brindar una breve explicación de cómo se ha utilizado. Esto debe enviarse con el trabajo para que el maestro/evaluador pueda revisar el trabajo”, escribieron los autores del informe de JCQ.

Más contenido para leer:  La supercomputadora más poderosa del Reino Unido se pone en marcha

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales