Politica de utilización de IA

Principios generales

La Revista Edutec reconoce el impacto creciente de las herramientas de inteligencia artificial (IA), en particular las herramientas generativas en los procesos de investigación, redacción, revisión y edición científica. Esta política se basa en los principios de integridad, transparencia y responsabilidad, alineándose con las recomendaciones del Comité de Ética en Publicaciones (COPE) y se actualizará regularmente conforme evolucionen las prácticas y recomendaciones internacionales.

La IA puede ser una herramienta de apoyo, pero su uso debe declararse de forma explícita cuando tenga un papel significativo. En ningún caso sustituye la responsabilidad humana en la autoría, revisión o decisiones editoriales.

Uso de IA por parte de los autores

  • Los autores deben declarar el uso significativo de herramientas de IA. Esta declaración debe incluir el tipo de herramienta utilizada, su propósito y el alcance de su contribución.
  • No se aceptará como coautora ninguna herramienta de IA.
  • Los autores son plenamente responsables de todo el contenido del manuscrito, incluidos los textos generados con ayuda de IA, así como de verificar la precisión de las citas, datos y referencias bibliográficas.
  • Se desaconseja el uso de IA para parafrasear textos sin aportar valor académico, ya que puede inducir a problemas de integridad científica o detección de plagio.

Uso de IA en la revisión de contribuciones

  • La revisión de los manuscritos es una actividad basada en la confianza y la confidencialidad. Por tanto, no se permite el uso de herramientas de IA generativa para procesar o analizar manuscritos bajo revisión.
  • El uso de estas herramientas puede estar justificado como apoyo técnico (por ejemplo, para la detección de plagio, corrección gramatical o sugerencias de estilo), siempre bajo supervisión humana. En ningún caso, las herramientas de IA deben sustituir la responsabilidad de tomar decisiones editoriales o de aceptación/rechazo.

Uso de IA por parte del equipo editorial

  • El equipo editorial puede emplear herramientas de IA con fines de apoyo operativo, como detección de plagio, análisis de estructura de manuscritos o gestión de metadatos, siempre garantizando la confidencialidad del contenido.
  • Las decisiones editoriales (aceptación, rechazo, solicitud de revisiones) se basarán en la evaluación humana. La IA no tomará decisiones sobre la publicación de un manuscrito.
  • El equipo editorial se compromete a evaluar periódicamente el impacto de estas tecnologías y ajustar sus prácticas conforme a las recomendaciones éticas actualizadas.

Transparencia y actualización de la política

Esta política será revisada de forma periódica para adaptarse a la evolución de las tecnologías de IA y a las recomendaciones de organismos internacionales como COPE.