Introducción

La Inteligencia Artificial (IA) representa una herramienta poderosa con el potencial de transformar la investigación y la publicación científica. Sin embargo, su uso debe ser ético, transparente y responsable para salvaguardar la integridad y la credibilidad del conocimiento científico. Esta guía establece las buenas prácticas para autores, evaluadores y demás actores involucrados en el proceso editorial de Opinión Jurídica, en línea con las directrices del Committee on Publication Ethics (COPE) y los acuerdos y tratados internacionales relevantes sobre escritura científica y el uso de IA.

Principios Fundamentales

  1. Responsabilidad Humana: La IA es una herramienta de apoyo; la responsabilidad final del contenido y la toma de decisiones recae siempre en los seres humanos.
  2. Transparencia: El uso de IA debe ser explícitamente divulgado en todas las etapas del proceso.
  3. Integridad Académica: La IA no debe ser utilizada para plagiar, fabricar datos o manipular resultados.
  4. Imparcialidad y Equidad: La IA debe ser utilizada de manera que no introduzca sesgos o discriminación.
  5. Confidencialidad y Protección de Datos: Se debe garantizar la protección de la información sensible y personal cuando se utilice IA.

I. Guía para Autores

Los autores son los principales responsables de la originalidad, la veracidad y la integridad de sus manuscritos. El uso de herramientas de IA debe apoyar estos principios, no sustituirlos.

1. Uso de IA en la Redacción y Generación de Contenido:

  • Divulgación Obligatoria: Si se ha utilizado IA (ej., grandes modelos de lenguaje como ChatGPT, Bard, u otros generadores de texto) para la redacción, reescritura, traducción o cualquier otra generación de contenido en el manuscrito, debe ser claramente divulgado en la sección de “Declaración de Uso de IA” al final del manuscrito, antes de las referencias. Esta divulgación debe especificar:
    • La herramienta o modelo de IA utilizado.
    • La versión de la herramienta (si aplica).
    • Para qué propósito específico se utilizó (ej., para la mejora de la redacción, para la síntesis de literatura, para la generación de ideas preliminares, etc.).
    • Una declaración que indique que el autor o los autores son los únicos responsables del contenido final y que han revisado y editado exhaustivamente cualquier texto generado por IA.
  • No Autores: Las herramientas de IA no pueden ser citadas como autores. La autoría implica responsabilidad y capacidad de rendir cuentas sobre el trabajo, lo cual no es aplicable a un software.
  • Verificación y Revisión: Todo contenido generado por IA debe ser cuidadosamente revisado, verificado y editado por los autores para asegurar su exactitud, coherencia, originalidad y adecuación al contexto del Derecho. La IA puede generar información incorrecta o sesgada ("alucinaciones").
  • Plagio y Originalidad: La IA no debe ser utilizada para generar texto que se presente como original cuando de hecho reproduce ideas o expresiones de otros autores sin la debida citación. Los autores siguen siendo responsables de evitar el plagio, incluso si el texto fue generado con asistencia de IA. El equipo editorial de la revista usará un software de detección de plagio para todos los manuscritos, independientemente del uso de IA.
  • Manipulación de Datos: La IA no debe ser utilizada para fabricar o manipular datos, análisis o resultados que no existan o no se deriven de la investigación real.
  • Citas y Referencias: La IA puede generar referencias incorrectas o inexistentes. Los autores deben verificar manualmente todas las citas y referencias generadas o sugeridas por herramientas de IA.

2. Uso de IA en la Recopilación y Análisis de Información:

  • Transparencia: Si se utilizan herramientas de IA para la búsqueda de literatura, análisis de sentencias, identificación de patrones en datos jurídicos, etc., esto debe ser detallado en la sección de "Declaración de Uso de IA", incluyendo la herramienta específica y la metodología de su aplicación.
  • Sesgos: Los autores deben ser conscientes de los posibles sesgos inherentes a los datos con los que se entrenan los modelos de IA y cómo estos pueden influir en los resultados obtenidos. Se debe abordar críticamente esta cuestión en la discusión del manuscrito.

II. Guía para Evaluadores (Revisores por Pares)

Los evaluadores desempeñan un papel crucial en asegurar la calidad y la integridad de los manuscritos. Su rol frente al uso de IA en los manuscritos y en su propio proceso de evaluación es fundamental.

1. Evaluación de Manuscritos que Utilizan IA:

  • Detección de Uso No Declarado: Si un evaluador sospecha que un manuscrito ha utilizado IA de manera no declarada (ej., mediante la identificación de patrones de redacción inusuales, "alucinaciones" o inconsistencias en la información), debe informar de inmediato al editor.
  • Verificación de Contenido: Los evaluadores deben prestar especial atención a la exactitud y coherencia del contenido generado por IA declarado por los autores. Es fundamental verificar que la información es correcta y que no hay distorsiones o fabricaciones.
  • Originalidad y Plagio: Los evaluadores deben seguir vigilantes ante posibles casos de plagio, incluso en manuscritos que declaran el uso de IA. El uso de herramientas de detección de plagio sigue siendo una buena práctica.
  • Claridad y Transparencia: Se debe evaluar si la divulgación del uso de IA por parte de los autores es clara, completa y apropiada.

2. Uso de IA en el Proceso de Evaluación:

  • Confidencialidad: Los evaluadores no deben introducir manuscritos confidenciales en herramientas de IA (ej., modelos de lenguaje de acceso público como ChatGPT) que puedan almacenar o usar el texto para su entrenamiento. Esto violaría la confidencialidad del proceso de revisión por pares.
  • Herramientas de Apoyo (bajo estricta supervisión): Los evaluadores pueden usar herramientas de IA para tareas auxiliares, como la verificación de gramática o la traducción, siempre y cuando se asegure la confidencialidad del manuscrito. Si la herramienta requiere subir el manuscrito, debe ser una plataforma segura y aprobada por la revista, con garantías de no almacenamiento o uso del contenido para entrenamiento. En caso de duda, no se debe utilizar.
  • No Sustitución del Juicio Profesional: La IA no debe ser utilizada para generar resúmenes de la evaluación, sugerencias de revisión, o decisiones sobre la aceptación/rechazo. El juicio crítico y profesional del evaluador es insustituible.
  • Divulgación: Si un evaluador ha utilizado herramientas de IA para apoyar su revisión (y esto ha sido aprobado por la revista en caso de que implique el manejo del texto del manuscrito), debería considerar divulgarlo al editor.

III. Guía para Editores y Equipo Editorial

Los editores son los custodios de la integridad de la revista y el proceso editorial. Su rol es crucial en la implementación y aplicación de estas buenas prácticas.

1. Gestión del Proceso de Envío y Revisión:

  • Formación y Concientización: Educar a autores, evaluadores y al equipo editorial sobre el uso ético de la IA y los riesgos asociados.
  • Detección de Uso de IA: Considerar la implementación de herramientas de detección de texto generado por IA como parte del proceso de revisión inicial, aunque reconociendo sus limitaciones y la necesidad de una evaluación humana.
  • Manejo de Malas Prácticas: Desarrollar un protocolo para abordar los casos de uso inapropiado de IA, incluyendo la falta de divulgación, el plagio asistido por IA o la fabricación de datos. Se seguirán las directrices de COPE para la investigación de posibles malas conductas.
  • Confidencialidad de Datos: Asegurarse de que cualquier herramienta de IA utilizada internamente en el proceso editorial (ej., para la gestión de manuscritos) cumpla con los estándares de privacidad y confidencialidad.

2. Transparencia y Trazabilidad:

  • Registro de Declaraciones: Mantener un registro de las declaraciones de uso de IA por parte de los autores y, si aplica, de los evaluadores.
  • Aclaraciones en Publicaciones: Si un artículo publicado es posteriormente identificado con un uso inapropiado de IA no divulgado, el equipo editorial considerará la publicación de una corrección, una expresión de preocupación o una retractación, según la gravedad y las directrices de COPE.
  • Rechazo del texto postulado: el equipo editorial de la revista podrá rechazar un artículo postulado cuyos autores no hayan declarado el uso de IA o incluso si habiéndolo hecho el porcentaje de uso sea alto. Para aquellos artículos que según el software de detección empleado en el proceso editorial, el porcentaje de uso de IA sea superior al 30%, el equipo editorial se reservará el derecho a rechazar el escrito.

IV. Marco Regulatorio y Referencias

Esta guía se basa en las siguientes referencias y principios:

Conclusión

El avance de la Inteligencia Artificial presenta tanto oportunidades como desafíos para el ecosistema de la publicación científica. Al adherirnos a estas buenas prácticas, la Revista Opinión Jurídica busca asegurar que el uso de la IA promueva la calidad, la transparencia y la integridad en la investigación jurídica, manteniendo siempre la primacía de la responsabilidad y el juicio humano. La colaboración entre autores, evaluadores y editores es esencial para navegar de forma ética y eficaz en esta nueva era de la publicación científica.

Créditos:

La presente guía fue elaborada con ayuda de Gemini.IA, versión 2.5 Flash.