POLÍTICA DE USO DE IA

GUÍA PARA LA INCORPORACIÓN RESPONSABLE DE LA INTELIGENCIA ARTIFICIAL 

El Centro Universitario de Investigaciones Jurídicas y su revista DE JURE, en concordancia con las directrices de la Universidad de Colima, reconocen la utilidad de las herramientas de inteligencia artificial (IA) para el desarrollo de proyectos de investigación en todas las etapas así como para la revisión y la edición de los manuscritos que comunican sus resultados; ello asumiendo también la responsabilidad de su empleo conforme a los valores de Verdad, Bien y Justicia de la Ciencia, la cual implica principios de veracidad, probidad y justo equilibrio en la actividad científica que la revisten de transparencia, replicabilidad y demostración objetiva.

En DE JURE consideramos que es necesario mantener estos valores y principios a los cuales el uso de la IA debe estar sujeto; tanto para que esté al servicio de la humanidad, del bien común y la mejora de la calidad de vida de las personas, como debido a que esta tecnología aún está en fases o etapas incipientes en las cuales se han observado sesgos y errores que requieren la visión crítica de las personas que las emplean. Se requiere “Comprender que estos sesgos se pueden manifestar de formas diversas y que es necesario identificarlos lleva a la elaboración de estrategias que conduzcan a su mitigación, al entrenamiento efectivo de modelos y a su calibración.” (Declaración de Heredia, 2014, p. 6). 

Es por esto que en sus lineamientos, DE JURE acepta y adapta la Declaración de Heredia: Principios sobre el uso de inteligencia artificial en la edición científica, para considerar un uso responsable de la IA en cada proceso de investigación que en conjunto generan las publicaciones científicas (consultar sus 14 principios). Así mismo, se asumen las directrices de la Universidad de Colima los Lineamientos para el uso de la IA de la Universidad de Colima, la Declaratoria de Uso de Inteligencia Artificial Generativa; los cuales son sustento de la política de su uso en DE JURE. 

En atención a lo anterior, DE JURE ha conformado como principios generales de su uso que debe ser: justificado, moderado, validado y declarado. Estos cuatro principios generales se establecen como guía del uso de las IA en sus procesos agrupados en tres roles: autoría, revisión y edición. A continuación se explican.

GUÍA PARA AUTORÍAS

Autores y autoras deben realizar un uso justificado, moderado y siempre bajo su control crítico y responsabilidad en los resultados; todo lo cual se debe expresar en una declaración explícita y, además, con notas preventivas, citas y referencias en la colaboración que adviertan a revisores y lectores. A continuación se revisan estos puntos:

1.- USO JUSTIFICADO.- En cuanto a la justificación, las autorías deben explicar cómo el empleo de la herramienta haya significado una mejora en la investigación o una incorporación valiosa para el desarrollo de la misma. Es decir, qué plus le ha aportado que sea suficiente para incorporar la IA en una de las fases del proceso de indagar o redactar, o cualquier otro, que habrá de justificarse como una adición enriquecedora del resultado. Los usos permitidos, siempre que sea justificado son: consultas de información; apoyo en la elaboración de tablas, gráficas y figuras; revisión de la redacción; procesamiento de datos. Estos usos, además, deberán sujetarse a las siguientes directrices y demás lineamientos de DE JURE.

2.- USO MODERADO.- El porcentaje de uso no debe exceder de un 15%, lo cual puede ser verificado con programas antiplagio como Turnitin; evidentemente cualquier uso de IA no declarado se considera plagio. Las colaboraciones, como cualquier otro producto de la Ciencia, es una creación humana y por ello requieren que la aportación de la autoría sea predominante.

3.- USO VALIDADO.-  Tomar consciencia de que las herramientas de IA se encuentran en fases variables de desarrollo y que aún manifiestan defectos y sesgos, por lo cual las autorías deben validar sus resultados con otros medios o con su supervisión crítica. Esto es especialmente delicado cuando se las usa como fuente de información, ya que las bases con las que se entrenó el modelo de IA pueden no estar actualizadas, o se privilegiaron aquellas con una visión, como preferir fuentes de idioma inglés o de origen occidental, lo cual genera colonialismo; o, incluso, las llamadas “alucinaciones” donde la información es completamente falsa. Por ello se requiere que la información obtenida con IA se verifique, sea mediante triangulación con otros datos disponibles (algo común y necesario en la investigación científica); en la comparativa de la información obtenida de diversas fuentes confiables; y, en su caso, con la consulta de fuentes que sean más actuales que la base de datos con que se entrenó a la IA.

En cuanto al uso en el procesamiento de datos, también se debe verificar el resultado puesto que puede “analizar” empleando los sesgos de su programación, lo cual reproduce diversas discriminaciones; o, también, caer en una mirada simplista que no enfoca la profundidad humana en la comprensión de los datos; máxime si son los resultados que deben interpretarse aplicando el fundamento teórico de quien ostenta la autoría.

En cuanto a su uso para generar plantillas, gráficas, tablas, imágenes; se debe cuidar que las escalas sean coherentes, que los diseños sean acordes a lo que se quiere representar en la colaboración y que no se infrinja algún derecho de autor (buscar modelos de IA que sean más respetuosos con derechos de autor).

Finalmente,  respecto a su uso en la redacción, se debe limitar a ciertas partes del texto (recordar el porcentaje de 15%), y respecto a sugerencias de mejoras gramaticales que funcionen como borradores, siendo necesario que las autorías realicen su propia redacción. Es indispensable que la colaboración refleje a quien asume su autoría; que sea un producto genuino y original. Por ello su empleo en la redacción debe ser sutil, sea de forma limitada, como primer borrador o sugerencia, siendo necesaria la aportación del estilo propio de la autoría.

 4.- USO DECLARADO.- Las autorías deben declarar el uso de IA en cualquier etapa de la investigación y siempre respetando los lineamientos de DE JURE; esto conforme se exija en la CÉDULA DE AUTORÍA, el formato de referencias y en los requisitos específicos de las colaboraciones. En la declaración deberá explicarse cómo se usó con toda transparencia y claridad, acorde a la replicabilidad y validación de la actividad científica. En general el uso de IA debe realizarse siempre bajo supervisión y criterio crítico de quienes tienen la autoría asumiendo la responsabilidad por la veracidad del contenido de su colaboración.

*La transgresión de las guías anteriores producirán el rechazo de las colaboraciones desde la fase de recepción. Si hubiere un falso positivo, que deberá haber sido demostrado por la autoría, se permitirá que pase a la fase de revisión con integrantes del Comité Dictaminador a quienes se informará del falso positivo para que lo consideren; sin embargo esto no prejuzga sobre el resultado de la dictaminación.

GUÍA PARA DICTAMINACIÓN

Las personas que realicen la revisión de las colaboraciones, sean integrantes del Comité Dictaminador, dictaminadores/as por invitación, parte del equipo de un comité editorial para un número especial o que por cualquier otra razón asuma el compromiso de dictaminar una colaboración, deberá sujetar su actividad a la siguiente guía en el uso de IA:

1.- USO JUSTIFICADO.-  La persona revisora deberá justificar el porqué ha empleado el apoyo de una herramienta de IA en su revisión. Cabe aclarar que emplear programas antiplagio no es uno de dichos usos; lo cual, además, es obligatorio para verificar que la colaboración sea genuina, original y ética. Las herramientas de IA no sustituyen ni se equiparan a dichos programas antiplagio; así como tampoco sustituyen o se equiparan a la revisión que la persona dictaminadora debe realizar de la colaboración. Quien dictamina asume el compromiso de verificar la calidad de la colaboración empleando el conocimiento y experiencia únicos a su ser y por los cuales se le seleccionó para dicha función; y que, por ende, debe aplicarse en la revisión y ser el fundamento de la decisión de aprobar o rechazar su publicación, así como expresarse en las observaciones que serán clave en las correcciones y mejoras del documento por las autorías. 

2.- USO MODERADO.- El uso de la IA para generar observaciones en la metodología, fundamento teórico, calidad de fuentes, estructura del documento, gramática y cualquier otro respecto a la redacción, debe estar sujeto al criterio experto de quien realiza la revisión, ya que es su responsabilidad y es lo que le debe aportar al proceso co-creativo de la investigación científica. Por ello, sólo se pueden considerar meras sugerencias que, en ningún caso, deben ser el sustento predominante de su revisión y, menos aún, de su decisión ni el contenido de sus observaciones. 

3.- USO VALIDADO.- En todo el proceso de revisión, la persona dictaminadora que use herramientas de IA debe validar la información que le proporcione, además de su juicio experto, mediante la triangulación de datos o la consulta de fuentes confiables. En otras palabras, si ha tomado alguna información o cualquier resultado de la IA en el ejercicio de su revisión, deberá asegurarse de su veracidad con los medios de verificación suficientes.

4.- USO DECLARADO.- En el dictamen debe señalarse la herramienta de IA y cómo y para qué se usó; esto conforme al mismo formato de dictamen; en especial dentro del apartado de observaciones que se enteran a las autorías, se deberá explicar con precisión suficiente para cumplir con las bases de transparencia y replicabilidad propios de la Ciencia.

*La aplicación de esta guía, conforme a los lineamientos de DE JURE y la ética de la investigación científica, es responsabilidad de las personas revisoras y, en caso de transgresión descarta la validez del dictamen que tendrá por no realizado y, en caso de reincidencia, puede ser causa justificada de expulsión del Comité o de negación de posibilidades de revisiones futuras.

GUÍA PARA EDICIÓN

Las personas que desempeñen funciones editoriales para la publicaciones en DE JURE, sea como parte de su equipo editorial o de equipos editoriales externos para ediciones especiales, deben sujetarse a los cuatro principios del uso de la IA, de acuerdo a la siguiente guía:

1.- USO JUSTIFICADO.-  Se debe justificar el que se haya utilizado el apoyo de una herramienta de IA en la actividad editorial; ello explicando cuál herramienta fue, cómo se aplicó y todos los datos que permitan la revisión de su pertinencia y su replicabilidad (ello de acuerdo con los siguientes tres principios). Las herramientas de edición que están bajo control humano no se equiparan al uso de IA, ello porque no implican un proceso automatizado; y, en el mismo sentido, cuando se emplee alguna aplicación de IA se debe evitar que se sustituya la aportación crítica, creativa y genuina del quehacer humano. Quien realiza funciones editoriales asume el compromiso de cuidar la calidad de la colaboración en todas sus etapas hasta su publicación; responsabilidad que no puede delegarse en una IA; por lo cual debe dirigirse su uso a ciertos aspectos que pudieran beneficiar dicha calidad, sin desaparecer su capacidad de decisión.

2.- USO MODERADO.- El uso de IA en labores editoriales debe realizarse manteniendo un equilibrio que no subyugue la aportación humana o pretenda sustituirla; es por tanto que debe moderarse a ciertos aspectos, siempre con el compromiso que la persona que las utilice realice un trabajo genuino. Se podrá emplear como sugerencias o en revisiones preliminares que, en ningún caso, sean dominantes en la actividad, sino meros apoyos secundarios, que, además, no se pueden considerar elementos decisivos de ninguna parte del proceso editorial. 

3.- USO VALIDADO.- En actividades de edición, el uso de IA debe emplearse de manera que se obtenga un resultado verificable; es decir, que sea rastreable qué parte es atribuible al proceder automatizado y cuál a la decisión humana. Para que así se confirme la validación del resultado por parte de la persona responsable.

4.- USO DECLARADO.- Respetando la transparencia en la Ciencia, quienes realicen funciones editoriales se comprometen a declarar si han usado IA conforme a los tres principios anteriores.

*La aplicación de esta guía, conforme a los lineamientos de DE JURE y la ética de la investigación científica, es responsabilidad de las personas que realicen actividades editoriales y serán verificadas por sus órganos directivos y autoridades universitarias.

CAMBIOS PROGRESIVOS EN LINEAMIENTOS

El Centro Universitario de Investigaciones Jurídicas realiza actualmente una revisión de sus políticas de uso de inteligencia artificial (IA) en concordancia con los retos de la edición académica y la investigación científica, así como las directrices establecidas por la Universidad de Colima. Estos cambios se reflejarán de manera progresiva y se aplicarán en las publicaciones del año 2026 y siguientes. Se recomienda consultar la Declaración de Heredia y mantener la mayor fidelidad a los principios consignados previamente.

Revisar los cambios que se están efectuando en la actualización de los lineamientos para las autorías en la pestaña PARA PUBLICAR, en específico en las DECLARACIONES de la Cédula de Autoría (apartado 12), y en Ética, Derechos y Obligaciones de las autorías, en su inciso d.

REFERENCIAS

Declaración de Heredia: Principios sobre el uso de inteligencia artificial en la edición científica [Declaración de Heredia]. (2024).  Revista Electrónica Educare, Vol. 28. No. S (2024). https://doi.org/10.15359/ree.28-S.19967

Descargable en: https://dialnet.unirioja.es/descarga/articulo/9573390.pdf