Scroll Top

Usar IA generativa como referencia en la investigación (comentario)

 

 

Ismael Cáceres-Correa, Editor jefe Revista nuestrAmérica, Chile

 

1 de febrero de 2025

Aprovecho este espacio para extender comentario acerca de este tema en particular, pero que en general se puede proyectar a la problemática de las citas en los artículos, pues me preocupa cuando se populariza que por existir una forma normada para citar recursos de internet se confunda con que esos recursos tienen validez para fundamentar un estudio. Desde luego esto no ocurre —o no debería— entre quienes tienen trayectorias avanzadas en investigación, pero sí en noveles.

Advierto que lo que sigue no es más que un comentario:

Tengo una opinión formada acerca de las IA generativas, especialmente acerca del potencial de ChatGPT (del que soy consumidor). Mi postura es que se debe enseñar el uso ético de esta herramienta y en ningún caso «educativo» rechazarla, porque sería tan absurdo como que rechazáramos el uso de internet y quisiéramos que solo se pueda obtener lo que se necesita a través de recursos físicos; un equivalente a no permitir estudiar con todos los beneficios que puede dar la tecnología informática de la época (¿nos imaginamos discutiendo que las revistas electrónicas no son válidas en comparación con las impresas?). Pero en esa misma idea, del uso ético, también está el uso de nuestras facultades cognitivas mínimas, y el discernir en si lo que se está haciendo es correcto o no.

Si yo como investigador tomo las ideas de otra persona sin citar adecuadamente, entonces estoy cometiendo plagio. Si, por ejemplo, utilicé la Wikipedia (en una fase de primer acercamiento a la investigación cuando era estudiante) para enterarme de cuáles eran los referentes en una temática y luego fui a esos referentes, entonces, es un uso completamente ético e inteligente de los recursos disponibles porque en esa etapa temprana —casi a tientas— use ese recurso, conocí y luego amplié mi estudio con las fuentes proporcionadas.

Si leí a los/as referentes y hubo aspectos que no comprendí —nuevamente el ejemplo es en una etapa temprana de estudios y sin mayor formación en investigación— y luego leí reseñas, consulté videos y así cualesquiera otras acciones que me ayudaran a entender mejor, entonces sigue siendo un uso ético porque en ningún caso estoy falseando mis verdaderas fuentes, sino que estoy buscando un mayor entendimiento, una comprensión de ellas (demás está decir que el/a académico/a acá será fundamental para resolver dudas, pero estamos planteando el asunto de los recursos en internet).

Ahora bien, si por el contrario hubiese ido a la Wikipedia y copiado directamente citando, por ejemplo, «Wikipedia, consulta el 19 de noviembre de 2010», con toda razón me habrían rechazado la cita por no cumplir con el requisito mínimo esperado. Es inapropiado y se debería corregir, pero no alcanza a ser un plagio porque no hubo una intención de engañar, solo hubo desconocimiento de qué es una cita y para qué sirve en el ámbito académico. Pero si por el contrario hubiese copiado y pegado el texto que aparece en la Wikipedia sin advertir de donde lo tomé, sin dudas sería un tipo de plagio. En ambas situaciones tenemos algo común: la Wikipedia no tiene autoridad académica para ser citada porque a pesar de contar con colaboradores —que pueden ser expertos/as en distintos temas— no existe un tratamiento de revisión por pares, no tiene consejos editoriales y cualquier persona puede manipular la información. La Wikipedia podría darnos información valiosa y remitirnos a fuentes serias y sometidas a revisión, o podría basar tus entradas en pseudolibros o pseudoartículos inventados por algún grupo con intereses particulares.

Con ChatGPT y las IA generativas ocurre algo similar, pero pareciera ser que no se está considerando; no se está considerando para qué sirven las citas en la academia. Que los estilos de citación me brinden la opción de citar una respuesta de ChatGPT no implica que esa cita sea válida a nivel académico, a nivel científico. Es más, esa cita es un plagio porque la inteligencia artificial generativa utiliza patrones de escritura y contenidos de publicaciones reales para contestar y no indica de dónde tomó las ideas, literalmente un plagio. Académicamente está al mismo nivel un plagio. No tiene mayor peso académico que el que pudiese tener un post en alguna red social, y los posts también pueden ser citados.

El asunto es que, si la investigación no está relacionada explícitamente con el estudio de cómo las IA generativas responden, entonces citarlas no cumple con el requisito mínimo para que se pueda citar, y ese requisito mínimo es que se esté utilizando la fuente para responder a los objetivos de la investigación (de otro modo es una cita ociosa). Es como si yo me autocitara para fundamentar algo que, además, es lenguaje común e irrelevante —autocita, tema polémico y que lo dejaría solo para casos muy puntuales de quienes ya tienen todo un recorrido investigativo y propuestas muy maduras—.

Para mí, las IA generativas como ChatGPT no deben citarse, y lo digo ahora no solo como profesional de la educación, sino desde el lado de ser editor. A los equipos con los que colaboro les aconsejo no aceptar ninguna cita que mencione ChatGPT o cualquier otra IA generativa como referencia —ya aclaré que la excepción es si el estudio tiene relación directa con las IA generativas—. Abiertamente sospecharía de la calidad científica del trabajo y pediría que se revisara con mayor detalle el contenido. Pero que no se entienda como un rechazo a la herramienta, sino a eso uso.

Como recurso educativo, e incluso como recurso en la investigación, se le puede sacar mucho provecho para tareas mecánicas como clasificar información, encontrar información puntual en un texto, advertir patrones, y así otras cosas que de seguro las han pensado. Este para mí sería el primer filtro: nosotros/as debemos proporcionar el texto con el que estaremos trabajando, nosotros/as seleccionamos las referencias que se utilizarán. Nunca delegamos las preguntas importantes a la IA, sino que solo le podemos pedir aspectos muy concretos que podamos corroborar y, en este caso, esa IA generativa se convierte en una suerte de asistente muy eficiente, pero la IA no piensa, solo sigue patrones, por lo que nunca puede ser una referencia en sí misma.

La IA es un recurso valiosísimo que está significando un cambio revolucionario en la tecnología. El impacto que está teniendo en sus aplicaciones es algo que hasta hace algunos años solo pensábamos posible en ciencia ficción. Le falta mucho, es ingenuo incluso pensar que es una verdadera «inteligencia» en el sentido humano, pero es algo que debe adoptarse rápidamente y establecer protocolos de uso, no solo recomendaciones. En el ámbito editorial, agradablemente se ha abordado la problemática y se han establecido propuestas protocolares para usarla, pero faltan aspectos como el planteado. Las universidades también deberían incluir siquiera un taller en donde se trate este tema que, quieran o no, va a ser el asistente de prácticamente todos/as los/as estudiantes. Usen ChatGPT con criterios éticos, no citen al ChatGPT si pretenden escribir manuscritos académicos.

Esta reflexión la realicé motivado por un masiva publicación de cómo citar respuestas de chatGPT que circuló con gran aceptación en redes sociales. Pienso que, así como hace algunas semanas compartimos discusión de quienes pueden ser autores/as de una investigación, también es importante decir quienes pueden ser citados y referenciados.

RESPUESTAS

 

Tomàs Baiget, Ediciones Profesionales de la Información SL, España.

 

 

Gracias por tu reflexión, que me parece muy buena. Estoy completamente de acuerdo.
Yo también uso mucho ChatGPT para mi investigación, me da muchas orientaciones y pistas. La IA es una herramienta más de las que tenemos, y no se me ocurriría citarla como autora, de la misma forma que no citaría Excel como autor.


 

Lorena Pilloni, Instituto de Investigaciones Históricas, Universidad Nacional Autónoma de México

 

 

 

Además de estar de acuerdo en la idea de que no hay que rechazar de antemano el uso de la inteligencia artificial en el ámbito académico, sino aprender (y enseñar) a utilizarla de forma ética, considero que vale la pena complejizar un poco más respecto a cómo usarla en la investigación y la edición académicas. Autores, revisores y editores podemos aprovechar esas herramientas e incluso citarlas, si el tema o la metodología que empleamos lo ameritan; pero en efecto hay mejores y peores prácticas, usos válidos y usos más que cuestionables.

Esto, me parece, ya lo atendieron bastante bien un grupo de académicas de Costa Rica, y lo transmiten de manera muy concisa en la “Declaración de Heredia. Principios sobre el uso de inteligencia artificial en la edición científica”, https://doi.org/10.15359/ree.28-S.19967

y en la “Guía para uso y reporte de inteligencia artificial en revistas científico-académicas”, https://doi.org/10.15359/ree.28-S.19830

Ambos documentos nos ayudan a los editores a custodiar un uso transparente, pertinente y adecuado de la inteligencia artificial en nuestras publicaciones.