Se abre un dilema para los científicos con el plagio en la era de la IA
Foto. Internet

Analizan los retos del plagio en la era de la inteligencia artificial (IA)

Desde el inicio de 2024, el ámbito académico ha enfrentado escándalos de plagio que han impactado a diversas instituciones educativas, pero ahora se abre el debate ante la aparición de la Inteligencia Artificial (IA) .

Un incidente destacado fue la dimisión del presidente de la Universidad de Harvard en enero de 2024 por acusaciones de plagio. Sin embargo, un reto más significativo surge con la proliferación de herramientas de inteligencia artificial (IA) generativa en la redacción académica, levantando preguntas sobre la definición y permisividad del plagio.

Jonathan Bailey, un experto en derechos de autor y plagio de Nueva Orleans, Luisiana, resalta la complejidad de esta situación. Herramientas como ChatGPT pueden generar textos desde completamente humanos hasta completamente automáticos, lo que plantea dudas sobre si su uso sin atribución puede considerarse plagio.

Estas herramientas de IA, basadas en modelos lingüísticos de gran tamaño (LLM), se nutren de extensos volúmenes de datos previamente publicados, lo que puede resultar en contenidos que imitan de cerca el trabajo de otros sin reconocimiento adecuado.

Te puede interesar: Apple se esfuerza por una Inteligencia Artificial responsable

Pete Cotton, ecologista de la Universidad de Plymouth en el Reino Unido, comenta que establecer límites claros para el plagio es un desafío.

Una encuesta de 2023 a 1,600 investigadores indicó que el 68% cree que la IA complicará la detección de plagio.

Debora Weber-Wulff, especialista en plagio de la Universidad de Ciencias Aplicadas de Berlín, expresa preocupación sobre el mal uso de la IA, y la confusión sobre cuándo su uso cruza la línea ética.

Según la Oficina de Integridad en la Investigación de Estados Unidos, el plagio involucra tomar ideas o palabras de otro sin reconocimiento adecuado.

La reciente demanda de The New York Times contra Microsoft y OpenAI por presuntas violaciones de derechos de autor ilustra estas preocupaciones.

Además, un estudio reciente reveló que al menos el 10% de los resúmenes de artículos biomédicos en los primeros seis meses de 2024 usaron asistentes de escritura basados en LLM.

Guillaume Cabanac, de la Universidad de Toulouse, menciona que herramientas para evadir la detección de plagio ya existían antes de la IA generativa.

Soheil Feizi, de la Universidad de Maryland, sugiere que usar LLM para parafrasear es plagio, pero ayudar en la expresión de ideas propias debería ser permitido si se hace transparentemente.

La rápida evolución de la IA está generando conflictos inesperados, siendo el plagio solo uno de los múltiples desafíos emergentes.