Creaciones de IA y cómo identificarlas: lo que Advacheck ofrece para detectar textos generados por IA

Los avances recientes en inteligencia artificial se difunden rápidamente, pero entre ellos, ChatGPT se destaca por su singularidad. Este chatbot versátil ha dejado una huella profunda en el mundo académico: una gran proporción de estudiantes utiliza ChatGPT para redactar ensayos, incluso en campos tan complejos como la filosofía, donde esta IA supera ampliamente a un ser humano en esta tarea. No solo es eficaz en ensayos, sino que en agosto de 2023, un extenso equipo de investigación reportó en la American Journal of Obstetrics and Gynecology que ChatGPT supera a los candidatos humanos en los exámenes clínicos estructurados objetivos, utilizados en diferentes países como pruebas de licenciatura y certificación para médicos graduados. Su capacidad para redactar casi cualquier tipo de texto solicitado por el usuario ha propiciado una explosión de trampas académicas: algunos estudiantes incluso ponen a prueba el sistema educativo defendiendo tesis de graduación escritas por IA, y estos intentos suelen ser exitosos, especialmente cuando el estudiante edita el texto obtenido.

El problema de la trampa académica impulsada por IA ha trascendido a los estudiantes, y ahora incluso los miembros experimentados del profesorado se encuentran bajo sospecha de usar ChatGPT para redactar artículos científicos. Estos casos generalmente se revelan de manera accidental mediante indicadores indirectos, como por ejemplo, múltiples afiliaciones que corresponden a una carga de trabajo estimada que resulta excesiva para una sola persona.

Estos hechos indican que tanto las universidades como las oficinas editoriales necesitan urgentemente herramientas para detectar el uso de ChatGPT. Este es un verdadero desafío, ya que parece difícil detectar el uso de una red neuronal que supera a un ser humano en la creación de textos. Sin embargo, la solución a este problema es alcanzable debido a las múltiples fallas inherentes de ChatGPT.

El ChatGPT podría parecer una criatura amenazante y consciente de sí misma, presagiando el auge de las máquinas, pero en realidad, es solo un chatbot potente con un motor de próxima generación. Su objetivo diseñado es confabular procesando lenguaje natural. No tiene nada que ver con conocimientos matemáticos, biológicos o de otro tipo, ni siquiera puede procesar este tipo de información. Esto lleva a múltiples errores en tareas matemáticas si se le ordenan a ChatGPT. Además, utiliza el enfoque de «confabulación» para crear cualquier tipo de información, incluidas referencias literarias y hechos científicos, lo que lo hace extremadamente propenso a «alucinar», generando referencias a trabajos inexistentes o hechos falsos sobre programas y servicios. ChatGPT es excelente procesando textos, pero falla completamente al procesar ciencia, y esta falla proporciona la manera más evidente de detectarlo en falso. Estas firmas, junto con otros defectos como problemas de contexto o vocabulario, pueden ser verificadas manualmente por un profesor o editor, pero también pueden distraer su atención. La IA no puede pensar, pero puede hacerse pasar por tal.

Afortunadamente, la aparición del fraude impulsado por ChatGPT ha dado lugar a un aumento de métodos computacionales para distinguir entre textos escritos por humanos y los generados por IA. Esto es literalmente combatir el fuego con fuego. Las computadoras contemporáneas no pueden predecir cómo debe ser un texto escrito por un humano simplemente porque aún no han alcanzado una conciencia similar a la humana. Pero pueden predecir fácilmente cómo debe ser un texto escrito por una computadora.

Cuando la IA se entrena para crear textos, memoriza secuencias de palabras típicas que son frecuentes en conversaciones comunes. Por ejemplo, aprende que «casa» es una palabra adecuada después de «John va», y «caminar» es una palabra apropiada después de «John va a». Esto lleva a una sobrerrepresentación de frases predecibles en los textos generados por la IA. Cuando un profesor verifica este texto con un programa detector de IA, predice con su propia IA qué palabra debería venir después. Y, si estas predicciones coinciden con las palabras actuales en un fragmento de texto, el detector de IA lo etiquetará como un fragmento potencialmente generado por IA. Esto es la detección de IA por predictibilidad.

Independientemente de la métrica específica utilizada, la funcionalidad de detección de IA es más útil si se integra en programas de detección de plagio. A diferencia del software de detección de IA, la detección de plagio se ha convertido en un procedimiento rutinario, y la detección simultánea de IA podría prevenir el fraude académico a gran escala. Esta es la razón por la que implementamos la detección de IA en Advacheck. Nuestro producto puede advertir a los usuarios cuando sospecha del uso de IA y resaltar los fragmentos sospechosos. Este es el único resultado de detección de IA hasta ahora, pero esta función está en desarrollo activo y se espera que salgan resultados más detallados pronto.

Si bien el uso de nuestro producto para detectar textos potencialmente generados por IA es sencillo, tomar acciones posteriores es mucho más difícil. Cuando usas Advacheck para su tarea principal, la detección de plagio, proporciona las fuentes de donde probablemente se haya tomado el texto. Esto ofrece la oportunidad de confirmar el plagio a partir de una fuente específica y tomar una decisión administrativa o editorial inmediata en función del resultado del programa.

Este no es el caso de la detección de IA, independientemente del sistema que utilices. Cualquier métrica de detección de IA solo permite que el software sospeche del fraude, pero no lo confirme.

Entonces, ¿qué hacer si Advacheck alerta sobre un texto potencialmente generado por IA? En primer lugar, recomendamos encarecidamente una reevaluación manual del trabajo, especialmente de los fragmentos «sospechosos». Errores burdos, frases sin sentido, datos o referencias inexistentes deberían indicar la baja calidad de un trabajo, incluso si estas señales no son rastros de ChatGPT, sino consecuencias de la negligencia del autor.

Comparar los fragmentos sospechosos entre sí y con el resto del texto puede mostrar el Efecto Dory: contradicciones entre segmentos, como si el autor hubiera olvidado lo que escribió minutos antes (como Dory, el pez de la película «Buscando a Nemo»). Este efecto es otro signo de posible fraude.

Finalmente, alentamos a profesores y editores a discutir los textos sospechosos con los autores para averiguar cuán familiarizados están con sus propios textos. Recuerda que solo los humanos tienen la capacidad total y la responsabilidad de analizar textos científicos. De todos modos, serás tú quien lo revise con tu propia mente. Advacheck señalará dónde es necesario.

chevron_left
chevron_right
What is Self-Plagiarism? Definition and How to Avoid It
Noticias y Actualizaciones

What is Self-Plagiarism? Definition and How to Avoid It

Self-plagiarism is a familiar term for copywriters who are in the business of writing texts. The term is often applied when someone writes an article on a similar or the same topic. chevron_right
Artificial Intelligence vs. Human Imagination: Can AI Really Eclipse Our Creativity?
Noticias y Actualizaciones

Artificial Intelligence vs. Human Imagination: Can AI Really Eclipse Our Creativity?

Creativity has long been considered a uniquely human trait. These days, however, a new ally has emerged. Artificial intelligence has replaced humans in many areas. chevron_right
Cómo funciona la detección de contenido de IA: detrás de la tecnología
Noticias y Actualizaciones

Cómo funciona la detección de contenido de IA: detrás de la tecnología

El desarrollo de las tecnologías digitales ha ofrecido nuevas oportunidades a múltiples sectores. Uno de ellos es la generación de contenido. chevron_right
Advacheck y Moodle: Un nuevo capítulo en la lucha contra el plagio en las instituciones educativas
Noticias y Actualizaciones

Advacheck y Moodle: Un nuevo capítulo en la lucha contra el plagio en las instituciones educativas

En octubre de 2024, Advacheck se convirtió en socio certificado de Moodle, integrando su sistema de detección de plagio en esta plataforma educativa de gran uso. chevron_right
Creaciones de IA y cómo identificarlas: lo que Advacheck ofrece para detectar textos generados por IA
Noticias y Actualizaciones

Creaciones de IA y cómo identificarlas: lo que Advacheck ofrece para detectar textos generados por IA

Los recientes avances en inteligencia artificial se vuelven virales rápidamente, pero incluso entre ellos, ChatGPT tiene pocos iguales. chevron_right
No solo texto: detección de reutilización de imágenes
Noticias y Actualizaciones

No solo texto: detección de reutilización de imágenes

Durante mucho tiempo, los académicos, docentes y editores se han acostumbrado a que el problema del plagio se relacione principalmente con casos de reutilización indebida de texto. chevron_right
SEPLN 2023: un modelo para la detección de texto generado por máquinas
Noticias y Actualizaciones

SEPLN 2023: un modelo para la detección de texto generado por máquinas

El pasado septiembre, el equipo de Advacheck participó en la Conferencia SEPLN 2023. chevron_right

¡Disfruta de Advacheck con una prueba GRATUITA de 14 días!

  • Consulta personal sobre cómo funciona el sistema.
  • Acceso a una cuenta Demo adaptada a tus necesidades.
  • Te garantizamos una experiencia de detección de plagio de primera clase.