Cómo funcionan los detectores de IA en los textos y por qué no son tan confiables

En los últimos años, el avance de la inteligencia artificial (IA) ha revolucionado la forma en que interactuamos con la tecnología, especialmente a partir de herramientas como ChatGPT, GPT-4 y otros modelos de lenguaje que han demostrado una capacidad impresionante para generar contenido coherente y convincente. Sin embargo, este progreso también ha planteado desafíos en el ámbito académico y profesional, donde la originalidad y la autoría humana son fundamentales. Para abordar estos desafíos, se han desarrollado detectores de IA, herramientas diseñadas para identificar si un texto ha sido generado por una máquina. Pero, ¿cómo funcionan estos detectores y por qué no son tan confiables como parecen?

 

¿Cómo funcionan los detectores de IA?

Los detectores de IA son programas que utilizan algoritmos y modelos de aprendizaje automático para analizar patrones en los textos. Su funcionamiento se basa en identificar ciertas características que suelen ser comunes en los textos generados por IA, y que podemos agrupar en estas tres categorías:

 

1. Análisis de la perplejidad y la entropía léxica

La perplejidad es una medida que indica qué tan fácil resulta para un modelo de lenguaje anticipar la siguiente palabra en un tramo del texto. En cierto modo, indica cuán sorprendente puede ser el texto. En general, los textos generados por IA tienden a mostrar baja perplejidad porque siguen estructuras predecibles y patrones bien definidos, lo que reduce la sorpresa esperable en su construcción.

Por otro lado, la entropía léxica evalúa la diversidad en el uso del vocabulario y en la estructura de las frases. En la escritura humana, suele haber más variaciones en la extensión de las oraciones y en la elección de sinónimos, por ejemplo, mientras que los textos generados por IA tienden a ser más homogéneos y uniformes.

2. Análisis de la variabilidad en la estructura

Los textos creados por humanos suelen presentar más variabilidad en la extensión de las frases, el uso de vocabulario y la complejidad sintáctica. Pueden alternar frases largas con cortas, el vocabulario puede incluir términos comunes o especializados y la estructura de las oraciones puede ser simple o muy compleja. Esto hace que los textos creados por humanos parezcan más naturales y dinámicos, como una conversación real.

En cambio, en los textos generados por IA, las frases suelen tener una longitud similar, el vocabulario es más común y la estructura de las oraciones es más regular, y esto se debe a que los modelos de IA aprenden patrones de grandes cantidades de texto, lo que los hace más homogéneos y menos creativos.

3. Detección de huellas digitales o fingerprinting

Algunos detectores de IA buscan «huellas digitales» en el uso de palabras y frases, es decir, patrones específicos que pueden indicar que un texto ha sido generado por un modelo de inteligencia artificial. Estos patrones pueden incluir el uso repetitivo de ciertas expresiones o la estructura predecible de las oraciones.

Sin embargo, esta técnica puede ser problemática. Si un ser humano escribe en un estilo formal y estructurado, similar al de una IA, el detector podría indicar falsos positivos. Esto significa que podría identificar erróneamente un texto escrito por una persona como si hubiera sido generado por una inteligencia artificial.

 

Limitaciones y problemas de confiabilidad

Lo real es que, a pesar de su sofisticación, los detectores de IA presentan varias limitaciones que los hacen poco confiables, especialmente en contextos académicos.

Estos algoritmos suelen identificar erróneamente textos humanos como generados por IA, especialmente cuando el estilo es formal o estructurado, ya que comparten patrones similares a los que estos sistemas buscan. Además, pueden fallar si el contenido ha sido editado o modificado por un humano, lo que reduce su efectividad en casos donde se busca detectar plagio o uso indebido de herramientas de IA.

Debemos considerar también que el funcionamiento de muchos detectores de IA carece de transparencia, porque no explican cómo llegan a sus conclusiones, lo que dificulta la verificación de sus resultados. Esto es especialmente problemático en entornos académicos, donde las acusaciones de plagio o uso indebido de IA pueden tener consecuencias graves.

Nuevas estrategias para mejorar la detección

Siempre es importante tener en cuenta que estas tecnologías se entrenan con conjuntos de datos específicos, que pueden no ser representativos de todos los tipos de escritura. Por ejemplo, si el detector fue entrenado principalmente con textos en inglés, puede tener dificultades para analizar textos en otros idiomas.

Sin embargo, los modelos de lenguaje están en constante mejora, lo que significa que los detectores deberán actualizarse continuamente para mantenerse al día, y esto crea una carrera tecnológica en la que los detectores siempre van un paso atrás.

Dado que los detectores actuales tienen limitaciones, se están explorando nuevas estrategias para mejorar su precisión:

  • Watermarking en modelos de IA: algunos desarrolladores están implementando marcas de agua digitales en los textos generados por IA para facilitar su detección.
  • Análisis multimodal: se está comenzando a combinar la detección automática con revisiones humanas para mejorar la precisión.
  • Sistemas híbridos: algunos enfoques combinan análisis estilístico con verificaciones contextuales para reducir falsos positivos y negativos.

 

¿Y entonces?

Los detectores de IA son herramientas útiles para identificar patrones de texto generados por máquinas, pero su confiabilidad es limitada. No deben ser utilizados como la única fuente de evidencia para considerar que existe plagio o uso indebido de IA, especialmente en entornos académicos donde las consecuencias pueden ser graves. En su lugar, es recomendable combinar estas herramientas con una evaluación humana cuidadosa y contextualizada, que tenga en cuenta el estilo, el contenido y el proceso detrás de la creación del texto.

Para adecuarse a los avances tecnológicos que observamos día a día, las instituciones académicas y profesionales deberán desarrollar políticas claras sobre el uso de la IA y sus detectores, basadas en criterios éticos. Solo así podrán garantizar la integridad académica y los derechos del sujeto humano.

Etiquetado , , .