Descubre al instante qué publicaciones son de personas y cuáles de IA en Twitter, LinkedIn, Substack y otras plataformas. Descarga nuestra nueva extensión para Chrome.

Hoy lanzamos Pangram 3.3. Al igual que los modelos anteriores de la serie Pangram 3, Pangram 3.3 se basa en la arquitectura EditLens que presentamos en nuestro artículo para ICLR 2026.
Consulta aquí la ficha del modelo Pangram 3.3
En las últimas semanas, es posible que hayas notado que parte del texto de los últimos lanzamientos de OpenAI y Anthropic se ha clasificado erróneamente como texto escrito por humanos. En esta actualización, nos hemos centrado en reducir nuestra tasa de falsos negativos —es decir, la frecuencia con la que un modelo clasifica erróneamente como texto escrito por humanos un texto generado por IA— en el contenido redactado por estos modelos recién lanzados.
Como siempre, nos comprometemos a mantener nuestra tasa de falsos positivos, líder en el sector. Nunca lanzaremos un modelo que reduzca nuestra tasa global de falsos negativos a costa de clasificar erróneamente más textos escritos por humanos como generados por IA. No deberías observar ningún aumento en los falsos positivos con Pangram 3.3.
Además de mejorar la tasa de falsos negativos en modelos como Claude 4.7 y GPT 5.4+, Pangram 3.3 también ofrece un mejor rendimiento en textos naturalistas, documentos extensos y pruebas de referencia de redacción para hablantes de inglés como segunda lengua.
Pangram 3.3 es mucho más eficaz que su versión anterior a la hora de detectar resultados generados exclusivamente por los modelos de lenguaje grande (LLM) de última generación, incluidos Claude 4.7 y GPT 5.4+. En nuestras evaluaciones internas, observamos una mejora de tres veces en la detección de texto generado por GPT-5.5 Pro y una mejora de más de cuatro veces en el caso de Claude Opus 4.7, en comparación con Pangram 3.2.
Pangram 3.3 muestra una notable mejora en las evaluaciones de humanización, ya que detecta el doble de textos humanizados comercialmente que su predecesor. Pangram 3.3 también es más eficaz a la hora de detectar resultados de modelos de lenguaje grande (LLM) generados de forma adversaria, en los que los usuarios ordenan al LLM que eluda la detección: hemos observado una mejora tres veces mayor en nuestro conjunto de datos adversarios interno con respecto al modelo Pangram anterior.
Nuestro modelo anterior a veces clasificaba erróneamente los documentos más largos generados por IA (más de 2000 palabras) como «mixtos»; en concreto, etiquetaba erróneamente segmentos hacia el final del texto como «totalmente humanos». Pangram 3.3 reduce significativamente este error de clasificación en los textos sintéticos largos.
Aunque nuestra tasa global de falsos positivos ha disminuido gracias a las mejoras logradas en ámbitos complejos como la poesía, hemos observado un ligero aumento en la tasa de falsos positivos en el caso de los textos escritos por personas que se han traducido con Google Translate. Somos conscientes de que la traducción es un uso muy habitual de los modelos de lenguaje grande (LLM), y estamos probando diferentes formas de modelar y presentar los resultados de los textos traducidos por IA en futuros modelos.
El uso de los agentes se ha disparado en los últimos seis meses. Estamos empezando a ver cómo los procesos de redacción en los que intervienen personas y la IA evolucionan hacia un modelo colaborativo, en el que múltiples rondas de iteración entrelazan el texto escrito por personas y el generado por la IA dentro de un mismo documento. Uno de nuestros principales objetivos es mejorar nuestro modelo de este tipo de documentos coescritos. Estamos encantados de seguir desarrollando EditLens para ofrecerte los resultados más precisos en textos de autoría mixta, así como para permitir a los usuarios comprender qué significa que un texto cuente con asistencia de IA «ligera» o «moderada».
Al igual que con nuestros dos modelos anteriores, siempre puedes consultar el rendimiento del modelo actual en diferentes dominios y conjuntos de datos en nuestra ficha del modelo.

Katherine Thai es investigadora científica fundadora en el ámbito de la inteligencia artificial en Pangram Labs, una empresa emergente dedicada a la detección mediante IA. En diciembre de 2025, completó su doctorado en Informática bajo la supervisión de Mohit Iyyer en la Universidad de Massachusetts Amherst, donde su trabajo se centró en la evaluación de modelos de lenguaje a gran escala (LLM) en tareas relacionadas con el análisis literario.






