Pangram se complace enormemente en presentar un nuevo modelo de detección de IA, Pangram 3.2. Al igual que sus predecesores, Pangram 3.1 y Pangram 3.0, se basa en la arquitectura EditLens descrita en nuestro artículo presentado en ICLR 2026. Lo que nuestros usuarios pueden esperar es una mejora gradual, pero notable, en el número de verdaderos positivos que el detector es capaz de detectar (la recuperación), al tiempo que se mantiene la misma tasa de falsos positivos, la más baja del sector, lo que garantiza que las acusaciones falsas de uso de IA sigan siendo extremadamente raras.
Siguiendo las mejores prácticas en el lanzamiento de modelos de lenguaje grande (LLM), hemos decidido empezar a publicar «fichas de modelo» junto con las actualizaciones de nuestro detector: se trata, en esencia, de «etiquetas nutricionales» para los modelos de IA. Nuestras fichas de modelo describen la arquitectura y el marco de entrenamiento, los detalles del conjunto de datos de entrenamiento, los resultados de evaluación pertinentes y los cambios introducidos que puedan afectar al comportamiento del detector. También describimos las especificaciones exactas de las entradas y salidas del modelo, los idiomas admitidos y las condiciones en las que esperamos que Pangram funcione bien, así como aquellas en las que sus prestaciones son más limitadas.
Probablemente notarás que Pangram 3.2 es más sensible que Pangram 3.1. En otras palabras, detectará más textos generados por IA. Esto se debe a mejoras en la detección de Humanizer, la detección de Claude 4.6, una mayor sensibilidad en la detección de textos más cortos generados por IA, la incorporación de más datos al conjunto de datos de entrenamiento y unos hiperparámetros más optimizados en la arquitectura de EditLens.
La mejora más significativa de Pangram 3.2 es su capacidad para detectar texto generado por IA humanizado. En nuestro conjunto interno de evaluación de humanizadores, hemos multiplicado por cuatro la tasa de detección de humanizadores en comparación con Pangram 3.1. También observamos una mejora de aproximadamente tres veces en nuestra evaluación interna de las «solicitudes adversarias», que son textos generados por un modelo de lenguaje al que se le ha indicado que añada errores intencionadamente y escriba con un estilo que eluda la detección de la IA.
Esto es especialmente importante en el ámbito educativo, donde los estudiantes utilizan cada vez más herramientas de humanización o intentan dar indicaciones a los modelos de lenguaje para evitar que el texto resultante parezca «demasiado generado por IA».
Dada la gran difusión de nuestro bot de X, que la gente ha utilizado para detectar si los tuits contienen texto generado por IA, últimamente nos hemos centrado especialmente en mejorar la detección de contenidos breves en línea, del tamaño de un tuit. También hemos reducido el número mínimo de palabras de 75 a 50, ya que consideramos que ahora tenemos más confianza en nuestra capacidad para distinguir las publicaciones generadas por IA que contienen entre 50 y 75 palabras.
Con una tasa de falsos positivos equivalente a la de Pangram 3.1, en Pangram 3.2 hemos mejorado la tasa de falsos negativos en las publicaciones breves de las redes sociales en un 17 %.
Varios usuarios han informado de falsos negativos específicamente con Claude Opus 4.6. Hemos solucionado este problema regenerando nuestro conjunto de datos para incluir datos de Claude Opus 4.6. Tras evaluarlo con nuestros conjuntos de datos de prueba internos (especialmente con ejemplos difíciles) y mediante pruebas de seguridad (red teaming), ahora estamos seguros de que Pangram es capaz de detectar Claude Opus 4.6 tan bien como cualquier otro modelo de lenguaje grande (LLM) de vanguardia.
Actualmente, el código y las fórmulas matemáticas generados por IA no se detectan con un alto nivel de precisión. En estos momentos nos estamos centrando en estos casos de uso debido a la gran demanda de los clientes. Aunque las fórmulas matemáticas y el código siguen patrones más fijos y, por lo tanto, son más difíciles de detectar que los textos generados por IA, algunos de nuestros primeros experimentos están arrojando resultados prometedores.
El mercado de los humanizadores está en constante evolución, y en los últimos meses ha aparecido una mayor variedad de ellos. Estamos desarrollando técnicas más avanzadas para detectarlos, que esperamos poder dar a conocer públicamente en breve.
Pangram se compromete a mantenerse siempre a la vanguardia de lo que es posible en materia de detección de IA. Estamos en constante evolución a medida que aumentan las capacidades de los modelos de lenguaje grande (LLM).
¡También estamos contratando! Echa un vistazo a nuestra página de empleo para ayudarnos a crear los mejores detectores de IA del mundo.
