¡Anunciamos una nueva colaboración con Proofig! Más información

Declaración sobre la orden ejecutiva de Biden sobre la seguridad de la inteligencia artificial

Max Spero
31 de octubre de 2023

NOTA: ¡Hemos cambiado nuestro nombre a Pangram Labs! Consulte nuestra publicación en el blog para obtener más detalles.

Hoy, la administración Biden ha publicado nuevas normas para la seguridad y protección de la IA, incluida esta directiva sobre la detección de contenidos de IA:

El Departamento de Comercio elaborará directrices para la autenticación de contenidos y el uso de marcas de agua con el fin de etiquetar claramente los contenidos generados por IA. Las agencias federales utilizarán estas herramientas para que los estadounidenses puedan saber fácilmente que las comunicaciones que reciben de su Gobierno son auténticas, y darán ejemplo al sector privado y a los gobiernos de todo el mundo.

Joe Biden, de ai.gov.

Checkfor.ai apoya plenamente el compromiso de la administración Biden con el despliegue seguro y responsable de los grandes modelos lingüísticos. Creemos que el desarrollo de directrices y políticas en torno a la autenticación de contenidos de IA es un paso importante en la dirección correcta para la seguridad de la IA y está en consonancia con nuestra misión de proteger Internet del spam y otros contenidos maliciosos generados por grandes modelos lingüísticos. El mundo será mejor, tanto para los consumidores como para los usuarios de la tecnología de IA, si como sociedad invertimos más en la detección de contenidos generados por IA. Hoy queremos publicar una declaración sobre nuestra posición como empresa en materia de autenticación, marca de agua y detección de contenidos.

  • Creemos que ninguna solución de detección actual es suficiente para resolver el problema en este momento, y debemos invertir más recursos en resolver específicamente la detección de IA.
  • Creemos que las marcas de agua no son la solución a este problema, ya que promueven una falsa sensación de seguridad y han demostrado tener limitaciones cuando un usuario tiene acceso a los pesos del modelo o la capacidad de editar el resultado (https://arxiv.org/pdf/2305.03807.pdf, https://arxiv.org/pdf/2301.10226.pdf). Ya existen modelos de código abierto potentes y capaces sin marcas de agua, y los malos actores siempre podrán ajustar localmente sus propias versiones de estos para evadir la detección. Además, creemos que el problema de la detección se puede resolver incluso en modelos sin marcas de agua.
  • Apoyamos la regulación sobre la seguridad de la IA y el desarrollo de grandes modelos lingüísticos, con la condición fundamental de que toda regulación debe respaldar el ecosistema de código abierto. El código abierto proporciona controles y contrapesos a las grandes empresas tecnológicas, transparencia para los consumidores y permite al público evaluar, criticar y comparar libremente estos modelos.
  • Creemos que el papel del gobierno en la promoción de la seguridad de la IA y la inversión en investigación sobre detección de IA debería centrarse en financiar proyectos académicos e industriales en materia de detección de IA.
  • Para avanzar en la investigación eficaz sobre la detección de IA, debemos establecer puntos de referencia y criterios de evaluación, de modo que los consumidores puedan conocer la eficacia y las limitaciones de los detectores de IA disponibles. Nos comprometemos a desarrollar y contribuir a la creación de estándares para toda la industria en materia de detección de IA, de modo que se puedan implementar de forma segura y responsable modelos de lenguaje más grandes y potentes.

En Checkfor.ai, estamos trabajando duro para crear sistemas de detección de IA fiables que permitan implementar los modelos lingüísticos de próxima generación de forma segura y productiva. Nos complace ver el compromiso de la administración Biden con la diferenciación entre el contenido generado por humanos y el generado por IA, y esperamos con interés colaborar con investigadores y responsables políticos para desarrollar estas importantes normas.

Suscríbase a nuestro boletín informativo
Compartimos actualizaciones mensuales sobre nuestra investigación en detección de IA.