¡Anunciamos una nueva colaboración con Proofig! Más información

Comprender la nueva ley de la UE sobre inteligencia artificial

Ashan Marla
23 de marzo de 2024

Foto de Angel Bena.

La semana pasada, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial (Ley de IA), un marco integral que los Estados miembros de la UE deberán seguir para regular los productos y servicios de IA.

La Ley de IA tiene por objeto servir como legislación de seguridad para los consumidores, adoptando un «enfoque basado en el riesgo» para los productos o servicios que utilizan inteligencia artificial: cuanto más arriesgada sea una aplicación de IA, mayor será el escrutinio al que se someterá. Los niveles de riesgo se dividen en diferentes categorías, entre las que se incluyen:

  • Los sistemas de IA que utilicen «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y obstaculizar la toma de decisiones informadas», o que supongan un «riesgo claro para los derechos humanos fundamentales», se considerarán «riesgos inaceptables» y serán prohibidos.
  • Los sistemas de IA considerados «de alto riesgo», como los utilizados en infraestructuras críticas, educación, sanidad, fuerzas del orden, gestión de fronteras o elecciones, deberán cumplir requisitos estrictos.
  • Los sistemas de IA de uso general que no entren en las categorías de alto riesgo se considerarán de riesgo limitado y estarán sujetos a obligaciones de transparencia menos estrictas. Las aplicaciones de IA generativa se considerarán sistemas de IA de uso general.

Tanto los productores (como Open AI/Google) como los usuarios (empresas que consumen esas aplicaciones) deberán superar pruebas de precisión y transparencia para que los usuarios finales (consumidores) sean conscientes de que están interactuando con IA. Las empresas que no cumplan estos nuevos requisitos se enfrentan a multas de hasta 35 millones de euros o el 7 % de su facturación anual global.

¿Qué significa esto para las plataformas en línea?

Cualquier empresa, independientemente de dónde tenga su sede, que tenga usuarios finales en la UE y utilice sistemas de IA en sus productos estará sujeta a la Ley de IA. Aunque se trata de un ámbito de aplicación amplio y con cierta ambigüedad, está claro que las plataformas en línea que utilicen o publiquen contenidos de IA tendrán que cumplir con estas nuevas obligaciones reglamentarias.

Dado que muchas plataformas de contenido generado por los usuarios están experimentando un aumento en la publicación de contenido generado por IA, es probable que la mayoría de los sitios en línea (por ejemplo, editores, mercados y sitios de redes sociales) tengan que establecer algunos controles de transparencia y moderación, entre los que se incluyen:

  • Revelar si el contenido generado o publicado en la plataforma ha sido creado por IA.
  • Diseñar la plataforma para rechazar envíos ilegales generados por IA.
  • Publicación de resúmenes de datos protegidos por derechos de autor utilizados para entrenar modelos internos.

El etiquetado y, por extensión, la detección de contenidos generados por IA serán ahora obligatorios si dichos contenidos se difunden en plataformas de contenidos. Esto se aplica a cualquier tipo de contenido: texto, audio, imágenes y vídeos:

«Los proveedores de sistemas de IA, incluidos los sistemas de IA de uso general, que generen contenido sintético de audio, imagen, vídeo o texto, deberán garantizar que los resultados del sistema de IA estén marcados en un formato legible por máquina y sean detectables como generados o manipulados artificialmente».

Si bien apoyamos la intención legislativa de la UE de promover sistemas de IA seguros, también reconocemos que a las empresas les puede resultar confuso interpretar y cumplir esta ley. Estas obligaciones pueden parecer bastante ambiguas, y la Ley de IA no detalla específicamente si los tipos de contenido secundarios (como las reseñas o comentarios de los usuarios) están sujetos a estos requisitos, ni qué controles de cumplimiento deberán incorporar las empresas.

¿Cómo pueden las empresas adelantarse a la Ley de IA?

La buena noticia es que las empresas tendrán tiempo para desarrollar soluciones que permitan el cumplimiento. Se espera que la ley entre en vigor en mayo y que sus disposiciones comiencen a aplicarse por etapas, ya que muchos de los requisitos de transparencia solo se aplicarán a partir de dentro de un año.

Dicho esto, creemos que hay ciertas medidas que las empresas pueden tomar ahora para adelantarse a cualquier aplicación de la ley. En particular, las empresas deberían tratar de desarrollar:

  • Directrices claras y gobernanza en torno al contenido generado por los usuarios.
  • Flujos de trabajo de moderación de contenido más eficientes para identificar contenido generado por IA.
  • Automatizaciones para evitar la propagación de contenido generado por IA.

Ya estamos viendo cómo algunas empresas están tomando medidas: algunas plataformas, como YouTube e Instagram, están pidiendo a los usuarios que informen por sí mismos cuando suban contenido «realista» generado por IA. No está claro si este «sistema de confianza» será suficiente para cumplir con la ley, pero es una señal clara de que los líderes del sector se están tomando en serio esta legislación y la seguridad de la IA.

En Pangram Labs, trabajamos duro para crear los mejores sistemas de detección de IA, de modo que las empresas puedan operar plataformas online seguras y responsables. Nos alienta el objetivo de transparencia en Internet de la UE y esperamos con interés colaborar con investigadores y responsables políticos para desarrollar estas importantes normas.

¿Quieres ponerte en contacto con nosotros? ¡Envíanos un correo electrónico a info@pangram.com!

Suscríbase a nuestro boletín informativo
Compartimos actualizaciones mensuales sobre nuestra investigación en detección de IA.