¡Anunciamos una nueva colaboración con Proofig! Más información
Imagen de Meta
En respuesta a las nuevas regulaciones sobre IA aprobadas en Europa, publicamos nuestro análisis en el que predijimos que las empresas líderes comenzarían a tomar medidas en materia de transparencia de la IA. El mes pasado empezamos a ver cómo esa predicción se hacía realidad: Meta anunció en un blog que «comenzará a etiquetar una gama más amplia de contenidos de vídeo, audio e imagen como "Creado con IA"».
Esperamos que este anuncio sea una señal de que otras empresas comenzarán a darse cuenta del riesgo que supone el contenido generado por la IA, especialmente en lo que se refiere a la desinformación y a las imágenes y vídeos falsificados. En la publicación, la empresa anunció varias medidas que tiene previsto adoptar:
Meta tiene previsto crear herramientas internas para identificar a gran escala el contenido generado por IA cuando aparezca en Facebook, Instagram y Threads.
El contenido que se etiquetará incluirá contenido generado por IA de Google, OpenAI, Microsoft, Adobe, Midjourney y otros.
Se añadirá una opción para que los usuarios revelen voluntariamente cuándo suben contenido generado por IA, al tiempo que se penalizará a las cuentas que no revelen el contenido compartido generado por IA.
Estas medidas son un gran comienzo y han sido elaboradas por un grupo mixto de partes interesadas a través del comité de supervisión de contenidos de Meta. Tras completar las consultas con responsables políticos internacionales y encuestar a más de 23 000 usuarios, Meta descubrió que una abrumadora mayoría (82 %) estaba a favor de estas divulgaciones de IA, especialmente para «contenidos que muestran a personas diciendo cosas que no han dicho».
De cara a las elecciones de 2024, está claro que Meta ha aprendido las lecciones adecuadas de las elecciones estadounidenses de 2016 y 2020, y está invirtiendo en los sistemas adecuados para proteger mejor a sus usuarios contra la creciente ola de desinformación a escala de IA. Tampoco es casualidad que Meta esté tratando de implementar estas políticas antes de que entre en vigor la Ley de IA de la UE en mayo.
Las decisiones y el liderazgo de Meta influirán sin duda en la forma en que otras empresas comiencen a plantearse los riesgos de sus propias plataformas. En una mesa redonda celebrada en el Foro Económico Mundial, el presidente de Asuntos Globales de Meta ya calificó la labor de detectar contenidos generados artificialmente como «la tarea más urgente» a la que se enfrenta hoy en día la industria tecnológica.
Entonces, ¿cómo pueden otras empresas seguir estas directrices y proteger sus plataformas del abuso de la desinformación, al tiempo que cumplen con la nueva normativa de la UE? Aquí hay algunas ideas:
Pangram Labs está desarrollando los mejores sistemas de detección de IA para que las empresas puedan operar plataformas online seguras y responsables. Si desea tomar medidas proactivas y liderar el camino en materia de integridad de plataformas y cumplimiento normativo, póngase en contacto con nosotros en info@pangram.com.
