Annunciamo una nuova partnership con Proofig! Per saperne di più

Meta inizierà a identificare i contenuti generati dall'intelligenza artificiale

Ashan Marla
14 maggio 2024

Immagine di Meta

Panoramica

In risposta alle nuove normative sull'intelligenza artificiale approvate in Europa, abbiamo pubblicato la nostra analisi in cui prevedevamo che le aziende leader avrebbero iniziato ad agire in materia di trasparenza dell'intelligenza artificiale. Il mese scorso abbiamo iniziato a vedere quella previsione avverarsi: Meta ha annunciato in un blog che "inizierà a etichettare una gamma più ampia di contenuti video, audio e immagini come 'Realizzati con l'intelligenza artificiale'".

Si spera che questo annuncio sia un segnale che altre aziende comincino a rendersi conto del rischio che i contenuti generati dall'intelligenza artificiale comportano, soprattutto per quanto riguarda la disinformazione e le immagini e i video deepfake. Nel post, l'azienda ha annunciato diverse azioni che intende intraprendere:

Meta sta progettando di sviluppare strumenti interni per identificare i contenuti generati dall'intelligenza artificiale su larga scala quando compaiono su Facebook, Instagram e Threads.

I contenuti da etichettare includeranno contenuti generati dall'intelligenza artificiale provenienti da Google, OpenAI, Microsoft, Adobe, Midjourney e altri.

Aggiungerà un modo per gli utenti di rivelare volontariamente quando caricano contenuti generati dall'intelligenza artificiale, penalizzando al contempo gli account che non rivelano i contenuti AI condivisi.

Queste azioni rappresentano un ottimo inizio e sono state suggerite da un gruppo eterogeneo di parti interessate attraverso il comitato di supervisione dei contenuti di Meta. Dopo aver completato le consultazioni con i responsabili politici internazionali e aver intervistato oltre 23.000 utenti, Meta ha scoperto che la stragrande maggioranza (82%) era favorevole a queste divulgazioni relative all'IA, in particolare per i "contenuti che ritraggono persone che dicono cose che non hanno detto".

Zoom indietro

In vista delle elezioni del 2024, è chiaro che Meta ha tratto gli insegnamenti giusti dalle elezioni statunitensi del 2016 e del 2020 e sta investendo nei sistemi adeguati per proteggere meglio i propri utenti dalla crescente ondata di disinformazione amplificata dall'intelligenza artificiale. Non è un caso che Meta stia cercando di attuare queste politiche prima dell'entrata in vigore della legge sull'intelligenza artificiale dell'UE a maggio.

Le decisioni e la leadership di Meta influenzeranno sicuramente il modo in cui altre aziende inizieranno a considerare i rischi delle proprie piattaforme. Durante un panel al WEF, il presidente degli affari globali di Meta ha già definito lo sforzo di individuare i contenuti generati artificialmente come "il compito più urgente" che l'industria tecnologica deve affrontare oggi.

Come possono quindi le altre aziende seguire queste linee guida e proteggere le loro piattaforme dall'abuso di disinformazione, rimanendo al contempo conformi alla nuova normativa UE? Ecco alcune idee:

  • La leadership della piattaforma dovrebbe stabilire politiche sui contenuti conformi alla normativa per supportare l'identificazione e la valutazione dei contenuti generati dall'intelligenza artificiale.
  • Sviluppare funzionalità del prodotto che consentano agli utenti di segnalare i contenuti generati dall'intelligenza artificiale o, quanto meno, di contrassegnarli per mitigarne la diffusione e la minaccia per gli altri utenti.
  • Utilizza i prodotti di rilevamento dei contenuti generati dall'intelligenza artificiale di Pangram Labs per segnalare in modo proattivo i contenuti generati dall'intelligenza artificiale affinché vengano sottoposti a revisione.

Pangram Labs sta sviluppando i migliori sistemi di rilevamento basati sull'intelligenza artificiale affinché le aziende possano gestire piattaforme online sicure e responsabili. Se desiderate adottare misure proattive e diventare leader nell'integrità delle piattaforme e nella conformità normativa, contattateci all'indirizzo info@pangram.com!

Iscriviti alla nostra newsletter
Condividiamo aggiornamenti mensili sulla nostra ricerca nel campo del rilevamento dell'intelligenza artificiale.