Annunciamo una nuova partnership con Proofig! Per saperne di più
Immagine di Meta
In risposta alle nuove normative sull'intelligenza artificiale approvate in Europa, abbiamo pubblicato la nostra analisi in cui prevedevamo che le aziende leader avrebbero iniziato ad agire in materia di trasparenza dell'intelligenza artificiale. Il mese scorso abbiamo iniziato a vedere quella previsione avverarsi: Meta ha annunciato in un blog che "inizierà a etichettare una gamma più ampia di contenuti video, audio e immagini come 'Realizzati con l'intelligenza artificiale'".
Si spera che questo annuncio sia un segnale che altre aziende comincino a rendersi conto del rischio che i contenuti generati dall'intelligenza artificiale comportano, soprattutto per quanto riguarda la disinformazione e le immagini e i video deepfake. Nel post, l'azienda ha annunciato diverse azioni che intende intraprendere:
Meta sta progettando di sviluppare strumenti interni per identificare i contenuti generati dall'intelligenza artificiale su larga scala quando compaiono su Facebook, Instagram e Threads.
I contenuti da etichettare includeranno contenuti generati dall'intelligenza artificiale provenienti da Google, OpenAI, Microsoft, Adobe, Midjourney e altri.
Aggiungerà un modo per gli utenti di rivelare volontariamente quando caricano contenuti generati dall'intelligenza artificiale, penalizzando al contempo gli account che non rivelano i contenuti AI condivisi.
Queste azioni rappresentano un ottimo inizio e sono state suggerite da un gruppo eterogeneo di parti interessate attraverso il comitato di supervisione dei contenuti di Meta. Dopo aver completato le consultazioni con i responsabili politici internazionali e aver intervistato oltre 23.000 utenti, Meta ha scoperto che la stragrande maggioranza (82%) era favorevole a queste divulgazioni relative all'IA, in particolare per i "contenuti che ritraggono persone che dicono cose che non hanno detto".
In vista delle elezioni del 2024, è chiaro che Meta ha tratto gli insegnamenti giusti dalle elezioni statunitensi del 2016 e del 2020 e sta investendo nei sistemi adeguati per proteggere meglio i propri utenti dalla crescente ondata di disinformazione amplificata dall'intelligenza artificiale. Non è un caso che Meta stia cercando di attuare queste politiche prima dell'entrata in vigore della legge sull'intelligenza artificiale dell'UE a maggio.
Le decisioni e la leadership di Meta influenzeranno sicuramente il modo in cui altre aziende inizieranno a considerare i rischi delle proprie piattaforme. Durante un panel al WEF, il presidente degli affari globali di Meta ha già definito lo sforzo di individuare i contenuti generati artificialmente come "il compito più urgente" che l'industria tecnologica deve affrontare oggi.
Come possono quindi le altre aziende seguire queste linee guida e proteggere le loro piattaforme dall'abuso di disinformazione, rimanendo al contempo conformi alla nuova normativa UE? Ecco alcune idee:
Pangram Labs sta sviluppando i migliori sistemi di rilevamento basati sull'intelligenza artificiale affinché le aziende possano gestire piattaforme online sicure e responsabili. Se desiderate adottare misure proattive e diventare leader nell'integrità delle piattaforme e nella conformità normativa, contattateci all'indirizzo info@pangram.com!
