Annunciamo una nuova partnership con Proofig! Per saperne di più

Dichiarazione sull'ordine esecutivo di Biden sulla sicurezza dell'intelligenza artificiale

Max Spero
31 ottobre 2023

NOTA: Abbiamo cambiato il nostro nome in Pangram Labs! Per ulteriori dettagli, consulta il nostro blog.

Oggi, l'amministrazione Biden ha emanato nuovi standard per la sicurezza e la protezione dell'IA, tra cui questa direttiva sul rilevamento dei contenuti generati dall'IA:

Il Dipartimento del Commercio svilupperà linee guida per l'autenticazione dei contenuti e la filigranatura al fine di etichettare chiaramente i contenuti generati dall'intelligenza artificiale. Le agenzie federali utilizzeranno questi strumenti per consentire ai cittadini americani di riconoscere facilmente l'autenticità delle comunicazioni ricevute dal proprio governo, fungendo da esempio per il settore privato e i governi di tutto il mondo.

Joe Biden, da ai.gov.

Checkfor.ai sostiene pienamente l'impegno dell'amministrazione Biden a favore di un utilizzo sicuro e responsabile dei modelli linguistici di grandi dimensioni. Riteniamo che lo sviluppo di linee guida e politiche relative all'autenticazione dei contenuti generati dall'intelligenza artificiale sia un passo importante nella giusta direzione per la sicurezza dell'IA ed è in linea con la nostra missione di proteggere Internet dallo spam e da altri contenuti dannosi generati da modelli linguistici di grandi dimensioni. Il mondo sarà migliore, sia per i consumatori che per gli utenti della tecnologia AI, se noi come società investiremo maggiormente nell'individuazione dei contenuti generati dall'intelligenza artificiale. Oggi vorremmo rilasciare una dichiarazione sulla nostra posizione come azienda in materia di autenticazione, filigranatura e individuazione dei contenuti.

  • Riteniamo che nessuna soluzione di rilevamento attuale sia sufficiente per risolvere il problema in questo momento e che sia necessario investire maggiori risorse nella risoluzione specifica del rilevamento dell'IA.
  • Riteniamo che il watermarking non sia la soluzione a questo problema, poiché promuove un falso senso di sicurezza e presenta limiti comprovati quando un utente ha accesso ai pesi del modello o alla possibilità di modificare l'output (https://arxiv.org/pdf/2305.03807.pdf, https://arxiv.org/pdf/2301.10226.pdf). Esistono già modelli open source potenti e capaci senza filigrana, e i malintenzionati saranno sempre in grado di mettere a punto localmente le proprie versioni di questi modelli per eludere il rilevamento. Inoltre, riteniamo che il problema del rilevamento sia risolvibile anche su modelli senza filigrana.
  • Siamo favorevoli alla regolamentazione della sicurezza dell'IA e allo sviluppo di modelli linguistici di grandi dimensioni, con la clausola fondamentale che tutte le normative devono sostenere l'ecosistema open source. L'open source garantisce controlli ed equilibri sulle potenti aziende tecnologiche di grandi dimensioni, trasparenza per i consumatori e consente al pubblico di valutare, criticare e confrontare liberamente questi modelli.
  • Riteniamo che il ruolo del governo nella promozione della sicurezza dell'IA e negli investimenti nella ricerca sul rilevamento dell'IA debba concentrarsi sul finanziamento di progetti accademici e industriali nel campo del rilevamento dell'IA.
  • Per promuovere una ricerca efficace nel campo del rilevamento dell'IA, dobbiamo stabilire parametri di riferimento e criteri di valutazione, in modo che i consumatori possano essere consapevoli dell'efficacia e dei limiti dei rilevatori di IA disponibili. Ci impegniamo a sviluppare e contribuire alla definizione di standard industriali nel campo del rilevamento dell'IA, affinché modelli linguistici più grandi e potenti possano essere implementati in modo sicuro e responsabile.

Noi di Checkfor.ai stiamo lavorando alacremente per sviluppare sistemi di rilevamento basati sull'intelligenza artificiale affidabili, affinché i modelli linguistici di nuova generazione possano essere implementati in modo sicuro e produttivo. Siamo entusiasti dell'impegno dell'amministrazione Biden a distinguere i contenuti generati dall'uomo da quelli generati dall'intelligenza artificiale e non vediamo l'ora di collaborare con ricercatori e responsabili politici per sviluppare questi importanti standard.

Iscriviti alla nostra newsletter
Condividiamo aggiornamenti mensili sulla nostra ricerca nel campo del rilevamento dell'intelligenza artificiale.