Annunciamo una nuova partnership con Proofig! Per saperne di più

Rendere la tua azienda a prova di LLM e GenAI

Max Spero e Theodoros Evgeniou
30 gennaio 2024

Probabilmente "la persona dell'anno per il 2023" è stata l'intelligenza artificiale. Siamo stati tutti colti di sorpresa dalla velocità dell'innovazione e dalle capacità dei modelli linguistici di grandi dimensioni (LLM) e, più in generale, dell'intelligenza artificiale generativa (GenAI). Allo stesso tempo, molti, in particolare nelle piattaforme online, sollevano interrogativi sui potenziali rischi che queste tecnologie possono comportare: si veda questo articolo dell'Harvard Business Review che delinea alcuni rischi dell'intelligenza artificiale. Le piattaforme online potrebbero presto essere invase da contenuti generati dall'IA, con implicazioni per la sicurezza e la fidelizzazione dei loro utenti, nonché per la reputazione delle piattaforme stesse. Esistono già startup che offrono strumenti per generare e diffondere enormi volumi di contenuti GenAI.

Ma l'IA e la GenAI possono anche essere utilizzate a nostro vantaggio per gestire questi rischi e aiutarci a creare spazi digitali e piattaforme online più sicuri, come dimostrano alcune idee emerse dall'ultimo Trust & Safety Hackathon. Con l'emergere di nuovi strumenti, è il momento giusto per fare il punto della situazione in termini di innovazioni e processi più recenti per gestire i rischi che le piattaforme online devono affrontare a causa della GenAI.

Questo articolo può aiutare a rispondere a domande quali:

  • Come possiamo proteggere al meglio la nostra attività, le comunità online e gli utenti dai volumi di contenuti generati dall'intelligenza artificiale (ad esempio, dallo spam delle recensioni ai contenuti illegali che violano il copyright e altre leggi)?
  • È possibile rilevare i contenuti generati dall'intelligenza artificiale?
  • In quale fase del ciclo di vita dei contenuti generati dall'intelligenza artificiale è possibile utilizzare le misure di sicurezza e in che modo?
  • Come si stanno evolvendo le normative correlate nei diversi mercati e cosa significano per te?

Sviluppa la tua politica GenAI tenendo conto del tuo modello di business e delle tue esigenze


Ogni azienda che utilizza contenuti generati dagli utenti necessita di una politica GenAI. In genere ci sono due domande a cui rispondere. Gli utenti desiderano vedere contenuti generati dall'intelligenza artificiale e accettano che tali contenuti siano mescolati a quelli creati dall'uomo?

Se la risposta a entrambe le domande è no, allora è necessario adottare una politica relativa ai contenuti generati dall'intelligenza artificiale. Ad esempio, richiedendo che tali contenuti vengano divulgati o vietandoli espressamente. Una politica di questo tipo può essere applicata da moderatori umani dotati di occhio attento e processi efficaci con strumenti come Pangram Labs.

Se la risposta è sì, ovvero gli utenti sono d'accordo o entusiasti di vedere contenuti generati dall'IA, allora dal punto di vista delle politiche aziendali siete a posto. Tuttavia, prima di procedere con l'introduzione diretta di strumenti di IA come i messaggi assistiti dall'IA di Linkedin, dovrete comunque assicurarvi che i contenuti siano sicuri. Per questo, hai bisogno di alcune misure di sicurezza e, cosa ancora più importante, devi sempre mettere in atto processi per moderare in modo efficace ed efficiente i contenuti generati dall'IA, in modo simile alla moderazione dei contenuti generati dagli utenti, utilizzando strumenti come la piattaforma di moderazione di Tremau.

Naturalmente, la vostra politica in materia di GenAI dipende dalla vostra attività e dal contesto. Non esiste una soluzione valida per tutti. Ad esempio, se siete un marketplace o, in generale, una piattaforma in cui gli utenti si affidano alle recensioni di altri utenti, potreste dover garantire che nessuna recensione generata dall'IA trovi la sua strada sulla vostra piattaforma. Più in generale, dovete anche assicurarvi che nessun contenuto illegale generato dall'IA, proprio come i contenuti generati dagli utenti, sia presente sulla vostra piattaforma. I bot e lo spam sono sempre stati una sfida, ma con la potenza della GenAI sono diventati più potenti e più difficili da individuare.

Comprendere e sfruttare le barriere di protezione dell'IA


La maggior parte delle API commerciali di IA forniscono una sorta di barriera di protezione. L'API Gemini di Google valuta automaticamente i propri risultati in base a quattro categorie di sicurezza: incitamento all'odio, molestie, contenuti sessualmente espliciti e contenuti pericolosi. Se utilizzi l'API OpenAI di Azure, ottieni valutazioni simili basate sui filtri di contenuto "Odio e correttezza", "Sessualità", "Violenza" e "Autolesionismo". Entrambe le API rifiuteranno le query che ottengono un punteggio troppo alto in una di queste categorie, ma lasciano a tua discrezione i livelli intermedi di moderazione della sicurezza.

Se utilizzi un modello open source come Llama-2 o Mistral, dovrai implementare un filtro dei contenuti personalizzato. Questo problema può essere risolto con una chiamata separata a un classificatore closed source (API di filtro dei contenuti di OpenAI, API di sicurezza dei contenuti AI di Azure) o una soluzione open source come LlamaGuard, recentemente rilasciata da Meta. LlamaGuard è un modello basato su LLM con 7 miliardi di parametri che offre ottime prestazioni. Si dimostra promettente per la classificazione di prompt e risposte, nonché per la moderazione generale dei contenuti.

Assicurati che gli esseri umani siano ancora coinvolti e che i tuoi processi siano conformi alle normative


Indipendentemente dagli strumenti automatizzati utilizzati per proteggere gli utenti e l'azienda, nessuna tecnologia è in grado di garantire una protezione totale. Tutti gli strumenti di intelligenza artificiale utilizzati commetteranno sempre degli errori. È necessario assicurarsi che tali errori non espongano l'azienda a rischi operativi, normativi o relativi ai clienti.

In primo luogo, sarà sempre necessario coinvolgere delle persone che, come minimo, revisioneranno alcuni dei contenuti che gli strumenti potrebbero segnalare loro di controllare. Naturalmente, i processi di revisione dei contenuti devono essere efficaci ed efficienti. Ironia della sorte, più strumenti di IA diventano disponibili sul mercato (ad esempio, per la generazione o la moderazione dei contenuti), più persone potrebbero essere necessarie in alcuni casi.

In secondo luogo, qualsiasi processo e pratica di moderazione dei contenuti deve essere progettato tenendo conto della sicurezza e della fidelizzazione degli utenti, e quindi anche del business. Cosa succede se gli errori di moderazione sollevano preoccupazioni? Come garantire che gli utenti abbiano voce in capitolo quando è necessario correggere le decisioni prese dall'azienda o dall'intelligenza artificiale? Come garantire che i moderatori dispongano di tutto il necessario per prendere le migliori decisioni di moderazione nel modo più efficiente ed efficace possibile? La gestione di queste e altre complessità richiede un'attenta riflessione e un'efficace automazione dei processi, utilizzando ad esempio strumenti come la piattaforma di moderazione dei contenuti di Tremau.

Infine, il 2024 sarà l'anno in cui dovrete davvero raddoppiare gli sforzi per assicurarvi di non essere tra le aziende multate dalle autorità di regolamentazione. Il Digital Services Act dell'UE entrerà in vigore per tutte le piattaforme online che operano in Europa, con l'obbligo di riprogettare i vostri processi e fornire - pena l'applicazione di sanzioni - relazioni, come quelle sulla trasparenza. Naturalmente la conformità è necessaria indipendentemente dal fatto che la vostra piattaforma sia influenzata dall'IA o la utilizzi.

Come possiamo aiutarti? Noi di Checkfor.ai e Tremau lavoriamo per aiutarti a orientarti al meglio nel nuovo mondo della potente IA e delle nuove normative.

Per ulteriori informazioni, contattaci all'indirizzo info@tremau.com e info@pangram.com.



Theodoros Evgeniou è cofondatore e Chief Innovation Officer di Tremau, professore presso l'INSEAD, membro della rete di esperti dell'OCSE sull'intelligenza artificiale, consulente del BCG Henderson Institute e partner accademico per l'intelligenza artificiale presso il World Economic Forum. Ha conseguito quattro lauree presso il MIT, tra cui un dottorato di ricerca nel campo dell'intelligenza artificiale.

Max Spero è cofondatore e amministratore delegato di Pangram Labs. In precedenza ha lavorato come ingegnere informatico presso Google e Nuro, occupandosi della creazione di pipeline di dati e della formazione di modelli di apprendimento automatico. Ha conseguito una laurea e un master in Informatica presso la Stanford University.

Questo articolo è stato pubblicato in collaborazione con Tremau nel gennaio 2024.

Iscriviti alla nostra newsletter
Condividiamo aggiornamenti mensili sulla nostra ricerca nel campo del rilevamento dell'intelligenza artificiale.