Annunciamo una nuova partnership con Proofig! Per saperne di più

Cosa fare quando un compito consegnato da uno studente viene segnalato come AI

Max Spero
14 febbraio 2025

Stai correggendo i compiti, leggendoli uno per uno, finché uno di essi attira la tua attenzione. Non riesci a capire esattamente perché, ma non sembra scritto dal tuo studente. Sembra scritto dall'intelligenza artificiale. Quindi lo inserisci in Pangram e ottieni un risultato. 99% intelligenza artificiale. Cosa fai in questo caso?

Capire cosa significa

Un rilevatore di IA come Pangram è addestrato a individuare i segni che indicano che un testo è stato scritto da un'intelligenza artificiale. Se una parte di testo ottiene un punteggio IA del 99%, ciò non significa necessariamente che riteniamo che l'intero testo sia stato generato dall'IA. Piuttosto, siamo sicuri al 99% che l'IA sia stata utilizzata per generare una parte del testo.

Nei documenti più lunghi, dividiamo il testo in segmenti. In questo modo è possibile sfogliare i segmenti per vedere se tutti hanno un alto livello di affidabilità AI o se si tratta solo di una sezione del testo.

Parla con il tuo studente

Consiglio sempre di parlare con il proprio studente.

Potresti chiedere loro come hanno scritto il testo per capire quanto conoscono bene il proprio elaborato. Oppure potresti semplicemente chiedere se hanno usato l'intelligenza artificiale. Potrebbero ammetterlo: erano sommersi di lavoro e hanno dovuto scegliere un compito su cui prendere una scorciatoia. Oppure hanno scritto una prima bozza e non erano soddisfatti del risultato, quindi hanno chiesto a ChatGPT di migliorarla.

Questa è un'ottima occasione per discutere cosa costituisce e cosa non costituisce una violazione dell'integrità accademica. Puoi ricordare ai tuoi studenti come dovrebbero gestire una questione del genere in futuro. Dovrebbero chiedere una proroga? O semplicemente consegnare quella brutta bozza preliminare pre-AI?

Potresti anche indirizzare lo studente verso strumenti di intelligenza artificiale adatti alle scuole e che aiutano a promuovere l'apprendimento, invece di prendere scorciatoie.

Verifica eventuali malintesi

A volte c'è una discrepanza tra ciò che un insegnante considera un imbroglio, ciò che uno studente considera un imbroglio e ciò che fa scattare un rilevatore di IA. Ecco alcuni modi comuni di utilizzare l'IA che potrebbero far scattare il rilevamento dell'IA.

  • Correttori grammaticali come Grammarly che integrano l'assistenza dell'intelligenza artificiale nel processo di scrittura
  • Strumenti di traduzione: spesso basati su modelli linguistici di grandi dimensioni (LLM)
  • Rilevamento delle funzionalità AI di Google Docs come "Aiutami a scrivere"
  • Parlare con ChatGPT per brainstorming e ricerca, e riutilizzare frasi scritte dall'IA
  • Utilizzo di ChatGPT per consigli sulla formulazione

Si consiglia di utilizzare una politica AI come questo sistema a livelli per garantire che studenti e insegnanti siano sulla stessa lunghezza d'onda per quanto riguarda gli strumenti di assistenza consentiti. Ciò evita malintesi nei casi in cui un insegnante consenta l'uso di Grammarly, senza rendersi conto che Grammarly è ora un assistente di scrittura AI completo, ma utilizzi anche un rilevatore di AI che segnalerebbe qualsiasi studente che utilizza le funzionalità AI di Grammarly.

Osservare gli artefatti del processo di scrittura

Supponiamo che il tuo studente abbia ammesso di aver utilizzato alcune frasi tratte da ChatGPT. Oppure sostiene che il suo caso sia un raro falso positivo. Il passo successivo migliore per discolparlo e confermare che ha svolto il lavoro è esaminare i documenti relativi al processo di scrittura. Quali ricerche ha svolto per questo compito e ha preso appunti? Ha salvato le prime bozze?

Se hanno lavorato su Google Docs, seleziona File -> Cronologia versioni -> Visualizza cronologia versioni per vedere la cronologia completa del loro processo di scrittura. Sarà chiaro se hanno semplicemente copiato da ChatGPT e incollato nel file o se hanno digitato tutto in una volta dall'inizio alla fine (un segno che hanno avuto l'assistenza dell'IA ma hanno voluto fingere il processo di scrittura). Se hanno una solida cronologia di scrittura di diverse ore, allora questa è una prova molto convincente che hanno scritto il lavoro da soli.

Considera la posta in gioco

Derek Newton, autore della newsletter sull'integrità accademica The Cheat Sheet, paragona spesso i rilevatori di IA ai metal detector. Quando si passa attraverso un metal detector e questo suona, non si viene immediatamente arrestati e mandati in prigione. Al contrario, vengono effettuate ulteriori indagini. Hai davvero cercato di portare una pistola attraverso i controlli di sicurezza o la fibbia della tua cintura è semplicemente di metallo? Allo stesso modo, crediamo che il rilevamento AI sia un ottimo modo per segnalare i compiti, ma il rilevamento richiede ulteriori indagini prima di qualsiasi misura punitiva. Un tasso di falsi positivi diverso da zero significa che qualsiasi rilevamento positivo potrebbe essere reale, oppure potrebbe trattarsi di una situazione statisticamente anomala, una su diecimila, in cui Pangram commette un errore.

Se lo studente ha prove del proprio processo di scrittura, sarei propenso a credergli. Nel peggiore dei casi imparerà la lezione e non utilizzerà più l'assistenza dell'IA, nemmeno in modo superficiale.

Se lo studente ha già avuto casi in cui il suo lavoro è stato rilevato dall'IA, anche questo dovrebbe essere preso in considerazione. Potrebbe beneficiare del dubbio una volta, ma più volte ciò accade, più diventa chiaro che c'è un problema.

Speriamo che questa guida sia utile a chiunque si trovi ad affrontare le sfumature del plagio generato dall'intelligenza artificiale. Si tratta di una situazione difficile, ed è per questo che è importante che gli insegnanti dispongano degli strumenti di intelligenza artificiale e delle informazioni necessarie per gestire un caso come questo quando si presenta.

Iscriviti alla nostra newsletter
Condividiamo aggiornamenti mensili sulla nostra ricerca nel campo del rilevamento dell'intelligenza artificiale.