Annunciamo una nuova partnership con Proofig! Per saperne di più
L'intelligenza artificiale generativa ha acquisito un ruolo dominante nel dibattito sull'istruzione. Il professor Christopher Ostro propone un "approccio mosaico" per aiutare gli educatori a orientarsi nell'attuale panorama dell'IA.
L'uso dell'IA da parte degli studenti è diventato evidente quando hanno consegnato compiti con contenuti non conformi al numero di parole richiesto, alle restrizioni di formattazione e al numero di fonti richieste. Questi compiti non rientravano nell'ambito della lezione e spesso venivano consegnati senza alcuna descrizione del processo seguito. La grande maggioranza degli studenti che utilizzavano l'IA faceva riferimento alle stesse poche fonti, alcune delle quali erano frutto di allucinazioni.
Vietare completamente l'uso dell'IA non è stata una risposta produttiva. Ciò non ha tenuto conto dei modi etici in cui gli studenti possono utilizzare l'IA per migliorare il lavoro esistente. Cercare costantemente di cogliere gli studenti nell'atto di utilizzare l'IA e considerarlo come un imbroglio ha danneggiato i rapporti con gli studenti. Eseguire ogni prompt tramite ChatGPT e utilizzare in modo casuale i rilevatori di IA, nella speranza di ottenere risultati simili a quelli degli studenti, richiedeva molto tempo. Anche insegnare è diventato poco piacevole.
Poiché la maggior parte degli studenti utilizza già l'IA e desidera comprenderla, il professor Ostro spiega che la sua politica rigorosa ha creato un ambiente di astinenza totale. Creare linee guida chiare e formare gli studenti sull'uso corretto dell'IA è un approccio più realistico.
È anche importante capire da dove provengono gli studenti. Con il peggioramento del mercato del lavoro e l'aumento del costo della vita, sembra che gli studenti debbano lavorare più ore pur continuando a seguire i loro studi. Alcuni studenti che si trovavano in fasi critiche del loro percorso di apprendimento durante la pandemia di COVID stanno perdendo competenze fondamentali. Inoltre, devono destreggiarsi tra corsi con politiche diverse in materia di IA.
Approccio mosaico
Compiti di alfabetizzazione all'IA: gli studenti hanno bisogno di una guida su come utilizzare l'IA. La maggior parte di loro la utilizza senza un'adeguata alfabetizzazione mediatica e senza lo scetticismo necessario nei confronti dei possibili errori dell'IA. In qualità di insegnante, non puoi insegnare questo argomento se non hai familiarità con questi strumenti.
Modulo di divulgazione AI: offre agli studenti l'opportunità di essere onesti con i propri insegnanti per prevenire violazioni del Codice d'Onore. Non è perfetto perché alcuni potrebbero dimenticarlo o mentire, ma è importante sottolinearne la trasparenza. Inserendo questo modulo negli annunci, in ogni prompt, nel programma del corso e dedicandogli una pagina con video/testo, sarà più difficile che gli studenti lo dimentichino. Ecco un esempio.
Rilevamento AI (con trasparenza): il rilevamento AI è migliorato con tassi di falsi positivi inferiori ed è più affidabile dell'occhio umano. Questi strumenti sono ancora imperfetti e richiedono il discernimento umano. Un punteggio AI elevato potrebbe essere indicativo di un uso etico piuttosto che di una grave disonestà accademica. La conformità FERPA è importante, quindi assicurati di verificare con il reparto IT della tua scuola le politiche sulla privacy dello strumento prima dell'uso.
Monitoraggio dei processi: GoogleDocs e Office365 dispongono di cronologie dettagliate delle versioni. Se un docente nota l'uso di strumenti che falsificano la cronologia delle versioni di un documento, non c'è dubbio che lo studente stia agendo in malafede. La cronologia delle versioni potrebbe non essere disponibile a causa di un viaggio o di una connessione Wi-Fi scadente. Uno studente potrebbe anche non voler condividere la cronologia delle versioni per motivi quali la privacy.
Conversazioni imbarazzanti: secondo le prove aneddotiche del professor Ostro, la maggior parte degli studenti non ha esperienza nel mentire. Se trattati con comprensione, sono più propensi a essere onesti. Presentare prove e citare precedenti casi di disonestà accademica aiuta a facilitare la conversazione.
Seconda possibilità: una ricerca condotta da Dench & Joyce dimostra che gli studenti sono meno propensi a imbrogliare nuovamente una volta scoperti. Il professor Ostro osserva che dare una seconda possibilità "consente di agire con maggiore sicurezza, incoraggiando gli studenti a esplorare questo nuovo strumento (forse in modo maldestro) e allo stesso tempo responsabilizzando gli studenti in malafede".
Pro: L'approccio Mosaic ha consentito una comunicazione più onesta con gli studenti. Sono stati meno gli studenti sottoposti al Codice d'Onore, mentre sono stati più numerosi quelli che hanno corretto i propri errori e li hanno segnalati autonomamente. Quando gli studenti sono stati identificati per violazioni del Codice d'Onore, la precisione è stata del 100%. La maggior parte dei feedback è diventata un aiuto agli studenti per capire come migliorare. Insegnare è tornato ad essere divertente!
Contro: Sebbene i risultati abbiano migliorato l'onestà accademica, permane ancora una certa incertezza riguardo agli studenti disonesti. L'approccio Mosaic richiede che i docenti siano aggiornati sulle tecnologie attuali, il che comporta un notevole impegno in termini di tempo. Il professor Ostro non è convinto della sua scalabilità per i docenti che non hanno familiarità con l'IA, per gli studenti più cinici/orientati al conseguimento del titolo di studio e per i corsi asincroni.
Per qualsiasi domanda, non esitate a contattarci a Pangram. Di seguito trovate i recapiti del professor Ostro:
E-mail: Christopher.Ostro@colorado.edu
LinkedIn: https://www.linkedin.com/in/ochristo/
BlueSky: https://ochristo.bsky.social/
