Annunciamo una nuova partnership con Proofig! Per saperne di più
In passato, il termine "essay checker" era utilizzato per indicare strumenti che analizzavano un testo alla ricerca di errori ortografici, grammaticali e lessicali. Potevano anche essere utilizzati per verificare la presenza di problemi relativi alle citazioni, come nel caso di Recite. Turnitin, un popolare strumento didattico, è stato di grande aiuto nella verifica dei plagi.
Attualmente, il boom dell'intelligenza artificiale ha spinto gli educatori a prendere in considerazione l'uso di strumenti di controllo che analizzano i contenuti generati dall'intelligenza artificiale.
Gli alti tassi di falsi positivi (FPR) sono una delle principali preoccupazioni degli educatori. Presentare un'accusa di disonestà accademica può essere rischioso, poiché basare tale accusa su un falso positivo può essere dannoso per il rapporto tra insegnante e studente.
Tuttavia, l'FPR dello 0,01% di Pangram lo rende un rilevatore affidabile per l'uso nell'istruzione superiore. Ciò è stato confermato anche da terze parti, che hanno concluso che Pangram è il rilevatore di IA più accurato disponibile in commercio.
Un correttore di saggi basato sull'intelligenza artificiale rileva l'uso dell'intelligenza artificiale in un determinato testo. I correttori di plagio determinano l'uso di materiale esterno in un testo.
Pangram è uno strumento commerciale in grado di rilevare sia i contenuti generati dall'intelligenza artificiale che quelli plagiati. Pangram rileva entrambi come casi separati durante l'analisi del testo.
Un programma di controllo antiplagio confronta un saggio con testi già esistenti per individuare eventuali somiglianze. Un programma di controllo antiplagio basato sull'intelligenza artificiale analizza un testo alla ricerca di modelli linguistici simili a quelli dei modelli di IA attuali.
I modelli di linguaggio grande (LLM) come ChatGPT generano testi utilizzando grandi set di dati e sono noti per plagiare da questi dati. In un articolo di Amy B. Cyphert, professore associato presso la Facoltà di Giurisprudenza dell'Università della Virginia Occidentale, si osserva che:
"La ricerca suggerisce che più spesso il materiale protetto da copyright è incluso in un set di dati, più è probabile che un LLM produca un output che include testo inalterato da quell'opera."
La memorizzazione avviene quando un LLM riproduce frasi tratte dal testo presente nel set di addestramento. In modo intenzionale o meno, gli LLM possono essere indotti a riprodurre in gran parte il lavoro altrui. Ciò significa che il risultato finale dell'input potrebbe essere plagiato in parte o nella sua totalità.
Mentre i ricercatori continuano a discutere su una definizione più sfumata di plagio, le politiche di integrità accademica delle università affermano che il plagio è l'uso del lavoro di qualcun altro senza citarne la fonte. L'Università del Michigan osserva che il plagio può essere intenzionale o non intenzionale. L'Università di Oxford descrive in dettaglio diverse forme di plagio, tra cui citazioni testuali non riconosciute, copia-incolla da Internet, parafrasi, collusione, mancata riconoscimento dell'assistenza, ecc.
Quindi, in un'istituzione accademica:
Quando uno studente presenta un lavoro generato dall'intelligenza artificiale, potrebbe anche consegnare un lavoro scritto da esseri umani e plagiato!
Secondo alcuni standard, forse!
Quando uno studente presenta un lavoro generato dall'intelligenza artificiale senza citarne la fonte, si configura un caso di disonestà accademica. La politica dell'Università della Florida meridionale recita:
"Poiché i chatbot basati sull'intelligenza artificiale e altri strumenti generativi di IA generano nuovi testi e immagini in risposta a prompt, l'utilizzo di materiale proveniente dall'IA generativa potrebbe essere considerato più simile alla scrittura fantasma che al plagio".
Il Comitato per l'etica editoriale osserva che l'IA non può essere considerata autore di un articolo di ricerca perché "gli strumenti di IA non possono soddisfare i requisiti di paternità dell'opera, in quanto non possono assumersi la responsabilità del lavoro presentato. Non essendo soggetti giuridici, non possono affermare la presenza o l'assenza di conflitti di interesse né gestire accordi di copyright e licenze".
Alcune istituzioni accademiche ritengono che l'uso di contenuti generati dall'intelligenza artificiale costituisca senza dubbio un plagio:
“Il plagio è l'atto di presentare come proprie idee, ricerche o scritti che non sono propri. Esempi di plagio includono: copiare le parole o le immagini effettive di un'altra persona o di uno strumento di intelligenza artificiale senza l'uso di virgolette e citazioni che attribuiscono le parole alla loro fonte. - City University of New York
"Il plagio è quando si prendono le idee di qualcun altro e le si presentano come proprie, anche involontariamente. Se si utilizza l'intelligenza artificiale per riassumere un'idea o scrivere il proprio lavoro, non è al 100% opera propria". - Ohio University
In altri casi, gli educatori hanno la responsabilità di creare politiche relative all'intelligenza artificiale, quali:
"Linee guida chiare per i singoli corsi o compiti consentono agli studenti di concentrarsi sugli obiettivi di apprendimento che desideri che raggiungano. Poiché spesso gli studenti non sono sicuri di quando o se possono utilizzare l'IA generativa, le politiche possono essere più utili quando sono adattate al tuo corso e ai tuoi compiti specifici, poiché alcuni usi dell'IA potrebbero supportare l'apprendimento degli studenti, mentre altri potrebbero interrompere processi importanti che gli studenti devono svolgere autonomamente." - UPenn
"La creazione di politiche chiare sull'uso dell'IA è essenziale per mantenere l'integrità accademica e definire le aspettative degli studenti. Queste politiche dovrebbero delineare quando e come possono essere utilizzati strumenti di IA come ChatGPT, Perplexity.ai o Grammarly e garantire che gli studenti comprendano le implicazioni etiche dell'IA nel lavoro accademico". - NYU
Da questo piccolo campione di politiche universitarie, possiamo comprendere i diversi modi in cui gli istituti considerano l'uso dell'IA e il plagio. Sebbene l'IA sia uno strumento e non un autore, presentare risultati generati dall'IA senza citarne la fonte è disonesto. Gli educatori dovrebbero stabilire aspettative chiare per i propri studenti. Per saperne di più sulle politiche applicabili ai corsi, il professor Christopher Ostro ha fornito un approccio sfumato per affrontare il problema degli imbrogli con l'IA.
Pangram adotta un approccio trasparente all'uso dell'IA e dei contenuti esterni, in particolare nel mondo accademico. Se sei interessato al nostro modello, prova gratuitamente i controlli di IA e plagio di Pangram!
