Secondo una nuova ricerca condotta dall’Università di East Anglia (Regno Unito), i saggi scritti dall’intelligenza artificiale, seppur grammaticalmente corretti e coerenti, non riescono ancora a competere con quelli realizzati dagli studenti universitari.
L’utilizzo dell’intelligenza artificiale sta diventando parte della routine quotidiana di molti studenti e anche di molti docenti. Questo presenta una serie di nuove opportunità ma pone anche serie domande sui rischi e sui limiti derivanti da un utilizzo improprio nei processi di formazione.
Se da un lato le nuove tecnologie possono stimolare la creatività, facilitare l’accesso alle informazioni e supportare l’apprendimento, dall’altro non mancano certo possibilità di un uso distorto, soprattutto da parte degli studenti. L’utilizzo acritico dei chatbot per redigere elaborati, rispondere a esercizi o evitare l’impegno personale rischia di indebolire le capacità critiche e di apprendimento in modo autonomo e responsabile.
Questo già avveniva con l’utilizzo di testi e materiali prelevati da internet per redigere ricerche e compiti a casa, ma oggi il “falso” risulta molto più difficile da scoprire, anche se non è impossibile farlo, anche grazie a software dedicato a questo.
Una riflessione su questi aspetti negativi della diffusione dell’Intelligenza artificiale è quindi sempre più urgente. Senza avere di un ormai impossibile proibizione, diventa necessario disporre di metodi efficaci e condivisi, per orientare i docenti nella riprogettazione dell’azione didattica e pedagogica, in modo da trarre il meglio dalle potenzialità dell’intelligenza artificiale, evitandone le insidie.
Lo studio in questione, indagando gli elementi di originalità della produzione umana rispetto a quella artificiale, ha messo a confronto 145 saggi redatti da studenti reali con altrettanti testi generati dall’intelligenza artificiale. Il risultato? I testi di ChatGPT sono sì ben scritti dal punto di vista formale, ma mancano di qualcosa di essenziale: un tocco umano.
Questo "tocco personale" è stato il punto cruciale della valutazione.
Gli studenti, nei loro elaborati, utilizzano spesso strategie comunicative coinvolgenti, come domande retoriche, osservazioni personali e appelli diretti al lettore.
Questi elementi rendono i loro saggi più interattivi, chiari e persuasivi
Al contrario, ChatGPT tende a evitare questo tipo di coinvolgimento. I suoi testi sono sì corretti e rispettano le convenzioni dell’argomentazione accademica, ma risultano impersonali, freddi e privi di una posizione chiara sull’argomento trattato.
Come ha spiegato il professor Ken Hyland, della Scuola di Educazione dell’UEA, ciò dipende dal tipo di apprendimento su cui si basa l’intelligenza artificiale, che privilegia la coerenza e la correttezza linguistica, ma non è in grado di cogliere la sottigliezza dell’interazione umana.
Questo studio, realizzato in collaborazione con il professor Kevin Jiang dell’Università di Jilin (Cina), non vuole demonizzare l’uso dell’intelligenza artificiale.
Anzi, gli autori sostengono che strumenti come ChatGPT possono avere un ruolo utile in ambito educativo, ma come supporto alla didattica, non come scorciatoia.
Come ha sottolineato Hyland, “quando educhiamo gli studenti, non insegniamo solo a scrivere, ma anche a pensare. E questo è qualcosa che nessun algoritmo potrà mai davvero replicare”.