Gli effetti dell’intelligenza artificiale sugli adolescenti sono complessi e sfaccettati, secondo un nuovo studio dell’American Psychological Association che invita gli sviluppatori a dare priorità a funzionalità in grado di proteggere i giovani da sfruttamento, manipolazione e perdita delle relazioni e del contatto con il mondo reale.
«L’intelligenza artificiale offre nuove opportunità, grandi potenzialità di esplorazione, di analisi, di risposte precise e efficienti a chi la utilizza, ma la sua integrazione sempre più profonda nella vita quotidiana richiede attenzione affinché questi strumenti siano sicuri, soprattutto per gli adolescenti» si legge nel documento, intitolato Artificial Intelligence and Adolescent Well-being: An APA Health Advisory.
«Esortiamo tutti gli attori coinvolti a considerare la sicurezza dei giovani fin dalle prime fasi dell’evoluzione dell’intelligenza artificiale. È fondamentale non ripetere gli stessi errori dannosi commessi con i social media».
L’articolo, redatto da un gruppo di esperti, segue due precedenti documenti dell’APA sull’uso dei social media durante l’adolescenza e sulle raccomandazioni per contenuti informativi e video sani.
Nel testo si sottolinea che l’adolescenza – definita come il periodo tra i 10 e i 25 anni – è una fase lunga dello sviluppo, in cui l’età non rappresenta necessariamente un indicatore affidabile di maturità o competenza psicologica.
Si tratta anche di un periodo di sviluppo cerebrale cruciale, che richiede quindi tutele specifiche per i più giovani.
«Come i social media, l’intelligenza artificiale non è intrinsecamente buona o cattiva» ha affermato Mitch Prinstein responsabile psicologo dell’APA e promotore dell’articolo.
«Ma abbiamo già assistito a casi in cui gli adolescenti hanno sviluppato rapporti malsani, persino pericolosi, con i chatbot.
Alcuni giovani potrebbero non rendersi nemmeno conto di interagire con un’intelligenza artificiale: è per questo che è essenziale che gli sviluppatori stabiliscano delle barriere di protezione già da ora».
Il documento raccomanda di assicurare che l’intelligenza artificiale sia utilizzabile in sicurezza dagli adolescenti.
Tra le indicazioni principali: mantenere confini sani nelle relazioni simulate con l’umano, creare impostazioni predefinite adeguate all’età (in termini di privacy, contenuti e interazioni), promuovere usi dell’ intelligenza artificiale che favoriscano lo sviluppo cognitivo e creativo, limitare l’accesso a contenuti dannosi o inesatti e tutelare la privacy e l’immagine dei giovani, anche impedendo l’uso dei loro dati a fini pubblicitari o commerciali.
Il testo richiede inoltre l’integrazione di un’educazione all’alfabetizzazione digitale sull’ intelligenza artificiale nei programmi scolastici, con linee guida nazionali e statali.
«Molti di questi cambiamenti possono essere attuati da subito, da genitori, insegnanti e dagli stessi adolescenti» ha dichiarato Prinstein.
«Altri richiederanno interventi più consistenti da parte di sviluppatori, legislatori e professionisti della tecnologia».
Anche nel caso dell’intelligenza artificiale si rischia di correre troppo tardi ai ripari.
Prima si rende disponibile senza controlli e senza formazione ai più giovani uno strumento che impatta profondamente sulle loro vite non solo di studenti ma anche di esseri in fase di grande sviluppo psicologico e emotivo.
E poi si iniziano a valutare danni reali e potenziali.
Occorrerebbe anche nel nostro paese sollecitare l’integrazione da subito nei percorsi scolastici di programmi formativi e educativi all’uso dell’intelligenza artificiale, per valorizzarne le potenzialità e scongiurarne le conseguenze più deleterie.