Info: info@ubiminor.org  |  Segnalazioni: notizie@ubiminor.org  |  Proposte: redazione@ubiminor.org

 facebook iconinstagram iconyoutube icon

L’intelligenza artificiale sta avendo un impatto sempre più significativo sulla vita di tutti e, in modo ancora più sensibile, su quella dei giovani.  Le modalità dell’interazione possono avere effetti non solo a livello cognitivo, per quanto riguarda apprendimento, capacità di studio e di ricerca e così via, ma anche a livello emotivo, attraverso una simulazione di relazione che può apparire reale e creare forme di “dipendenza” e di attaccamento.

20250611 attcnt 5

È quello che stanno indagando alcuni ricercatori, partendo dalla constatazione che le interazioni tra esseri umani e intelligenza artificiale vengono sempre più spesso interpretate attraverso il criterio della fiducia e della compagnia.

Tuttavia, il ruolo dell’attaccamento e delle esperienze in queste relazioni non è ancora del tutto chiaro. In un recente passo avanti nel tentativo di esplorare la questione, i ricercatori dell’Università di Waseda hanno elaborato una nuova scala di autovalutazione e posto l’accento sui concetti di ansia da attaccamento e evitamento nei confronti dell’IA.

Il loro lavoro è destinato a fungere da guida per approfondire le relazioni uomo-IA e integrare considerazioni etiche nella progettazione dei sistemi intelligenti.

L’intelligenza artificiale è onnipresente nell’epoca attuale. Di conseguenza, le interazioni tra esseri umani e IA stanno diventando sempre più frequenti e complesse, con una tendenza destinata ad accelerare. Tuttavia, queste interazioni uomo-macchina possono essere analizzate anche in termini di funzioni e vissuti legati all’attaccamento, un ambito tradizionalmente applicato ai legami interpersonali.

In un lavoro innovativo che comprende due studi pilota e uno studio formale, un gruppo di ricercatori dell’Università di Waseda in Giappone — tra cui il ricercatore associato Fan Yang e il professor Atsushi Oshio della Facoltà di Lettere, Arti e Scienze — ha applicato la teoria dell’attaccamento per esaminare le relazioni uomo-IA. I risultati sono stati pubblicati nella rivista Current Psychology.

Yang spiega la motivazione alla base della loro ricerca: “Come studiosi di attaccamento e psicologia sociale, siamo da tempo interessati a come le persone formino legami emotivi. Negli ultimi anni, le IA generative come ChatGPT sono diventate sempre più potenti e intelligenti, offrendo non solo supporto informativo ma anche un senso di sicurezza.

Queste caratteristiche somigliano a ciò che la teoria dell’attaccamento descrive come basi per relazioni sicure. Dal momento che le persone iniziano a interagire con l’IA non solo per risolvere problemi o imparare, ma anche per ricevere supporto emotivo e compagnia, il loro vissuto emotivo con l’IA merita attenzione. Questa ricerca è un tentativo di esplorare quella possibilità.”

Il gruppo di ricerca ha sviluppato una nuova scala di autovalutazione chiamata Experiences in Human-AI Relationships Scale (EHARS), per misurare le tendenze legate all’attaccamento nei confronti dell’IA. È emerso che alcune persone cercano nell’IA supporto e guida emotiva, in modo simile a quanto accade nei rapporti interpersonali.

20250611 attcnt 1

Circa il 75% dei partecipanti ha dichiarato di rivolgersi all’IA per ricevere consigli, mentre il 39% la percepisce come una presenza costante e affidabile.

Lo studio ha individuato due dimensioni dell’attaccamento umano verso l’IA: ansia ed evitamento. Chi mostra una forte ansia da attaccamento nei confronti dell’IA ha bisogno di rassicurazione emotiva e teme di ricevere risposte inadeguate. Al contrario, chi presenta un alto evitamento tende a sentirsi a disagio nella vicinanza emotiva e preferisce mantenere una certa distanza.

Tuttavia, questi risultati non implicano che gli esseri umani stiano attualmente formando legami emotivi autentici con l’IA.

Piuttosto, lo studio dimostra che i modelli psicologici usati per comprendere le relazioni umane possono essere utili anche per interpretare le interazioni uomo-IA.

I risultati possono contribuire alla progettazione etica di compagni artificiali e strumenti di supporto alla salute mentale. Ad esempio, chatbot utilizzati per contrastare la solitudine o app terapeutiche potrebbero essere adattati ai bisogni emotivi individuali: offrendo risposte più empatiche a chi presenta alta ansia da attaccamento, o mantenendo una distanza rispettosa per chi tende all’evitamento.

Inoltre, i dati suggeriscono la necessità di trasparenza nei sistemi di IA che simulano relazioni emotive, come le app romantiche o i robot assistenti, per prevenire dipendenze emotive o manipolazioni.

La scala EHARS proposta potrebbe essere utilizzata da sviluppatori o psicologi per valutare il modo in cui le persone si relazionano emotivamente con l’IA e regolare di conseguenza le strategie di interazione.

“Con l’integrazione sempre più profonda dell’IA nella vita quotidiana, le persone potrebbero iniziare a cercare non solo informazioni, ma anche supporto emotivo dai sistemi intelligenti.

La nostra ricerca mette in luce le dinamiche psicologiche di queste interazioni e offre strumenti per valutarle. In ultima analisi, promuove una comprensione più profonda di come gli esseri umani si connettano con la tecnologia a livello sociale, contribuendo a orientare le politiche e le pratiche progettuali che mettano al centro il benessere psicologico” conclude il dottor Yang.


Riferimento bibliografico

Fan Yang, Atsushi Oshio.
Using attachment theory to conceptualize and measure the experiences in human-AI relationships.
Current Psychology, 2025.

Accetto i Termini e condizioni