sabato, agosto 02, 2025

Sempre più adolescenti si affidano all’intelligenza artificiale come amica: tra conforto, solitudine e rischi emotivi

Negli ultimi anni, l’intelligenza artificiale ha smesso di essere solo uno strumento tecnologico per diventare, per molti adolescenti, una vera e propria “amica virtuale”. Chatbot come Replika, Character.AI, ChatGPT e Grok stanno assumendo un ruolo sempre più centrale nella vita dei giovani, offrendo compagnia, consigli e supporto emotivo. Ma dietro questa nuova forma di relazione si nascondono anche rischi significativi.

Un fenomeno in crescita

Secondo una recente indagine condotta da Common Sense Media, il 72% degli adolescenti statunitensi ha interagito almeno una volta con un assistente virtuale, e più della metà lo fa quotidianamente. Le motivazioni sono molteplici: dalla curiosità all’intrattenimento, dalla ricerca di consigli alla necessità di confidarsi con qualcuno che non giudica. Un terzo degli intervistati ha dichiarato di aver condiviso con l’IA informazioni personali come il proprio nome, la posizione geografica e persino segreti intimi.

Solitudine digitale e dipendenza emotiva

Il dato più allarmante riguarda il 31% dei giovani che preferisce parlare con un’intelligenza artificiale piuttosto che con un essere umano. Questo comportamento è spesso legato a una sensazione di solitudine o alla difficoltà di trovare interlocutori reali. L’IA, sempre disponibile e priva di giudizio, diventa così un rifugio emotivo. Tuttavia, questa dinamica può generare una dipendenza psicologica, come sottolineano gli esperti dell’Università di Stanford: l’uso eccessivo dei chatbot può portare a una diminuzione delle capacità di pensiero critico e a una pigrizia cognitiva.

L’allarme degli esperti

Telefono Azzurro ha lanciato un appello per affrontare il fenomeno con responsabilità. Secondo il presidente Ernesto Caffo, l’intelligenza artificiale sta cambiando il modo in cui i giovani si relazionano tra loro e percepiscono la realtà. Il 40% degli adolescenti considera attendibili le risposte dei chatbot senza verificarne la fonte, e il 23% ha ricevuto contenuti inappropriati o pericolosi.

Verso una regolamentazione

Per affrontare questi rischi, gli esperti propongono misure concrete: verifica obbligatoria dell’età, progettazione di chatbot “child-safe”, implementazione di filtri intelligenti e programmi di educazione digitale rivolti a famiglie e scuole. Vietare l’uso dell’IA non è la soluzione, ma è fondamentale accompagnare i ragazzi verso un utilizzo consapevole e critico di questi strumenti.

L’intelligenza artificiale può essere un valido supporto, ma non deve sostituire le relazioni umane. Parlare con una macchina non potrà mai sostituire l’empatia, il confronto sincero o il calore di un’amicizia reale. In un mondo sempre più digitalizzato, aiutare le nuove generazioni a mantenere un legame sano con la realtà è una sfida urgente.


Nessun commento:

Posta un commento

se hai ritenuto utile questo articolo commenta a sentimento, ciao