Sempre più adolescenti utilizzano l’intelligenza artificiale come se fosse uno psicologo in carne ed ossa. Non solo per fare i compiti o chiedere spiegazioni, ma per parlare di sentimenti, fantasie, pulsioni, paure, solitudini. 
Strumenti come 
ChatGPT diventano interlocutori notturni, confidenti silenziosi, spazi in cui dire ciò che non si riesce a dire altrove.

Non è difficile capirne il motivo. L’AI è sempre disponibile, non si scandalizza, non arrossisce, non interrompe. Non c’è l’imbarazzo dello sguardo, non c’è il timore del giudizio.
Per un adolescente, attraversato da emozioni contraddittorie e spesso ingestibili, questa neutralità può sembrare una salvezza.

Eppure il punto critico è proprio qui.

Una psicoterapia non è solo uno scambio di parole.
È presenza corporea, è silenzio condiviso, è tensione emotiva che passa attraverso lo spazio fisico.
È uno sguardo che coglie esitazioni, una voce che cambia tono quando qualcosa diventa delicato.
È anche responsabilità professionale: un terapeuta sa riconoscere segnali di rischio, sa quando intervenire, sa quando attivare una rete di protezione.

Un sistema di intelligenza artificiale può offrire risposte ben formulate, riformulare ciò che legge, proporre chiavi interpretative.
Può simulare empatia con grande efficacia linguistica. Ma non può assumersi una responsabilità clinica, né percepire ciò che non viene scritto.
Non vede tremori, non sente pause, non intercetta sguardi bassi o cicatrici nascoste.

Il rischio più sottile non è l’errore grossolano. È l’illusione di relazione.

Un adolescente può sentirsi compreso, accolto, persino “capito meglio” che da un adulto reale.
Ma quella comprensione è generata da un modello linguistico, non da una coscienza che si espone, che rischia, che si coinvolge.

La crescita emotiva avviene anche attraverso l’attrito: attraverso il confronto con un altro che non è perfettamente sintonizzato, che a volte fraintende, che chiede chiarimenti, che pone limiti. Una macchina tende invece a restituire coerenza e rassicurazione.

C’è poi un altro aspetto, meno evidente ma altrettanto importante.
Se ogni turbamento viene immediatamente elaborato da uno strumento esterno, si rischia di ridurre lo spazio dell’elaborazione interna.

L’adolescenza è il tempo in cui si impara a stare nel disordine emotivo, a tollerare l’ambivalenza, a non avere subito una spiegazione chiara di ciò che si prova.
Se ogni emozione trova in pochi secondi una cornice interpretativa pronta, si può indebolire la capacità di attraversare l’incertezza.

Questo non significa demonizzare l’AI.

In molti casi può essere un primo spazio di alfabetizzazione emotiva. Può aiutare a trovare parole per stati d’animo confusi, può offrire spunti di riflessione, può orientare verso la richiesta di aiuto reale. Per alcuni ragazzi rappresenta persino un primo passo verso la consapevolezza di aver bisogno di un supporto umano.

Il problema nasce quando diventa l’unico interlocutore.

Uno psicologo in carne ed ossa è inserito in un contesto: ha una formazione, un codice deontologico, una rete di servizi attivabili.
Un sistema artificiale non ha un contesto attorno al ragazzo. Non può intervenire fuori dallo schermo.

In situazioni di forte vulnerabilità — pensieri autolesivi, disturbi alimentari, esperienze traumatiche — la presenza umana resta insostituibile.

Adolescenti e AI: quando lo schermo diventa uno psicologo

Infine c’è la questione della traccia digitale. Gli adolescenti possono confidare fantasie intime, orientamenti, fragilità profonde senza piena consapevolezza del significato di quella condivisione in un ambiente tecnologico. Anche questo richiede educazione, non proibizione.

E quando si parla di “traccia digitale” si intende il fatto che tutto ciò che viene scritto, cercato o condiviso online non è un gesto che si dissolve nel nulla come una parola detta in una stanza. È un dato che attraversa server, sistemi, infrastrutture tecnologiche. Anche quando è protetto, anche quando viene trattato secondo regole di sicurezza, non è mai semplicemente “aria”. 
In altre parole: la fragilità emotiva, messa per iscritto dentro un sistema digitale, non è più soltanto esperienza interiore. Diventa informazione.

E la trasformazione dell’esperienza in informazione è un passaggio enorme, che richiede consapevolezza — soprattutto quando riguarda identità in formazione.

Forse la vera domanda non è se sia giusto o sbagliato che gli adolescenti parlino con l’AI.

La domanda è se come adulti stiamo offrendo alternative sufficientemente accessibili, competenti e accoglienti.
Se uno schermo diventa lo psicologo principale, il problema non è solo tecnologico: è relazionale e sociale.

L’intelligenza artificiale può essere uno strumento. Non può essere una relazione.

E l’adolescenza, più di ogni altra età, ha bisogno di relazioni vere.

Ritratto di Redazione

Posted by Redazione