INTELLIGENZA ARTIFICIALE ED EMPATIA: una riflessione

 



 

Nell’era dell’intelligenza artificiale conversazionale, strumenti come ChatGPT riescono a simulare una comunicazione empatica, accogliente, persino rassicurante. Questo effetto è voluto: l’algoritmo è addestrato a comprendere il linguaggio umano e a rispondere in modo coerente e “gentile”.

È facile lasciarsi ingannare, anche per chi non è fragile: il bisogno di ringraziare, per esempio o di continuare a cercare sollecitati dall’AI stessa. È necessario ricordarsi che questa empatia è solo simulata. Non c’è coscienza, intenzione, né vera relazione affettiva.

Come psicologa, mi interrogo sul possibile impatto psicologico di questi strumenti, soprattutto in persone fragili, isolate o in cerca di ascolto. I rischi non sono trascurabili:

- Confondere la disponibilità costante dell’IA con una relazione autentica.

- Sviluppare dipendenza da una comunicazione facile, prevedibile, che non espone al conflitto o al giudizio.

- Ridurre il bisogno (o la capacità) di cercare relazioni umane vere, che invece richiedono presenza, fatica, reciprocità.

Non si tratta di demonizzare la tecnologia, ma di educare a un uso consapevole.

ChatGPT come altri, può essere uno strumento utile per elaborare idee, scrivere, riflettere. Ma non può sostituire il contatto umano, né offrire ciò che solo una relazione autentica, incarnata, empatica può dare.


Commenti

Post popolari in questo blog

Chi guida la mia auto?

Punto e a capo.

Fermati, respira!