Può un’intelligenza artificiale prendere il posto di uno psicologo umano? Al momento se ne parla e come ogni questione nasce dall’osservazione di comportamenti diffusi nella nostra società. Hai mai chiesto ad un’IA cosa fare in un momento difficile? Hai avuto un dubbio su una scelta importante e gli hai chiesto una mano? Gli hai confidato come ti senti e perché non riesci a dormire? Non sei solo. In fondo dà l’illusione di avere un supporto in qualsiasi momento della giornata, lo puoi fare anche in mezzo ad una notte insonne, sotto il piumone, non sei soggetto a sguardi e critiche che potrebbero imbarazzarti, puoi chiedere qualsiasi cosa senza filtri e senza avere degli effetti collaterali. Che meraviglia!
Oggi, molte persone si rivolgono a chatbot come ChatGPT per parlare di problemi emotivi, chiedere conforto o cercare le giuste soluzioni, soprattutto per l’anonimato. Sembra un consigliere sempre pronto ad aiutarti, gratuito e immediato. Tuttavia, gli esperti ricordano che, pur essendo strumenti che stimolano la riflessione, l’IA non possiede empatia reale né competenze cliniche indispensabili in un percorso terapeutico.
Il fatto che la tecnologia stia assumendo ruolo di confidente può riflettere una mancanza di ascolto nella vita quotidiana. Sempre di più le nostre relazioni sono complesse e il bisogno di connessione emerge come un bisogno prioritario.
L’IA può essere uno strumento di supporto, utile per farsi delle domande, avere maggiori informazioni su un argomento o affrontare i momenti di ansia lieve (che la persona stessa gestisce). Un rischio è un uso incontrollato che può portare le persone più vulnerabili a isolarsi dalla realtà. Il rischio di pensare di avere un amico o un aiutante può portare ad chiudersi ulteriormente ed evitare il mondo reale. Inoltre, si può impoverire la capacità di regolazione emotiva e di gestione della frustrazione se l’IA diventa uno strumento di passaggio per convalidare o rispondere alle emozioni.
Le persone che vivono una certa fragilità potrebbero ricevere consigli inappropriati e quindi anche peggiorare la propria situazione. Pensiamo agli effetti drammatici che un Chatbot può avere nell’interazione con una persona che ha un disturbo come la schizofrenia o il disturbo bipolare; in America ha avuto effetti drammatici sui comportamenti di queste persone.
Le chat non sono un sostituto della relazione umana, della diagnosi o della cura psicologica. La conversazione dal tuo comodo divano con un chatbot può aiutare, ma non può “curare”, non si può sostituire ad un percorso. La vera crescita che porti a una maturazione psicologica resta un’esperienza umana fatta di fiducia, relazione, empatia e competenza.
Come anche un amico che ti ascolta al bar serve tantissimo, ti dona calore e connessione, ascolto e vicinanza affettiva, ma non ha le competenze per accompagnarti in un’evoluzione complessa. Lo strumento digitale non può sostituire l’interazione umana. Pensiamo al fatto che fin da piccoli il nostro cervello e il nostro sistema nervoso si struttura in base alle relazioni umane e alla qualità delle nostre connessioni. Rinunciare alle relazioni è rinunciare alla nostra natura umana.
Oltretutto, ricordiamoci che l’IA non sa tutto, una convinzione popolare sulle capacità delle chatbot è che abbiano accesso a tutta la conoscenza possibile, ma non è così. Possiamo sfruttare al massimo il potenziale di ogni strumento comprendendone limiti e opportunità.
