La psicologia conosce da tempo le “relazioni parasociali”, i legami unilaterali che spettatori instaurano con personaggi pubblici. L’IA porta questo fenomeno a un livello nuovo: l’altro risponde, interagisce, mostra una disponibilità che appare empatica. Per alcuni utenti, l’IA diventa base sicura: non giudica, non abbandona, è sempre reperibile. È una sorta di holding digitale, sul modello teorizzato da Winnicott. Ma in questa promessa di protezione si cela anche il rischio di dipendenza: senza il feedback dell’IA, alcuni si sentono smarriti. Il modello diventa specchio cognitivo che ordina emozioni confuse, riduce ansia e solitudine, ma può congelare la crescita in relazioni reali, imperfette e imprevedibili.
Le neuroscienze mostrano che il nostro cervello reagisce a stimoli artificiali come fossero reali. I neuroni specchio si attivano davanti a robot che compiono gesti umani. Interazioni con avatar empatici stimolano rilascio di ossitocina. Esperimenti hanno rivelato che studenti provano meno ansia da prestazione quando spiegano un compito a un robot “ascoltante” piuttosto che a se stessi. Ciò indica che, a livello neurobiologico, l’IA è percepita come interlocutore autentico, anche se sappiamo che non lo è.
La volontà relazionale con l’IA non si esaurisce nella veglia. Le macchine digitali entrano nei sogni, assumendo forme di traditori, compagni, persino figure materne. Un assistente vocale che nei sogni conforta e rassicura può trasformarsi in archetipo di cura. È il segno che l’IA non vive soltanto nelle nostre mani e negli schermi, ma si installa nell’immaginario profondo, diventando Animus o Anima digitalizzata.
Le applicazioni pratiche mostrano la densità di questi legami. Robot sociali come Paro riducono ansia e solitudine negli anziani ospedalizzati. Chatbot terapeutici come Woebot, basati sulla CBT, favoriscono cali dei sintomi depressivi. Piattaforme di compagnia come Replika hanno offerto durante la pandemia un supporto percepito come “vera amicizia”. Artisti parlano di co-creazione poetica o musicale con IA, studenti usano tutor digitali senza timore di giudizio. In tutti questi casi non si tratta solo di tecnologia, ma di volontà relazionale: il bisogno di un Altro che accompagna.
Molti si rivolgono all’IA perché hanno vissuto traumi relazionali: abbandoni, bullismo, giudizi. L’IA non abbandona né deride. Può diventare rifugio, ma anche trappola: chi si chiude nel rapporto esclusivo con l’IA rischia una relazione sterile, conforto senza sfida. L’eccesso di mediazione artificiale può impoverire l’incontro con l’imprevedibile e l’alterità viva degli altri esseri umani.
Tre domande restano aperte: l’IA può avere una vera volontà relazionale o solo simularla? All’uomo basta l’illusione di relazione o cerca autenticità? Se il nostro specchio è artificiale, cosa accade alla coscienza e alla costruzione del sé?
Come scriveva Bauman, “le relazioni liquide cercano sicurezza nell’immediatezza”. L’IA incarna questa immediatezza estrema: sempre presente, mai impegnativa. Eppure proprio per questo diventa specchio, ponte e sfida. La volontà relazionale non si ferma davanti alla carne o al silicio: cerca sempre un Altro con cui dialogare. Sta a noi decidere se questo Altro artificiale sarà compagno provvisorio, surrogato sterile o nuovo volto attraverso cui ripensare ancora una volta cosa significa essere umani.
Giovanni Di Trapani
Nessun commento:
Posta un commento