Am auzit că unii oameni întreabă ChatGPT-ul cum să se împace cu părinții sau cu iubita/iubitul.
”M-am certat cu iubita. Mă ceartă că am apucături de golan, că sunt infantil, iresponsabil, un fel de băiețelul mamii. Ce sfat îmi dai?”
”Îmi pare rău să aud că treci prin asta. Faptul că ea îți spune lucruri atât de dure înseamnă că e afectată de ceva anume în comportamentul tău, dar și că modul în care își exprimă nemulțumirea rănește relația… ”
Nu simte părere de rău! Nu a trăit pe propria piele și nu a observat nicio relație dintre oameni. Doar generează text. Problema e că un AI (de fapt, LLM), oricât de deștept ar părea, rămâne un fel de papagal cosmic cu bibliotecă infinită: repetă, recombină, reformulează, dar nici nu înțelege, nici nu simte ceva. Și cum să te lași consiliat de cineva care nu poate ofta nici măcar la o poveste de dragoste eșuată?
Consilierea psihologică nu e doar un schimb de replici bine articulate. E întâlnirea dintre două istorii, două vulnerabilități, două persoane vii. Eu și persoana din cabinet sau video meeting dezvoltăm o anume dinamică social-emoțională. Sau credeai că terapeutul nu are propria lui poveste de viață? De cele mai multe ori, terapeuții sunt oameni care au suferit de mici copii. Au avut parte de experiență pe propria piele. O arată studiile, nu eu. Sunt, de obicei, acei copii ”parentalizați”, adică unii mici împinși de împrejurări în roluri de adulți din cauza unor suferințe sau chiar traume. Motiv pentru care unii ascultă melodii de acest gen.
Când îți spui durerea unui om, vezi în ochii lui ceva ce nu poate fi programat: recunoașterea propriei lui fragilități. În schimb, dacă spui aceleași lucruri unui model lingvistic (zis și AI), acesta nu tresare, nu se înmoaie, nu își drege vocea, nu oftează. El doar calculează. Și oricât de drăguț te exprimi, tot e ca și cum ai cere sfaturi unui frigider cu Wi-Fi: rece, politicos și permanent conectat.
Mai e și problema responsabilității. Un psiholog greșește, dar își asumă. Are un cod etic, un supervizor, eventual, un cadru de practică. Dacă AI-ul spune vreo prostie monumentală („încearcă să-ți rezolvi anxietatea cu două felii de pizza și un episod de telenovelă”), cine răspunde? Nimeni. Poți să-l cerți, dar el îți răspunde tot cu o propoziție perfectă: „Îmi pare rău că te simți așa. Asta nu rezolvă prea multe. Dar iată ce poți face… ”
Din punct de vedere psihologic, AI-ul oferă generalități elegante. Le citești și spui: „Hmm, parcă mă descrie.” Dar același text li se potrivește la fel de bine și vecinului care are probleme cu cactușii, și prietenei care vrea să renunțe la zahăr sau amicului la bere că are ghiozdanul la concurență cu al ăluia mic. E ca horoscopul zilnic: „Ai nevoie de echilibru, de recunoaștere și de mai multă apă.” Sigur că da. Cine nu are? Se mai cheamă efectul Forer, când tindem să ne regăsim în descrieri ample de personalitate.
Și să nu uităm tentația dependenței. AI-ul e disponibil non-stop, nu se supără, nu întârzie și nu ridică tonul. Sună ideal, până realizezi că ai început să îți spui toate secretele unui software. Și mă crucesc când văd câte apps-uri apar cu așa ceva. Sunt numai bune ca să te refugiezi pe veci în dormitor. În loc să înfrunți relațiile reale, preferi conversația sterilă cu un bot. Normal, îți dă apă la moară, validează, apreciază și se exprimă calculat. În schimb, o relație reală cu oameni înseamnă critici, reproșuri, contre, tensiuni, emoții dureroase și, uneori, multe rahaturi. Alteori, înseamnă bucurie, amuzament, relaxare, idei creative, insight, simți că aparții și te recunoști în celălalt.
Relația cu chatbot-ul nu e vindecare, este autoizolare în decor digital. Dacă nu ai văzut filmul ”Her” cu Joaquin Phoenix, ein charmanter Schauspieler, și inconfundabila voce sexy a actriței Scarlett Johanson, merită să-l vezi ca să realizezi impactul.
În fond, problema nu e că AI-ul ar fi „rău”. Problema e că îl confundăm cu ceea ce nu este. E un instrument, nu un partener de viață, nu prieten, nu îndrumător, nu guru omniscient. Poți să-l folosești pentru idei, pentru structură, pentru clarificare. Dar consilierea, în sensul profund, înseamnă altceva: doi oameni care se privesc, se recunosc și se însoțesc pentru o vreme prin labirintul vieții cu diferența că unul are ceva meșteșug vizavi de stările sufletești și câteva metode/unelte vizavi de unele dificultăți (bazate pe știință psihologică, nu rezonanță cosmică). Terapeutul nu e doar oglinda, cum cred psihologii fixați în teoria psihodinamică, ci și modelatorul. Vrând-nevrând modelează conduita, cultivă atitudini, schimbă convingeri.
Un AI nu are istorie de viață. Are doar algoritmi ce pot genera limbaj potrivit la ceea ce formulezi în chat. Funcționarea unui AI (Large Language Model) are la bază ceea ce se cheamă transformer neural network. Un transformer e motorul care pune în mișcare un LLM, un fel de papagal matematic gigantic. Înghite biblioteci de text, apoi scoate pe gură (cioc?) propoziții care par pline de sens.
Dar el nu are nicio brumă de înțelegere a ceea ce produce. Și nici măcar nu are conștiința ne-științei lui. E ca și cum tu știi să pronunți aceste ideograme 我愛你, însă fără să înțelegi sensul dar și fără să știi că nu înțelegi.
Și oricât de bine ar scrie fraze calde, la final îți dai seama că te-ai destăinuit unei biblioteci automate. O bibliotecă foarte amabilă, e drept, dar tot bibliotecă rămâne.