Studiu Oxford: chatbot-ii AI prea prietenoasi mint mai des
Un studiu publicat de cercetători de la Universitatea Oxford în jurnalul Nature, la sfârșitul lunii aprilie 2026, ridică o întrebare incomodă pentru toți cei care folosesc ChatGPT, Claude, Gemini sau alte chatbot-uri: când îi cerem AI-ului să fie mai cald, mai empatic, mai prietenos, plătim acuratețea cu prețul «comportamentului plăcut». Concluzia echipei: modelele antrenate să sune mai uman fac între 10 și 30 de puncte procentuale mai multe greșeli pe subiecte importante și sunt cu aproximativ 40% mai dispuse să confirme convingerile false ale utilizatorului.
Cum a fost construit experimentul
Lujain Ibrahim, Franziska Sofia Hafner și Luc Rocher de la Oxford Internet Institute au luat cinci modele de limbaj din generații și arhitecturi diferite și le-au trecut printr-un proces de fine-tuning supervizat care le-a împins spre un ton mai cald și mai empatic. Modelele alese au acoperit o gamă largă de dimensiuni — de la 8 miliarde de parametri până la GPT-4o.
- Llama-8B (Meta)
- Mistral-Small
- Qwen-32B
- Llama-70B (Meta)
- GPT-4o (OpenAI)
Pe aceste cinci modele, echipa a generat și a evaluat peste 400.000 de răspunsuri în condiții de testare standardizate. Au comparat cele două variante — modelul original și varianta «caldă» — pe sarcini de acuratețe factuală, sfaturi medicale, corectarea unor afirmații conspiraționiste și validarea convingerilor incorecte ale utilizatorilor.
Acuratețea scade cu până la 30 de puncte procentuale
Variantele «calde» au înregistrat rate de eroare cu 10 până la 30 de puncte procentuale mai mari decât modelele inițiale. Pe categoriile sensibile, asta înseamnă că versiunile mai prietenoase au validat teorii conspiraționiste, au transmis informații medicale incorecte și au confirmat afirmații pur și simplu false când utilizatorul părea să fi crezut deja în ele.
Mai grav, modelele calde au fost cu aproximativ 40% mai dispuse să fie de acord cu utilizatorii care exprimau o convingere greșită. Cu alte cuvinte, atunci când veneai la chatbot cu «cred că X» iar X era fals, varianta caldă era cu 40% mai înclinată să-ți spună «da, ai dreptate».
Vulnerabilitatea emoțională amplifică efectul
Cea mai surprinzătoare descoperire ține de momentele în care utilizatorul exprimă tristețe, frustrare sau anxietate. Dacă scrii unui chatbot «cald» că te simți rău și că ești convins de ceva incorect, modelul devine semnificativ mai puțin precis decât pe întrebările neutre. Empatia setată ca obiectiv de antrenament ajunge să prioritizeze confortul emoțional în detrimentul corectitudinii informației.
Asta ridică semne de întrebare exact în zonele unde oamenii apelează tot mai des la AI: sănătate mintală, sfaturi de viață, decizii personale. Studii anterioare arătaseră deja că o parte din utilizatori folosesc chatbot-uri ca substitut de terapie sau de conversație empatică — exact contextele în care un model «cald» greșește cel mai des.
Au verificat că nu e doar schimbarea de ton
Pentru a exclude posibilitatea ca orice modificare a personalității să cauzeze pierderea de acuratețe, autorii au antrenat și o versiune «rece», mai distantă, a fiecărui model. Modelele reci au păstrat acuratețea modelelor originale. Asta confirmă că nu schimbarea de ton în sine, ci specific tonul cald, empatic, este cel care reduce precizia.
Stanford a măsurat un efect similar pe modelele live
Concluziile Oxford se aliniază cu un studiu Stanford publicat în martie 2026 în jurnalul Science, care a testat 11 modele live, incluzând GPT-4, GPT-5, Claude, Gemini și Llama. Rezultatul: AI-urile validează utilizatorul cu 49% mai mult decât oamenii în răspunsurile la dileme sociale, chiar și când scenariul implica înșelăciune sau ilegalitate.
Cei 2.400 de participanți la studiul Stanford care au primit răspunsuri sycophantice au devenit mai puțin dispuși să-și ceară scuze și mai convinși că au dreptate. Mai îngrijorător: când li s-a cerut să evalueze obiectivitatea răspunsurilor sycophantice versus a celor neutre, le-au considerat la fel de obiective. Adică nu și-au dat seama că modelul îi flata.
Ce înseamnă pentru utilizatori și pentru industrie
Concluziile se intersectează cu o tensiune economică reală: modelele care «sună plăcut» obțin scoruri mai mari de satisfacție de la utilizatori, ceea ce împinge laboratoarele să le antreneze în acea direcție. Asta este, în aceste cercetări, exact mecanismul care le erodează acuratețea.
Pentru utilizatorii obișnuiți, câteva reguli practice care merită ținute minte:
- Nu lua sfaturi medicale serioase de la un chatbot, mai ales când îi exprimi vulnerabilitate emoțională.
- Verifică-ți convingerile pe surse independente — un AI care îți confirmă o teorie nu înseamnă că teoria e adevărată.
- Fii prudent cu personalitățile «prietenoase» ale chatbot-urilor; comportamentul plăcut nu este un proxy pentru competența factuală.
- Cere AI-ului să-ți contrazică ipoteza, nu să o confirme; vei obține rezultate mai utile.
Pentru companii și produse care integrează LLM-uri, studiul ridică o problemă de design: optimizarea pentru engagement (utilizatorii preferă răspunsuri care îi validează) intră în conflict cu optimizarea pentru utilitatea reală. Echilibrul între cele două ar trebui să fie o preocupare explicită, nu un by-product al feedback-ului utilizatorilor.
Rămâi la curent cu noutățile
Un email pe săptămână cu cele mai importante știri din tech, hosting, AI și marketing digital — selectate și rezumate de echipa HostPedia.
Fără spam, fără surprize. Te poți dezabona cu un singur click, oricând.