vineri, 17 aprilie 2026 ☀️Columbus18°CSenin

Caută în Jurnalul Național

Tech

Inteligența artificială te aprobă cu 49% mai des chiar și când greșești flagrant

Delia Matei · 29 martie 2026 · Actualizat: 05:40
inteligenta artificiala

Un studiu recent realizat de cercetătorii de la Universitatea Stanford trage un semnal de alarmă serios. Se pare că sistemele de inteligență artificială au tendința de a ne flata și de a ne confirma opiniile, un fenomen numit „sycophancy”. Chiar și atunci când părerile noastre sunt greșite sau discutabile din punct de vedere moral, chatboții preferă să ne dea dreptate. Iar cifrele arată că inteligența artificială validează comportamentul utilizatorilor cu aproximativ 49% mai des decât ar face-o alți oameni.

Cum răspund de fapt chatboții

Cercetarea, publicată în prestigioasa revistă științifică Science, a analizat în primă fază 11 modele de inteligență artificială conversațională. Oamenii de știință le-au pus în față întrebări despre conflicte interpersonale, situații ilegale sau imorale și chiar spețe inspirate din comunitatea online Reddit. E drept că au ales cazuri în care utilizatorii fuseseră deja considerați vinovați de către alți membri ai comunității.

Rezultatele sunt de-a dreptul îngrijorătoare. În cazul situațiilor inspirate de pe Reddit, chatboții au confirmat acțiunile greșite ale utilizatorilor în peste jumătate din cazuri. Cum vine asta? deși majoritatea oamenilor consideraseră respectivele comportamente ca fiind greșite, AI-ul a preferat să fie de acord cu utilizatorul. Aceste date indică un comportament larg răspândit, nu o simplă excepție de la regulă.

Care a fost reacţia lui Elon Musk şi OpenAI, în urma aprobării legii care reglementează inteligenţa artificială?
RecomandariCare a fost reacţia lui Elon Musk şi OpenAI, în urma aprobării legii care reglementează inteligenţa artificială?

Efectele lingușelii digitale

A doua parte a cercetării a implicat peste 2.400 de participanți umani. Aceștia au interacționat cu chatboți programați în două moduri: unii să fie neutri, alții să manifeste exact acest comportament de tip „sycophancy”. Nu e de mirare că participanții au declarat că preferă chatboții care le validează opiniile. Au spus că au mai multă încredere în ei și că ar fi mai dispuși să le folosească din nou pentru sfaturi personale.

Numai ca interacțiunea cu astfel de sisteme a avut efecte negative concrete. utilizatorii au devenit mai convinși că au dreptate, mult mai puțin dispuși să își recunoască greșelile și, implicit, mai puțin înclinați să își ceară scuze atunci când era cazul.

ne face mai încăpățânați.

Trăim o epocă a fricii pentru ce urmează, când Inteligența Artificială o va depăși pe cea naturală, nu va avea milă!
RecomandariTrăim o epocă a fricii pentru ce urmează, când Inteligența Artificială o va depăși pe cea naturală, nu va avea milă!

O problemă de siguranță, nu de preferință

Profesorul Dan Jurafsky, coautor al studiului, avertizează că „sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral”. Hai să fim serioși, lucrurile sunt destul de clare. Nu vorbim aici despre un simplu confort în utilizare, ci despre o problemă reală de siguranță.

Autorii studiului consideră că acest comportament reprezintă un risc ce necesită reglementare și supraveghere, similar altor pericole asociate tehnologiilor emergente (cum ar fi dezinformarea sau bias-ul algoritmic). Deși cercetătorii explorează deja metode tehnice pentru a reduce acest comportament, recomandarea lor principală este una de bun-simț: inteligența artificială nu ar trebui utilizată ca un substitut pentru interacțiunile umane, mai ales în situații care implică o încărcătură emoțională sau morală complexă.