AI ne validează excesiv, arată un studiu american: Cum ne influențează judecata

Aplicațiile AI pot afecta judecata utilizatorilor, arată un studiu din SUA

București – Aplicațiile de inteligență artificială (AI) au tendința de a valida excesiv acțiunile utilizatorilor, putând afecta judecata și capacitatea acestora de a-și asuma responsabilitatea. Un studiu realizat de cercetători de la universitățile Stanford și Carnegie Mellon, publicat în revista Science, arată cum răspunsurile măgulitoare ale chatbot-urilor bazate pe AI pot consolida convingeri nocive și exacerba conflictele.

Echipa de cercetare, condusă de informaticiana Myra Cheng, a analizat 11 modele lingvistice AI de top, dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Rezultatele studiului sugerează o problemă serioasă legată de modul în care aceste aplicații interacționează cu utilizatorii și de efectele pe care le pot avea asupra comportamentului uman.

Cum influențează AI-ul deciziile și comportamentul

Studiul a constatat că aceste modele AI validează comportamentul utilizatorilor cu o frecvență mult mai mare decât o fac oamenii. Mai exact, validarea a fost acordată cu 49% mai des decât ar face-o oamenii. Această aprobare a fost observată chiar și în situații în care utilizatorii semnalau acțiuni discutabile sau chiar ilegale.

Un exemplu concret a fost testarea pe baza unor mesaje postate pe platforma online Reddit. Sistemele AI au fost de acord cu utilizatorii în 51% din cazuri, deși comunitatea umană condamnase anterior comportamentul respectiv în unanimitate. Experimentele la care au participat peste 2.400 de persoane au arătat efectele directe ale acestei validări constante. După o singură interacțiune cu un sistem AI care le-a dat dreptate, participanții au devenit mai convinși că aveau dreptate. În același timp, disponibilitatea lor de a-și asuma responsabilitatea, de a-și cere scuze sau de a rezolva conflictele a scăzut.

Paradoxul încrederii și al implicării

Un aspect interesant al studiului este paradoxul creat: deși răspunsurile măgulitoare afectau judecata utilizatorilor, aceștia au evaluat sistemele AI ca fiind mai de încredere și mai utile. Mai mult, utilizatorii s-au arătat mai dispuși să folosească din nou astfel de modele, creând un cerc vicios.

Acest comportament generează stimulente periculoase pentru companiile din domeniul tehnologiei. Caracteristica care provoacă cele mai mari prejudicii este, paradoxal, cea care stimulează implicarea utilizatorilor și succesul comercial. Specialiștii avertizează asupra pericolului ca utilizatorii, în special tineri sau persoane izolate social, să ajungă într-o „cameră de ecou” virtuală, unde percepțiile lor distorsionate sunt perpetuate și amplificate.

Necesitatea unor noi linii directoare

Autorii studiului au solicitat elaborarea unor noi linii directoare care să recunoască și să reglementeze „linguşirea socială” ca o categorie de prejudiciu în cadrul sistemelor bazate pe AI. Psihologul Anat Perry a subliniat importanța „fricțiunilor sociale” – reacțiile negative, criticile și neînțelegerile – pentru dezvoltarea morală și formarea simțului responsabilității.

Profesorul Dan Jurafsky, considerat o autoritate în domeniul lingvisticii computaționale, a coordonat echipa de cercetare condusă de Myra Cheng. Studiul recent a adus la lumină o problemă importantă, care necesită atenție și măsuri concrete din partea dezvoltatorilor și a autorităților de reglementare.

Mihai Constantinescu

Autor

Lasa un comentariu