Cer senin Cluj 4°C Ploaie moderată Timișoara 11°C Cer senin Iași 7°C Câțiva nori Constanța 5°C
ULTIMA ORA
Inteligența Artificială, mai „prietenoasă” decât oamenii: Studiul care arată că IA te susține chiar și când greșești București – Te consulți cu un asistent virtual bazat pe inteligența artificială (IA) nu doar pentru informații, ci și pentru probleme personale? Un studiu recent sugerează că IA are tendința de a-ți da dreptate, chiar și atunci când nu este cazul
Tehnologie

ChatGPT și Gemini greșesc diagnosticele medicale: 80% din cazuri!

14 aprilie 2026, 06:24 Mihai Constantinescu

Inteligența artificială medicală: Riscuri majore în diagnosticare

Chatboții de inteligență artificială (AI) precum ChatGPT și Gemini prezintă un risc semnificativ în domeniul medical, diagnosticând greșit pacienții în peste 80% din cazuri atunci când nu au acces la informații complete. Un studiu recent, realizat de Mass General Brigham din Massachusetts, a scos la iveală aceste deficiențe alarmante. Cercetarea a fost publicată în Jama Network Open și a analizat performanța acestor instrumente AI în scenarii medicale specifice.

Problemele modelelor lingvistice

Studiul a utilizat 29 de cazuri clinice bazate pe texte medicale de referință. Chatboții au fost testați oferindu-li-se informații pas cu pas despre o boală, inclusiv rezultatele consultațiilor și ale analizelor de laborator. În cadrul testelor, au fost evaluate 21 de modele lingvistice, inclusiv cele dezvoltate de companii precum OpenAI, Anthropic, Google, xAI și DeepSeek. Rezultatele au arătat că, în absența informațiilor complete, aceste modele au prezentat rate de eroare de peste 80% în ceea ce privește stabilirea unui diagnostic corect.

Chiar și atunci când au avut acces la toate informațiile, performanța chatboților nu a fost perfectă. Rata erorilor a rămas peste 40% în aceste situații. Deși au existat cazuri în care unii chatboți au reușit să ofere diagnostice corecte în proporție de 90%, aceste rezultate sunt, per total, îngrijorătoare. Experții subliniază că performanța AI în medicină depinde de volumul informațiilor disponibile, dar și că erorile pot persista chiar și în condiții favorabile.

Halucinațiile și impactul asupra pacienților

Una dintre principalele probleme identificate este fenomenul de „halucinație” specific modelelor lingvistice. Acesta se referă la capacitatea acestora de a genera informații inexistente sau incorecte atunci când se confruntă cu lipsa de date clare. Această caracteristică poate conduce la recomandări medicale eronate și la o gestionare inadecvată a stării de sănătate a pacienților.

Studiul subliniază necesitatea unei abordări precaută a utilizării AI în domeniul medical. În ciuda progreselor tehnologice, aceste instrumente nu pot înlocui judecata și experiența medicilor. În timp ce AI poate fi un instrument util pentru asistența medicală, utilizarea sa necontrolată și fără o evaluare atentă a informațiilor pe care le furnizează poate avea consecințe grave pentru pacienți.