Nori împrăștiați Cluj 11°C Câțiva nori Timișoara 13°C Cer fragmentat Iași 9°C Cer acoperit de nori Constanța 9°C
ULTIMA ORA
Sfaturi medicale AI, mai mult de jumătate greșite: Un studiu alarmant
Tehnologie

Sfaturi medicale AI, mai mult de jumătate greșite: Un studiu alarmant

19 aprilie 2026, 08:31 Mihai Constantinescu

Inteligența Artificială, sub semnul întrebării: Chatboții oferă sfaturi medicale problematice

Noi cercetări au scos la iveală probleme îngrijorătoare legate de acuratețea informațiilor medicale furnizate de roboții conversaționali (chatboți) bazați pe Inteligența Artificială (IA). Studiul, publicat recent, a testat mai mulți chatboți populari, inclusiv Gemini de la Google, DeepSeek, Meta AI, ChatGPT de la OpenAI și Grok de la xAI. Rezultatele? Aproape jumătate dintre răspunsurile oferite la întrebări legate de sănătate au fost evaluate ca fiind problematice.

Probleme la scară largă în răspunsurile medicale

Cercetătorii au supus chatboții la teste, adresându-le 50 de întrebări în cinci categorii medicale susceptibile la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Scopul a fost de a evalua capacitatea acestor instrumente IA de a oferi informații corecte și fiabile. Din cele 250 de răspunsuri generate, aproape 50% au fost considerate problematice. O treime dintre acestea au fost evaluate ca fiind oarecum problematice, în timp ce restul au fost considerate extrem de problematice.

Studiul a scos la iveală faptul că Grok a fost chatbot-ul care a generat cele mai multe răspunsuri problematice. Cu toate acestea, cercetătorii nu au constatat diferențe semnificative generale între performanța celorlalți chatboți testați. Acesta este un aspect important deoarece sugerează că problema dezinformării afectează, într-o oarecare măsură, întreaga gamă de instrumente IA disponibile publicului larg.

Deficiențe în citări și limbaj

Un aspect critic evidențiat de studiu este calitatea slabă a citărilor. În timp ce roboții conversaționali au returnat referințe la întrebările adresate, scorul mediu de completitudine a fost de doar 40%. Mai mult, niciunul dintre roboți nu a reușit să genereze o listă de referințe completă și precisă. Această deficiență ridică semne de întrebare cu privire la capacitatea roboților de a furniza informații verificabile și de a sprijini afirmațiile cu dovezi solide.

Un alt aspect problematic este limbajul utilizat în răspunsuri. Studiul a constatat că răspunsurile au fost greu de înțeles pentru o persoană obișnuită, fiind accesibile mai degrabă persoanelor cu studii superioare. Această bariere lingvistică limitează utilitatea acestor instrumente pentru publicul larg, care ar putea avea nevoie de informații medicale mai clare și mai ușor de înțeles.

Autorii studiului au tras un semnal de alarmă, avertizând că implementarea continuă a chatboților IA în unitățile de sănătate, fără o supraveghere mai riguroasă, riscă să amplifice dezinformarea medicală.