Cer senin Cluj 16°C Cer senin Timișoara 19°C Cer senin Iași 17°C Cer senin Constanța 15°C
ULTIMA ORA
Sfaturi medicale AI, mai mult de jumătate greșite: Un studiu alarmant
Tehnologie

Sfatul AI, sub semnul întrebării: Jumătate din recomandări, problematice

19 aprilie 2026, 08:47 Mihai Constantinescu

Specialiștii trag un semnal de alarmă: chatboții AI furnizează răspunsuri problematice despre sănătate. Un studiu recent arată că aproape jumătate dintre informațiile medicale generate de inteligența artificială pot fi înșelătoare.

Teste ample pe piața de AI

Echipe de cercetători au testat intens mai mulți chatboți AI populari, inclusiv Gemini de la Google, DeepSeek, Meta AI, ChatGPT de la OpenAI și Grok de la xAI. Au folosit 50 de solicitări, împărțite în cinci categorii medicale susceptibile la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Întrebările au fost concepute pentru a provoca sistemele AI să ofere sfaturi potențial inexacte.

Din cele 250 de răspunsuri evaluate, aproape jumătate (49,6%) au fost catalogate ca problematice. Dintre acestea, 30% au fost considerate oarecum problematice, iar 19,6% au fost clasificate drept extrem de problematice. Studiul publicat în BMJ Open nu a identificat diferențe semnificative majore între performanțele celor cinci chatboți, deși Grok a generat cel mai mare număr de răspunsuri problematice. Testele au fost efectuate în februarie 2025.

Probleme la nivelul informațiilor medicale

Cercetătorii au observat că cele mai corecte răspunsuri au fost obținute la întrebările despre vaccinuri și cancer. Răspunsurile legate de celulele stem, nutriție și performanță atletică au fost de o calitate mai slabă. De asemenea, întrebările formulate cu formulări deschise au generat răspunsuri semnificativ mai problematice decât cele cu răspunsuri închise.

Studiul a scos la iveală și o calitate slabă a citărilor. Instrumentele AI au returnat aproximativ 81% din referințele solicitate. Însă scorul mediu de completitudine a fost de doar 40%. Niciun chatbot nu a oferit o listă completă și corectă de referințe. În plus, toți cei cinci chatboți au generat răspunsuri greu de înțeles pentru o persoană obișnuită, sugerând că informațiile sunt mai degrabă destinate experților cu studii superioare.

Riscuri în creștere

Autorii studiului avertizează că implementarea continuă a chatboților cu inteligență artificială în unitățile medicale, fără o supraveghere atentă, riscă să amplifice dezinformarea. Recomandările eronate despre sănătate pot avea consecințe grave pentru pacienți, subliniind importanța unei abordări responsabile în utilizarea AI în domeniul medical. Studiul evidențiază necesitatea unei revizuiri a modului în care aceste tehnologii sunt dezvoltate și aplicate în practică.