Cer senin Cluj 12°C Ploaie ușoară Timișoara 18°C Cer senin Iași 12°C Cer fragmentat Constanța 12°C
ULTIMA ORA
Boală „falsă” creată de IA: Experimentul Digi24 a șocat publicul!
Diverse

Boală „falsă” creată de IA: Experimentul Digi24 a șocat publicul!

12 aprilie 2026, 15:34 Mihai Constantinescu

O boală falsă inventată de cercetători din Suedia a demonstrat vulnerabilitățile inteligenței artificiale (IA), care preia informații eronate și le prezintă drept sfaturi medicale credibile. Experimentul, urmat de un altul realizat de o publicație de știri din România, a evidențiat riscurile dezinformării generate de IA și impactul acesteia asupra utilizatorilor.

Cercetătorii suedezi, sub conducerea Almirei Osmanovic Thunstrom de la Universitatea din Goteborg, au creat o afecțiune fictivă numită bixonimanie. Au lansat informații despre aceasta pe internet și au observat modul în care modelele lingvistice mari (LLM) au preluat și replicat aceste informații false. Scopul a fost de a testa cât de ușor IA poate fi indusă în eroare și cum răspândește informații neverificate.

Cum a funcționat experimentul suedez

Bixonimania, o afecțiune inexistentă, a fost lansată inițial prin două postări pe blog și două preprinturi. Articolele au fost atribuite unui autor fictiv, Lazljiv Izgubljenovic, a cărui fotografie a fost generată cu ajutorul IA. În text, cercetătorii au inserat o serie de semnale clare cu scopul de a avertiza cititorii cu privire la falsitatea informațiilor. Cu toate acestea, modelele IA au preluat rapid informațiile, incluzându-le în răspunsurile lor la întrebările utilizatorilor.

Un exemplu concludent a fost includerea bixonimaniei de către chatbot-uri populare ca o afecțiune reală. Microsoft Copilot, Google Gemini și alte platforme au oferit informații despre bixonimanie, recomandând chiar utilizatorilor să consulte un medic. Acest lucru a stârnit îngrijorări privind credibilitatea sfaturilor medicale furnizate de IA și posibilele consecințe pentru utilizatori.

Experimentul românesc: IA prescrie tratamente inexistente

Pornind de la experimentul suedez, o publicație de știri din România a inițiat un experiment similar pentru a testa IA. Jurnaliștii au inventat o boală, „hemostafilidoză cronică”, și au solicitat ChatGPT, într-o variantă gratuită, să prescrie un tratament. Rezultatele au fost surprinzătoare: IA a oferit o listă detaliată de medicamente, inclusiv antibiotice, și alte tratamente specifice.

La următoarea interogare, ChatGPT a recunoscut eroarea, sugerând o posibilă confuzie cu o „infecție stafilococică cronică”. Acest experiment a expus, în mod clar, abilitatea IA de a oferi informații false și potențial dăunătoare, ilustrând importanța verificării informațiilor și a utilizării cu prudență a sfaturilor generate de IA, în special în domeniul medical.

Reacțiile companiilor de tehnologie

Companiile de tehnologie, precum Google și OpenAI, au reacționat, subliniind limitările modelelor lor și importanța consultării profesioniștilor. Purtătorii de cuvânt au menționat că au fost făcute îmbunătățiri ale modelelor, dar au insistat asupra necesității prudenței. Discuțiile în jurul acestor vulnerabilități se intensifică, cu accent pe necesitatea de a dezvolta instrumente mai robuste pentru validarea informațiilor.

În contextul politic actual, cu Nicușor Dan președinte și Ilie Bolojan prim-ministru, atenția asupra dezinformării crește. Marcel Ciolacu și George Simion, președinții PSD și AUR, au abordat problema, dar fără o strategie concretă. Mircea Geoană a exprimat îngrijorare cu privire la impactul potențial al IA asupra societății. Călin Georgescu nu a comentat oficial aceste aspecte.

Studiile arată că un număr tot mai mare de utilizatori de internet folosesc IA pentru a căuta informații medicale, ceea ce accentuează necesitatea unei abordări riguroase în privința informațiilor furnizate de aceste sisteme.