marți, 21 aprilie 2026 ☁️București10°CNoros

Caută în Jurnalul Național

Sănătate

Studiu șocant – doar 41% din medicii radiologi au depistat radiografii false create de AI

Lucian Cojocaru · 25 martie 2026 · Actualizat: 15:04
radiografii false AI

Imagini radiologice false, create de inteligența artificială pentru a semăna perfect cu cele ale pacienților reali, reușesc să păcălească nu doar medicii experimentați, ci chiar și alte instrumente AI. Un studiu recent, care a implicat 17 radiologi din 12 spitale, arată o realitate alarmantă cu privire la potențialul de manipulare al acestei tehnologii.

Medicii, în dificultate în fața imaginilor false

Experimentul a fost unul complex. Șaptesprezece radiologi din șase țări diferite au avut sarcina de a analiza un set de 264 de imagini radiografice. Numai că jumătate dintre acestea fuseseră generate de instrumente de inteligență artificială precum ChatGPT sau RoentGen. Când medicii nu au fost conștienți de scopul real al studiului, lucrurile au stat destul de prost. Doar 41% dintre ei au reușit să identifice spontan imaginile generate artificial, conform raportului publicat în revista Radiology.

Cifrele s-au schimbat, e drept, după ce specialiștii au fost informați. Odată ce li s-a spus că setul de date conține și imagini sintetice, precizia medie a radiologilor în a diferenția radiografiile reale de cele false a crescut la 75%.

Un studiu șocant arată ce ne așteaptă la o încălzire de doar 2 grade Celsius
RecomandariUn studiu șocant arată ce ne așteaptă la o încălzire de doar 2 grade Celsius

Riscuri uriașe: de la fraude la haos în spitale

Dr. Mickael Tordjman, de la Școala de Medicină Icahn de la Mount Sinai din New York și conducătorul studiului, trage un semnal de alarmă serios. „Faptul că există radiografii false suficient de realiste pentru a-i înşela pe radiologi creează o vulnerabilitate cu mize mari în litigii frauduloase dacă, de exemplu, o fractură fabricată ar putea fi imposibil de distins de una reală”, a declarat acesta.

Iar pericolul nu se oprește aici. V-ați gândit vreodată ce s-ar întâmpla dacă un hacker ar pătrunde în sistemul unui spital? Tordjman avertizează: „Există, si, un risc mare de securitate cibernetică în cazul în care hackerii ar accesa reţeaua unui spital şi ar planta imagini sintetice pentru a manipula diagnosticele pacienţilor sau ar provoca haos clinic pe scară largă prin subminarea fiabilităţii fundamentale a dosarului medical digital”.

Nici inteligența artificială nu se recunoaște

Stai puțin, cum vine asta? Chiar și programele AI au fost testate pentru a vedea dacă pot depista falsurile. Patru modele lingvistice mari – GPT-4o (OpenAI), GPT-5 (tot de la OpenAI), Gemini 2.5 Pro (Google) şi Llama 4 Maverick (Meta Platforms) – au fost puse la treabă. Precizia lor în detectarea imaginilor false a variat între 57% și 85%.

Studiu șocant leagă chimicalele din plastic de 2 milioane de nașteri premature
RecomandariStudiu șocant leagă chimicalele din plastic de 2 milioane de nașteri premature

Ironia sorții face ca nici măcar ChatGPT-4o, modelul care a creat o parte din deepfake-uri, să nu reușească să le identifice pe toate. A avut, ce-i drept, o rată de succes mai mare decât celelalte modele AI, dar nu a fost infailibil.

O vulnerabilitate evidentă.

Doar vârful aisbergului?

Specialiștii se tem că acesta este doar începutul. „Potenţial, vedem doar vârful aisbergului”, a mai spus Tordjman, făcând referire la posibilitatea apariției unor scanări CT și RMN false, mult mai complexe. Amenințarea este, pe bune, una reală și necesită măsuri imediate pentru a preveni scenarii catastrofale în sistemul medical.

Ceasurile inteligente pot provoca anxietate avertizează un cardiolog
RecomandariCeasurile inteligente pot provoca anxietate avertizează un cardiolog

În fața acestor riscuri, concluzia expertului este tranșantă. „Stabilirea unor seturi de date educaţionale şi a unor instrumente de detectare este acum esenţială”.