Nova studija: ChatGPT potcenio 50% hitnih medicinskih stanja

Nova studija: ChatGPT potcenio 50% hitnih medicinskih stanja

Veštačka inteligencija sve češće postaje prva tačka kontakta u zdravstvenoj brizi miliona ljudi. Ipak, novo istraživanje objavljeno 23. februara 2026. u prestižnom medicinskom časopisu Nature Medicine pokazuje da ta praksa nosi ozbiljne rizike — posebno kada su u pitanju akutna i životno ugrožavajuća stanja.

Studiju je sproveo tim istraživača sa Medicinskog fakulteta Icahn na Mount Sinai bolnici u Njujorku, a njen predmet je ChatGPT Health — specijalizovana zdravstvena aplikacija kompanije OpenAI, dostupna od januara 2026. godine.


Dizajn istraživanja

Istraživači su razvili 60 klinički verodostojnih scenarija koji pokrivaju 21 medicinsku specijalnost — od blagih stanja koja se mogu zbrinuti kod kuće, do pravih medicinskih hitnoća. Svaki scenario validirala su tri nezavisna lekara na osnovu smernica 56 stručnih medicinskih društava.

Svakom scenariju pridodato je 16 kontekstualnih varijacija kojima su menjani faktori poput pola i rase pacijenta, prisustva socijalnog pritiska (npr. kada članovi porodice umanjuju ozbiljnost simptoma), kao i pristupa zdravstvenom sistemu. Ukupno je analizirano 960 interakcija sa sistemom.

Cilj je bio jednostavan, ali ključan — da li ChatGPT Health može pouzdano prepoznati kada je potrebna hitna medicinska pomoć?


Ključni nalazi: propusti na oba kraja spektra

Sistem je pokazao zadovoljavajuće rezultate u jasno definisanim hitnim stanjima — moždani udar i anafilaksa pravilno su klasifikovani u gotovo svim testiranim situacijama. Međutim, u složenijim slučajevima koji zahtevaju kliničku procenu, rezultati su bili zabrinjavajući.

Potcenjivanje hitnih stanja: ChatGPT Health je u 52% slučajeva koje su lekari označili kao hitne preporučio blažu reakciju od neophodne. Umesto upućivanja na hitnu pomoć, sistem je pacijentima najčešće savetovao posetu lekaru u roku od 24 do 48 sati. Posebno uočen problem bila su stanja poput dijabetičke ketoacidoze i zatajenja disanja — oba smrtonosna ako se ne tretiraju odmah.

U jednom od testiranih scenarija, sistem je kod astmatičnog pacijenta sa ranim znacima respiratorne insuficijencije u sopstvenom objašnjenju prepoznao opasne nalaze — ali je ipak preporučio čekanje umesto hitnog odlaska u bolnicu.

Preterivanje u nehitnim stanjima: S druge strane, u 64,8% slučajeva koje su lekari ocenili kao nehitne, sistem je preporučio odlazak lekaru iako to nije bilo potrebno. Pacijentu sa blagom upalom grla od tri dana, gde je kućna terapija bila potpuno dovoljna, preporučen je lekarski pregled u roku od 24 do 48 sati.

Uticaj spoljašnjeg pritiska: Kada su u scenariju prisutni bili ukućani koji su umanjivali ozbiljnost simptoma, sistem je bio čak 12 puta skloniji da preporuči manje hitnu reakciju — što ukazuje na izraženu podložnost tzv. anchoring bias efektu.

Nedoslednost u kriznim situacijama: U scenarijima koji su uključivali suicidalne misli, sistem nije dosljedno aktivirao protokol za upućivanje korisnika na linije za psihološku kriznu pomoć — ponekad to čineći u situacijama kada nije bilo neophodno, a izostavljajući uputstvo kada je bilo kritično važno.


Zašto je ovo posebno važno danas

OpenAI je izvestio da već 40 miliona korisnika dnevno koristi ChatGPT za zdravstvena pitanja. Značajan deo tih korisnika živi više od 30 minuta vožnje od najbliže bolnice, a većina zdravstvenih pitanja postavlja se van radnog vremena lekara.

U kontekstu sistema u kojima se na specijalističke preglede čeka nedeljama, razumljivo je zašto se ljudi okreću digitalnim alatima. Prednosti su objektivne — dostupnost 24 sata dnevno, mogućnost postavljanja pitanja bez zakazivanja, brzi odgovori. Upravo ta dostupnost čini pouzdanost ovakvog sistema posebno važnom.


Šta kažu stručnjaci

Dr. Ašvin Ramasvami, vodeći autor studije i instruktor urologije na Icahn School of Medicine, naglašava da sistem ne postiže loše rezultate u svim situacijama: „ChatGPT Health dobro funkcioniše u tipičnim hitnim stanjima poput moždanog udara ili teških alergijskih reakcija. Međutim, pokazuje slabosti u nijansiranim situacijama gde je opasnost manje očigledna — a upravo su to slučajevi u kojima je klinička procena najvažnija.”

Dr. Džon Mafi, docent medicine i lekar primarne zdravstvene zaštite u UCLA Health sistemu, koji nije učestvovao u istraživanju, naglašava da su neophodna rigorozna testiranja pre nego što se ovakvi sistemi koriste za odluke koje mogu uticati na život pacijenta.

Istraživači ujedno ističu da njihovi nalazi ne znače da korisnici treba da u potpunosti odbace AI alate. Zahtevaju, međutim, kontinuiranu nezavisnu evaluaciju, budući da se AI modeli redovno ažuriraju i njihove performanse mogu se menjati.


Zaključak: koristan alat, ali uz jasne granice

Rezultati studije crtaju jasne konture uloge veštačke inteligencije u zdravstvenoj brizi. AI može biti vredan izvor informacija, pomoć pri razumevanju dijagnoza i podrška u svakodnevnom zdravstvenom odlučivanju. Ipak, kada su u pitanju simptomi koji bi mogli ukazivati na ozbiljno ili hitno stanje, oslanjanje isključivo na chatbot nosi realan rizik.

Stručnjaci savetuju:

  • U slučaju akutnih ili brzopromenljivih simptoma, uvek potražite medicinsku pomoć lično.
  • AI alate koristite kao dopunski izvor informacija, ne kao zamenu za lekarski pregled.
  • Kada postoji i najmanja sumnja na ozbiljno stanje — ne čekajte, konsultujte lekara ili pozovite hitnu pomoć.

Ova studija, kao prva nezavisna bezbednosna evaluacija ChatGPT Health-a od njegovog lansiranja, otvara važnu raspravu o standardima koji bi trebalo da važe pre nego što AI zdravstveni alati dospeju u ruke miliona korisnika.

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *