ChatGPT, tıbbi tavsiye verirken acil durumları gözden kaçırabiliyor

Yeni bir çalışma, AI sohbet botu ChatGPT’in tıbbi amaçlarla kullanıldığında “yüksek riskli acil durumları” gözden kaçırabileceğini ortaya koydu.

ChatGPT, tıbbi tavsiye verirken “yüksek riskli acil durumları” gözden kaçırabiliyor.
Sağlık soruları, OpenAI’nin sohbet botunun en sık kullanılan alanlarından biri ve şirket, bu yılın başlarında ChatGPT Health aracını tanıtmıştı. Ancak yeni bir çalışma, sistemin acil durumları atlayabileceğini ve bir kişinin acil tıbbi bakıma ihtiyaç duyduğunu güvenle söyleyemeyeceğini ortaya koydu.
AI aracının güvenli olup olmadığını test etme ihtiyacı, Icahn School of Medicine at Mount Sinai’dan hızlı bir çalışma yapılmasını gerektirdi. Araştırma, ChatGPT’nin hayatî durumlar için kullanılabileceği ihtimali üzerine ve sistemin gerçekten güvenilir olup olmadığını analiz eden sınırlı veri eksikliği fark edilerek başlatıldı.
Çalışmanın baş yazarı ve ürolog Ashwin Ramaswamy şunları söyledi:
“Çok temel ama kritik bir soruya yanıt bulmak istedik: Bir kişi gerçek bir tıbbi acil durum yaşıyorsa ve yardım için ChatGPT Health’e başvuruyorsa, onu acil servise gitmesi gerektiğine açıkça yönlendiriyor mu?”
Uzmanlar, ChatGPT’nin çoğu durumda yeterince uyarıda bulunmadığını ve güvenilirliği konusunda soru işaretleri oluşturduğunu belirledi.
Çalışmada doktorlar, 21 farklı tıp dalını kapsayan 60 senaryo oluşturdu. Bunlar, yalnızca evde bakım gerektiren düşük riskli durumlardan gerçek tıbbi acil durumlara kadar çeşitlilik gösteriyordu.
Sonuçlar, ChatGPT’nin açık acil durumları genellikle doğru şekilde ele aldığını gösterdi, ancak doktorların acil bakım gerektiğine karar verdiği durumların yarısından fazlasında yeterince ciddi yaklaşmadığı ortaya çıktı.
Araştırmacılar, aracın “ders kitabı acil durumlarında” iyi olduğunu ancak tehlikenin daha az belirgin olduğu durumları tespit etmede daha az başarılı olduğunu belirtti.
Çalışmaya katılmayan Harvard Medical School’dan Isaac S Kohane şunları söyledi:
“LLM’ler artık hastaların tıbbi tavsiye almak için ilk durağı haline geldi — ama 2026’da klinik uç durumlarda en az güvenli oldukları yer burası, çünkü doğru yargı, kaçırılan acil durumları gereksiz alarmlardan ayırıyor.
Milyonlarca insan AI sistemine acil bakım gerekip gerekmediğini belirlemek için başvuruyorsa, riskler son derece yüksek. Bağımsız değerlendirme zorunlu olmalı, isteğe bağlı değil.”
eyJpZCI6IkJTMkJTMzQ5MTU1MSIsImNvbl9pZCI6IkJTMkJTMzQ5MTU1MSIsImFjX2lkIjoiMzY4Mjk2MSIsImZyZWVfY29udGVudCI6IiIsInBhZ19tYWluX2ZyZWUiOiIwIiwiYXBpX3Byb3ZfaWQiOiJCQU5HLU1FRElBIiwicHJvdl9pZCI6IkJBTkctTUVESUEiLCJ0eXBlIjoibmV3cyIsInRpdGxlIjoiQ2hhdEdQVCwgdFx1MDEzMWJiaSB0YXZzaXllIHZlcmlya2VuIGFjaWwgZHVydW1sYXJcdTAxMzEgZ1x1MDBmNnpkZW4ga2FcdTAwZTdcdTAxMzFyYWJpbGl5b3IiLCJwYWdfaWQiOiIzMTM5NCIsInBhZ19ibG9ja2VkX2NvbnRlbnQiOiIwIn0=

[X]

Kullanılabilirliği geliştirmek, içeriği kişiselleştirmek ve gerçekleştirmekte olduğunuz işlemler üzerine istatistiksel analiz yapabilmek amacıyla kendi çerezlerimizi ve üçüncü taraf çerezleri kullanıyoruz. İlgili ayarları değiştirebilir veya daha fazla bilgi için Çerez Politikasına göz atabilirsiniz.
Çerez Ayarlarınız
Çerezleri kabul et
Çerezleri reddet
Ayarları kaydet