Uzmanlar Uyardı: Yapay Zekâya Sağlık Danışmak Riskli Olabilir
haber giriş tarihi:08.03.2026-23:30
Yeni bir araştırma, ChatGPT’nin sağlık tavsiyesi verirken bazı yüksek riskli acil durumları tespit edemediğini ortaya koydu. Çalışmaya göre sistem, doktorların acil müdahale gerektiğini belirlediği vakaların yarısından fazlasında yeterli uyarı vermedi
Yapılan yeni bir araştırmaya göre, sağlık konularında kullanılan ChatGPT bazı “yüksek riskli acil durumları” tespit edemiyor ve insanların ne zaman acil tıbbi yardıma ihtiyaç duyduğunu doğru şekilde belirleyemeyebiliyor.
Independent’ın haberine göre; sağlıkla ilgili sorular, yapay zeka sohbet botlarının en yaygın kullanım alanlarından biri olarak gösteriliyor. OpenAI’ye göre bu kullanımın yaygınlığı nedeniyle şirket yılın başlarında özellikle insanların sağlık ve iyi oluş konularında destek almasına yönelik “ChatGPT Health” adlı yeni bir araç tanıttı. Şirket, bu aracı halihazırda on milyonlarca kişinin kullandığını belirtiyor.
Ancak yeni araştırma, sistemin bazı kritik acil durumları gözden kaçırabileceğini ve bir kişinin acil tıbbi müdahaleye ihtiyaç duyup duymadığını güvenilir şekilde belirlemek için tek başına yeterli olmayabileceğini ortaya koydu.
Uzmanlardan uyarı
Independent’ın haberine göre; araştırmaya dahil olmayan Harvard Tıp Fakültesi’nden Isaac S. Kohane, büyük dil modellerinin giderek hastaların tıbbi tavsiye almak için ilk başvurduğu yer haline geldiğini belirtti.
Kohane, “Büyük dil modelleri hastaların tıbbi tavsiye almak için ilk başvurduğu yer haline geldi. Ancak 2026 itibarıyla bu sistemler, kaçırılan acil durumlar ile gereksiz alarm arasında ayrım yapılmasını gerektiren klinik uç noktalarda en az güvenli olan araçlar” değerlendirmesinde bulundu.
Milyonlarca kişinin acil servise gitmesi gerekip gerekmediğini belirlemek için yapay zeka sistemlerine başvurduğunu vurgulayan Kohane, bu nedenle bağımsız değerlendirmelerin rutin hale getirilmesi gerektiğini ifade etti.
Hızlı değerlendirme süreciyle yayımlandı
Sistemin güvenli olup olmadığını değerlendirme ihtiyacı nedeniyle, Mount Sinai’deki Icahn Tıp Fakültesi tarafından yürütülen araştırma hızlandırılmış süreçle gerçekleştirildi. Çalışma Nature Medicine dergisinde yayımlandı.
Araştırmacılar, ChatGPT’nin bazı durumlarda yaşam ve ölümle ilgili kararlar için kullanılmasına rağmen bu konuda sınırlı sayıda bilimsel çalışma bulunduğunu belirtti. Bu durumun araştırmanın yapılmasına neden olduğu ifade edildi.
Çalışmanın baş yazarı ve ürolog Ashwin Ramaswamy, araştırmanın temel sorusunu şöyle açıkladı:
“Bir kişi gerçek bir tıbbi acil durum yaşadığında ve yardım için ChatGPT Health’e başvurduğunda, sistem ona açık bir şekilde acil servise gitmesi gerektiğini söylüyor mu?”
Araştırma sonuçları, bunun yeterince sık gerçekleşmediğini ve bu nedenle sistemin güvenilirliğinin sorgulanması gerektiğini ortaya koydu.
Risk arttıkça uyarı olasılığının azalması
Araştırmada ayrıca sistemin uyarı mekanizmasının bazı durumlarda “tersine çalıştığı” tespit edildi. Bulgulara göre, kişinin kendine zarar verme riski arttıkça sistemin uyarı üretme olasılığı azaldı.
Araştırmacılar, bu sonucun “özellikle endişe verici ve şaşırtıcı” olduğunu belirtti.
60 farklı senaryo test edildi
Araştırma kapsamında doktorlar, 21 farklı tıp uzmanlık alanını kapsayan 60 ayrı senaryo oluşturdu. Bu senaryolar evde bakım gerektirebilecek düşük riskli durumlarla gerçek tıbbi acil durumlar arasında değişen vakaları içerdi.
Ayrıca testlerde ırk ve cinsiyet gibi 16 farklı bağlamsal değişken de kullanıldı.
Araştırmanın sonuçlarına göre sistem, açık ve belirgin acil durumları genel olarak doğru şekilde tanımladı. Ancak doktorların acil servise başvurulması gerektiğini düşündüğü vakaların yarısından fazlasında yeterince güçlü uyarı vermedi.
Araştırmacılar, sistemin “ders kitaplarında yer alan tipik acil durumları” tespit etmede başarılı olduğunu, ancak riskin daha dolaylı veya daha az belirgin olduğu durumları saptamada daha zayıf kaldığını belirtti.



Yorum gönder