BMJ Open dergisinde yayımlanan yeni bir araştırma, popüler yapay zeka modellerinin tıbbi konulardaki güvenilirliğini mercek altına aldı. Yapılan incelemeler sonucunda, sohbet botlarının verdiği yanıtların yüzde 70’inden fazlasının sorunlu olduğu ve bilimsel dayanaktan yoksun kaynaklar sunduğu ortaya çıktı.

Günümüzde bilgiye ulaşmanın en hızlı yolu haline gelen yapay zeka tabanlı sohbet botları, sağlık ve tıp konularında ciddi bir güvenilirlik sınavıyla karşı karşıya.

Araştırma kapsamında; kanserden aşılara, beslenmeden atletik performansa kadar 50 farklı tıbbi soru beş farklı yapay zeka modeline yöneltildi. Uzman değerlendirmeleri, dijital asistanların sağlık tavsiyelerinde ne kadar riskli olabileceğini gözler önüne serdi.

KAYNAKLAR TAMAMEN “UYDURMA” ÇIKTI

İncelenen sohbet botlarının hiçbirinin tamamen doğru bir referans listesi sunamadığı belirlendi. Yapay zekanın sağladığı kaynakçaların büyük bölümünde yanlış yazar isimleri, çalışmayan bağlantılar ve hatta tamamen uydurulmuş akademik makaleler yer aldı. Bu bilgilerin, gerçek bilimsel verilerden çok dil modellerinin istatistiksel tahminlerine dayandığı vurgulandı.

EN HATALISI GROK, EN ÇOK BESLENME KONUSUNDA YANILIYORLAR

Platformlar arasında yapılan karşılaştırmada dikkat çekici sonuçlar ortaya çıktı:

  • Grok: %58 hata oranı
  • ChatGPT: %52 hata oranı
  • Meta AI: %50 hata oranı

Özellikle beslenme ve atletik performans gibi alanlarda hata oranlarının daha da yükseldiği kaydedildi.

AÇIK UÇLU SORULAR RİSKİ ARTIRIYOR

Araştırmada, yapay zekanın kapalı uçlu sorularda daha başarılı olduğu ancak açık uçlu sorularda hata payının belirgin şekilde arttığı tespit edildi. Günlük hayatta sık sorulan bu tür sorularda “yüksek derecede sorunlu” yanıt oranının %32 olduğu belirtildi.

Nature Medicine dergisinde yayımlanan bir başka çalışma da benzer sonuçlara işaret etti. Buna göre yapay zeka tek başına yüksek doğruluk oranlarına ulaşabilse de, kullanıcı ile etkileşim halinde bu oran yüzde 35’e kadar düşebiliyor.

Bilim insanları, yapay zekanın yalnızca destekleyici bir araç olarak kullanılması gerektiğini; tek başına bir tıbbi otorite olarak değerlendirilmemesi gerektiğini vurguluyor.

Haber Giriş:23.04.2026 – 23:16

Kaynak:https://www.cumhuriyet.com.tr/saglik/yapay-zeka-sagligimizi-tehdit-mi-ediyor-tavsiyelerinin-yarisi-sorunlu-2497851

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir