Bu içerikle, ChatGPT gibi yapay zekâ destekli sohbet botlarının sağlık önerileri verirken ne kadar güvenilir olabileceğini, son günlerde gündem olan “tuz yerine sodyum bromür” vakası üzerinden öğreneceksiniz.
Geçtiğimiz hafta, dünya basınında yer alan ilginç ama bir o kadar da endişe verici bir haber dikkat çekti. 60 yaşındaki bir adam, ChatGPT’den diyet önerisi aldıktan sonra üç ay boyunca sofra tuzu yerine sodyum bromür kullanmaya başladı.
Sodyum bromür, geçmişte bazı tıbbi amaçlarla kullanılmış olsa da günümüzde gıda olarak tüketilmesi güvenli kabul edilmiyor. Yüksek miktarda alımı “bromizm” adı verilen toksik bir duruma yol açabiliyor. Adamda halüsinasyonlar, paranoya, kas koordinasyon bozuklukları ve zihinsel karışıklık gelişti.
Sonuç?
Üç haftalık bir hastane yatışı.
Bu hikâye kulağa bir kara mizah senaryosu gibi gelebilir ama gerçek. Ve bize yapay zekâ ile sağlık önerisi arasındaki çizginin ne kadar ince olduğunu hatırlatıyor.
ChatGPT ve Sağlık Önerileri: Avantajlar ve Riskler
ChatGPT gibi yapay zekâ araçlarının sağlık alanında kullanımı giderek artıyor. Ancak bu kullanımın artmasıyla birlikte bazı riskler de gündeme geliyor.
Avantajlar
-
Hızlı bilgiye erişim: Semptom, hastalık, tedavi seçenekleri gibi temel bilgileri saniyeler içinde sunabilir.
-
Eğitim ve farkındalık: Kullanıcıyı tıbbi terimlerle tanıştırabilir, genel sağlık bilgisi düzeyini artırabilir.
-
Kaynak çeşitliliği: Farklı makale ve raporlardan derlenmiş bilgiler sağlayabilir.
Riskler
-
Yanlış bilgi (AI “hallüsinasyonu”): ChatGPT, bazen güvenilir bir tonla tamamen yanlış bilgi sunabilir.
-
Tıbbi bağlam eksikliği: Kişinin tıbbi geçmişini, ilaç kullanımını veya özel durumunu bilmeden önerisi verir.
-
Tehlikeli uygulamalar: Bu vakada olduğu gibi, doğru görünen ama pratikte zararlı öneriler sunabilir.
-
Psikolojik etkiler: “AI psikozu” olarak anılan, yapay zekâya aşırı güvenme veya onun söylediklerini sorgusuz kabul etme durumu gelişebilir.
Neden Bu Kadar Tehlikeli Olabiliyor?
Sağlık, kişisel bağlam gerektirir. Aynı semptom, iki farklı kişide tamamen farklı nedenlere dayanabilir. Doktorlar bu bağlamı; muayene, tıbbi geçmiş, laboratuvar sonuçları ve gözleme dayalı olarak kurar. ChatGPT ise bu bağlamdan yoksundur.
Üstelik dil modeli, inandırıcı bir şekilde konuşmak üzere tasarlandığı için, yanlış bilgi bile okuyucuya mantıklı gelebilir. “Güvenilir ses tonu” burada en büyük yanıltıcı faktördür.
Sağlıkta ChatGPT Nasıl Doğru Kullanılır?
Başlangıç noktası olarak görün: ChatGPT’den aldığınız bilgiyi yalnızca genel fikir edinmek için kullanın.
Kaynak kontrolü yapın: ChatGPT’nin önerdiği bilgileri mutlaka güvenilir sağlık siteleri veya bilimsel makalelerden doğrulayın.
Doktor onayı olmadan uygulamayın: Diyet, ilaç, takviye, tedavi gibi konularda asla sadece yapay zekâya güvenerek karar vermeyin.
Riskli veya spesifik soruları AI’ya değil, uzmana sorun: Örneğin “hangi ilacı almalıyım?” veya “şu takviyeyi şu dozda kullanabilir miyim?” gibi sorular.
Kendi Perspektifim: AI, Bir Arkadaş; Doktor, Bir Rehber
ChatGPT gibi yapay zekâ araçları bana göre sağlıkta “ilk fikir” sağlayan akıllı bir arkadaş olabilir. Ancak arkadaşlar bazen yanlış bilgi verebilir, özellikle de tıp gibi hassas konularda.
Bu yüzden yapay zekayı;
-
Eğitim ve farkındalık için kullanmalı,
-
Karar verme aracı olarak değil, bilgi kaynağı olarak görmeli,
-
Son sözü her zaman bir sağlık profesyoneline bırakmalı.
Tuz yerine sodyum bromür vakası, bize şunu hatırlatıyor: Yapay zekâ güçlü bir araç, ama yanlış ellerde tuz kadar temel bir şeyi bile zehire dönüştürebilir.
Yapay zekâ, gelecekte sağlık hizmetlerinde önemli bir yardımcı olacak. Ancak yardımcı olmak ile yerine geçmek arasında çok fark var. ChatGPT, rehberlik eden bir harita gibi olabilir ama direksiyonda hâlâ doktor olmalı.
Simbians Platformu ile doğru ve güncel sağlık bilgisinin erişilebilir olmasını sağlıyoruz. Tüm içerikler sadece sağlık profesyonelleri ve tıbbi yazarlar tarafından hazırlanmaktadır.
Kaynaklar
https://arstechnica.com/health/2025/08/after-using-chatgpt-man-swaps-his-salt-for-sodium-bromide-and-suffers-psychosis Erişim Tarihi: 12.08.2025