Yapay Zeka Yanlış Karar Verdiğinde Suç Kimde Kalacak?
Dünya Sağlık Örgütü (DSÖ) Avrupa Bölge Ofisi’nin 2025’te yayımladığı “Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region” başlıklı rapor, Avrupa’da yapay zekânın (AI) sağlık sistemlerine entegrasyonundaki hazırlık düzeyini ilk kez kapsamlı biçimde ortaya koydu. Rapora göre, 53 ülkeden 50’sinin katıldığı ankette çarpıcı bir gerçek dikkat çekiyor:
Sadece 4 ülke (Rusya, İspanya, Belçika ve İsveç) sağlıkta kullanılan yapay zekâ araçlarının yanlış karar vermesi veya zarar vermesi durumunda kimin sorumlu tutulacağına dair standartlara sahip.
Üstelik bu dört ülkeden yalnızca Rusya’da bu standartlar DSÖ kriterlerine göre “tam” olarak nitelendiriliyor. İspanya, Belçika ve İsveç’teki düzenlemeler ise eksik veya kısmi.
Bu oran, bölgedeki ülkelerin sadece %8’ine tekabül ediyor. Geriye kalan %92’sinde böyle bir hukuki çerçeve yok.
Neden Bu Kadar Önemli?
Raporun yazarları ve uzmanlar bu boşluğun gerçek hayatta ciddi sonuçlar doğurduğunu söylüyor:
- Doktorlar, hukuki risk korkusuyla yapay zekâya güvenmekten çekinebiliyor.
- Ya da tam tersi: “Nasıl olsa sistem sorumlu” diyerek aşırı güvenip, kendi klinik muhakemelerini ikinci plana atabiliyor.
- Her iki durum da hasta güvenliğini tehlikeye atıyor.
DSÖ Avrupa Bölge Direktörü Dr Hans Henri P. Kluge’nin Medscape’e verdiği demeçte kullandığı ifade durumu çok net özetliyor:
“Net sorumluluk standartlarının olmaması, klinisyenlerin ya yapay zekâya fazla çekingen yaklaşmasına ya da fazla güvenmesine yol açıyor. Her iki senaryo da hasta güvenliği riskini artırıyor.”
Yapay Zekâ Koşuyor, Kanunlar Ayakkabısını Bağlıyor
Rapor aynı zamanda şu ironik durumu gözler önüne seriyor:
- Bölge ülkelerinin üçte ikisi tanıda yapay zekâ kullanıyor.
- Yarısı hasta destek chatbot’ları devrede.
- Generatif yapay zekâ araçları (ChatGPT benzeri) milyonlarca doktor ve hasta tarafından günlük olarak kullanılıyor.
- Sadece ABD’de 1500’den fazla yapay zekâ tabanlı tıbbi cihaz onaylı.
Ama hukuki altyapı hâlâ 20. yüzyılda.
Uppsala Üniversitesi’nden dijital sağlık uzmanı Doç. Dr Charlotte Blease’in tespiti çok çarpıcı:
“Yapay zekâ depar atıyor, ama dijital okuryazarlığımız ve yasalarımız hâlâ ayakkabılarını bağlıyor.”
Sorumluluk Boşluğu (Responsibility Gap)
Budapeşte Teknik Üniversitesi’nden Doç. Mihály Héder’e göre asıl sorun şu:
Yapay zekâ kendi başına hukuken sorumlu tutulamıyor, çünkü toplum onu “ahlaki fail” olarak görmüyor. Dolayısıyla sorumluluk başka aktörlere dağıtılmak zorunda. Ama bu dağıtım hiç kolay değil.
Olası sorumlu adayları:
- Yapay zekâyı geliştiren şirket
- Sistemi hastaneye/hizmete sunan kurum
- Yapay zekânın çıktısını kullanarak karar veren hekim
Sorun şu ki:
- Derin öğrenme modelleri sürekli öğrenip değişiyor → geleneksel “ürün sorumluluğu” kuralları yetersiz kalıyor.
- “Çok el sorunu” (many hands problem): Bir yapay zekâ projesinde yüzlerce kişi çalışıyor, zararı kime bağlayacaksınız?
- Kara kutu (black box) yapısı: Çıktının nasıl oluştuğu çoğu zaman açıklanamıyor.
Avrupa’da Durum: AI Act Geldi Ama…
12 Temmuz 2024’te yürürlüğe giren AB Yapay Zekâ Yasası (AI Act), sağlıkta kullanılan yapay zekâ uygulamalarını “yüksek riskli” kategorisine aldı ve sıkı şartlar getirdi (güvenlik, veri kalitesi, insan denetimi, şeffaflık vs.). Ancak bu kuralların sağlık uygulamaları için tam anlamıyla devreye girmesi 2026 ve 2027 Ağustos aylarını bulacak.
Yani hâlâ bir “geçiş dönemi” yaşıyoruz.
Peki Şu Anda Ne Oluyor?
Çoğu ülkede yapay zekâ kaynaklı hatalar mevcut hukuki altyapıyla çözülmeye çalışılıyor. Örneğin İsveç’te “kusur aranmayan hasta zararı sistemi” (no-fault patient injury system) devreye giriyor: Önce hasta tazmin ediliyor, sonra sorumluluk araştırılıyor.
Dr Charlotte Blease bu konuda ilginç bir iyimserlik de sunuyor:
“Aslında yapay zekâsız tıpta da hesap verebilirlik çok zayıf. İnsan hatası çok sık oluyor ama çoğu zaman kimse sorumluluk kabul etmiyor. Yapay zekânın avantajı şu: dijital iz bırakıyor. Hangi doktorun uyarıyı görmezden geldiği, hangi çıktıyı yanlış yorumladığı çok daha kolay takip edilebiliyor. Belki de yapay zekâ, insanları daha hesap verebilir hale getirecek.”
Sonuç: Mükemmel Çözümü Beklemeye Zaman Yok
Raporun temel mesajı çok net:
Yapay zekâ sağlıkta artık geri döndürülemez biçimde yer aldı. Milyonlarca insan ve hekim onu kullanıyor. Hukuki çerçeveyi oturtmak için “mükemmel yasayı” beklersek çok geç kalacağız.
Yapmamız gereken:
- Hemen “çalışan bir çerçeve” oluşturmak,
- Eksikleri kullanım sırasında tespit edip sürekli güncellemek,
- Sorumluluğu paylaşım modeliyle dağıtmak (üretici – kurum – hekim),
- Şeffaflık ve açıklanabilirlik standartlarını zorunlu hale getirmek,
- Hekimleri yapay zekâ okuryazarlığı konusunda hızla eğitmek.
DSÖ Avrupa, şu anda üye ülkelerle birlikte “bölgesel bir yapay zekâ yol haritası” üzerinde çalışıyor. Ama raporun da gösterdiği gibi, zaman hızla daralıyor.
Son söz Dr Kluge’den:
“Yapay zekânın sağlıkta sunduğu muazzam fırsatları kaçırmamak için, sorumluluk, şeffaflık ve güven mekanizmalarını bir an önce kurmalıyız. Aksi takdirde, teknolojik ilerleme hasta güvenliğini ve toplumsal güveni riske atabilir.”
Yapay zekâ yanlış karar verdiğinde suç kimin olacak?
Şu anda çoğu ülkede: Kimse tam olarak bilmiyor.
Ama bu soruya acilen, ortak akılla ve cesur adımlarla cevap bulmak zorundayız.
Hiç yorum yok:
Yorum Gönder