Tüm makaleler

Açıklanabilir Yapay Zekâ: Yöntemler, Uygulamalar ve Etik Konular

XAI teknikleri, sağlık, hukuk, eğitim ve finans uygulamalarıyla etik boyutlar

2025 Osman Sefa Coşar AI TECH – Gazi Üniversitesi Yapay Zekâ Uygulama ve Araştırma Merkezi Makale
XAI Açıklanabilirlik LIME

Özet


Bu makale, yapay zekâ sistemlerinin karar alma süreçlerinde şeffaflık ve güven ihtiyacına odaklanarak, Açıklanabilir Yapay Zekâ (XAI) kavramını kapsamlı biçimde ele almaktadır.
Derin öğrenme modelleri yüksek doğruluk sağlasa da 'kara kutu' doğaları nedeniyle kullanıcı güveni zedelenmektedir. Bu bağlamda XAI, yalnızca teknik bir yenilik değil, aynı zamanda etik, yasal ve toplumsal bir zorunluluktur.

Makale, XAI yöntemlerini ayrıntılı biçimde sınıflandırmaktadır:
- Modele bağımlı yöntemler (Grad-CAM, Guided Backpropagation) → CNN gibi belirli derin öğrenme modellerinde içsel ağırlıklara erişerek karar bölgelerini görselleştirir.
- Modele bağımsız yöntemler (LIME, SHAP) → giriş/çıkış ilişkileri üzerinden çalışarak geniş model yelpazesinde açıklama sunar, fakat daha fazla hesaplama maliyeti gerektirir.
- İçsel (ante-hoc) yöntemler (Karar Ağaçları, GAM, Bayesian Rule List) → modelin yapısını doğrudan anlaşılır kılar.
- Post-hoc yöntemler (LIME, SHAP, Anchors, Counterfactuals) → eğitilmiş kara kutu modellerin çıktısını yorumlar.
- Görselleştirme temelli yöntemler (Grad-CAM, LRP, Attention) → özellikle medikal görüntülerde hangi bölgelerin karar üzerinde etkili olduğunu gösterir.
- Yerel açıklamalar → tek bir tahminin nedenini ortaya koyar (ör. LIME).
- Global açıklamalar → modelin tüm davranışı hakkında fikir verir (ör. SP-LIME). Yerel ve global yaklaşımların birlikte kullanımı en güvenilir sonuçları sunmaktadır.

Makale ayrıca açık kaynak kütüphaneleri de incelemektedir. LIME, SHAP, DeepLIFT ve Integrated Gradients yöntemlerini içeren ELI5, Captum, Alibi ve InterpretML gibi araçlar açıklanabilirliği yaygınlaştırsa da, rassallık ve eğitim başlangıçlarından kaynaklı farklı sonuçlar üretebilmekte; bu nedenle tek başına kullanılmaları güvenilirlik sorunu yaratabilmektedir. Çoklu model entegrasyonu bu soruna çözüm olarak önerilmektedir.

XAI’nin uygulama alanları geniştir:
- Sağlıkta, CheXplain gibi sistemler göğüs röntgenlerinde Grad-CAM ile dikkat edilen bölgeleri görselleştirerek doktor güvenini artırır. Hasta güvenliği ve klinik etkinlik açısından XAI kritik rol oynar.
- Eğitimde, XAI-ED çerçevesi öğrenciler, öğretmenler ve yöneticiler için kişiselleştirilmiş açıklamalar sunar; IBM’in XAITutor sistemi öğrencilere önerilerin nedenini açıklarken öğretmenlere pedagojik destek verir.
- Savunmada, DARPA’nın XAI programı insansız hava araçlarının neden belirli hedefleri tehdit olarak sınıflandırdığını açıklanabilir hale getirerek güvenlik ve insan denetimini güçlendirir.
- Hukukta, COMPAS örneği algoritmik önyargıların ifşasının önemini ortaya koyar; XAI, yargı kararlarının gerekçelendirilmesini ve adil yargılanma hakkının korunmasını sağlar.
- Finans sektöründe, FICO Explainable ML Challenge kredi skorlamada SHAP ve LIME kullanarak müşteri bazlı kararların şeffaf açıklamalarını öne çıkarmıştır.
- Otonom araçlarda, Waymo testlerinde aracın fren veya şerit değiştirme kararları XAI ile görselleştirilerek kullanıcı güveni artırılmaktadır.

Etik ve sosyal boyutlarda XAI’nin önemi büyüktür. Adalet, önyargı, gizlilik ve hesap verebilirlik XAI’nin hem çözmeye çalıştığı hem de yeni riskler barındırdığı alanlardır. Örneğin, önyargılı veriler adaletsizlikleri yeniden üretebilir; fazla teknik açıklamalar kullanıcı güvenini azaltabilir; yanlış yorumlanan açıklamalar sahte bir kontrol hissi yaratabilir. Bu nedenle açıklamaların hedef kullanıcıya uygun, sade ve anlaşılır olması gerektiği vurgulanmaktadır.

Sonuç olarak bu makale, XAI’nin sadece model kararlarını açıklamaktan ibaret olmadığını, aynı zamanda etik, yasal ve toplumsal güvenin sağlanmasında temel bir araç olduğunu göstermektedir. XAI, geleceğin yapay zekâ uygulamalarında şeffaflık ve sorumluluğun vazgeçilmez unsuru olarak öne çıkmaktadır.
Modern Footer