Yapay zeka (YZ) sistemlerinin hızla artan kullanımı, güvenliğin ve şeffaflığın sağlanmasını daha da önemli hale getirdi. Ancak birçok YZ modeli, karar alma süreçlerinin anlaşılamadığı “kara kutu” (black box) sorunu ile karşı karşıya. Bu bağlamda, Açıklanabilir Yapay Zeka (Explainable Artificial Intelligence, XAI) kavramı doğmuş ve sistemlerin işleyiş mekanizmalarının insanlar tarafından anlaşılabilir hale getirilmesi hedeflenmiştir.
Açıklanabilir Yapay Zeka (XAI), en basit haliyle kullanıcıların ve geliştiricilerin, bir yapay zeka sisteminin nasıl ve neden belirli bir karar aldığını anlayabilmesini sağlamak için geliştirilen yöntem ve araçlar bütünü olarak tanımlanabilir. XAI’nin amacı, YZ modellerinin karar mekanizmalarını şeffaflaştırarak güven tesis etmek ve sistemlerin hatalarını önceden tespit edebilmek olarak tanımlanır. Ancak bugüne kadar geliştirilen yöntemler, bu hedefe tam anlamıyla ulaşamadığı gibi; özellikle insan hayatının söz konusu olduğu trajik olaylarda XAI’nin günümüzdeki sınırlılıkları dramatik şekilde gözler önüne serilmiştir.
Trajik Olaylar: Tesla Model X ve Boeing 737 MAX Kazaları
XAI’nin yetersizliğini açıkça ortaya koyan iki olay, Tesla ve Boeing örnekleridir.
Tesla Model X Kazası (2018): Mart 2018'de, Mountain View, Kaliforniya'da bir Tesla Model X, otomatik pilot modundayken bir otoyol bariyerine çarparak sürücüsünün ölümüne neden olmuştur. (Buna benzer birçok kaza olduğu belirtilmektedir.) Otomobil, yol işaretleri ve bariyerler gibi temel çevresel unsurları doğru şekilde algılayamamış ve neden bu hatayı yaptığı net bir şekilde açıklanmamıştır. (Konu ile ilgili WSJ tarafından açıklanan bir araştırma sonuçları fazlasıyla düşündürücüdür.)
Boeing 737 MAX Kazaları (2018 ve 2019): Endonezya'da Lion Air Flight 610 ve Etiyopya'da Ethiopian Airlines Flight 302 kazalarında, toplam 346 kişi hayatını kaybetmiştir. Her iki olayda da uçakların Maneuvering Characteristics Augmentation System (MCAS) isimli otomatik düzeltme sistemi, yanlış sensör verileri nedeniyle hatalı müdahalelerde bulunmuş ve pilotların kontrolü kaybetmesine yol açmıştır. Sistemin neden ve nasıl yanlış karar verdiğini, hatta böyle bir hata olasılığının varlığının nedenleri bile raporlarda belirgin değildir.
Bu iki örnek bile, YZ sistemlerinin yalnızca doğru çalışmasını değil, yanlış çalıştıklarında da anlaşılabilir olmasının gerekliliğini ortaya çıkartmakta yeterlidir.
Mevcut Yöntemlerin Sınırlılıkları: SHAP, LIME ve Post-Hoc Açıklamalar
XAI kapsamında geliştirilen araçlar arasında en çok öne çıkanlardan ikisi SHAP (SHapley Additive exPlanations) ve LIME (Local Interpretable Model-agnostic Explanations) yöntemleridir.
SHAP, bir modelin verdiği sonucun, hangi giriş değişkenlerinden nasıl etkilendiğini, Shapley değerleri aracılığıyla hesaplamaktadır.
LIME ise, belirli bir tahminin lokal çevresinde basitleştirilmiş bir model inşa ederek, kararın hangi girdilere dayandığını göstermeye çalışmaktadır.
Bu yöntemlerin ortak özelliği, post-hoc açıklamalar üretmeleridir.
Post-hoc terimi, Latince kökenli olup “sonradan” anlamına gelir ve burada modelin karar verdikten sonra dışarıdan yapılan analizler aracılığıyla açıklamaya çalışılması sürecini ifade eder. Başka bir deyişle, modelin iç işleyişine doğrudan müdahale edilmeden, yalnızca sonuç üzerinden geriye dönük bir yorum yapılmaktadır.
Ancak bu yaklaşımın iki temel zayıflığı bulunmaktadır:
- Modelin gerçek içsel mantığı ile post-hoc açıklamalar arasında tutarsızlık riski bulunmaktadır.
- Bir kararın alınışı sırasında yaşanan içsel belirsizlikler, çelişkiler veya tereddütler post-hoc analizlerle ortaya çıkarılamamaktadır.
Bu sebeple SHAP ve LIME gibi yöntemler, bir YZ modelinin gerçek karar verme süreçlerini ve potansiyel hatalarını anlamak için yeterli derinliği sağlayamamaktadır.
Gerçek Sorun: Bir Yapay Zekanın Kararlarını Anlaması
XAI’nin mevcut sınırları, bizi temel bir soruya yönlendirir:
Bir yapay zekanın kendi kararlarını anlaması için ne gerekir?
Cevap, insan davranışlarındaki açıklama mekanizmasına benzer bir ilkeye dayanır:
Bir başkasına bir kararı açıklayabilmek için, önce o kararı kendimizin anlamış olması gerekir.
Ancak burada söz konusu olan “anlama”, duygusal veya bilinçli bir süreçten ziyade, yapay bir sistemin, karar anında yaptığı seçimin gerekçelerini ve alternatifleri değerlendirebilecek bir bilişsel yeteneğe sahip olmasıdır. Bu, makinenin yalnızca bir çıktı üretmesini değil, o çıktının neden üretildiğini ve başka seçeneklerin neden tercih edilmediğini kavrayabilmesini gerektirir.
Gerçek açıklama, yalnızca bir sonucu ifade etmek değil, süreci ve seçimi içselleştirebilmekle mümkündür.
Öz-Yansıtma Döngüsü (SRL) ve Kayıp Temel
Bu bağlamda önerilen Öz-Yansıtma Döngüsü (Self-Reflection Loop, SRL), yapay zekâ sistemlerine gerçek anlamda açıklanabilirlik kazandırmayı amaçlamaktadır. SRL’nin temel bileşenleri şunlardır:
Karar Anı Kaydı: Model, her kararı verirken bağlamı, kullanılan stratejiyi, güven düzeyini ve içsel tereddütleri kaydeder.
İzler ve Hafıza: Karar izleri, gelecekteki değerlendirme ve öğrenme süreçleri için hafızada tutulur.
Yeniden Değerlendirme: Model, geçmiş seçimlerini alternatif senaryolarla karşılaştırabilir ve başarısızlıklardan öğrenerek karar stratejilerini değiştirebilir.
Bu mimari, modelin yalnızca doğru kararlar üretmesini değil, hatalı kararlarını da fark ederek kendi yöntemini iyileştirmesini mümkün kılar.
Mevcut XAI yöntemleri, yalnızca post-hoc açıklamalar sunarak YZ sistemlerinin güvenilirliğini artırmaya çalışmaktadır. Ancak gerçek güvenlik, sistemin kendi karar süreçlerini anlayabilmesi ve içsel bir denetim mekanizması geliştirmesiyle sağlanabilir. Öz-Yansıtma Döngüsü gibi yaklaşımlar, yapay zekânın daha güvenilir, daha öngörülebilir ve daha sorumlu bir aktör haline gelmesi için kritik öneme sahiptir.
Son olarak, şu soru gündeme gelmektedir:
Hata yaptığını fark edemeyen bir yapay zeka sistemine güvenebilir miyiz?
Bu soruya, günümüz şartlarında samimi bir şekilde “hayır” cevabını vermek zorundayız, bu yüzden yapay zekanın yalnızca hesaplaması değil, düşünmesi için de bir yapı kurmak zorunda olunduğu kesindir.
© 2025, Hakan Özerdem. Tüm hakları saklıdır.
Tüm içerik ve verilerin yayın hakkı saklıdır. Paylaşım için paylaştığınız içeriğe erişilebilir ve görünür bir bağlantı bulundurulması şarttır.