Algoritmik Ayrımcılık (Bias) ve Hukuki Yansımaları
Giriş
Yapay zeka sistemlerinin toplumun birçok alanında karar destek mekanizması olarak kullanılması, beraberinde algoritmik ayrımcılık (bias) riskini doğurmuştur. Algoritmalar, eğitildikleri verilerdeki önyargıları taklit edebilir, hatta bu önyargıları sistematik hale getirerek pekiştirebilir. Bu durum bireylerin eşitlik hakkını zedeleyebilir ve ayrımcılık yasağına aykırı sonuçlar doğurabilir. Özellikle kredi değerlendirme, işe alım, sağlık hizmetleri, adli karar destek sistemleri ve sosyal medya algoritmaları gibi alanlarda algoritmik önyargı, yasal düzenlemelerin ve insan haklarının doğrudan ihlaliyle sonuçlanabilir.
Bu yazıda, algoritmik ayrımcılığın tanımı, nedenleri, örnekleri ve bu ayrımcılığın ulusal ve uluslararası hukukta nasıl değerlendirildiği ele alınacaktır.
Algoritmik Ayrımcılık Nedir?
Algoritmik ayrımcılık, bir yapay zeka sisteminin ırk, cinsiyet, yaş, din, etnik köken, engellilik gibi özellikler temelinde bazı bireyleri veya grupları sistematik olarak dezavantajlı konuma düşürmesidir. Bu durum genellikle şu nedenlerle ortaya çıkar:
1. Veri Kaynaklı Önyargılar
Tarihsel verilerdeki insan önyargıları, algoritmaların da aynı şekilde önyargılı kararlar üretmesine neden olabilir.
2. Temsil Edilmeyen Gruplar
Veri setlerinde belirli grupların eksik ya da yanlış temsil edilmesi, algoritmanın bu gruplara karşı önyargılı davranmasına yol açabilir.
3. Modelleme Hataları
Algoritmaların eğitilme ve test edilme biçimleri, belirli değişkenlere aşırı ağırlık vererek ayrımcılığı artırabilir.
4. Siyah Kutu Sistemler
Açıklanabilirlikten yoksun olan kompleks algoritmaların karar mekanizmalarının incelenmesi zordur; bu da gizli önyargıların tespitini güçleştirir.
Örnek Vakalar
- Amazon’un işe alım algoritması, erkek adayları kadınlara kıyasla daha yüksek oranda tercih etmişti.
- COMPAS adlı adli risk skoru algoritması, siyahi sanıklara daha yüksek risk puanı atamıştı.
- Kredi değerlendirme algoritmalarında, beyaz olmayan başvuruculara daha düşük kredi skoru verilmesi gibi vakalar yaşandı.
Bu örnekler, teknolojik karar sistemlerinin yalnızca teknik değil, aynı zamanda ciddi bir hukuki sorun doğurabileceğini göstermektedir.
Türkiye’de Hukuki Değerlendirme
Anayasal Çerçeve
- Anayasa madde 10: Herkes kanun önünde eşittir; hiçbir kişiye, aileye, zümreye veya sınıfa imtiyaz tanınamaz.
- YZ sistemleri tarafından ayrımcılığa maruz kalan bireyler için eşitlik hakkının ihlali söz konusu olabilir.
Türk Ceza Kanunu (TCK)
- TCK 122. madde: Ayrımcılık suçu; kamuya açık hizmetlerin reddi gibi konularda cinsiyet, ırk gibi temellere dayalı ayrımcılığı cezalandırır.
KVKK (Kişisel Verileri Koruma Kanunu)
- Otomatik sistemlerle alınan kararların kişisel sonuçlar doğurması halinde kişi, kararın mantığını öğrenme ve itiraz etme hakkına sahiptir.
- Açık rıza ve veri işleme amacı ile orantılılık ilkeleri, algoritmalarda ayrımcılığı sınırlayıcı işleve sahiptir.
Avrupa Hukuku ve Uluslararası Düzenlemeler
GDPR (AB Genel Veri Koruma Tüzüğü)
- Madde 22: Kişilerin yalnızca otomatik işleme dayalı kararlara tabi tutulmaması hakkını garanti eder.
- Ayrımcı algoritmalar bu madde çerçevesinde denetlenebilir, bireyler bu kararlara itiraz edebilir.
AB Yapay Zeka Yasası (AI Act)
- “Yüksek riskli sistemler” kategorisine giren algoritmalarda ayrımcılık riski özel olarak değerlendirilmekte ve şeffaflık, izlenebilirlik, açıklanabilirlik zorunluluğu getirilmektedir.
Avrupa İnsan Hakları Sözleşmesi (AİHS)
- Madde 14: Ayrımcılık yasağını düzenler. Teknolojik sistemler tarafından uygulanan örtülü ayrımcılıklar da bu maddeye aykırılık teşkil edebilir.
Hukuki Sorumluluk Kime Aittir?
Algoritmik ayrımcılıkta hukuki sorumluluk aşağıdaki aktörlere yayılabilir:
- Veri setini sağlayanlar: Yanlı veya eksik veri sunan kurumlar
- Modeli geliştiren yazılımcılar
- Uygulamayı kullanan şirketler veya kamu kurumları
- Denetleyici otoriteler: Algoritmaların denetimsiz kullanımı durumunda ihmali bulunan denetleyiciler
Hukuki Başvuru Yolları
- KVKK Kurulu’na başvuru
- İdari yargıda dava açılması
- Anayasa Mahkemesi’ne bireysel başvuru
- AİHM’e başvuru (AİHS çerçevesinde)
- Tüketici mahkemeleri ve ceza mahkemelerinde dava süreçleri
Risk Değerlendirme ve Önleyici Yaklaşımlar
- Algoritma denetim raporları hazırlanmalı
- Bias testleri ve veri analizi yapılmalı
- Etki analizleriyle gruplar üzerindeki farklılıklar gözlemlenmeli
- Şeffaflık ilkesi doğrultusunda kullanıcıya bilgi verilmeli
- Sosyal sorumluluk ve etik kurullar oluşturulmalı
Algoritmik ayrımcılık, teknoloji çağında insan haklarının yeni sınavıdır. Yapay zeka sistemlerinin tarafsız olduğu varsayımı, verilerdeki tarihsel önyargılarla kolayca çürüyebilir. Bu nedenle algoritmaların etik, adil ve şeffaf şekilde tasarlanması bir lüks değil zorunluluktur. Hukuki düzenlemeler, bu ayrımcılığın önüne geçebilmek için geliştirilmekte ve birey haklarını koruma yönünde genişlemektedir. Geliştirici, kurum ve denetleyici yapıların birlikte hareket ederek insan merkezli bir teknoloji vizyonunu benimsemesi gerekmektedir.