Yapay zekaya unutmayı öğreniyor: Özel ve telifli veriler korunacak

UC Riverside ekibi, kişisel ve telifli bilgilerin yapay zeka modellerinde süresiz kalmasına karşı çözüm geliştirdi. Yeni yöntem, orijinal verilere erişmeden “unutmayı” mümkün kılıyor.

Giriş: 29.08.2025 - 17:22
Güncelleme: 29.08.2025 - 17:22
Yapay zekaya unutmayı öğreniyor: Özel ve telifli veriler korunacak

Temmuz ayında Vancouver’da düzenlenen Uluslararası Makine Öğrenmesi Konferansı’nda sunulan bir çalışma, yapay zeka modellerinde kişisel ve telifli bilgilerin süresiz saklanmasına dair artan endişelere yanıt niteliği taşıyor. UC Riverside (UCR) araştırmacıları, modellerin seçili bilgileri ‘unutmasını’ sağlayan yeni bir yöntem geliştirdi.


Bu yaklaşım, maliyetli ve enerji yoğun yeniden eğitime gerek kalmadan özel verilerin kaldırılmasına olanak tanıyor. Böylece orijinal eğitim verileri artık mevcut olmasa bile modellerden belirli bilgilerin çıkarılması mümkün hale geliyor.


KAYNAKSIZ SİLME YÖNTEMİ

Çalışmanın başyazarı, UCR Elektrik ve Bilgisayar Mühendisliği doktora öğrencisi Ümit Yiğit Başaran, “Gerçek dünya koşullarında her zaman orijinal verilere ulaşmak mümkün olmayabilir. Bu yüzden veriler artık mevcut olmasa bile işe yarayan sertifikalı bir çerçeve geliştirdik” ifadelerini kullandı.


Ekip, geliştirdikleri yönteme “kaynaksız sertifikalı öğrenmeyi kaldırma” adını verdi. Teknik, orijinal veriye benzer istatistiksel özelliklere sahip vekil veri kümeleriyle hedeflenen bilgiyi silmeye dayanıyor. Sistem, model parametrelerini ayarlarken dikkatlice kalibre edilmiş rastgele gürültü de ekliyor.


YASAL VE PRATİK ÖNEM

Bu gelişme, AB Genel Veri Koruma Yönetmeliği (GDPR) ve Kaliforniya Tüketici Gizliliği Yasası gibi düzenlemelerin gölgesinde büyük önem taşıyor. Ayrıca, New York Times’ın telifli içeriklerinin GPT modellerinde kullanıldığı iddiasıyla OpenAI ve Microsoft’a açtığı dava, konunun hukuki boyutunu da gündeme taşımıştı.


UCR ekibi, yöntemlerini hem sentetik hem de gerçek veri kümeleri üzerinde test ederek, tam yeniden eğitimle elde edilen sonuçlara yakın gizlilik garantileri sunduğunu ve bunun çok daha düşük işlem gücüyle mümkün olduğunu ortaya koydu.

Yapay zekaya unutmayı öğreniyor: Özel ve telifli veriler korunacak


UYGULAMA ALANLARI GENİŞ

Araştırma ekibinde Başaran’ın yanı sıra Prof. Amit Roy-Chowdhury ve Yrd. Doç. Başak Güler yer alıyor. Roy-Chowdhury, yöntemin şimdilik basit modellere uygulandığını ancak zamanla ChatGPT gibi karmaşık sistemlere de ölçeklenebileceğini belirtti.


Güler ise, “İnsanlar, verilerinin makine öğrenmesi modellerinden silinebileceğini bilmeyi hak ediyor; sadece teoride değil, kanıtlanabilir pratik yollarla” diyerek çalışmanın önemine dikkat çekti.


Ekip, bir sonraki adımda daha karmaşık modeller üzerinde çalışmayı ve teknolojiyi dünya çapındaki yapay zeka geliştiricilerinin erişimine açacak araçlar geliştirmeyi planlıyor.


GELECEKTEKİ ETKİLER

Yöntemin, yalnızca regülasyonlara uyum için değil, aynı zamanda medya kuruluşları, sağlık kurumları ve hassas verilerle çalışan tüm organizasyonlar için de kritik faydalar sağlayabileceği vurgulanıyor.


Proje, Brookhaven Ulusal Laboratuvarı’ndan araştırmacı Sk Miraj Ahmed ile de iş birliği içinde yürütüldü.