Teknoloji dünyasında 'verinin anonimleştirilmesi' bugüne kadar temel bir güvenlik standardı olarak kabul edilirken, Northeastern Üniversitesi'nden Dr. Tianshi Li’nin yayımladığı çalışma bu kabulü sarstı. Yapay zeka devi Anthropic’in, kullanıcıların yapay zekaya bakış açısını anlamak amacıyla yürüttüğü mülakatlardan paylaştığı 1.250 anonim kayıt, gelişmiş LLM’lerin "mikroskop" etkisiyle kişisel kimliklere dönüştü.
YAPAY ZEKA 'MİKROSKOBU' ALTINDA KİMLİK TESPİTİ
Bilimsel makale sunucusu arXiv'de yer alan çalışmaya göre, Dr. Li özellikle "bilim insanı" alt kümesindeki verilere odaklandı. Standart bir büyük dil modeli kullanarak, mülakatların yüzde 25'inin anonimliğini kaldırmayı başaran araştırmacı; verilen yanıtları belirli bilimsel makalelerle, hatta doğrudan katılımcıların isimleriyle ilişkilendirdi.
Dr. Li, bu sürecin 'şaşırtıcı derecede kolay' olduğunu vurgulayarak şu uyarıda bulundu: "LLM’leri bir tür mikroskop olarak tanımlayabiliriz. İnsan gözüne alakasız görünen soyut veriler, yapay zekanın analiz gücü altında birleşerek net kimlik bilgilerine dönüşebiliyor."
ANTHROPIC: 'PROTOKOLERİMİZ TİTİZLİKLE UYGULANIYOR'
Konuyla ilgili görüşü sorulan bir Anthropic sözcüsü, mülakat yapılan kişilerin yanıtlarının kamuoyuna açıklanacağı konusunda önceden bilgilendirildiğini ve rızalarının alındığını belirtti. Şirket, veri gizliliğini ciddiye aldıklarını ve kimliksizleştirme protokollerini titizlikle uyguladıklarını savunsa da; çalışmanın sonuçları, sistemin metodolojik açıklarını gözler önüne serdi.
KADEMELİ BİLGİ İFŞASI VE SİBER RİSKLER
Araştırma, insanların yapay zeka ile etkileşime girerken farkında olmadan kendileriyle ilgili kritik detayları "kademeli olarak" paylaştığını ortaya koyuyor. Dr. Li’ye göre, tek başına anlamsız olan bu küçük parçalar, internetteki diğer açık kaynak verilerle birleştiğinde siber saldırganlar için büyük fırsatlar sunuyor.
TİCARİ VE HUKUKİ SONUÇLAR
İş dünyası ve teknoloji şirketleri için bu gelişme, kişisel verilerin korunması (KVKK/GDPR) süreçlerinde yeni bir dönemi işaret ediyor:
Yeni Bir Güvenlik Standardı İhtiyacı: Uzmanlar, "hazır LLM'lerin" kötü niyetli kullanımı karşısında daha gelişmiş, yapay zeka tabanlı koruma kalkanlarının geliştirilmesi gerektiğini savunuyor.