Kuzey Carolina Eyalet Üniversitesi’nden araştırmacılar, yapay zeka (YZ) görsel tanıma sistemlerini hedef alan yeni bir siber saldırı yöntemi geliştirdi. RisingAttacK adı verilen bu teknik, görsel yapay zeka sistemlerinin bir görüntüde neyi ‘gördüğünü’ belirleyen öğeleri tespit edip manipüle ederek sistemin algısını değiştiriyor.
EN AZ MÜDAHALE, MAKSİMUM ETKİ
RisingAttacK, görüntülerde insan gözüyle fark edilmeyecek kadar küçük değişiklikler yaparak yapay zekanın nesne tanıma becerilerini bozabiliyor. Araştırmanın ortak yazarı Doç. Dr. Tianfu Wu, “Bu tür sistemler genellikle otonom araçlardan sağlık uygulamalarına kadar kritik alanlarda kullanılıyor. Dolayısıyla güvenlik açıklarını tespit etmek büyük önem taşıyor” dedi.
KRİTİK ALANLAR RİSK ALTINDA
Bir AI sistemine yönlendirilen düşmanca saldırılar, trafikteki bir tabelayı veya yayayı yanlış algılamasına neden olabilir. Hatta bir X-ray görüntüsünde teşhisi etkileyebilir. Wu, “Hedefimiz sistemin tanıma yapmasını engellemekse, hangi özelliklerin etkili olduğunu belirleyip yalnızca onları değiştiriyoruz” diye ekledi.
YAYGIN SİSTEMLERE KARŞI ETKİLİ
RisingAttacK, ResNet-50, DenseNet-121, ViTB ve DEiT-B gibi yaygın dört YZ görsel modeli üzerinde denendi ve hepsinde başarılı oldu. Teknik, görseller üzerinde yapılan mikro değişikliklerle sistemleri yanıltabiliyor. İnsan gözüyle aynı görünen iki görselden birini AI bir araba olarak tanırken, diğerini tanıyamıyor.
GELECEKTE HEDEF: DİL MODELLERİ
Araştırma ekibi, bu saldırı yönteminin büyük dil modelleri gibi diğer YZ sistemlerinde de etkili olup olmadığını test etmeye hazırlanıyor. Wu, “Uzun vadeli hedefimiz, bu tür saldırılara karşı savunma sistemleri geliştirmek” ifadesini kullandı.
DERİN SİSTEMLERE KARŞI YENİ TEKNİK
Araştırmacılar ayrıca, sıralı en iyi K saldırı problemi gibi zorlukların üstesinden gelmek için, rakip Jacobian’ın sağ tekil vektörlerinin doğrusal kombinasyonlarını optimize eden bir yöntem önerdi. Bu, yapay zeka sistemlerine karşı daha etkili ve doğrudan müdahalelerin kapısını aralıyor.
GÜVENLİK YARIŞI BAŞLADI
Yapay zeka sistemlerinin güvenliğinin artırılması için güvenlik açıklarının belirlenmesi, alanın en öncelikli konularından biri. RisingAttacK, sadece bir saldırı aracı değil, aynı zamanda savunma sistemleri geliştirmek için bir test zemini olarak da görülüyor. Wu ve ekibi, bu bulguların yapay zeka sistemlerinde daha sağlam ve dirençli tasarımlar oluşturmak için kullanılabileceğini belirtiyor.