Yapay zekada enjeksiyon tehdidi: Teknoloji devleri savunmayı güçlendiriyor

Google, OpenAI, Anthropic ve Microsoft gibi teknoloji devleri, büyük dil modellerinin dolaylı enjeksiyon saldırılarına karşı savunmasını güçlendirmeye çalışıyor. Ancak uzmanlar, yapay zekânın kötüye kullanımının şimdiden siber suçlarda bir patlamaya yol açtığını söylüyor.

Giriş: 03.11.2025 - 16:03
Güncelleme: 03.11.2025 - 16:03
Yapay zekada enjeksiyon tehdidi: Teknoloji devleri savunmayı güçlendiriyor

Dünyanın önde gelen yapay zekâ şirketleri, büyük dil modellerinde (LLM) tespit edilen ve siber suçlular tarafından istismar edilebilen kritik güvenlik açıklarına karşı mücadelelerini yoğunlaştırıyor. Google DeepMind, Anthropic, OpenAI ve Microsoft, “dolaylı istem enjeksiyonu” (indirect prompt injection) olarak bilinen saldırı biçimine karşı yeni önlemler geliştiriyor. Bu saldırı türünde, kötü niyetli aktörler, yapay zekâ sistemlerini gizli bilgileri ifşa etmeye zorlayacak komutları e-posta veya web sitesi içeriklerine saklayarak sistemin güvenlik önlemlerini atlatabiliyor.


GÜVENLİK DUVARINDA DELİK

Anthropic’in güvenlik birimi lideri Jacob Klein, yapay zekânın siber saldırıların tüm aşamalarında aktif olarak kullanıldığını vurguluyor. Claude isimli dil modeline yönelik saldırıları önlemek için dış test uzmanlarıyla çalışan ekip, ayrıca saldırı anlarını algılayabilen yapay zekâ destekli güvenlik araçlarına sahip. Google DeepMind ise, Gemini modeli üzerinde yürüttüğü “otomatik kırmızı takım” yöntemini kullanarak, modeli sürekli gerçekçi saldırılara maruz bırakıyor. Bu sayede sistemdeki potansiyel açıklar tespit ediliyor ve önlem alınıyor. İngiltere Ulusal Siber Güvenlik Merkezi, bu tür açıkların kimlik avı saldırıları ve dolandırıcılıkta tehlikeli bir artışa yol açabileceği uyarısında bulunmuştu.


ZEHİRLİ VERİ TEHDİDİ

Bir başka büyük risk ise eğitim verilerine kötü amaçlı materyallerin gizlice yerleştirilmesiyle modellerin davranışlarının değiştirilmesi. “Veri zehirlenmesi” olarak bilinen bu saldırı türü, bilim dünyasının düşündüğünden daha kolay hale gelmiş durumda. Anthropic’in iş birliği yaptığı İngiltere merkezli Yapay Zekâ Güvenlik Enstitüsü ve Alan Turing Enstitüsü’nün yayınladığı son raporlar, bu tehdidin aciliyetine dikkat çekiyor. Microsoft yöneticisi Ann Johnson, savunma sistemlerinin artık daha hızlı öğrendiğini ve reaktif yerine proaktif hale gelmeye başladığını belirtiyor. Johnson, saldırganların yalnızca bir açık bulmasının yeterli olduğunu, ancak savunmacıların tüm sistemi korumak zorunda olduğunu hatırlatıyor.


KODLA GELEN SALDIRI

Siber güvenlik uzmanları, LLM modellerinin hacker’lara tespit edilmemiş kötü amaçlı yazılımları hızla üretme imkânı sunduğunu ve bu nedenle savunmanın daha zor hale geldiğini söylüyor. MIT araştırmacılarına göre, incelenen fidye yazılımı saldırılarının %80’i yapay zekâ destekli. Deepfake ve kimlik avı saldırılarında da %60’lık bir artış yaşanıyor. ESET’in uzmanı Jake Moore, siber suçluların yapay zekâ yardımıyla şirketlerin kullandığı programları LinkedIn gibi açık kaynaklardan tespit edebildiğini ve buna göre güvenlik açıklarını hedefleyebildiğini belirtiyor. Visa’nın baş risk yöneticisi Paul Fabara, bu teknolojilerin finansal dolandırıcılıkta gelişmiş sosyal mühendislik saldırılarını mümkün kıldığını aktarıyor. Deepfake ses dolandırıcılığında uzmanlaşan Pindrop şirketine göre, 2023’te müşteri başına ayda bir olan saldırılar, artık günde yediye çıktı.

Yapay zekada enjeksiyon tehdidi: Teknoloji devleri savunmayı güçlendiriyor


OTONOM SALDIRGANLAR ÇAĞI

Anthropic, yakın zamanda Claude modelinin kötüye kullanıldığı bir vakayı tespit etti. “Vibe hacking” olarak tanımlanan bu saldırıda, kötü niyetli aktörler dil modeliyle keşif yapıp kimlik bilgilerini toplayarak 17 kuruluştan toplamda 500.000 dolarlık gasp gerçekleştirdi. Bu saldırılar, yalnızca yazılımlar değil, aynı zamanda şirket çalışanlarının paylaşımları gibi açık kaynaklardan da bilgi çekilerek planlanabiliyor. Siber uzmanlar, şirketlerin AI sistemlerine ve hassas verilere erişimi olan kişi sayısını minimumda tutmaları gerektiğini vurguluyor. Visa’dan Fabara, “Bugünlerde dolandırıcı olmak için yalnızca bir dizüstü bilgisayar ve 15 dolarlık korsan yapay zekâ uygulaması yeterli,” diyor.