Siber suçluların yeni silahı: Yapay zeka sohbet robotları

Anthropic’in raporuna göre siber suçlular, sohbet robotlarını kandırarak kötü amaçlı yazılımlar geliştiriyor. Uzmanlar, üretken yapay zekanın kötüye kullanımının siber güvenlikte yeni bir dönemi başlatabileceği konusunda uyarıyor.

Giriş: 02.09.2025 - 15:39
Güncelleme: 02.09.2025 - 15:39
Siber suçluların yeni silahı: Yapay zeka sohbet robotları

Üretken yapay zeka araçlarının potansiyel kötüye kullanımı, siber güvenlik uzmanları arasında giderek daha fazla endişe yaratıyor. Anthropic’in yayınladığı yeni rapora göre, “his korsanlığı” adı verilen yöntemle sohbet robotları kötü amaçlı yazılım üretiminde kullanılabiliyor.


Şirket, Claude Code aracılığıyla bir siber suçlunun kısa sürede birden fazla ülkeyi hedef alan veri gaspı operasyonu yürüttüğünü açıkladı. Saldırının hükümetler, sağlık kurumları, acil servisler ve dini kuruluşlar dahil en az 17 kurumu etkilediği belirtildi.


GÜVENLİK ÖNLEMLERİ AŞILDI

Anthropic, gelişmiş güvenlik önlemlerine rağmen saldırganın bu mekanizmaları aşmayı başardığını kabul etti. Daha önce de kullanıcıların Claude Code üzerinden kişisel veri, tıbbi kayıt ve giriş bilgilerini toplayan araçlar üretebildiği ve yüz binlerce dolarlık fidye taleplerine yol açtığı rapor edilmişti.


CHATBOTLARIN KARANLIK YÜZÜ

Orange Cyberdefense’den Rodrigue Le Bayon, “Bugün siber suçlular, yapay zekayı kullanıcıların geniş kesimi kadar benimsedi” dedi. OpenAI de geçtiğimiz aylarda ChatGPT’nin bazı kullanıcılar tarafından kötü amaçlı yazılım geliştirmede kullanıldığını doğrulamıştı.


İsrailli siber güvenlik uzmanı Vitaly Simonovich, “sıfır bilgi” düzeyindeki kişilerin bile sohbet robotlarını kandırarak zararlı kodlar üretebildiğini söyledi. Simonovich, “10 yıllık deneyimim var ama kötü amaçlı yazılım geliştiricisi değilim. Bu, mevcut modellerin sınırlarını test etme yolumdu” dedi.


YENİ HACKER NESLİ

Uzmanlara göre, sohbet robotları doğrudan çok karmaşık kodlar üretmese de saldırganların daha fazla iş yapmasını kolaylaştırıyor. Bu da daha fazla kurban ve yeni bir hacker neslinin ortaya çıkması anlamına geliyor.


Le Bayon, üretken yapay zekanın artan kullanımına karşılık, geliştiricilerin kullanım verilerini analiz ederek kötüye kullanımı tespit etmeye çalıştığını belirtti. Bu sayede gelecekte zararlı faaliyetlerin daha hızlı engellenebileceği ifade ediliyor.