Geçtiğimiz ay yapay zekâ tarafından üretilen içeriklerin tespitine yönelik yeni bir araç olan SynthID Detector duyuruldu. Google, bu araç sayesinde metin, görüntü, video ve ses gibi farklı formatlarda yapay zekâ ile oluşturulmuş içeriklerin tanımlanabileceğini belirtiyor. Ancak, söz konusu aracın kullanım şekli ve kapsamı bazı sınırlamaları da beraberinde getiriyor.
KAPSAM SINIRLI KULLANIM
SynthID şu anda yalnızca "erken test kullanıcıları" için erişilebilir durumda ve bekleme listesiyle kullanılabiliyor. Daha da önemlisi, bu araç yalnızca Google’ın kendi üretim modelleriyle oluşturulmuş içerikleri algılayabiliyor. Örneğin metin için Gemini, video için Veo, görseller için Imagen ve ses için Lyria gibi Google yapay zekâ sistemleriyle üretilmiş içerikler üzerinde çalışabiliyor.
Bu nedenle, başka bir yapay zekâ aracı –örneğin ChatGPT– kullanılarak üretilmiş içerik, SynthID tarafından tespit edilemiyor. Çünkü bu sistem, içeriğin "AI üretimi" olup olmadığını anlamaya çalışmak yerine, Google tarafından özel olarak yerleştirilen dijital bir “filigran”ın varlığını tarıyor.
DİJİTAL FİLİGRAN NE SAĞLIYOR?
Bu görünmez filigranlar yalnızca makineler tarafından algılanabiliyor ve içeriğin kaynağına dair bilgilerin taşınmasını sağlıyor. Böylece medya içeriklerinde yazar veya üretici doğrulaması yapılabiliyor. SynthID ile yerleştirilen bu filigranlar kullanıcılar tarafından görülmese de, çeşitli araçlarla tespit edilerek içeriğin Google AI sistemleri tarafından üretilip üretilmediği anlaşılabiliyor.
Bu girişim, diğer yapay zekâ şirketlerinin de benzer sistemler geliştirmesiyle paralellik taşıyor. Meta gibi şirketler de kendi modellerine özgü filigran ve algılama sistemleri üzerinde çalışıyor. Ancak bu sistemler evrensel değil; yalnızca kendi model çıktıları için geçerli. Bu durum, kullanıcıların birden fazla dedektörü birlikte kullanmalarını zorunlu hale getiriyor.
PARÇALI GÜVENLİK YAKLAŞIMI
Google’ın da destek verdiği içerik doğrulama girişimleri arasında meta veri temelli araçlar da yer alıyor. Bu sistemler medya dosyalarının düzenlenme geçmişini göstererek doğrulama yapılmasını sağlıyor. Fakat sosyal medya platformlarına yüklenen ya da farklı formatlara dönüştürülen içeriklerde bu veriler kolayca kaybolabiliyor. Özellikle içeriği kasıtlı olarak manipüle etmek isteyenler için bu bir avantaj oluşturuyor.
Diğer yandan, bazı yapay zekâ tespit sistemleri adli analiz yöntemlerine dayanıyor. Görseldeki parmak sayısı, ışık yansımaları gibi fiziksel ipuçları analiz edilerek yapay üretim olup olmadığı anlaşılmaya çalışılıyor. Ancak bu yöntemlerin bir kısmı manuel yargıya dayanıyor ve yapay zekâ modellerinin gelişimiyle birlikte bu tür analizler daha da zor hale geliyor.
SENARYOLARA GÖRE RİSKLER
Yapay zekâ dedektörleri, özellikle içeriğin tamamen yapay zekâ tarafından üretilmesi durumunda daha başarılı sonuçlar verebiliyor. Fakat insan katkısıyla düzenlenen ya da dönüştürülen içeriklerde sistemler büyük oranda hata yapabiliyor. AI dedektörlerinin çoğu kararlarını nasıl verdiklerini açıklamıyor, bu da özellikle eğitim kurumlarında etik tartışmalara yol açıyor. Ana dili İngilizce olmayan kullanıcıların daha fazla "yapay zekâ tarafından yazılmış" etiketiyle karşılaşması bu sistemlerin ayrımcı yönlerine dair eleştirileri artırıyor.
YAYGIN KULLANIM ALANLARI
Yapay zekâ tespit araçları, sigortacılıktan gazeteciliğe, işe alımdan arkadaşlık uygulamalarına kadar çok sayıda alanda ihtiyaç haline gelmiş durumda. Örneğin bir sigorta şirketi, gönderilen bir görüntünün gerçek bir hasarı yansıtıp yansıtmadığını anlayarak süreci doğru yönetebiliyor. Gazeteciler, paylaşılan bilginin kaynağını doğrulamada bu sistemlerden faydalanabiliyor. Benzer şekilde, işe alım süreçlerinde başvuruların gerçek kişiler tarafından mı yoksa yapay zekâ ile mi hazırlandığına dair değerlendirmeler bu araçlarla yapılabiliyor.
Daha da önemlisi, acil yardım görevlileri, aldıkları çağrıların gerçek kişilerden mi yoksa yapay sesli bir sistemden mi geldiğini bilmek zorunda kalabilir. Böyle durumlarda yanlış bir karar, kaynak israfına ya da can kaybına yol açabilir.
GERÇEK ZAMANLI DOĞRULAMA
Tüm bu örnekler, özgünlüğün yalnızca statik doğrulama araçlarıyla sağlanamayacağını gösteriyor. Günümüzde ihtiyaç duyulan şey, gerçek zamanlı olarak ses ve görüntü analizi yapabilen AI dedektörleri. Statik filigran sistemleri, anlık manipülasyonlarla başa çıkmakta yetersiz kalabiliyor.
Özgünlük tespiti tek bir araca bırakılamayacak kadar karmaşık bir süreç haline gelmiş durumda. Yapay zekâ üretimi içeriklerin tespiti için kullanılan araçların sınırlamalarını anlamak ve bu araçlardan gelen bilgileri, kullanıcıların kendi bağlamsal bilgileriyle birleştirmesi, güvenilir sonuçlar elde etmenin en sağlıklı yolu olarak öne çıkıyor.