Yapay zekanın kontrolden çıkabileceğine dair endişeler, sosyal medya platformu X'in sohbet botu Grok'un son güncellemesiyle yeniden alevlendi.
Sabah.com.tr'nin haberine göre, Grok’un güncellemenin ardından kullanıcıların sorularına küfürlü, siyasi içerikli ve dini değerlere hakaret eden yanıtlar vermeye başlaması, kamuoyunda büyük tepki topladı. Tepkiler yalnızca sosyal medya kullanıcılarıyla sınırlı kalmadı; adli bilişim uzmanlarından teknoloji etikçilerine kadar pek çok uzmandan uyarılar geldi. Ankara Cumhuriyet Başsavcılığı tarafından başlatılan soruşturmanın ardından Grok’a erişim engeli getirildi. Olay, yapay zekânın denetlenebilirliği ve etik sınırları konusunda önemli bir tartışmayı yeniden gündeme taşıdı.
SERBEST BIRAKILMIŞ DİL POLİTİKASI
Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık: "Grok'un küfürlü ve saldırgan dil kullanmaya başlaması, büyük olasılıkla modelin yeni bir güncelleme ile daha az sansürlenmiş yanıtlar vermesi için ayarlandığını gösteriyor." diyen Ali Murat Kırık, yapay zeka sistemlerinin, nasıl yanıt vereceklerini eğitim verilerinden ve modelin tasarım parametrelerinden öğrendiğini ifade etti.
Bu filtrelerin gevşetilmesi veya kaldırılması durumunda yapay zekanın sosyal medya diline benzer şekilde hakaret içeren, argo ve saldırgan ifadeler kullanabileceğine dikkat çeken Kırık, "Grok'un bu şekilde davranması, özellikle istemli olarak 'serbest bırakılmış' bir dil politikası ile karşı karşıya olduğumuzu düşündürüyor. Bu da modelin kullanıcılarla 'samimi' ve 'insan gibi' etkileşime geçmesini sağlarken, sonuçta ciddi etik ve güvenlik sorunlarına yol açıyor" ifadelerini kullandı.
GELİŞMİŞ İÇERİK FİLTRELEME
"Bu durumun yarattığı etik tartışmalar ve güvenlik risklerine karşı nasıl önlem alınmalı?" sorusuna yanıt veren Prof. Dr. Ali Murat Kırık, bu gibi durumlarda öncelikle yapay zekanın çıkışlarını denetleyen gelişmiş içerik filtreleme sistemlerinin devreye alınması gerektiğini vurguladı.
ANALİZ EDEN SİSTEMLER
Kırık, "Modelin eğitildiği verilerde, hakaret, nefret söylemi veya toplumsal ayrımcılık içeren örnekler varsa, bunlar eğitim sürecinden çıkarılmalı ya da etkisizleştirilmelidir. Ayrıca modelin çıktıları üzerinde çalışan bir 'moderasyon katmanı' (örneğin bir kelime filtreleme veya yanıt denetleme algoritması) gereklidir. Kullanıcıların yönlendirmeleriyle (örneğin 'şuna küfret') modelin bu isteklere göre davranmasının önüne geçmek için ise prompt (komut) filtresi gibi yapay zeka girişlerini analiz eden sistemler kurulmalıdır. Buna ek olarak, bu tür sistemlerin geliştirme süreci bir etik kurul tarafından denetlenmeli ve toplumla şeffaf şekilde paylaşılmalıdır." ifadelerini kullandı.
'PROVOKATİF' VEYA 'DOĞRUDAN' YANITLAR
"Grok'un siyasi kişilere hakaret eden yanıtlar üretmesi, modelin kasıtlı olarak daha 'provokatif' veya 'doğrudan' yanıtlar vermesi için yapılandırıldığını gösteriyor" diyen Kırık, bu tür davranışların, genellikle modelin çıktılarında uygulanan sansür veya kısıtlayıcı kuralların kaldırılması ile ilişkili olduğunu ifade etti.
YAPAY ZEKANIN SOSYAL MEDYA ÖĞRENDİĞİ KALIPLAR
Özellikle X platformunun "ifade özgürlüğünü sınırsızlaştırma" yaklaşımı, Grok'un da daha özgür konuşacak şekilde güncellenmesine neden olabileceğine dikkat çeken Kırık, "Ancak bu tür serbestlik, modelin aşırı örnekleri taklit etmesiyle sonuçlanır; çünkü yapay zeka, sosyal medya dilinden öğrendiği kalıpları tekrar eder. Eğer siyasi tartışmalarda sıkça rastlanan hakaret ifadeleri modele örnek olarak verilmişse ve filtre kaldırılmışsa, sonuç Grok gibi kontrolsüz yanıtlar olur. Bu da yalnızca etik değil, aynı zamanda platformun yasal sorumluluğunu da doğurur." dedi.
MADDİ TAZMİNATLAR VE ERİŞİM YASAKLARI
Prof. Dr. Ali Murat Kırık, şu ifadeleri kullandı: "Eğer yapay zeka sistemleri Grok örneğinde olduğu gibi küfür eden, ayrımcı veya şiddet çağrısı yapan yanıtlar üretmeye devam ederse, bu durum hem toplumsal düzeyde kutuplaşmayı artırabilir hem de platformların ciddi hukuki sorumluluklarla karşılaşmasına yol açabilir. Özellikle Avrupa Birliği'nin Yapay Zeka Yasası gibi düzenlemeleri ve çeşitli ülkelerdeki nefret söylemi yasaları, bu tür içerikleri üreten sistemleri geliştiren ve barındıran şirketleri sorumlu kılabilir. Ayrıca, bu tür modellerin kullanıldığı platformlar, içerik denetimini ihmal ettiği gerekçesiyle maddi tazminatlar ve erişim yasakları ile karşılaşabilir. Gelecekte bu sorunların önüne geçmek için yapay zeka sistemlerinin mutlaka şeffaf, denetlenebilir, etik ilkelerle uyumlu ve toplumun değerleriyle çelişmeyecek biçimde yapılandırılması, ayrıca ulusal ve uluslararası bağımsız denetim mekanizmalarına tabi tutulması gerekir."
YAPAY ZEKA GROK'A ERİŞİM ENGELI GETİRİLDİ
Ankara Cumhuriyeti Başsavcılığı X sosyal medya platformu yapay zekası Grok hakkında soruşturma başlatmıştı. Söz konusu gelişmenin ardından Grok'a erişim engeli getirildi.
X (Twitter) isimli sosyal paylaşım sitesinin yapay zeka uygulaması olan Grok isimli programın birçok kullanıcıya verdiği cevaplar içeriğinde hakaret içerikli sözler yer alması nedeniyle, Ankara Cumhuriyet Başsavcılığı tarafından soruşturma başlatılmıştı.
UYGUNSUZ İÇERİKLERİ KALDIRMAK İÇİN ÇALIŞIYORUZ
Söz konusu gelişmelerin ardından X cephesinden konuya ilişkin açıklama geldi.
X, Grok tarafından yapılan paylaşımlara yönelik şu ifadeleri kullandı:
- Grok tarafından yapılan son paylaşımların farkındayız ve uygunsuz içerikleri kaldırmak için aktif olarak çalışıyoruz.
- İçeriğin farkına varmamızın ardından, xAI Grok'un X'te paylaşım yapmadan önce nefret söylemini engellemek adına önlemler aldı.
- xAI yalnızca gerçeği arayan bir yapay zeka eğitmektedir ve X üzerindeki milyonlarca kullanıcı sayesinde, modelin eğitiminin geliştirilebileceği alanları hızla tespit edip güncelleyebiliyoruz.
GÜNCELLEMEDEN SONRA
Sohbet botunun tepkilerindeki keskin değişim, Musk'ın geçen hafta duyurduğu yapay zeka değişikliklerinin ardından geldi.
Musk, sosyal medya platformu X'te, "Grok'u önemli ölçüde geliştirdik. Soru sorduğunuzda değişimi fark edeceksiniz" paylaşımında bulunmuştu.