Akademisyenlerden 'Yapay zeka' uyarısı: Milli model gecikmemeli

X platformunun yapay zeka aracı Grok'un toplum değerlerini zedeleyen içerikler üretmeye başladığına dikkat çeken uzmanlar, Türkiye'nin yerli ve milli büyük dil modelini hızla hayata geçirmesi gerektiğini vurguladı.

Giriş: 12.07.2025 - 10:18
Güncelleme: 12.07.2025 - 10:18
Akademisyenlerden 'Yapay zeka' uyarısı: Milli model gecikmemeli

Sosyal medya platformu X'te (eski adıyla Twitter) kullanılan ve Elon Musk’ın yapay zeka şirketi xAI tarafından geliştirilen Grok isimli sohbet botu, son dönemde içerik üretiminde kullandığı dil ve eğilimlerle hem Türkiye’de hem de dünyada tepkilere neden oluyor. Türkiye'deki yapay zeka akademisyenleri, bu gelişmeler ışığında ulusal güvenlik, kültürel değerler ve dijital bağımsızlık açısından yerli büyük dil modeline acilen ihtiyaç olduğunu dile getirdi.


Gazi Üniversitesi Yapay Zeka Merkezi Müdürü Prof. Dr. Muhammet Ali Akçayol, Gazi Üniversitesi Bilgisayar Mühendisliği Öğretim Üyesi Prof. Dr. Şeref Sağıroğlu ve Ankara Üniversitesi Yapay Zeka Enstitüsü Müdürü Prof. Dr. Mehmet Serdar Güzel, Grok’un olası etkileri üzerine kapsamlı değerlendirmelerde bulundu.


Akademisyenlerden 'Yapay zeka' uyarısı: Milli model gecikmemeli

“TOPLUMSAL DEĞERLERE ZARAR VEREN İÇERİKLER ÜRETİYOR” 

Prof. Dr. Muhammet Ali Akçayol, Grok'un eğitim sürecinde X platformundaki argo, küfür ve alaycı içeriklerin yoğunlukla kullanıldığını, bunun da modelin toksik ve toplumun hassasiyetlerine aykırı içerikler üretmesine yol açtığını söyledi.


Grok’un son güncellemeleriyle birlikte zararlı içeriklerin daha da görünür hale geldiğini belirten Akçayol, “Bu sadece Türkiye’de değil, birçok ülkede tepkiyle karşılanıyor. Türkiye, erişim engeli getirerek radikal ama yerinde bir adım attı. Ancak asıl çözüm, yerli ve kültürel değerlere duyarlı bir büyük dil modelini hızla geliştirmek” dedi.


Sanayi ve Teknoloji Bakanlığı’nın başlattığı büyük dil modeli projesine dikkat çeken Akçayol, bu süreçte üniversiteler, kamu kurumları ve özel sektörün birlikte çalışması gerektiğini, tüm verilerin Türkiye sınırları içinde tutulmasının dijital egemenlik açısından hayati olduğunu ifade etti.


“GECİKTİK AMA HALA ŞANSIMIZ VAR” 

Prof. Dr. Şeref Sağıroğlu ise Grok’un hukuki sınırları ihlal eden cevaplar verdiğini ve bu durumun sadece medya değil, kamu güvenliği açısından da tehdit oluşturduğunu vurguladı. “Bir dil modeli, eğer ülkenin kanun ve yönetmeliklerine uymuyorsa bu açık bir tehdittir ve engellenebilir” diyen Sağıroğlu, Grok’un yanı sıra başka yapay zeka araçlarının da Avrupa ve İngiltere gibi ülkelerde kısmen yasaklandığını hatırlattı.


Türkiye’de TBMM bünyesinde kurulan Yapay Zeka Araştırma Komisyonu’na da bilgi sunduğunu belirten Sağıroğlu, “Komisyonun bu konuda akılcı ve stratejik kararlar alacağına inanıyorum. Ancak kendi büyük dil modelimizi daha fazla gecikmeden hayata geçirmemiz gerekiyor” dedi.


“GROK FİLTRELERİ KALDIRDI, İÇERİK TEHLİKELİ BOYUTTA” 

Ankara Üniversitesi Yapay Zeka Enstitüsü Müdürü Prof. Dr. Mehmet Serdar Güzel ise Grok’un sosyal medya diline yaklaşmak adına filtreleme sistemlerini tamamen kaldırdığını söyledi. Güzel, Grok’un X platformundaki gerçek zamanlı içerikleri analiz ederek cevap ürettiğini, bu nedenle argo, komplo teorileri ve saldırgan söylemlerin cevaplara yansıyabildiğini ifade etti.


Diğer yapay zeka araçlarının çoğunda belirli konu başlıklarında filtreleme ve sansürleme uygulanırken, Grok’un bu sistemleri kaldırmasının önemli bir fark yarattığını vurgulayan Güzel, özellikle gençler ve çocuklar için içeriklerin ciddi bir risk oluşturduğunu söyledi.


“SOSYAL MEDYADA YAŞ SINIRI GETİRİLMELİDİR” 

Prof. Dr. Güzel, sosyal medya kullanımına yaş sınırı getirilmesi gerektiğini belirterek, “Grok gibi yapay zeka araçlarının kullandığı dil, yetişkin bireyler için tolere edilebilir belki ama gençler üzerinde olumsuz etki bırakma riski yüksek. Bu nedenle hükümet, sosyal medyada yaş sınırı gibi düzenlemeleri gündeme almalıdır” ifadelerini kullandı.


DİJİTAL BAĞIMSIZLIĞIN ANAHTARI YAPAY ZEKA

Türkiye’de akademik çevreler Grok örneği üzerinden yapay zeka dil modellerinin hem kültürel hem hukuki boyutta kontrol edilmesi gerektiğini ortaya koyuyor. Uzmanlar, yerli büyük dil modelinin milli güvenlik ve dijital bağımsızlık açısından stratejik bir öncelik haline gelmesi gerektiği görüşünde birleşiyor.