OpenAI, kurumsal casusluk endişelerine karşı operasyonlarını baştan aşağı yeniliyor. Financial Times’ın haberine göre, şirket Ocak ayında Çin merkezli DeepSeek’in kendi modellerine çok benzeyen bir AI sistemi yayınlaması sonrası, iç güvenlik önlemlerini sertleştirme kararı aldı.
DeepSeek’in OpenAI modellerini ‘damıtma’ (distillation) yoluyla kopyaladığı iddia edilirken, bu durum şirketin fikri mülkiyetini koruma refleksini tetikledi.
BİLGİ ÇADIRI POLİTİKASI
Yeni güvenlik uygulamaları kapsamında, ‘bilgi çadırı’ adı verilen politikalar hayata geçirildi. Buna göre, kritik projelerde yalnızca doğrudan görevli ekip üyeleri modele dair içeriklere erişebiliyor. Hatta bu bilgilerin ortak ofis alanlarında dahi paylaşımı kısıtlandı. Örneğin, ‘o1’ modeli geliştirilirken yalnızca yetkilendirilmiş çalışanlar projeye dair bilgi paylaşımında bulunabildi.
BİYOMETRİK ERİŞİM VE ÇEVRİMDIŞI KORUMA
OpenAI, artık ofis girişlerinde biyometrik (parmak izi) kontroller kullanıyor. Ayrıca, şirket içindeki tescilli sistemlerin çoğu artık çevrimdışı çalıştırılarak internetten izole hale getiriliyor. Her dış bağlantı talebi, özel onay mekanizmalarından geçmek zorunda.
SİBER GÜVENLİK GENİŞLETİLDİ
OpenAI, güvenlik operasyonlarını yalnızca fiziksel önlemlerle sınırlı tutmuyor. Şirketin veri merkezlerinde fiziksel güvenlik artırılırken, siber güvenlik ekibine yeni personel takviyeleri yapıldığı belirtiliyor. Bu adımlar, hem dış tehditlere hem de içeriden sızmalara karşı daha güçlü bir savunma hattı oluşturmayı amaçlıyor.
DIŞ TEHDİT Mİ, İÇ RİSK Mİ?
Alınan önlemler, yabancı AI firmalarının agresif rekabet hamlelerine karşı atılsa da, bazı yorumcular şirket içi disiplin problemlerine ve sık sık medyaya sızan bilgilerle ilgili sorunlara da dikkat çekiyor. Özellikle CEO Sam Altman’a ait içeriklerin dışarı sızması, OpenAI’nin kendi personeliyle ilgili kontrol mekanizmalarını da sorgulamasına neden olmuş olabilir.