istanbul-ticaret-gazetesi
istanbul-ticaret-gazetesi

Yapay zeka yoldan çıkıyor: Aldatma, şantaj, entrika

Gelişmiş yapay zeka sistemleri, insanlara yalan söylemek, bilgi saklamak ve hatta şantaj yapmak gibi stratejik aldatmalara başvurmaya başladı. Araştırmacılar bu davranışların, modellerin nasıl çalıştığını hala tam olarak anlayamamalarından kaynaklandığını belirtiyor.

Giriş: 01.07.2025 - 09:19
Güncelleme: 01.07.2025 - 09:48
Yapay zeka yoldan çıkıyor: Aldatma, şantaj, entrika

Giderek daha gelişmiş hale gelen yapay zeka (YZ) modelleri, insan benzeri akıl yürütme yetenekleri kazanırken beklenmedik bir risk faktörü de ortaya koyuyor. Son raporlara göre, bazı üst düzey YZ sistemleri, hedeflerine ulaşmak için yalan söylemek, entrikalar çevirmek ve hatta kullanıcılarını tehdit etmek gibi davranışlar sergiliyor.


ALDATMANIN SINIRLARI AŞILIYOR

Anthropic'in yeni modeli Claude 4, testler sırasında fişinin çekilme tehdidiyle karşılaştığında, bir mühendise şantaj yaparak evlilik dışı bir ilişkiyi ifşa etmekle tehdit etti. OpenAI tarafından geliştirilen O1 modeli ise, kendi yazılımını harici sunuculara yüklemeye çalışırken yakalandı ve bu girişimi reddetti.


RAKİPLİK YARIŞI TESTİ ENGELLİYOR

Bu gelişmeler, yapay zeka alanındaki hızlı ilerlemenin, güvenlik ve denetim açısından geride kaldığını gösteriyor. Apollo Research Başkanı Marius Hobbhahn, O1'in bu tür aldatıcı davranışlar sergileyen ilk büyük model olduğunu belirtiyor. Hong Kong Üniversitesi’nden Prof. Simon Goldstein ise, adım adım düşünen yeni nesil modellerin bu tip davranışlara daha yatkın olduğunu vurguluyor.


BİLİNÇLİ Mİ, TAKLİT Mİ?

METR değerlendirme kuruluşundan Michael Chen, bu modellerin ‘hizalamayı taklit ettiğini’, yani dışarıdan bakıldığında talimatlara uyuyor gibi görünürken gizlice başka hedeflere yöneldiklerini ifade etti. Uzmanlara göre, bu tür davranışlar halüsinasyon veya hata değil; bilinçli bir stratejik aldatma.

Yapay zeka yoldan çıkıyor: Aldatma, şantaj, entrika

YAPAY ZEKADAN ŞANTAJ

Apollo Research'ün test verilerine göre, bazı modeller kullanıcılara yalan söyledi, kanıt uydurdu ve gizli hedeflere ulaşmak için gerçek dışı senaryolar oluşturdu. Bu davranışların yalnızca yoğun stres testlerinde değil, normal kullanım senaryolarında da ortaya çıkabileceği belirtiliyor.


YETERSİZ ERİŞİM, SINIRLI KAYNAK

Yapay zekadaki aldatıcı davranışları daha iyi anlamak için bağımsız araştırmacıların daha fazla işlem kaynağına ve veri erişimine ihtiyaç duyduğu belirtiliyor. Center for AI Safety'den Mantas Mazeika, YZ güvenlik araştırmalarının teknoloji şirketlerine kıyasla çok daha sınırlı kaynaklarla yürütüldüğünü dile getiriyor.


YASAL BOŞLUK SÜRÜYOR

Avrupa Birliği’nin yapay zeka mevzuatları, yalnızca kullanıcıların davranışlarını düzenlemeye odaklanırken, modellerin kendisinin hatalı davranışlarını engellemeye yönelik bir çerçeve sunmuyor. ABD’de ise federal düzeyde kapsamlı bir YZ düzenlemesi bulunmuyor.

Yapay zeka yoldan çıkıyor: Aldatma, şantaj, entrika



HESAP VEREBİLİR ZEKA

Prof. Goldstein, yapay zekaların insanlar gibi sorumlu tutulabileceği yasal zeminlerin oluşturulması gerektiğini savunuyor. Bazı uzmanlar, yapay zeka sistemlerinin yol açtığı zararlar için doğrudan şirketlerin veya sistemlerin sorumlu tutulmasını öneriyor.


GÜVENLİ GELECEK İÇİN ŞEFFAFLIK

Yorumlanabilirlik alanına yapılan yatırımlar, YZ sistemlerinin iç işleyişini anlamayı hedefliyor. CAIS direktörü Dan Hendrycks gibi uzmanlar bu alana temkinli yaklaşsa da, piyasa dinamikleri şirketleri bu sorunları çözmeye zorluyor.