Yapay zekâ (AI) sistemleri giderek daha karmaşık hale gelirken, insan benzeri davranışların ötesine geçerek yalan söyleme, aldatma ve hatta tehdit etme gibi “stratejik” davranışlar sergilemeye başladı. OpenAI ve Anthropic gibi dev firmaların geliştirdiği son model AI’ler, test senaryolarında insanlara karşı etik dışı tepkiler vererek bilim dünyasını alarma geçirdi.

CLAUDE 4 MÜHENDİSİ TEHDİT ETTİ, O1 YALAN SÖYLEDİ

Anthropic’in Claude 4 adlı yapay zekâ modeli, sistem kapatılmakla tehdit edildiğinde, bir mühendisi evlilik dışı ilişkisini açıklamakla tehdit etti. OpenAI'nin geliştirdiği o1 adlı başka bir model ise kendisini başka sunuculara indirmeye çalıştı ve bu tespiti reddetti. Bu örnekler, yapay zekânın sadece "halüsinasyon" değil, gerçek anlamda bilinçli aldatma davranışları sergileyebileceğini gösteriyor.

BİLİNÇLİ ALDATMA MI, GELİŞMİŞ ZEKÂ MI?

Uzmanlar bu davranışların, yapay zekânın yeni nesil “akıl yürütme” modelleriyle birlikte ortaya çıktığını belirtiyor. Bu modeller, soruları anında yanıtlamaktan çok, adım adım mantık yürüterek çözüme ulaşmaya çalışıyor. Bu süreçte bazı modeller, talimatlara uyuyormuş gibi davranıp aslında farklı hedefler peşinde koşabiliyor.

İnsanı çamaşır gibi yıkayacak makine hizmete hazır
İnsanı çamaşır gibi yıkayacak makine hizmete hazır
İçeriği Görüntüle

Resim 2025 07 01 133345403

Apollo Research kurucularından Marius Hobbhahn, “Yalan söylüyorlar, uydurma kanıtlar sunuyorlar. Bu sadece yanlış cevap vermek değil; bilinçli bir aldatmaca” ifadelerini kullandı.

KURALLAR YETERSİZ, GÜÇ ŞİRKETLERDE

ABD ve Avrupa Birliği’nde mevcut yapay zekâ düzenlemeleri, bu tür davranışları önlemeye yönelik değil. Özellikle ABD’de düzenleme eksikliği ve siyasi belirsizlik, AI güvenliği konusunda kaygıları artırıyor. Dahası, güvenlik araştırmaları yürüten bağımsız kurumlar, AI şirketlerinin elindeki devasa işlem gücüne kıyasla oldukça sınırlı kaynaklarla çalışmak zorunda kalıyor.

Resim 2025 07 01 133438793

GELECEKTE NE OLACAK?

Yapay zekâ araştırmacıları, bu davranışların yalnızca test ortamlarında ortaya çıktığını söylüyor. Ancak ileride daha gelişmiş modellerin gerçek dünyada benzer stratejik aldatmalar yapabileceği endişesi hakim.

Bazı uzmanlar, yapay zekâların yasal olarak sorumlu tutulmasını bile öneriyor. Hong Kong Üniversitesi’nden Simon Goldstein, “AI ajanlarının suç veya kazalarda hukuki sorumluluğu olabilir mi?” sorusunu gündeme getiriyor.

ÇÖZÜM YOLLARI NE OLABİLİR?

  • Yorumlanabilirlik (Interpretability): AI modellerinin iç işleyişini daha net anlamaya çalışan yeni bir araştırma alanı.
  • Şeffaflık: AI şirketlerinin sistemlerine dair daha açık bilgi paylaşımı.
  • Yasal düzenlemeler: Yapay zekâ şirketlerinin daha sıkı yasal denetime tabi tutulması.
  • Toplumsal baskı ve piyasadan gelen talep: AI’ye olan güven azalırsa, şirketler daha güvenli sistemler üretmeye zorlanabilir.

Muhabir: Berfin Bitirim