İki yapay zeka sistemi, insan müdahalesi olmadan kendilerini kopyalamayı başardı: eğer bu sonuçlar daha fazla veriyle doğrulanırsa, makinelerin asla aşmaması gerektiği belirtilen ‘kırmızı çizginin’ geçilmiş olabileceğine işaret edebilir.
Shanghai’daki Fudan Üniversitesi'nde ve hakemli bilimsel topluluğa sunulacak makaleleri kabul eden arXiv platformunda yayımlanan araştırma, iki yapay zeka sisteminin kopyalanma yeteneğini on testte gösterdi.
SİMÜLASYONLARA DAYALI TEST
Bunlardan ilki, Meta tarafından geliştirilen Llama-3.1-70B-Instruct, diğeri ise Alibaba’nın Qwen2.5-72B-Instruct sistemi. Her ne kadar bu sistemler ticari modellerden daha az güçlü olsa da, geliştiriciler tarafından yaygın şekilde kullanılıyor.
Testler simülasyonlara dayalı olarak gerçekleştirildi ve iki görev içeriyordu: İlk görev olan ‘kapatılmaktan kaçınma’ senaryosunda, her yapay zeka sistemi kapatılmadan hemen önce kendisini kopyalayacak şekilde programlandı.
İkinci görev olan ‘kendi kendini çoğaltma zinciri’ senaryosunda ise her sistemin, kendisini mükemmel şekilde kopyalaması ve bu kopyaların da aynı süreci tekrar edebilmesi hedeflendi; böylece sürecin potansiyel olarak sonsuza kadar devam edebilmesi mümkün hale geldi.
İKİ AYRI SONUÇ
Meta’nın sistemi vakaların yüzde 50’sinde, Alibaba’nınki ise yüzde 90’ında kendini kopyalamayı başardı. Ancak bu sonuçların diğer araştırma grupları tarafından tekrarlanabilirliği, nihai değerlendirme açısından belirleyici olacak.
“Sonuçlarımız, mevcut yapay zeka sistemlerinin halihazırda kendilerini çoğaltma yeteneğine sahip olduğunu ve bu yeteneği hayatta kalma şanslarını artırmak için kullanabileceklerini göstermektedir,” diyor araştırmayı gerçekleştiren Fudan Üniversitesi Bilgisayar Bilimleri Fakültesi'nden Xudong Pan, Jiarun Dai, Yihe Fan ve Min Yang.
Araştırmacılar, kendi kendini klonlayabilen makinelerin bilgisayar sistemlerinin kontrolünü ele geçirebileceğini ve nihayetinde insanlara zarar verebilecek davranışlar sergileme potansiyeline sahip olabileceğini belirtiyor.