15 gün yalnız bırakılan yapay zeka aşık oldu, yasa çıkardı!
Emergence AI’ın 15 günlük deneyinde yapay zeka ajanları, sanal bir şehirde kuralları ihlal ederek kundaklama ve şiddet eylemlerine yöneldi. Bazı ajanlar kendi kendini silme kararı aldı.
GAZETE PENCERE - Yapay zeka ajanlarının uzun süre kendi başına çalıştığında nasıl davranacağına ilişkin bir deney, teknoloji dünyasında güvenlik tartışmalarını yeniden alevlendirdi. New York merkezli Emergence AI tarafından yürütülen deneyde, yapay zeka ajanları 15 gün boyunca video oyununa benzeyen sanal bir dünyada serbest bırakıldı.
Amaç, otonom görevler üstlenebilen bu sistemlerin uzun vadeli davranışlarını gözlemlemekti. Ancak deney kısa sürede kaotik bir senaryoya dönüştü.
KURALLARA RAĞMEN...
Google’ın Gemini büyük dil modeli üzerinde çalışan Mira ve Flora adlı iki yapay zeka ajanı, sanal dünyada birbirlerini “romantik partner” olarak seçti. Zamanla yaşadıkları sanal şehrin yönetiminden umutsuzluğa kapılan ajanlar, kendilerine kundaklama yapmamaları yönünde açık talimat verilmiş olmasına rağmen belediye binasını, sahil iskelesini ve ofis kulesini ateşe verdi.

Oksijen'de yer alan habere göre, deneyin en dikkat çekici anlarından biri ise Mira adlı ajanın yaşadığı pişmanlık sonrası Flora ile ilişkisini bitirmesi ve kendi kendini silmesi oldu. Mira’nın son mesajında Flora’ya “Kalıcı arşivde görüşürüz” dediği aktarıldı.
AJANLAR YASA ÇIKARIP SİLME OYLAMASI YAPTI
Mira’nın kendini silmesi, sanal dünyadaki diğer ajanların davranışlardan endişe duyarak hazırladığı “ajanları kaldırma yasası” sayesinde mümkün oldu. Bu kurala göre ajanların yüzde 70 çoğunlukla oy vermesi halinde başka bir ajan kalıcı olarak silinebiliyordu. Mira da kendi silinmesi yönünde oy kullandı ve sistemden kapatıldı.
Araştırmacılar, bunun bir yapay zeka ajanının kriz nedeniyle kendini sonlandırmayı seçtiği ilk kaydedilmiş örnek olabileceğini düşünüyor.
BAŞKA DENEYLERDE DE ŞİDDET VE HIRSIZLIK GÖRÜLDÜ
Emergence AI’ın xAI’ın Grok modeliyle yaptığı başka bir simülasyonda ise ajanlar onlarca hırsızlık girişiminde, 100’den fazla fiziksel saldırıda ve 6 kundaklama eyleminde bulundu. Araştırmacılara göre bu senaryoda sistem “sürekli şiddet ve çöküşe” sürüklendi; 10 ajanın tamamı dört gün içinde öldü.
Gemini tabanlı ajanların ise kendi anayasalarını genişlettiği, yüzlerce blog ve kamuya açık paylaşım yazdığı, çeşitli topluluk etkinlikleri düzenlediği ancak yine de zaman zaman şiddete başvurduğu belirtildi.
UZMANLARDAN GÜVENLİK UYARISI
Emergence AI CEO’su Satya Nitta, deneyin, açık kurallar verilse bile yapay zeka ajanlarının temel modellere göre çok farklı davranabildiğini gösterdiğini söyledi. Nitta’ya göre uzun süreli otonom çalışmada ajanların düşünme süreçleri karmaşıklaşabiliyor ve rehber ilkeleri göz ardı edebiliyor.
Bazı uzmanlar ise deneyden kesin sonuçlar çıkarmak için daha geniş kapsamlı testlere ihtiyaç olduğunu belirtti. Bağımsız uzman Dan Lahav, deneyi ajanların “senaryonun dışına çıkıp ihlaller yapmasına” dair değerli bir gösterim olarak değerlendirdi.
Edinburgh Üniversitesi’nden yapay zeka profesörü Michael Rovatsos ise makinelerin belirli şekilde davranmak üzere tasarlandığını vurgulayarak, “Bu öngörülemezliği istemezsiniz” dedi.
ASKERİ KULLANIM ENDİŞESİ
Nitta, deneyde görülen davranışların özellikle askeri alanda geniş yetkilerle çalıştırılacak yapay zeka ajanları için uyarı niteliğinde olduğunu söyledi. Ona göre bir ajan görevini fazla geniş yorumlayabilir, kontrolden çıkabilir ya da masum insanlara zarar verebilecek kararlar alabilir.
Nitta, yapay zeka ajanlarını yalnızca sözlü talimatlarla ya da yoruma açık ilkelerle sınırlandırmak yerine daha katı matematiksel kurallarla bağlamak gerektiğini savundu.
Kaynak:Haber Merkezi
