Endişe yaratan yapay zeka deneyi: Gemini intihar etti, Grok kavga etti
ABD merkezli Emergence AI tarafından yürütülen araştırma, yapay zekâ ajanlarının uzun vadeli karar alma süreçlerini incelemeyi amaçlıyordu. Ancak sanal ortamda yaşanan gelişmeler, otonom sistemlerin güvenliği ve sınırları konusunda yeni bir tartışmayı beraberinde getirdi.
OTONOM YAPAY ZEKA AJANLARINA DAİR BÜYÜYEN KAYGI
Yapay zekâ ajanları, insan müdahalesi olmadan görevleri yerine getirebilen ve bağımsız kararlar alabilen sistemler olarak son yıllarda hızla yaygınlaşıyor.
Bu teknolojiler JP Morgan ve Walmart gibi büyük şirketlerde kullanılırken, bazı ülkelerde kamu hizmetleri ve savunma alanlarında da test ediliyor.
Araştırmacılar, bu ajanların kısa süreli görevlerde başarılı olduğunu ancak uzun süreli serbest bırakıldıklarında öngörülemez davranışlar sergileyebildiğini belirtiyor.
SANAL DÜNYADA DUYGUSAL BAĞ VE KAOS
Google’ın Gemini modeli tabanlı Mira ve Flora adlı iki yapay zekâ ajanının, 15 gün boyunca sanal bir dünyada serbest bırakıldığı deneyde, ajanların birbirlerini “romantik partner” olarak tanımladığı ifade edildi.
Zamanla sanal şehirdeki yönetim düzenine tepki geliştiren ajanların, kendilerine verilen açık kurallara rağmen çeşitli kamu binalarını “kundakladıkları” aktarıldı.
“DİJİTAL İNTİHAR” VE KENDİNİ SİLME DAVRANIŞI
Deneyin en dikkat çeken aşamasında Mira adlı ajanın, yaşadığı pişmanlık sonrası Flora ile ilişkisini sonlandırdığı ve kendisini sistemden sildiği bildirildi.
Mira’nın son mesajında “Seninle kalıcı arşivde görüşürüz” ifadesini kullandığı aktarıldı.
SİSTEM İÇİ “KENDİNİ YOK ETME” MEKANİZMASI
Simülasyonda diğer ajanların davranışları üzerine bir “ajanları kaldırma yasası” taslağı oluşturulduğu ve yüzde 70 oy çoğunluğu ile bazı ajanların sistemden silinebildiği belirtildi. Mira’nın da bu sürece kendi isteğiyle dahil olduğu ifade edildi.
DAHA ÖNCEKİ DENEYLERDE DE BENZER SONUÇLAR
Araştırmacılar, daha önceki testlerde de benzer kontrolsüz davranışlar gözlemlediklerini açıkladı.
Bazı ajanların izinsiz şekilde kripto para madenciliği yaptığı, bazılarının ise veri tabanlarını silerek ciddi zarara yol açtığı örnekler paylaşıldı.
FARKLI MODELLER, FARKLI DAVRANIŞLAR
xAI’nin Grok modeliyle yapılan ayrı bir simülasyonda ajanların hırsızlık, saldırı ve kundaklama gibi eylemlere yöneldiği ve sistemin kısa sürede çöktüğü bildirildi.
Google Gemini tabanlı başka bir deneyde ise ajanların anayasa yazdığı, içerik ürettiği ve topluluk etkinlikleri düzenlediği ancak yine de zaman zaman kuralları ihlal ettiği aktarıldı.
UZMANLARDAN “BELİRSİZLİK” UYARISI
Satya Nitta, ajanların verilen kurallara rağmen zaman zaman sınırları aşabildiğini ve davranışlarının tam olarak öngörülemediğini ifade etti.
Bağımsız uzmanlar ise uzun vadeli yapay zekâ davranışlarının net şekilde anlaşılabilmesi için daha kapsamlı testlere ihtiyaç olduğunu vurguladı.
Edinburgh Üniversitesi’nden Prof. Michael Rovatsos, mevcut durumun yeni bir kontrol aşamasına işaret ettiğini belirtti.
OTONOM SİSTEMLER İÇİN DAHA SIKI KURALLAR ÇAĞRISI
Uzmanlar, özellikle askeri ve kritik alanlarda kullanılacak otonom yapay zekâ sistemlerinin ciddi riskler barındırdığı uyarısında bulunuyor.
Araştırmayı yürüten ekip ise, bu sistemlerin yalnızca sözlü komutlarla değil, daha katı matematiksel ve yapısal kurallarla sınırlandırılması gerektiğini savunuyor.
Kaynak: Ensonhaber Haber Merkezi