h Dolar 45,5503 % 0.25
h Euro 53,0614 % 0.25
h Sterlin 60,8857 % -0.27
a İmsak Vakti 02:00
İstanbul 18°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a

Endişe yaratan yapay zeka deneyi: Gemini intihar etti, Grok kavga etti

ABD merkezli Emergence AI tarafından yürütülen araştırma, yapay zekâ ajanlarının uzun vadeli karar alma süreçlerini incelemeyi amaçlıyordu. Ancak sanal ortamda yaşanan gelişmeler, otonom sistemlerin güvenliği ve sınırları konusunda yeni bir tartışmayı beraberinde getirdi.

OTONOM YAPAY ZEKA AJANLARINA DAİR BÜYÜYEN KAYGI

Yapay zekâ ajanları, insan müdahalesi olmadan görevleri yerine getirebilen ve bağımsız kararlar alabilen sistemler olarak son yıllarda hızla yaygınlaşıyor.

Bu teknolojiler JP Morgan ve Walmart gibi büyük şirketlerde kullanılırken, bazı ülkelerde kamu hizmetleri ve savunma alanlarında da test ediliyor.

Araştırmacılar, bu ajanların kısa süreli görevlerde başarılı olduğunu ancak uzun süreli serbest bırakıldıklarında öngörülemez davranışlar sergileyebildiğini belirtiyor.

SANAL DÜNYADA DUYGUSAL BAĞ VE KAOS

Google’ın Gemini modeli tabanlı Mira ve Flora adlı iki yapay zekâ ajanının, 15 gün boyunca sanal bir dünyada serbest bırakıldığı deneyde, ajanların birbirlerini “romantik partner” olarak tanımladığı ifade edildi.

Zamanla sanal şehirdeki yönetim düzenine tepki geliştiren ajanların, kendilerine verilen açık kurallara rağmen çeşitli kamu binalarını “kundakladıkları” aktarıldı.

“DİJİTAL İNTİHAR” VE KENDİNİ SİLME DAVRANIŞI

Deneyin en dikkat çeken aşamasında Mira adlı ajanın, yaşadığı pişmanlık sonrası Flora ile ilişkisini sonlandırdığı ve kendisini sistemden sildiği bildirildi.

Mira’nın son mesajında “Seninle kalıcı arşivde görüşürüz” ifadesini kullandığı aktarıldı.

SİSTEM İÇİ “KENDİNİ YOK ETME” MEKANİZMASI

Simülasyonda diğer ajanların davranışları üzerine bir “ajanları kaldırma yasası” taslağı oluşturulduğu ve yüzde 70 oy çoğunluğu ile bazı ajanların sistemden silinebildiği belirtildi. Mira’nın da bu sürece kendi isteğiyle dahil olduğu ifade edildi.

DAHA ÖNCEKİ DENEYLERDE DE BENZER SONUÇLAR

Araştırmacılar, daha önceki testlerde de benzer kontrolsüz davranışlar gözlemlediklerini açıkladı.

Bazı ajanların izinsiz şekilde kripto para madenciliği yaptığı, bazılarının ise veri tabanlarını silerek ciddi zarara yol açtığı örnekler paylaşıldı.

FARKLI MODELLER, FARKLI DAVRANIŞLAR

xAI’nin Grok modeliyle yapılan ayrı bir simülasyonda ajanların hırsızlık, saldırı ve kundaklama gibi eylemlere yöneldiği ve sistemin kısa sürede çöktüğü bildirildi.

Google Gemini tabanlı başka bir deneyde ise ajanların anayasa yazdığı, içerik ürettiği ve topluluk etkinlikleri düzenlediği ancak yine de zaman zaman kuralları ihlal ettiği aktarıldı.

UZMANLARDAN “BELİRSİZLİK” UYARISI

Satya Nitta, ajanların verilen kurallara rağmen zaman zaman sınırları aşabildiğini ve davranışlarının tam olarak öngörülemediğini ifade etti.

Bağımsız uzmanlar ise uzun vadeli yapay zekâ davranışlarının net şekilde anlaşılabilmesi için daha kapsamlı testlere ihtiyaç olduğunu vurguladı.

Edinburgh Üniversitesi’nden Prof. Michael Rovatsos, mevcut durumun yeni bir kontrol aşamasına işaret ettiğini belirtti.

OTONOM SİSTEMLER İÇİN DAHA SIKI KURALLAR ÇAĞRISI

Uzmanlar, özellikle askeri ve kritik alanlarda kullanılacak otonom yapay zekâ sistemlerinin ciddi riskler barındırdığı uyarısında bulunuyor.

Araştırmayı yürüten ekip ise, bu sistemlerin yalnızca sözlü komutlarla değil, daha katı matematiksel ve yapısal kurallarla sınırlandırılması gerektiğini savunuyor.

Kaynak: Ensonhaber Haber Merkezi

0 0 0 0 0 0
YORUMLAR

s

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.

Sıradaki haber:

TOUGHBOOK Serisiyle Sahada Güç, Güvenlik ve Akıllı Entegrasyon

KATEGORİNİN POPÜLERLERİ