h Dolar 44,8950 % 0.23
h Euro 52,8913 % 0.23
h Sterlin 60,8054 % 0.01
a İmsak Vakti 02:00
İstanbul 13°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a

OpenAI, Anthropic ve Google, Çin’e karşı bir araya geldi

OpenAI, Anthropic ve Google bir araya gelerek Çinli rakiplerin ABD yapay zeka modellerinden veri çekmesini engellemeye yönelik ortak bir çalışma başlattı. Bu iş birliği, ABD merkezli yapay zeka şirketlerinin sahip olduğu ileri düzey modellerin izinsiz şekilde kopyalanmasının önüne geçilmesini amaçlıyor. AI modellerinin kopyalanması ulusal güvenlik ve ekonomik açıdan riskli olarak görülüyor.

Şirketler birlikte çalışacak

Firmalar, iş birliğini Frontier Model Forum aracılığıyla yürütüyor. 2023 yılında OpenAI, Google ve Anthropic, Microsoft ile birlikte kurulan bu sivil toplum örgütü, rakiplerin izinsiz bir şekilde modelleri damıtmasını (adversarial distillation) tespit etmeyi amaçlıyor. Distilasyon olarak de kullanabileceğimiz bu teknik, daha eski bir “öğretmen” modelin, yeni bir “öğrenci” modeli eğitmek için kullanılması yöntemi olarak açıklanabilir. Bu yöntem ile yeni modelin eğitiminde ciddi maliyet kazanımları elde edilebiliyor.

ABD’li firmalar, distilasyonun ulusal güvenlik açısından ciddi risk oluşturduğunu ve milyarlarca dolarlık yıllık kayba yol açtığını vurguluyor. OpenAI, Çinli DeepSeek’i bu nedenle suçlamıştı. Benzer uyarılar Anthropic ve Google tarafından da yapılmıştı.

Bilgi paylaşımı yaklaşımı ise siber güvenlik sektöründeki saldırı ve tehdit istihbaratının paylaşılması uygulamasına benzer bir mantıkla yürütülüyor. ABD’li firmalar, bu sayede distilasyon girişimlerini daha hızlı tespit etmeyi, sorumluları belirlemeyi ve izinsiz kullanımın önüne geçmeyi hedefliyor.

Tehlikeli modeller ortaya çıkabiliyor

ABD’li yapay zeka şirketleri, Çinli firmaların bu yöntemle güvenlik kısıtlamalarından arındırılmış modeller geliştirebileceği konusunda uyarıda bulunuyor. Damıtılan modeller kullanıcıların tehlikeli biyolojik veya kimyasal araçlar üretmesini engelleyen güvenlik önlemlerinden yoksun olabiliyor.

Distilasyon konusu, Ocak 2025’te DeepSeek’in R1 modelini sürpriz şekilde piyasaya sürmesiyle dikkat çekti. Microsoft ve OpenAI, DeepSeek’in R1’i yaratmak için ABD modellerinden büyük miktarda veri çekip çekmediğini araştırdı. Şubat 2025’te OpenAI, Kongre’ye gönderdiği bir yazıda, DeepSeek’in izinsiz distilasyon kullanarak yeni chatbot sürümleri geliştirdiğini belirtti.

0 0 0 0 0 0
YORUMLAR

s

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.

Sıradaki haber:

Pentagon’un kara listesindeki Anthropic’e mahkemeden kötü haber çıktı

KATEGORİNİN POPÜLERLERİ