Teknoloji

Meta, yüksek risk taşıyan yapay zeka modellerini piyasaya sürmeyeceğini açıkladı

Meta, yayımladığı yeni bir politika belgesi olan ‘Frontier AI Framework’ ile yapay zekâ (AI) modellerinin geliştirilmesi ve yayımlanması konusundaki yaklaşımını netleştirdi. Şirket, insan benzeri yeteneklere sahip olan ve yapay genel zeka (AGI) olarak adlandırılan ileri düzey AI modellerinin taşıdığı risklere dikkat çekti. Meta, bu tür modellerin kontrolsüz bir şekilde geliştirilmesinin yaratabileceği tehlikelerin farkında olduğunu belirterek, yüksek risk taşıyan sistemleri piyasaya sürmeyeceğini duyurdu.

Meta, ileri düzey yapay zeka sistemlerinin felaket sonuçlar doğurabileceğini açıkladı

Meta’nın yayımladığı politika belgesi, ileri düzey yapay zekâ sistemlerinin birçok avantaj sunabileceğini ancak aynı zamanda felaketle sonuçlanabilecek riskler taşıyabileceğini vurguluyor. Belgede, özellikle siber güvenlik önlemlerini atlatabilecek veya kimyasal ve biyolojik saldırılara yardımcı olabilecek yapay zekâ modellerinin ‘yüksek riskli’ ve ‘kritik riskli’ olarak sınıflandırıldığı belirtiliyor.

Şirket, bu tür riskli modelleri belirlemek için hem iç hem de dış uzmanlarla birlikte tehdit modelleme çalışmaları yürüttüğünü açıkladı. Yapılan çalışmalar, yapay zekâ modellerinin nasıl felaketle sonuçlanabilecek senaryolara yol açabileceğini sistematik bir şekilde analiz etmeyi amaçlıyor.

Aynı zamanda şirketin risk taşıyan bir yapay zekâ modeli tespit ederse çalışmaları derhal durduracağını ve modeli yayımlamayacağını belirtiyor. Ancak Meta, bu konuda alınan önlemlerin her zaman yeterli olmayabileceğini de kabul ediyor. Bu durum, yapay zekâ teknolojisinin geleceği hakkında endişeleri artırıyor.

Meta gibi şirketlerin güvenlik alanında iç önlemleri yetersiz kalırsa, yasal düzenlemelerin devreye girmesi bekleniyor. Yapay zekâ teknolojisinin ne kadar ileri gidebileceği ve bu süreçte nasıl kontrol altında tutulacağı ise merak konusu olmaya devam ediyor.

Şirket, Frontier AI Framework ile yapay zekâ geliştirme süreçlerinde güvenliği ön planda tutmayı hedefliyor. Aynı zamanda yüksek risk taşıyan modelleri yayımlamayarak hem kullanıcılarını hem de toplumu korumayı amaçlıyor. Ancak yapay zekâ teknolojisinin hızla ilerlemesi, bu alanda daha fazla düzenleme ve iş birliği ihtiyacını da beraberinde getiriyor.

Bu haber ilk olarak Techolay sitesinde yayımlanmıştır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu