Skip to main content

Elon Musk, AI uzmanları ve endüstri liderleri, toplum ve bir bütün olarak insanlık için potansiyel riskler nedeniyle OpenAI’nin GPT-4’ünü aşan yapay zeka sistemlerinin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektup imzaladılar.

Musk dışında teknoloji ve yapay zeka dünyasının diğer devleri de mektuba imzalarını ekledi. Bunlar arasında Stability AI CEO’su Emad Mostaque, DeepMind araştırmacıları ve AI öncüleri Stuart Russell ve Yoshua Bengio yer alıyor. Apple kurucu ortağı Steve Wozniak da açık mektuba imzasını ekledi. Ancak, Future of Life sözcüsüne göre OpenAI CEO’su Sam Altman açık mektubu imzalamadı.

Belge, insan-rekabetçi yapay zeka sistemlerinin neden olduğu siyaset ve ekonomideki olası kesintileri vurgulamaktadır. Ayrıca geliştiriciler, politika yapıcılar ve düzenleyici makamlar arasında işbirliği çağrısında bulunur.

“Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır.

“OpenAI’nin yapay genel zeka ile ilgili son açıklaması, ‘Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak ve en gelişmiş çabalar için, oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmek önemli olabilir’ diyor. yeni modeller.’ Katılıyoruz. O nokta şimdi.

“Bu nedenle, tüm yapay zeka laboratuvarlarını GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.

“Yapay zeka laboratuvarları ve bağımsız uzmanlar, bu duraklamayı, bağımsız dış uzmanlar tarafından titizlikle denetlenen ve denetlenen gelişmiş yapay zeka tasarımı ve geliştirmeye yönelik bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır. Bu, genel olarak AI geliştirmede bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.

Mektubun imzacılarından New York Üniversitesi profesörü Gary Marcus, konuyla ilgili duygularını paylaştı.

“Mektup mükemmel değil ama ruh haklı: Sonuçları daha iyi anlayana kadar yavaşlamamız gerekiyor. Ciddi zararlar verebilirler… büyük oyuncular yaptıkları şey hakkında giderek daha fazla ketumlaşıyorlar, bu da toplumun meydana gelebilecek zararlara karşı savunmasını zorlaştırıyor” dedi.

Açık mektuba buradan ulaşabilirsiniz.

Haber ipuçlarıyla bizimle iletişime geçmekten çekinmeyin. Simon’a bir mesaj göndermen yeterli

Elon Musk, GPT-4’ü aşan AI eğitimine ara verilmesi çağrısında bulunmak için diğer teknoloji devlerine katılıyor

Leave a Reply