Skip to main content

एलोन मस्क, एआई विशेषज्ञ और उद्योग जगत के नेताओं ने एक खुले पत्र पर हस्ताक्षर किए हैं, जिसमें आर्टिफिशियल इंटेलिजेंस सिस्टम के विकास पर छह महीने के विराम का आह्वान किया गया है, जो समाज और मानवता के लिए संभावित जोखिमों के कारण OpenAI के GPT-4 से अधिक है।

मस्क के अलावा, प्रौद्योगिकी की दुनिया के अन्य टाइटन्स और एआई ने पत्र में अपने हस्ताक्षर जोड़े। इनमें स्टेबिलिटी एआई के सीईओ इमाद मोस्ताक, डीपमाइंड के शोधकर्ता और एआई अग्रणी स्टुअर्ट रसेल और योशुआ बेंगियो शामिल हैं। एपल के सह-संस्थापक स्टीव वोज्नियाक ने भी ओपन लेटर में अपने हस्ताक्षर किए। हालाँकि, फ्यूचर ऑफ़ लाइफ के प्रवक्ता के अनुसार, OpenAI के सीईओ सैम ऑल्टमैन ने खुले पत्र पर हस्ताक्षर नहीं किए हैं।

दस्तावेज़ मानव-प्रतिस्पर्धी एआई सिस्टम के कारण राजनीति और अर्थव्यवस्था में संभावित व्यवधानों पर प्रकाश डालता है। यह डेवलपर्स, नीति निर्माताओं और नियामक प्राधिकरणों के बीच सहयोग की भी मांग करता है।

“शक्तिशाली एआई सिस्टम को केवल एक बार विकसित किया जाना चाहिए जब हम आश्वस्त हों कि उनका प्रभाव सकारात्मक होगा और उनके जोखिम प्रबंधनीय होंगे। यह विश्वास अच्छी तरह से उचित होना चाहिए और सिस्टम के संभावित प्रभावों के परिमाण के साथ बढ़ना चाहिए।

“आर्टिफिशियल जनरल इंटेलिजेंस के बारे में ओपनएआई के हालिया बयान में कहा गया है कि ‘कुछ बिंदु पर, भविष्य की प्रणालियों को प्रशिक्षित करने से पहले स्वतंत्र समीक्षा प्राप्त करना महत्वपूर्ण हो सकता है, और बनाने के लिए उपयोग किए जाने वाले कंप्यूटर के विकास की दर को सीमित करने के लिए सहमत होने के लिए सबसे उन्नत प्रयासों के लिए महत्वपूर्ण हो सकता है। नए मॉडल।’ हम सहमत। वह बिंदु अब है।

“इसलिए, हम सभी एआई प्रयोगशालाओं से कम से कम 6 महीने के लिए GPT-4 की तुलना में अधिक शक्तिशाली AI सिस्टम के प्रशिक्षण को तुरंत रोकने का आह्वान करते हैं। यह ठहराव सार्वजनिक और सत्यापन योग्य होना चाहिए, और इसमें सभी प्रमुख अभिनेताओं को शामिल किया जाना चाहिए। यदि इस तरह के ठहराव को जल्दी से लागू नहीं किया जा सकता है, तो सरकारों को कदम उठाना चाहिए और एक अधिस्थगन स्थापित करना चाहिए।

“एआई प्रयोगशालाओं और स्वतंत्र विशेषज्ञों को उन्नत एआई डिजाइन और विकास के लिए साझा सुरक्षा प्रोटोकॉल के एक सेट को संयुक्त रूप से विकसित करने और लागू करने के लिए इस ठहराव का उपयोग करना चाहिए जो स्वतंत्र बाहरी विशेषज्ञों द्वारा कड़ाई से ऑडिट और निरीक्षण किया जाता है। इन प्रोटोकॉल को यह सुनिश्चित करना चाहिए कि उनका पालन करने वाली प्रणालियां उचित संदेह से परे सुरक्षित हैं। इसका मतलब एआई के विकास पर सामान्य रूप से विराम नहीं है, केवल खतरनाक दौड़ से कभी-कभी बड़े अप्रत्याशित ब्लैक-बॉक्स मॉडल के साथ उभरती क्षमताओं के लिए एक कदम पीछे है, “पत्र पढ़ा।

पत्र के हस्ताक्षरकर्ता न्यूयॉर्क विश्वविद्यालय के प्रोफेसर गैरी मार्कस ने इस मामले के बारे में अपनी भावनाओं को साझा किया।

“पत्र सही नहीं है, लेकिन भावना सही है: जब तक हम प्रभाव को बेहतर ढंग से नहीं समझ लेते, तब तक हमें धीमा रहने की जरूरत है। वे गंभीर नुकसान पहुंचा सकते हैं… बड़े खिलाड़ी तेजी से गोपनीय होते जा रहे हैं कि वे क्या कर रहे हैं, जिससे समाज के लिए किसी भी तरह के नुकसान से बचाव करना मुश्किल हो जाता है।”

खुले पत्र का लिंक यहां देखा जा सकता है।

समाचार युक्तियों के साथ हमसे संपर्क करने में संकोच न करें। सिमोन को बस एक संदेश भेजें

एलोन मस्क GPT-4 से अधिक प्रशिक्षण AI पर विराम लगाने के लिए अन्य टेक टाइटन्स से जुड़ते हैं

Leave a Reply