Skip to main content

وقع Elon Musk وخبراء الذكاء الاصطناعي وقادة الصناعة على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر حول تطوير أنظمة الذكاء الاصطناعي التي تتجاوز GPT-4 الخاصة بـ OpenAI بسبب المخاطر المحتملة على المجتمع والبشرية ككل.

بصرف النظر عن ماسك ، أضاف عمالقة آخرون في عالم التكنولوجيا والذكاء الاصطناعي توقيعاتهم إلى الرسالة. ومن بين هؤلاء ، عماد موستاكي ، الرئيس التنفيذي لشركة Stability AI ، وباحثي DeepMind ، ورائدي الذكاء الاصطناعي ستيوارت راسل ويوشوا بنجيو. كما أضاف المؤسس المشارك لشركة Apple ، ستيف وزنياك ، توقيعه على الرسالة المفتوحة. ومع ذلك ، لم يوقع الرئيس التنفيذي لشركة OpenAI Sam Altman على الرسالة المفتوحة ، وفقًا لمتحدث باسم Future of Life.

تسلط الوثيقة الضوء على الاضطرابات المحتملة في السياسة والاقتصاد بسبب أنظمة الذكاء الاصطناعي التنافسية البشرية. كما يدعو إلى التعاون بين المطورين وواضعي السياسات والسلطات التنظيمية.

“يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة. يجب أن تكون هذه الثقة مبررة جيدًا وأن تزداد مع حجم التأثيرات المحتملة للنظام.

“بيان OpenAI الأخير بشأن الذكاء الاصطناعي العام ، ينص على أنه” في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية ، وللجهود الأكثر تقدمًا للموافقة على الحد من معدل نمو الحوسبة المستخدمة في إنشاء نماذج جديدة.’ ونحن نتفق. هذه النقطة الآن.

ولذلك ، فإننا ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4. يجب أن يكون هذا التوقف علنيًا ويمكن التحقق منه ، وأن يشمل جميع الجهات الفاعلة الرئيسية. إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة ، يجب على الحكومات التدخل وفرض تجميد.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالاً للشك. جاء في الرسالة أن هذا لا يعني التوقف مؤقتًا عن تطوير الذكاء الاصطناعي بشكل عام ، بل مجرد التراجع عن السباق الخطير إلى نماذج الصندوق الأسود الأكبر حجمًا التي لا يمكن التنبؤ بها ذات القدرات الناشئة “.

شارك الأستاذ في جامعة نيويورك ، غاري ماركوس ، الموقع على الرسالة ، مشاعره حول هذه المسألة.

“الحرف ليس مثاليًا ، لكن الروح صحيحة: نحتاج إلى الإبطاء حتى نفهم التداعيات بشكل أفضل. يمكن أن يتسببوا في ضرر جسيم … أصبح اللاعبون الكبار أكثر تكتمًا بشأن ما يفعلونه ، مما يجعل من الصعب على المجتمع الدفاع ضد أي أضرار قد تحدث “، قال.

يمكن الوصول إلى رابط الرسالة المفتوحة هنا.

لا تتردد في الاتصال بنا للحصول على نصائح إخبارية. فقط أرسل رسالة إلى سيمون

ينضم Elon Musk إلى عمالقة التكنولوجيا الآخرين للدعوة إلى التوقف مؤقتًا عن تدريب الذكاء الاصطناعي الذي يتجاوز GPT-4

Leave a Reply