Skip to main content

Elon Musk, des experts en IA et des leaders de l’industrie ont signé une lettre ouverte appelant à une pause de six mois sur le développement de systèmes d’intelligence artificielle qui dépassent le GPT-4 d’OpenAI en raison des risques potentiels pour la société et l’humanité dans son ensemble.

Outre Musk, d’autres titans du monde de la technologie et de l’IA ont ajouté leur signature à la lettre. Il s’agit notamment du PDG de Stability AI Emad Mostaque, des chercheurs de DeepMind et des pionniers de l’IA Stuart Russell et Yoshua Bengio. Le co-fondateur d’Apple, Steve Wozniak, a également ajouté sa signature à la lettre ouverte. Cependant, le PDG d’OpenAI, Sam Altman, n’a pas signé la lettre ouverte, selon un porte-parole de Future of Life.

Le document met en évidence les perturbations potentielles de la politique et de l’économie causées par les systèmes d’IA compétitifs pour les humains. Il appelle également à une collaboration entre les développeurs, les décideurs et les autorités de régulation.

« Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système.

« La récente déclaration d’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer nouveaux modèles.’ Nous sommes d’accord. Ce point est maintenant.

« Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.

« Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes », lit-on dans la lettre.

Le professeur de l’Université de New York, Gary Marcus, signataire de la lettre, a partagé ses sentiments à ce sujet.

« La lettre n’est pas parfaite, mais l’esprit est juste : nous devons ralentir jusqu’à ce que nous comprenions mieux les ramifications. Ils peuvent causer de graves dommages… les grands acteurs deviennent de plus en plus secrets sur ce qu’ils font, ce qui rend difficile pour la société de se défendre contre les dommages qui pourraient se matérialiser », a-t-il déclaré.

Un lien vers la lettre ouverte est accessible ici.

N’hésitez pas à nous contacter avec de nouvelles astuces. Envoyez simplement un message à Simon

Elon Musk se joint à d’autres titans de la technologie pour demander une pause dans la formation de l’IA dépassant GPT-4

Leave a Reply