Skip to main content

Ілон Маск, експерти зі штучного інтелекту та лідери галузі підписали відкритий лист із закликом призупинити на півроку розробку систем штучного інтелекту, які перевищують GPT-4 OpenAI через потенційні ризики для суспільства та людства в цілому.

Окрім Маска, свої підписи під листом поставили й інші титани у світі технологій та ШІ. До них належать генеральний директор Stability AI Емад Мостаке, дослідники DeepMind і піонери штучного інтелекту Стюарт Рассел і Йошуа Бенгіо. Співзасновник Apple Стів Возняк також поставив свій підпис під відкритим листом. Однак генеральний директор OpenAI Сем Альтман не підписав відкритого листа, як повідомив представник Future of Life.

У документі наголошується на потенційних збоях у політиці та економіці, спричинених конкуруючими між людьми системами ШІ. Він також закликає до співпраці між розробниками, політиками та регуляторними органами.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими. Ця впевненість має бути добре виправданою та збільшуватися разом із величиною потенційних ефектів системи.

«Остання заява OpenAI щодо загального штучного інтелекту стверджує, що «в якийсь момент може виявитися важливим отримати незалежний огляд перед тим, як почати навчання майбутніх систем, і для найбільш просунутих зусиль домовитися про обмеження темпів зростання обчислювальної інформації, що використовується для створення». нові моделі.’ Ми згодні. Ця точка зараз.

«Тому ми закликаємо всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4. Ця пауза має бути загальнодоступною та доступною для перевірки та включати всіх ключових учасників. Якщо таку паузу не можна вжити швидко, уряди повинні втрутитися та ввести мораторій.

«Лабораторії штучного інтелекту та незалежні експерти повинні використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проектування та розробки штучного інтелекту, які ретельно перевіряються та контролюються незалежними сторонніми експертами. Ці протоколи повинні гарантувати, що системи, які їх дотримуються, є безпечними поза розумним сумнівом. Це не означає призупинення розвитку штучного інтелекту в цілому, а просто відхід від небезпечної гонки до все більших і непередбачуваних моделей чорного ящика з надзвичайними можливостями», — йдеться в листі.

Професор Нью-Йоркського університету Гарі Маркус, який підписав лист, поділився своїми настроями з цього приводу.

«Буква не ідеальна, але дух правильний: нам потрібно уповільнити темп, поки ми краще не зрозуміємо наслідки. Вони можуть завдати серйозної шкоди… великі гравці стають все більш таємничими щодо того, що вони роблять, що ускладнює суспільству захист від будь-якої шкоди, яка може матеріалізуватися», – сказав він.

Посилання на відкритий лист доступне тут.

Не соромтеся звертатися до нас із порадами щодо новин. Просто надішліть повідомлення Симону

Ілон Маск приєднується до інших технічних титанів, закликаючи призупинити навчання ШІ, що перевищує GPT-4

Leave a Reply