Skip to main content

Илон Маск, эксперты по искусственному интеллекту и лидеры отрасли подписали открытое письмо, призывающее к шестимесячной паузе в разработке систем искусственного интеллекта, превышающих GPT-4 OpenAI, из-за потенциальных рисков для общества и человечества в целом.

Помимо Маска, свои подписи под письмом поставили и другие титаны мира технологий и ИИ. Среди них генеральный директор Stability AI Эмад Мостак, исследователи DeepMind и пионеры ИИ Стюарт Рассел и Йошуа Бенжио. Соучредитель Apple Стив Возняк также поставил свою подпись под открытым письмом. Однако, по словам представителя Future of Life, генеральный директор OpenAI Сэм Альтман не подписал открытое письмо.

В документе подчеркиваются потенциальные сбои в политике и экономике, вызванные конкурентоспособными системами искусственного интеллекта. Он также призывает к сотрудничеству между разработчиками, политиками и регулирующими органами.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы.

«В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых продвинутых усилий договориться об ограничении темпов роста вычислений, используемых для создания новые модели». Мы согласны. Этот момент сейчас.

«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

«Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями», — говорится в письме.

Профессор Нью-Йоркского университета Гэри Маркус, подписавший письмо, поделился своими мыслями по этому поводу.

«Буква не идеальна, но суть верна: нам нужно притормозить, пока мы лучше не поймем разветвления. Они могут причинить серьезный вред… крупные игроки становятся все более скрытными в отношении того, что они делают, что затрудняет защиту общества от любого вреда, который может материализоваться», — сказал он.

Ссылка на открытое письмо здесь.

Не стесняйтесь обращаться к нам с новостями. Просто отправьте сообщение Саймону

Илон Маск присоединяется к другим технологическим титанам, чтобы призвать приостановить обучение ИИ, превышающему GPT-4

Оставить комментарий