Skip to main content

Elon Musk, AI 전문가 및 업계 리더는 사회와 인류 전체에 대한 잠재적 위험으로 인해 OpenAI의 GPT-4를 초과하는 인공 지능 시스템 개발을 6개월 중단할 것을 요구하는 공개 서한에 서명했습니다.

Musk 외에도 기술 및 AI 세계의 다른 거물들이 편지에 서명을 추가했습니다. 여기에는 Stability AI CEO Emad Mostaque, DeepMind 연구원, AI 개척자 Stuart Russell 및 Yoshua Bengio가 포함됩니다. 공개 서한에는 애플 공동창업자 스티브 워즈니악도 서명을 추가했다. 그러나 Future of Life 대변인에 따르면 OpenAI CEO Sam Altman은 공개 서한에 서명하지 않았습니다.

이 문서는 인간과 경쟁하는 AI 시스템으로 인해 정치와 경제에 미칠 잠재적 혼란을 강조합니다. 또한 개발자, 정책 입안자 및 규제 당국 간의 협력이 필요합니다.

“강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발해야 합니다. 이러한 확신은 충분히 정당화되어야 하며 시스템의 잠재적 영향의 크기에 따라 증가해야 합니다.

“인공 일반 지능에 관한 OpenAI의 최근 성명에서는 ‘언젠가는 미래 시스템 교육을 시작하기 전에 독립적인 검토를 받는 것이 중요할 수 있으며, 생성에 사용되는 컴퓨팅의 성장률을 제한하는 데 동의하는 가장 진보된 노력을 위해 중요할 수 있습니다. 새 모델.’ 우리는 동의한다. 그 시점은 지금입니다.

“따라서 우리는 모든 AI 연구실에 GPT-4보다 강력한 AI 시스템 교육을 최소 6개월 동안 즉시 중단할 것을 요청합니다. 이 일시 중지는 공개적이고 검증 가능해야 하며 모든 주요 행위자를 포함해야 합니다. 이러한 중단을 신속하게 시행할 수 없다면 정부가 개입하여 유예 조치를 취해야 합니다.

“AI 연구실과 독립적인 전문가는 이 일시 중지를 사용하여 독립적인 외부 전문가가 엄격하게 감사하고 감독하는 고급 AI 설계 및 개발을 위한 일련의 공유 안전 프로토콜을 공동으로 개발하고 구현해야 합니다. 이러한 프로토콜은 이를 준수하는 시스템이 합리적 의심의 여지 없이 안전하도록 보장해야 합니다. 이것은 일반적으로 AI 개발의 일시 중지를 의미하는 것이 아니라, 위험한 경쟁에서 새로운 기능을 갖춘 예측할 수 없는 블랙박스 모델로 한 걸음 물러나는 것일 뿐입니다.”

서한에 서명한 뉴욕대 게리 마커스 교수는 이 문제에 대한 소감을 밝혔다.

“편지는 완벽하지 않지만 정신은 옳습니다. 파급 효과를 더 잘 이해할 때까지 속도를 늦출 필요가 있습니다. 그들은 심각한 피해를 입힐 수 있습니다. 거물들은 자신이 하는 일에 대해 점점 더 비밀스러워지고 있으며, 이로 인해 사회가 구체화될 수 있는 모든 피해로부터 방어하기가 어렵습니다.”라고 그는 말했습니다.

공개 서한에 대한 링크는 여기에서 액세스할 수 있습니다.

뉴스 팁이 있으면 주저하지 말고 문의하십시오. 그냥 사이먼에게 메시지를 보내

Elon Musk, GPT-4를 초과하는 AI 교육 중단을 요구하기 위해 다른 기술 거물과 합류

Leave a Reply