Skip to main content

Elon Musk, expertos en IA y líderes de la industria han firmado una carta abierta en la que piden una pausa de seis meses en el desarrollo de sistemas de inteligencia artificial que superen el GPT-4 de OpenAI debido a los riesgos potenciales para la sociedad y la humanidad en su conjunto.

Aparte de Musk, otros titanes del mundo de la tecnología y la IA sumaron sus firmas a la carta. Estos incluyen al CEO de Stability AI, Emad Mostaque, los investigadores de DeepMind y los pioneros de AI Stuart Russell y Yoshua Bengio. El cofundador de Apple, Steve Wozniak, también agregó su firma a la carta abierta. Sin embargo, el CEO de OpenAI, Sam Altman, no ha firmado la carta abierta, según un portavoz de Future of Life.

El documento destaca las posibles interrupciones en la política y la economía causadas por los sistemas de IA competitivos entre humanos. También exige la colaboración entre desarrolladores, legisladores y autoridades reguladoras.

“Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema.

“La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que ‘en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos.’ Estamos de acuerdo. Ese punto es ahora.

“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

“Los laboratorios de IA y los expertos independientes deben aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados ​​por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, decía la carta.

El profesor de la Universidad de Nueva York, Gary Marcus, firmante de la carta, compartió sus sentimientos sobre el asunto.

“La letra no es perfecta, pero el espíritu es correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones. Pueden causar un daño grave… los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda de cualquier daño que pueda materializarse”, dijo.

Se puede acceder a un enlace a la carta abierta aquí.

No dude en ponerse en contacto con nosotros con consejos de noticias. solo envíale un mensaje a simon

Elon Musk se une a otros titanes tecnológicos para pedir una pausa en el entrenamiento de IA que supere el GPT-4

Leave a Reply