Skip to main content

Elon Musk, KI-Experten und Branchenführer haben einen offenen Brief unterzeichnet, in dem sie eine sechsmonatige Pause bei der Entwicklung von Systemen künstlicher Intelligenz fordern, die OpenAIs GPT-4 aufgrund potenzieller Risiken für die Gesellschaft und die Menschheit insgesamt übertreffen.

Abgesehen von Musk haben andere Titanen in der Welt der Technologie und KI ihre Unterschriften unter den Brief gesetzt. Dazu gehören Emad Mostaque, CEO von Stability AI, DeepMind-Forscher und die KI-Pioniere Stuart Russell und Yoshua Bengio. Auch Apple-Mitbegründer Steve Wozniak hat den offenen Brief mit seiner Unterschrift versehen. Laut einem Sprecher von Future of Life hat OpenAI-CEO Sam Altman den offenen Brief jedoch nicht unterzeichnet.

Das Dokument zeigt potenzielle Störungen in Politik und Wirtschaft auf, die durch menschlich konkurrierende KI-Systeme verursacht werden. Es fordert auch die Zusammenarbeit zwischen Entwicklern, politischen Entscheidungsträgern und Regulierungsbehörden.

„Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Wirkung positiv und ihre Risiken überschaubar sind. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.

„In der jüngsten Erklärung von OpenAI zur künstlichen allgemeinen Intelligenz heißt es: „Irgendwann kann es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training zukünftiger Systeme begonnen wird, und für die fortschrittlichsten Bemühungen, sich darauf zu einigen, die Wachstumsrate der für die Erstellung verwendeten Rechenleistung zu begrenzen neue Modelle.‘ Sind wir uns einig. Dieser Punkt ist jetzt.

„Deshalb fordern wir alle KI-Labore auf, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, unverzüglich für mindestens 6 Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine solche Pause nicht schnell erlassen werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen.

„KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden. Diese Protokolle sollten sicherstellen, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind. Dies bedeutet keine Pause bei der KI-Entwicklung im Allgemeinen, sondern lediglich einen Rückzug aus dem gefährlichen Wettlauf zu immer größeren, unvorhersehbaren Black-Box-Modellen mit aufstrebenden Fähigkeiten“, heißt es in dem Brief.

Professor Gary Marcus von der New York University, ein Unterzeichner des Briefes, teilte seine Meinung zu dieser Angelegenheit.

„Der Buchstabe ist nicht perfekt, aber der Geist stimmt: Wir müssen langsamer werden, bis wir die Auswirkungen besser verstehen. Sie können ernsthaften Schaden anrichten … die großen Akteure verschweigen immer mehr, was sie tun, was es der Gesellschaft erschwert, sich gegen mögliche Schäden zu wehren“, sagte er.

Einen Link zum offenen Brief finden Sie hier.

Zögern Sie nicht, uns mit Neuigkeiten-Tipps zu kontaktieren. Schicken Sie einfach eine Nachricht an Simon

Elon Musk schließt sich anderen Tech-Titanen an, um eine Pause beim Training von KI zu fordern, das GPT-4 überschreitet

Leave a Reply