Skip to main content

イーロン マスク、AI の専門家、および業界のリーダーは、社会と人類全体に対する潜在的なリスクのために、OpenAI の GPT-4 を超える人工知能システムの開発を 6 か月間一時停止することを求める公開書簡に署名しました。

Musk を除いて、テクノロジーと AI の世界の他の巨人が手紙に署名を追加しました。 これらには、Stability AI の CEO である Emad Mostaque、DeepMind の研究者、AI のパイオニアである Stuart Russell と Yoshua Bengio が含まれます。 アップルの共同創業者であるスティーブ・ウォズニアックも、公開書簡に署名を加えました。 ただし、Future of Life の広報担当者によると、OpenAI の CEO である Sam Altman は公開書簡に署名していません。

この文書は、人間と競合する AI システムによって引き起こされる政治と経済への潜在的な混乱を浮き彫りにしています。 また、開発者、政策立案者、規制当局間の協力も必要です。

「強力な AI システムは、その効果がプラスになり、リスクが管理可能になると確信した場合にのみ開発する必要があります。 この信頼は十分に正当化され、システムの潜在的な影響の大きさに応じて増加する必要があります。

「汎用人工知能に関する OpenAI の最近の声明では、「ある時点で、将来のシステムのトレーニングを開始する前に、独立したレビューを受けることが重要である可能性があり、最も先進的な取り組みのために、新しいモデル。 私達は同意します。 その点は今です。

「したがって、すべての AI ラボに、GPT-4 よりも強力な AI システムのトレーニングを少なくとも 6 か月間直ちに一時停止するよう求めます。 この一時停止は公開され、検証可能であり、すべての主要な関係者が含まれている必要があります。 そのような一時停止を迅速に制定できない場合、政府は介入してモラトリアムを設定する必要があります。

「AI ラボと独立した専門家は、この一時停止を利用して、高度な AI の設計と開発のための一連の共有安全プロトコルを共同で開発および実装する必要があります。このプロトコルは、独立した外部の専門家によって厳密に監査および監督されます。 これらのプロトコルは、それに準拠するシステムが合理的な疑いを超えて安全であることを保証する必要があります。 これは、一般的な AI 開発の一時停止を意味するものではなく、危険な競争から、新たな機能を備えたこれまで以上に大規模で予測不可能なブラックボックス モデルへの後退を意味するだけです」と書簡は読みました。

書簡の署名者であるニューヨーク大学のゲイリー・マーカス教授は、この問題についての感情を共有しました。

「手紙は完璧ではありませんが、精神は正しいです。影響をよりよく理解するまで、減速する必要があります。 彼らは深刻な危害を引き起こす可能性があります…大企業は自分たちが何をしているかについてますます秘密主義になってきており、社会がどんな危害が現実化するかに対して防御することを難しくしています」と彼は言いました.

公開書簡へのリンクはこちらからアクセスできます。

ニュースのヒントについては、お気軽にお問い合わせください。 サイモンにメッセージを送ってください

イーロン・マスクは、他のテックタイタンに加わり、GPT-4 を超える AI のトレーニングの一時停止を呼びかけます

Leave a Reply