Skip to main content

Elon Musk, AI-experts en marktleiders hebben een open brief ondertekend waarin wordt opgeroepen tot een pauze van zes maanden voor de ontwikkeling van kunstmatige-intelligentiesystemen die OpenAI’s GPT-4 overtreffen vanwege mogelijke risico’s voor de samenleving en de mensheid als geheel.

Behalve Musk hebben ook andere titanen in de wereld van technologie en AI hun handtekening onder de brief gezet. Deze omvatten Stability AI CEO Emad Mostaque, DeepMind-onderzoekers en AI-pioniers Stuart Russell en Yoshua Bengio. Mede-oprichter van Apple, Steve Wozniak, zette ook zijn handtekening onder de open brief. Sam Altman, CEO van OpenAI, heeft de open brief echter niet ondertekend, aldus een woordvoerder van Future of Life.

Het document belicht mogelijke verstoringen van de politiek en de economie veroorzaakt door mens-concurrerende AI-systemen. Het vraagt ​​ook om samenwerking tussen ontwikkelaars, beleidsmakers en regelgevende instanties.

“Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico’s beheersbaar zullen zijn. Dit vertrouwen moet goed gerechtvaardigd zijn en toenemen met de omvang van de potentiële effecten van een systeem.

“OpenAI’s recente verklaring met betrekking tot kunstmatige algemene intelligentie stelt dat ‘het op een gegeven moment belangrijk kan zijn om onafhankelijke beoordeling te krijgen voordat toekomstige systemen worden getraind, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de computer die wordt gebruikt voor het maken van nieuwe modellen.’ Wij zijn het eens. Dat punt is nu.

“Daarom roepen we alle AI-labs op om per direct minimaal 6 maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4. Deze pauze moet openbaar en verifieerbaar zijn en alle belangrijke actoren omvatten. Als zo’n pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.

“AI-labs en onafhankelijke experts zouden deze pauze moeten gebruiken om gezamenlijk een reeks gedeelde veiligheidsprotocollen te ontwikkelen en te implementeren voor geavanceerd AI-ontwerp en -ontwikkeling die streng worden gecontroleerd en gecontroleerd door onafhankelijke externe experts. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden buiten redelijke twijfel veilig zijn. Dit betekent geen pauze in de ontwikkeling van AI in het algemeen, maar slechts een stap terug van de gevaarlijke race naar steeds grotere, onvoorspelbare black-box-modellen met opkomende mogelijkheden”, aldus de brief.

Gary Marcus, professor aan de New York University, een van de ondertekenaars van de brief, deelde zijn gevoelens over de kwestie.

“De letter is niet perfect, maar de geest klopt: we moeten vertragen totdat we de gevolgen beter begrijpen. Ze kunnen ernstige schade aanrichten… de grote spelers worden steeds geheimzinniger over wat ze doen, wat het voor de samenleving moeilijk maakt om zich te verdedigen tegen welke schade dan ook,’ zei hij.

Een link naar de open brief is hier te vinden.

Aarzel niet om ons te contacteren met nieuwstips. Stuur gewoon een berichtje naar simon

Elon Musk sluit zich aan bij andere tech-titanen om te pleiten voor een pauze bij het trainen van AI die GPT-4 overschrijdt

Leave a Reply