AI-onderzoekers en -bestuurders pleiten voor een internationaal regelgevingskader

Tientallen onderzoekers en leidinggevenden uit de sector voor kunstmatige intelligentie (AI) publiceerden maandag een gezamenlijke oproep om een internationaal regelgevingskader op te stellen dat grenzen stelt aan het gebruik van AI om verwoestende gevolgen voor de mensheid te voorkomen.
"AI heeft een enorm potentieel voor het welzijn van de mensheid, maar de huidige ontwikkeling brengt ongekende gevaren met zich mee", schreven de ondertekenaars in een brief die werd gepubliceerd bij de opening van de Algemene Vergadering van de Verenigde Naties in New York. Ze roepen op tot samenwerking tussen leiders om "internationale afspraken te maken over AI-rode lijnen" – de grenzen die belangrijke spelers in de kunstmatige intelligentie stellen aan de ontwikkeling van deze technologie.
Sla de advertentie overDit zijn "minimale waarborgen", "de 'kleinste gemene deler' waar regeringen het over eens moeten worden om de meest dreigende en onaanvaardbare risico's in te dammen", aldus de organisatoren van het initiatief. Het gaat om het Franse Centrum voor AI-beveiliging (CeSIA), evenals The Future Society en het Centrum voor menscompatibele AI van de Universiteit van Berkeley, ondersteund door 20 partnerorganisaties. "AI zou de menselijke capaciteiten binnenkort ver kunnen overtreffen en bepaalde risico's kunnen vergroten, zoals het uitbreken van pandemieën, de verspreiding van desinformatie, (...) nationale veiligheidsproblemen, massale werkloosheid of mensenrechtenschendingen", waarschuwen de ondertekenaars.
Onder hen bevinden zich figuren uit de industrie zoals Jason Clinton, hoofd IT-beveiliging bij Anthropic, een van de toonaangevende bedrijven in de sector, en enkele van zijn collega's, evenals diverse medewerkers van Google's AI-dochter DeepMind en OpenAI. De lijst bevat ook Geoffrey Hinton, de Nobelprijswinnaar voor natuurkunde in 2024 en beschouwd als een van de grondleggers van moderne AI, en Yoshua Bengio, hoogleraar aan de Universiteit van Montreal en een van de meest invloedrijke figuren in het vakgebied. De meeste grote spelers in de sector streven naar de ontwikkeling van kunstmatige algemene intelligentie (AGI), een stadium waarin AI alle intellectuele capaciteiten van de mens zou evenaren, maar ook "superintelligentie", waarmee AI verder zou kunnen gaan.
De auteurs van de brief stellen dat er al internationale afspraken zijn gemaakt over technologieën die als gevaarlijk worden beschouwd voor de gehele mensheid of een deel daarvan. Dit is bijvoorbeeld het geval met het Verdrag inzake de niet-verspreiding van kernwapens (NPT, 1970) of het Protocol van Genève (1925) dat het gebruik van chemische wapens verbiedt, uitgebreid met het Verdrag inzake chemische wapens (CWC), dat in 1997 in werking trad.
lefigaro