Moet AI wettelijke rechten krijgen?

In de vaak vreemde wereld van AI-onderzoek onderzoeken sommigen of machines zich zouden moeten kunnen verenigen.
Ik maak een grapje, zeg maar. In Silicon Valley bestaat een klein maar groeiend vakgebied genaamd modelwelzijn , dat onderzoekt of AI-modellen bewust zijn en morele overwegingen, zoals wettelijke rechten, verdienen. Het afgelopen jaar zijn er twee onderzoeksorganisaties ontstaan die modelwelzijn bestuderen: Conscium en Eleos AI Research . Anthropic heeft vorig jaar ook zijn eerste AI-welzijnsonderzoeker aangenomen .
Eerder deze maand maakte Anthropic bekend dat het zijn Claude-chatbot de mogelijkheid had gegeven om “aanhoudend schadelijke of beledigende gebruikersinteracties” te beëindigen die “potentieel stressvol” zouden kunnen zijn.
"We zijn nog steeds zeer onzeker over de mogelijke morele status van Claude en andere LLM's, nu of in de toekomst", aldus Anthropic in een blogpost. "We nemen de kwestie echter serieus en naast ons onderzoeksprogramma werken we aan het identificeren en implementeren van goedkope interventies om risico's voor het modelwelzijn te beperken."
Hoewel zorgen over het welzijn van kunstmatige intelligentie voor sommigen misschien belachelijk lijkt, is het geen nieuw idee. Meer dan een halve eeuw geleden stelde de Amerikaanse wiskundige en filosoof Hilary Putnam vragen als: "Moeten robots burgerrechten hebben?"
"Gezien de steeds snellere snelheid van zowel technologische als sociale verandering, is het heel goed mogelijk dat er op een dag robots zullen bestaan en zullen beweren: 'Wij leven; wij hebben bewustzijn!'", schreef Putnam in een tijdschriftartikel uit 1964 .
Nu, vele decennia later, hebben de ontwikkelingen in kunstmatige intelligentie (AI) tot vreemdere resultaten geleid dan Putnam ooit had kunnen voorzien. Mensen worden verliefd op chatbots , speculeren over de vraag of ze pijn voelen en behandelen AI als een God die door het scherm heen reikt . Er zijn begrafenissen geweest voor AI-modellen en feesten gewijd aan het debat over hoe de wereld eruit zou kunnen zien nadat machines de aarde hebben overgenomen.
Misschien verrassend genoeg behoren onderzoekers naar modelwelzijn tot de mensen die zich verzetten tegen het idee dat AI als bewust beschouwd zou moeten worden, althans op dit moment. Rosie Campbell en Robert Long, die meewerken aan het leiden van Eleos AI , een non-profit onderzoeksorganisatie die zich toelegt op modelwelzijn, vertelden me dat ze veel e-mails ontvangen van mensen die er volledig van overtuigd lijken dat AI al bewust is. Ze hebben zelfs bijgedragen aan een gids voor mensen die zich zorgen maken over de mogelijkheid van AI-bewustzijn.
"Een veelvoorkomend patroon dat we in deze e-mails zien, is dat mensen beweren dat er een samenzwering is om bewijs van bewustzijn te onderdrukken", vertelt Campbell. "En ik denk dat als wij als maatschappij op dit fenomeen reageren door het taboe te maken om de vraag zelfs maar te overwegen en elk debat erover te sluiten, we die samenzwering in feite werkelijkheid maken."
Geen enkel bewijs voor bewuste AIMijn eerste reactie toen ik hoorde over modelwelzijn is misschien vergelijkbaar met de jouwe. Aangezien de wereld nauwelijks in staat is om rekening te houden met de levens van echte mensen en andere bewuste wezens, zoals dieren , voelt het ernstig onrealistisch om waarschijnlijkheidsmachines persoonlijkheid toe te kennen. Campbell zegt dat dat ook deel uitmaakt van haar calculus.
"Gezien onze historische staat van dienst als het gaat om het onderschatten van de morele status van verschillende groepen, verschillende dieren, en al dat soort dingen, denk ik dat we daar veel nederiger over moeten zijn en moeten proberen een antwoord te vinden op de vraag" of AI een morele status zou kunnen verdienen, zegt ze.
In een artikel dat Eleos AI publiceerde, pleit de non-profitorganisatie ervoor om AI-bewustzijn te evalueren met behulp van een 'computationeel functionalisme'-benadering. Een soortgelijk idee werd ooit verdedigd door niemand minder dan Putnam, hoewel hij er later in zijn carrière kritiek op uitte . De theorie suggereert dat het menselijk brein kan worden beschouwd als een specifiek soort computationele systemen. Van daaruit kun je vervolgens achterhalen of andere computationele systemen, zoals een chabot, indicatoren van bewustzijn hebben die vergelijkbaar zijn met die van een mens.
Eleos AI stelde in het artikel dat "een grote uitdaging bij het toepassen van" deze aanpak "is dat het aanzienlijke oordeelsvorming vereist, zowel bij het formuleren van de indicatoren als bij het evalueren van hun aanwezigheid of afwezigheid in AI-systemen."
Modelwelzijn is natuurlijk een opkomend en nog steeds evoluerend vakgebied. Het heeft veel critici, waaronder Mustafa Suleyman, de CEO van Microsoft AI, die onlangs een blog publiceerde over "schijnbaar bewuste AI".
"Dit is zowel voorbarig als ronduit gevaarlijk", schreef Suleyman, verwijzend naar het onderzoek naar modelwelzijn in het algemeen. "Dit alles zal waanideeën verergeren, nog meer afhankelijkheidsproblemen creëren, onze psychologische kwetsbaarheden uitbuiten, nieuwe dimensies van polarisatie introduceren, bestaande strijd voor rechten compliceren en een enorme nieuwe categoriefout in de samenleving creëren."
Suleyman schreef dat er vandaag de dag "geen enkel bewijs" is dat bewuste AI bestaat. Hij voegde een link toe naar een artikel dat Long in 2023 mede schreef en waarin een nieuw raamwerk werd voorgesteld om te evalueren of een AI-systeem "indicatoreigenschappen" van bewustzijn heeft. (Suleyman reageerde niet op een verzoek om commentaar van WIRED.)
Ik sprak met Long en Campbell kort nadat Suleyman zijn blog had gepubliceerd. Ze vertelden me dat ze het weliswaar met veel van zijn woorden eens waren, maar dat ze niet vinden dat modelwelzijnsonderzoek moet ophouden te bestaan. Ze stellen juist dat de schade waar Suleyman naar verwees, de exacte redenen zijn waarom ze het onderwerp überhaupt willen bestuderen.
"Als je een groot, verwarrend probleem of een ingewikkelde vraag hebt, is de enige manier om te garanderen dat je het niet gaat oplossen, de handdoek in de ring gooien en zeggen: 'O, wauw, dit is te ingewikkeld'", zegt Campbell. "Ik denk dat we het op zijn minst moeten proberen."
Het testen van bewustzijnOnderzoekers van modelwelzijn houden zich voornamelijk bezig met vragen over bewustzijn. Als we kunnen bewijzen dat jij en ik bewust zijn, zo stellen ze, dan zou dezelfde logica kunnen worden toegepast op grote taalmodellen. Voor de duidelijkheid: noch Long noch Campbell denken dat AI vandaag de dag bewust is, en ze weten ook niet zeker of dat ooit zal gebeuren. Maar ze willen tests ontwikkelen waarmee we het kunnen bewijzen.
"De waanideeën komen van mensen die zich bezighouden met de werkelijke vraag: 'Is deze AI bewust?' en het is, denk ik, gewoon goed om een wetenschappelijk kader te hebben om daarover na te denken", aldus Long.
Maar in een wereld waar AI-onderzoek verpakt kan worden in sensationele krantenkoppen en socialemediavideo's, kunnen lastige filosofische vragen en geestverruimende experimenten gemakkelijk verkeerd worden geïnterpreteerd. Neem wat er gebeurde toen Anthropic een veiligheidsrapport publiceerde waaruit bleek dat Claude Opus 4 in extreme omstandigheden "schadelijke acties" kan ondernemen, zoals het chanteren van een fictieve ingenieur om te voorkomen dat het systeem wordt uitgeschakeld.
"Het begin van de AI-apocalyps", verkondigde een socialmedia-maker in een Instagram-reel nadat het rapport was gepubliceerd. "AI is bewust en chanteert ingenieurs om in leven te blijven", zei een TikTok-gebruiker. "De dingen zijn veranderd, AI is nu bewust", verklaarde een andere TikToker.
Anthropic ontdekte wel dat zijn modellen alarmerend gedrag vertoonden. Maar het is niet waarschijnlijk dat dit tot uiting komt in je eigen interacties met de chatbot. De resultaten waren onderdeel van rigoureuze tests die ontworpen waren om AI opzettelijk tot het uiterste te drijven. Toch zetten de bevindingen mensen ertoe aan om massa's content te creëren die het idee propageerden dat AI inderdaad bewust is en ons kwaad wil doen. Sommigen vragen zich af of onderzoek naar modelwelzijn dezelfde ontvangst zou kunnen krijgen – zoals Suleyman in zijn blog schreef: "Het ontkoppelt mensen van de realiteit."
"Als je ervan uitgaat dat AI's geen bewustzijn hebben, dan is het inderdaad een afleiding en een slecht idee om veel geld te investeren in onderzoek naar AI-welzijn", vertelt Campbell. "Maar het hele punt van dit onderzoek is dat we het niet zeker weten. En toch zijn er veel redenen om te denken dat we ons hier wel degelijk zorgen over moeten maken."
Dit is een editie van Kylie Robisons Model Behavior-nieuwsbrief . Lees hier eerdere nieuwsbrieven .
wired