AI: Verantwoordelijkheden van de makers en gebruikers

Vorige week besprak ik in deze column een aantal van de grootste uitdagingen die de regulering van kunstmatige intelligentie in Mexico met zich meebrengt. Het probleem vloeit voort uit de juridische definitie van het begrip zelf en de implicaties ervan voor de regulering van aanverwante zaken, maar beperkt zich niet tot deze aspecten. Een andere uitdaging die regelgeving op dit gebied met zich meebrengt, is de afbakening van verantwoordelijkheden tussen degenen die AI-systemen ontwerpen en degenen die ze gebruiken.
Kunstmatige intelligentie is zo plotseling in ons leven gekomen dat het door de maatschappij soms wordt gezien als autonoom, een anonieme entiteit die zichzelf opbouwt en ontwikkelt, alsof het uit eigen vrije wil handelt, zonder de navelstreng die het verbindt met zijn makers en zonder bemoeienis van de gebruiker die het instructies geeft en verzoeken formuleert. Het probleem met dit idee is dat, als het in de juridische wereld zou worden toegepast, er geen manier zou zijn om te bepalen wie verantwoordelijk is voor eventuele schendingen van rechten door het gebruik van AI. Algoritmes zijn immers geen identificeerbare juridische entiteiten die aansprakelijkheid kunnen aanvaarden.
Daarom is het belangrijk dat bij de regulering van deze materie de omvang van de verantwoordelijkheden van zowel makers als gebruikers zorgvuldig wordt geanalyseerd, om de rechtszekerheid en de rechten en vrijheden van beiden te behouden. Zoals de wet de theorie van juridische fictie heeft ontwikkeld om de oprichting van rechtspersonen met hun bijbehorende rechtsgebieden mogelijk te maken, zo is het nu noodzakelijk de wetgeving aan te passen om de ontwikkeling en uitbreiding van systemen voor kunstmatige intelligentie toe te staan en aan te moedigen, zonder de rechten van alle betrokkenen onbeschermd te laten.
Voor AI-ontwikkelaars is het duidelijk dat het hun verantwoordelijkheid is om te bepalen en selecteren welke databases en informatie zij in hun systemen of platforms willen invoeren. Een duidelijk voorbeeld hiervan zijn de geschillen die in verschillende landen zijn ontstaan over de mogelijke schending van intellectuele-eigendomsrechten wanneer ontwikkelaars van AI-systemen databases of content van derden in hun systemen opnemen zonder toestemming van derden of zonder te betalen voor de commerciële exploitatie ervan. Wat de implementatie van bevooroordeelde algoritmes betreft, moeten alle beperkingen zorgvuldig worden geëvalueerd om ervoor te zorgen dat de vrijheid van meningsuiting wordt gerespecteerd.
Wat de gebruikers betreft, hebben velen van hen een bijna blind vertrouwen ontwikkeld in de informatie die zij van AI-systemen verkrijgen. Sommigen zien hen als een soort moderne orakels die verantwoordelijk zijn voor het oplossen van hun problemen. Ze nemen zelfs beslissingen die een grote impact op hun leven hebben, op basis van aanbevelingen van een AI-platform.
Sommige mensen vragen AI om psychologische ondersteuning of persoonlijk advies om een specifieke situatie op te lossen, en ze accepteren de resultaten van het consult, zelfs boven hun eigen oordeel. Volgens Dr. Mara Dierssen, voorzitter van de Spaanse Hersenraad, vermindert de neurologische inspanning wanneer er te veel taken aan AI worden gedelegeerd. Hierdoor neemt ook het vermogen om kritisch te denken en zelfstandig problemen op te lossen af (Vademecum, Koninklijke Nationale Academie voor Geneeskunde van Spanje). Er zijn ook gevallen bekend waarin gebruikers AI-tools gebruiken om illegale content te genereren of te verspreiden.
In deze gevallen hoeven AI-makers geen verantwoordelijkheid te nemen voor het gebruik van hun platformen door individuele personen of voor de beslissingen die zij op basis daarvan nemen. Misschien zouden ze gewoon verplicht moeten worden om waarschuwingslabels te plaatsen, in plaats van de inhoud die ze genereren uitgebreid te beperken of te controleren, aangezien dit de voordelen van AI drastisch zou tenietdoen.
Eleconomista