In groepen creëren AI's sociale normen, net zoals mensen dat doen

Onderzoekers hebben aangetoond dat wanneer grote taalmodellen interacteren, deze convergeren naar groepsoplossingen, wat leidt tot ‘sociale conventies’ en zelfs collectieve vooroordelen.
Wanneer kunstmatige intelligenties in groepen met elkaar omgaan, vertonen ze kenmerken die vergelijkbaar zijn met die van menselijke samenlevingen, zo blijkt uit een onderzoek dat op 14 mei werd gepubliceerd in Science Advances. en die het tijdschrift Nature herhaalt .
Menselijke samenlevingen worden gevormd door sociale conventies, dat wil zeggen gedragsregels, formeel of informeel, die bepalen hoe een individu zich in de aanwezigheid van anderen moet gedragen. Hoe zit het met AI? Deze vraag stelde een team van onderzoekers zich. Nu steeds meer AI-agenten communiceren met behulp van natuurlijke taal, rijst er een belangrijke vraag: kunnen zij de basis leggen voor een echte samenleving? de auteurs in detail in de studie beschrijven.
De onderzoekers ontwierpen een reeks experimenten met verschillende versies van Claude, het grote taalmodel (LLM) dat is ontwikkeld door het bedrijf Anthropic, en verschillende versies van Llama, de LLM van Meta. In de eerste twee experimenten lieten ze de LLM's een spel spelen dat leek op een spel dat in onderzoek naar groepsdynamiek bij mensen wordt gebruikt, waarbij teamleden objecten moesten benoemen.
Ze ontdekten dat de leden na een tijdje
Courrier International