KI-Videos von schwarzen Frauen, die als „Bigfoot“ dargestellt werden, werden viral

Eine von KI generierte „Bigfoot- Bösewichtin“ mit Acrylnägeln und pinker Perücke spricht über ein iPhone direkt zu ihrem imaginären Publikum. „Wir müssen wohl fliehen“, sagt sie. „Ich werde wegen einer Falschmeldung über den Vater meines Kindes gesucht.“ Dieses von Googles Veo 3 generierte KI-Video wurde auf Instagram bereits über eine Million Mal angesehen. Es ist nur einer von vielen viralen Posts auf Instagram und TikTok, die von WIRED angesehen wurden und in denen schwarze Frauen als Primaten dargestellt werden und die mithilfe von KI-Videotools rassistische Stereotype verbreiten.
Googles Veo 3 war ein großer Online-Hit, als es im Mai auf der Entwicklerkonferenz des Unternehmens vorgestellt wurde. Surreale Generationen von biblischen Figuren und Kryptiden wie Bigfoot, die im Influencer-Stil Vlogs machten, verbreiteten sich schnell in den sozialen Medien. KI-generierte Bigfoot-Vlogs wurden von Google sogar als Verkaufsargument in Anzeigen für die neue Funktion genutzt.
Mit „Bigfoot Baddies“ nutzen Online-Ersteller einen zunächst harmlosen Social-Media-Trend, um schwarze Frauen zu entmenschlichen. „Es gibt einen historischen Präzedenzfall, warum das beleidigend ist. In den Anfängen der Sklaverei wurden Schwarze in Illustrationen übertrieben dargestellt, um ihre ursprünglichen Eigenschaften hervorzuheben“, sagt Nicol Turner Lee , Direktorin des Center for Technology Innovation der Brookings Institution.
„Es ist abstoßend und verstörend zugleich, dass diese rassistischen Tropen und Bilder so leicht gestaltet und auf Online-Plattformen verbreitet werden können“, sagt Turner Lee.
Einer der beliebtesten Instagram-Accounts, der diese generierten Clips veröffentlicht, hat weniger als einen Monat nach seinem ersten Beitrag bereits fünf Videos mit über einer Million Aufrufen. In den KI-Videos sprechen die Tier-Frau-Hybriden karikaturhaft afroamerikanisches Englisch. Die Figuren tragen oft eine Haube und drohen mit Schlägereien. In einem Clip deutet die KI-Generation mit ländlichem Akzent an, sie habe eine Hennessy-Flasche aus ihrem Geschlechtsteil gezogen.
Veo 3 kann alles, was in Videos wie diesem zu sehen ist – von der Szenerie über den gesprochenen Ton bis hin zu den Figuren selbst – aus einer einzigen Eingabeaufforderung heraus erstellen. Die Biografie des beliebten Instagram-Kontos enthält einen Link zu einem 15-Dollar-Onlinekurs, in dem man lernen kann, ähnliche Videos zu erstellen. In Videos mit Titeln wie „Veo 3 erledigt die Schwerstarbeit“ führen drei Lehrer die Schüler per Voiceover durch den Prozess, das KI-Videotool für Bigfoot-Clips zu programmieren und einheitliche Figuren zu erstellen. Die als Administrator des Onlinekurses angegebene E-Mail-Adresse wiesen Nachrichten zurück, als WIRED versuchte, die Macher zu kontaktieren.
Ein Sprecher von Meta, dem Instagram-Eigentümer, lehnte eine Stellungnahme zu dem Vorfall ab. Google und TikTok bestätigten die Bitte von WIRED um Stellungnahme, gaben jedoch vor der Veröffentlichung keine Stellungnahme ab.
Unsere Social-Media-Analyse ergab Nachahmer-Accounts auf Instagram und TikTok, die die „Bigfoot Baddie“-Clips reposten oder ähnliche Videos erstellen. Ein Repost eines Videos auf Instagram hat eine Million Aufrufe auf einer KI-fokussierten Meme-Seite. Ein anderer Instagram-Account hat ein weiteres „Bigfoot Baddie“-Video mit fast drei Millionen Aufrufen. Das Problem ist nicht nur auf Instagram: Ein TikTok-Account, der ähnlichen KI-generierten Inhalten gewidmet ist, hat derzeit über eine Million Likes. Diese Accounts reagierten nicht unmittelbar auf eine Bitte um Stellungnahme.
„Wenn ich hier sterbe, werde ich besser mit einem BBL wiederbelebt“, sagt eine KI-generierte Bigfoot-Frau auf einem anderen Account und spricht in die Kamera, während sie im Urlaub in Israel Bomben ausweicht. „Eines der Probleme mit generativer KI ist, dass die Entwickler von KI-Tools sich nicht alle Möglichkeiten vorstellen können, wie Menschen einander gegenüber grausam sein können“, sagt Meredith Broussard, Professorin an der New York University und Autorin von„More Than a Glitch “, einem Buch über Vorurteile in der Technologie. „Sie können also nicht genügend Leitplanken errichten. Es ist genau das gleiche Problem, das wir auf Social-Media-Plattformen gesehen haben.“
Ein Screenshot eines der „Bigfoot Baddies“-Videos, die WIRED auf Instagram gefunden hat. Das Video wurde mithilfe von KI-Tools erstellt.
Mit freundlicher Genehmigung von Reece RogersNachdem wir auf einige der Videos mit der Bigfoot-Frau geklickt hatten, füllte der Algorithmus den Instagram-Reels-Feed unseres Testkontos bald mit weiteren rassistischen Videos – darunter auch eine KI-Generation eines schwarzen Mannes auf einem Fischerboot, der aufgeregt ein Stück Hähnchen frittiert und einen Schimpansen als seinen Sohn bezeichnet.
Diese KI-Videos sind zwar beunruhigend, aber nicht unbedingt überraschend. Bereits 2023, als ein KI-generiertes Video von Will Smith beim Spaghettiessen in den sozialen Medien viral ging, analysierte WIRED-Chefredakteur Jason Parham das Video als eine Form von Minstrelsy. „Dieses kommende Zeitalter der neuen Minstrelsy wird eine noch raffiniertere Chamäleonform annehmen, anpassungsfähig und unmittelbar in seiner List, von humanistischen Deepfakes und punktgenauen Stimmmanipulationen bis hin zu allen Arten digitaler Täuschung“, schrieb Parham damals.
Mit der neuesten Welle generativer KI-Videotools, angeführt von Googles Veo 3, war es noch nie so einfach, fotorealistische KI-Videos zu produzieren. Die einfache Generierung zahlreicher Videos, gepaart mit der stetigen Verbreitung von KI-Schund auf Social-Media-Plattformen, hat diese „Bigfoot-Bösewichte“ populär gemacht. Weitere Social-Media-Trends, bei denen Kreative KI nutzen, um Minderheitengruppen anzugreifen, werden sich voraussichtlich fortsetzen. „KI hat nicht nur die Bildbearbeitung erleichtert“, sagt Turner Lee. „Der Algorithmus selbst und seine Ökologie haben es auch einfacher gemacht, diese Inhalte zu teilen oder den Konsum zu steigern.“
wired