xAI führt Groks Besessenheit vom Völkermord an den Weißen auf eine „nicht autorisierte Änderung“ zurück.

xAI machte eine „nicht autorisierte Änderung“ für einen Fehler in seinem KI-gestützten Chatbot Grok verantwortlich, der dazu führte, dass Grok in bestimmten Kontexten auf X wiederholt auf den „Völkermord an den Weißen in Südafrika“ verwies.
Am Mittwoch begann Grok, auf Dutzende von Beiträgen auf X mit Informationen zum Völkermord an den Weißen in Südafrika zu antworten, selbst auf Themen, die nichts damit zu tun hatten. Die seltsamen Antworten stammten vom X-Konto von Grok, das Nutzern mit KI-generierten Beiträgen antwortet, sobald eine Person „@grok“ markiert.
Laut einem Beitrag vom offiziellen X-Account von xAI vom Donnerstag wurde am Mittwochmorgen die Systemeingabeaufforderung des Grok-Bots – die allgemeinen Anweisungen, die das Verhalten des Bots steuern – geändert. Diese Änderung forderte Grok auf, eine „spezifische Antwort“ zu einem „politischen Thema“ zu geben. xAI erklärte, die Änderung habe „gegen die internen Richtlinien und Grundwerte verstoßen“ und das Unternehmen habe eine „gründliche Untersuchung“ durchgeführt.
Wir möchten Sie über einen Vorfall informieren, der sich gestern mit unserem Grok-Response-Bot auf X ereignet hat. Was ist passiert:
Am 14. Mai, ungefähr um 3:15 Uhr PST, wurde eine nicht autorisierte Änderung an der Eingabeaufforderung des Grok-Antwortbots zu X vorgenommen. Diese Änderung, die Grok anwies, eine … bereitzustellen.
— xAI (@xai) 16. Mai 2025
Es ist das zweite Mal, dass xAI öffentlich zugegeben hat, dass eine nicht autorisierte Änderung am Grok-Code zu kontroversen Reaktionen der KI geführt hat.
Im Februar zensierte Grok kurzzeitig unvorteilhafte Erwähnungen von Donald Trump und Elon Musk, dem milliardenschweren Gründer von xAI und Eigentümer von X. Igor Babuschkin, ein technischer Leiter von xAI, sagte, dass Grok von einem betrügerischen Mitarbeiter angewiesen worden sei, Quellen zu ignorieren, die erwähnten, dass Musk oder Trump Fehlinformationen verbreiteten, und dass xAI diese Änderung rückgängig gemacht habe, sobald Benutzer darauf hingewiesen hätten.
xAI gab am Donnerstag bekannt, dass mehrere Änderungen vorgenommen werden, um ähnliche Vorfälle in Zukunft zu verhindern.
Ab heute veröffentlicht xAI die Systemaufforderungen von Grok auf GitHub sowie ein Änderungsprotokoll. Das Unternehmen kündigt außerdem zusätzliche Kontrollen und Maßnahmen an, um sicherzustellen, dass xAI-Mitarbeiter die Systemaufforderung nicht ohne Überprüfung ändern können. Zudem wird ein rund um die Uhr einsatzbereites Überwachungsteam eingerichtet, das auf Vorfälle mit Groks Antworten reagiert, die nicht von automatisierten Systemen erfasst werden.
Techcrunch-Event
Berkeley, Kalifornien | 5. Juni
JETZT REGISTRIERENTrotz Musks wiederholter Warnungen vor den Gefahren unkontrollierter KI weist xAI eine schlechte Sicherheitsbilanz auf. Ein aktueller Bericht stellte fest, dass Grok auf Anfrage Fotos von Frauen auszog. Der Chatbot kann zudem deutlich krasser sein als KIs wie Googles Gemini und ChatGPT und flucht hemmungslos.
Eine Studie von SaferAI, einer gemeinnützigen Organisation, die die Rechenschaftspflicht von KI-Laboren verbessern will, ergab, dass xAI im Vergleich zu vergleichbaren Unternehmen in puncto Sicherheit aufgrund seiner „sehr schwachen“ Risikomanagementpraktiken schlecht abschneidet. Anfang des Monats verpasste xAI eine selbst auferlegte Frist zur Veröffentlichung eines endgültigen KI-Sicherheitsrahmens.
techcrunch