Saudische KI-Firma führt Halal-Chatbot ein

Unternehmen mit KI-Chatbots heben gerne ihre Übersetzungskompetenz hervor, verwenden jedoch standardmäßig Englisch – sowohl funktional als auch in Bezug auf die Informationen, auf die sie trainiert werden. Vor diesem Hintergrund hat Humain, ein KI-Unternehmen in Saudi-Arabien, nun einen arabischsprachigen Chatbot auf den Markt gebracht.
Der Bot namens Humain Chat läuft laut Bloomberg auf dem Allam-Langsprachenmodell, das laut Angaben des Unternehmens mit „einem der größten jemals erstellten arabischen Datensätze“ trainiert wurde und „das weltweit fortschrittlichste arabischsprachige KI-Modell“ ist. Das Unternehmen sagt , dass es nicht nur fließend Arabisch spricht, sondern auch „islamische Kultur, Werte und Traditionen“ versteht. (Wenn Sie religiöse Bedenken hinsichtlich der Nutzung von Humain Chat haben, wenden Sie sich an Ihren örtlichen Imam.) Der Chatbot, der als App verfügbar sein wird, ist zunächst nur in Saudi-Arabien verfügbar und unterstützt derzeit zweisprachige Gespräche auf Arabisch und Englisch sowie Dialekte wie Ägyptisch und Libanesisch. Geplant ist, die App im gesamten Nahen Osten und schließlich weltweit einzuführen, um die fast 500 Millionen Arabisch sprechenden Menschen auf der ganzen Welt zu erreichen.
Humain übernahm Allam und das Chatbot-Projekt, nachdem es von der Saudi Data and Artificial Intelligence Authority, einer Regierungsbehörde und Technologieregulierungsbehörde, ins Leben gerufen worden war. Bloomberg hält es daher für möglich, dass Humain Chat den Zensuranforderungen der saudischen Regierung nachkommt und die Art der den Nutzern zugänglichen Informationen einschränkt.
Und ja, das scheint zweifellos wahr zu sein. Die Regierung Saudi-Arabiens versucht regelmäßig, die Art der Inhalte einzuschränken, die ihrer Bevölkerung zugänglich sind. Das Land erreichte im Bericht „Freedom of the Net“ 2024 von Freedom House 25 von 100 Punkten, was auf die strengen Kontrollen der Online-Aktivitäten und die restriktiven Redegesetze zurückzuführen ist, die dazu führten, dass eine Frauenrechtsaktivistin mehr als ein Jahrzehnt lang inhaftiert war .
Aber wir sollten wahrscheinlich auch anfangen, amerikanische KI-Tools explizit in diesem Sinne zu charakterisieren. OpenAI erklärt in seinen Support-Dokumenten ausdrücklich , ChatGPT sei „westlich geprägt“. Man kann Elon Musk sogar live dabei zusehen, wie er versucht, die Ideologie von xAIs Grok zu verfeinern, indem er Twitter-Nutzern antwortet, die den Chatbot für zu „woke“ halten – ein Versuch, der dazu führte, dass Grok sich selbst einmal „ MechaHitler “ nannte.
Es besteht sicherlich ein Unterschied zwischen Unternehmens- und staatlicher Kontrolle (obwohl man sich zunehmend fragen muss, ob der Unterschied tatsächlich so groß ist ). Doch Anfang des Jahres legte die Trump-Regierung Pläne vor, die Art der Ausgabe großer Sprachmodelle zu regulieren, wenn die Unternehmen, die sie erstellen, Bundesaufträge anstreben. Dazu gehören die Auflage, „radikale Klimadogmen abzulehnen“ und frei von „ideologischen Vorurteilen“ wie „Vielfalt, Gerechtigkeit und Inklusion“ zu sein. Es handelt sich zwar nicht um Zwang, aber um Nötigung – und angesichts der Tatsache, dass OpenAI , Anthropic und Google ihre Chatbots praktisch kostenlos an die Regierung abgegeben haben, scheinen sie sich diesem Zwang nur zu gern zu unterziehen.
gizmodo