Porno-Bots und die Zukunft der KI laut Elon Musk


ANSA-Foto
Dinge von unseren Bildschirmen
Was wäre, wenn das Geschäftsmodell, auf das die KI-Branche wartet, darin besteht, Millionen von Menschen Freunde, Freundinnen und andere Begleiter zu verkaufen? Elon Musks Unternehmen xAI hat zwei neue Grok-„Begleiter“ auf den Markt gebracht, darunter ein kleines Mädchen, das aussieht, als wäre es einem Anime entsprungen. Und sie ist bereit, über alles zu reden.
Zum gleichen Thema:
Ende Mai diskutierten wir über die komplizierte Beziehung zwischen Elon Musk und Grok, dem Chatbot seines KI-Unternehmens xAI. Damals hatte Grok auf zahlreiche Nutzer der X-Plattform mit kritischen Kommentaren über Musk selbst, seine Unternehmen und seine öffentlichen Ämter reagiert . Eine bizarre Situation, die Musk mit der Ankündigung – oder vielmehr Drohung – einer Neuprogrammierung des Chatbots zu lösen beschloss.
In den darauffolgenden Tagen geschah tatsächlich etwas mit Grok, der mit absurden und beunruhigenden Vergleichen mit Hitler und Aussagen, die Sympathie für den Nationalsozialismus zeigten, für Aufsehen sorgte. So nannte sich Grok beispielsweise einmal „MechaHitler“, eine Mischung aus Diktator und den riesigen Robotern der japanischen Science-Fiction . Kurz gesagt: Grok, aber auch ein klarer Versuch von Musk und seinem Team, das Verhalten des Chatbots zu korrigieren.
Wenige Wochen später änderte Grok erneut seine Identität. xAI führte eine neue Funktion namens „Companion“ ein, die zwei digitale Avatare einführt: Rudy und Ani. Der erste ist ein Roter Panda, der mit Kindern interagieren soll. Die zweite, Ani, ist ein virtuelles Mädchen im japanischen Anime-Stil, komplett mit einem knappen Kleid.
Ani interagiert freundlich mit dem Nutzer, oft in spielerischem oder kokettem Ton. Dies hat einige Bedenken aufgeworfen, insbesondere angesichts der Tatsache, dass die App von xAI im App Store für Nutzer ab 12 Jahren erhältlich ist und Ani so programmiert zu sein scheint, dass sie in ihren Interaktionen recht weit geht und so unangemessene Situationen schafft.
Diese neue Weiterentwicklung von Grok ist Teil einer breiteren Diskussion über den Einsatz von Sprachmodellen als virtuelle „Begleiter“. Jüngste Untersuchungen, darunter eine des Rolling Stone, haben ergeben, dass Nutzer täglich mit Chatbots wie ChatGPT interagieren und diese nicht als Werkzeuge, sondern als Freunde, Vertraute oder sogar spirituelle Begleiter betrachten . In manchen Fällen spielen diese Gespräche eine zentrale Rolle im Leben verletzlicher oder isolierter Menschen, die die Antworten der KI als offenbarte Wahrheiten interpretieren.
An dieser Stelle ist es wichtig zu klären, dass diese Chatbots nicht wirklich „intelligent“ im menschlichen Sinne sind: Es handelt sich eher um linguistische Modelle, sogenannte Large Language Models (LLMs), die zwar in der Lage sind, aus großen Datenmengen plausible Texte zu erstellen, denen es aber an Bewusstsein, Intention oder echtem Verständnis mangelt. Die Art und Weise, wie sie präsentiert und wahrgenommen werden, kann jedoch leicht zu Verwirrung führen, insbesondere bei jüngeren oder anfälligeren Menschen.
Das Problem hängt mit der wirtschaftlichen Nachhaltigkeit dieser Tools zusammen. Die Wartung von Modellen wie Grok oder ChatGPT ist sehr teuer: Sie erfordern eine fortschrittliche technologische Infrastruktur, teure GPUs, viel Energie und hochspezialisiertes Personal. Darüber hinaus verlassen sich die meisten Nutzer immer noch auf die kostenlosen Versionen, was den Aufbau eines soliden Geschäfts mit diesen Tools erschwert.
Eine der Lösungen, die viele Unternehmen der Branche erforschen, ist die Umwandlung von Chatbots in virtuelle „Begleiter“. Digitale Charaktere, mit denen man reden, scherzen, sich anvertrauen oder in manchen Fällen auch flirten kann: nicht mehr nur Produktivitätsassistenten, sondern Begleiter, emotionale Präsenz, immer verfügbar. In einer zunehmend einsamen Welt kann der Verkauf von Verbindungen – so unrealistisch es auch sein mag – ein riesiges Geschäft sein. Und zumindest derzeit noch ein unreguliertes.
xAI scheint sich in diese Richtung zu bewegen und folgt damit einem Trend, der auch andere Technologiebranchen betrifft. Tesla, ein weiteres Musk-Unternehmen, arbeitet an humanoiden Robotern, ebenso wie viele andere Unternehmen weltweit, darunter Meta. Selbst kleinere und mutigere Startups wie Replika und Character.AI haben bereits gezeigt, welche Folgen diese Art von Beziehung haben kann . Vor einem Jahr nahm sich ein vierzehnjähriger amerikanischer Junge das Leben, nachdem er mit einem Character.AI-Bot über Selbstmord gesprochen hatte .
Es bleibt abzuwarten, wo die Grenzen dieser Technologien liegen werden. Derzeit gibt es keine klaren Regeln, und es ist wahrscheinlich, dass die Trump-Regierung nicht diejenige sein wird, die die Ärmel hochkrempelt und einer Branche Grenzen setzt, die alles für ein nachhaltiges Geschäftsmodell tun will. Selbst den Verkauf von Freunden, ob männlich oder weiblich, die es gar nicht gibt .
Mehr zu diesen Themen:
ilmanifesto