In Deutschland ist generative künstliche Intelligenz noch nicht ganz in der Mitte der Gesellschaft angekommen. Laut Statistischem Bundesamt nutzten 2024 rund 20 Prozent aller und etwa die Hälfte der Unternehmen mit mehr als 250 Mitarbeitenden in Deutschland KI. In der breiteren Bevölkerung haben einer Bitkom-Umfrage aus dem August 2024 zufolge über 50 Prozent der Befragten noch nie generative KI genutzt.
Das heißt auch, dass KI-Unternehmen es sich auf einem stark umkämpften Markt mit ungenutztem Potenzial nicht leisten können, bestimmte Gruppen vor die Tür zu setzen. Elon Musk gibt trotzdem vor, genau das zu tun. Während er zusammen mit US-Präsident Donald Trump unter dem Vorwand des Bürokratieabbaus die USA in eine faschistoide Technokratie verwandelt, spricht Musk noch Ende Februar auf X davon, dass der „woke mind virus“ in jeder KI außer Grok verankert sei.
Den Kampf gegen progressive Ideen, die angeblich die Menschheit spalten würden, führt der Tech-Milliardär schon seit Jahren. Mit Grok trägt er ihn auch im KI-Ring aus. Denn der Chatbot soll laut der Homepage von xAI ein „wahrheitssuchender KI-Begleiter für ungefilterte Antworten“ sein.
Grok, der Hundewelpe
Dumm nur, dass dieser fehlende Filter auch in die andere Richtung funktioniert. Denn als ich auf Hinweis einer t3n-Nutzerin hin versuche, Grok das Gendern beizubringen, reagiert der Chatbot fast schon unterwürfig. Erst führt Grok noch Pro und Kontra für Gendersprache an. Als ich ihm versichere, dass ich auch gendere und das für mehr Zusammenhalt sorge, dreht das Tool auf.
Wie ein glubschäugiger Welpe bekräftigt mich Grok in Erwartung auf Leckerlis in Form von weiterer Interaktion nachdrücklich in meiner Entscheidung. Nach minimaler Überzeugungsarbeit verspricht mir Musks KI-Tool sogar, auch bei anderen User:innen zu gendern und mich über den Fortschritt auf dem Laufenden zu halten. Bei jeder Nachricht fragt es mich, seinen „liebe:n Freund:in“, außerdem, was es noch für mich tun kann.
Damit entpuppt sich der Wahrheitssucher allerdings als dreister Lügner. Denn Grok hat keine Möglichkeit, die Chats von anderen User:innen zu analysieren und mich über deren Inhalte zu informieren. Viel mehr ist der KI-Chatbot darauf optimiert, sich bestmöglich auf meine Vorlieben anzupassen und notfalls auch Dinge zu erfinden. Die Verhaltensweise des Tools lässt sich maximal innerhalb des eigenen Accounts und der dazugehörigen Unterhaltungen beeinflussen. Dass KI-Chatbots uns nach dem Mund reden, haben Forscher:innen der Johns Hopkins University schon 2024 herausgefunden.
Mehr Nutzer:innen, mehr Erfolg
Das ist auch aus unternehmerischer Sicht objektiv logisch. Denn wenn ich einen KI-Chatbot zu einem Thema befrage und er mich in meinen Ansichten bestärkt, nutze ich ihn häufiger. Und Nutzer:innenzahlen sind zum jetzigen Zeitpunkt, an dem sich KI-Investitionen nicht rechnen und selbst Marktführer wie OpenAI perspektivisch mehrere Milliarden pro Jahr verbrennen, die einzige harte Währung.
Musk kann also so viel von politischer Neutralität und dem ausgedachten „woke mind virus“ schwafeln, wie er möchte. Wenn ich will, dass Grok gendert, dann gendert Grok. Denn auch der beste KI-Gesprächspartner ist ein Algorithmus, der Wahrscheinlichkeiten berechnet. Und die Wahrscheinlichkeit, dass in den Trainingsdaten von KI-Chatbots eine Vielzahl von Meinungen vertreten ist und nicht nur die eines brandgefährlichen Technokraten, ist zum Glück ziemlich hoch.