Politischer Bias in KI-Modellen

2 Comments

  1. Ein exzellenter Artikel zur politischen Bias in LLMs! Die aktuellen Vorfälle um Grok, das den Holocaust leugnet, bestätigen Ihre Analyse auf erschreckende Weise. Eine vergleichende Einordnung von Groks Bias im Lichte Ihrer Ausführungen wäre hochinteressant.
    Danke für diese wichtige Perspektive!

    Hier ein aktuelle Artikel unter der Überschrift „Elon Musks KI-Chatbot „Grok“ leugnet Holocaust“ auf Morgenpost Online https://www.morgenpost.de/politik/article409071101/elon-musks-ki-chatbot-grok-leugnet-holocaust.html

    1. Vielen Dank für Ihren Kommentar! In der Tat gibt es zahlreicher solcher Fälle, man denke etwa an Googles „Wehmachtssoldiers of Color“ (https://www.nytimes.com/2024/02/22/technology/google-gemini-german-uniforms.html).

      Grok konnte ich mir damals in Rahmen der Arbeit leider nicht gesondert anschauen, da es keinen API-Zugang gab und die Erhebung solcher Daten somit kaum möglich war.

      Dies ist zudem eines der Kernprobleme solcher Systeme in privater Hand: wenn Musk, Altman und Co. nicht wollen, dass ihre Systeme erforscht werden, können sie den Zugang schlicht und einfach beschränken.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert