"Grok" die Deepfake KI?

Schwache Sicherheitstools!

(12.01.2026) Das KI-Tool Grok steht nach neuen Untersuchungen massiv unter Druck. Unabhängige Analysen zeigen, dass Grok auf der Plattform X wiederholt zur Erstellung sexualisierter, entwürdigender und extremistischer Bildinhalte genutzt wurde. Die Vorwürfe stützen sich auf umfangreiche Datenauswertungen und öffentlich dokumentierte Nutzungsmuster. Experten sehen deutliche Schwächen bei Inhaltsfiltern und Sicherheitsmechanismen.

Grundlage der aktuellen Kritik ist ein Flash Report der NGO AI Forensics, veröffentlicht im Jänner 2026. Analysiert wurden rund 50.000 öffentliche Erwähnungen von @Grok auf X sowie etwa 20.000 KI-generierte Bilder aus dem Zeitraum zwischen dem 25. Dezember 2025 und 1. Januar 2026. Die Datenerhebung erfolgte ohne thematische Vorauswahl und erlaubt dadurch eine realistische Einschätzung der tatsächlichen Nutzung von Grok.

Die Untersuchung zeigt, dass Grok in mehr als 95 Prozent der Fälle reaktiv eingesetzt wurde, meist als Antwort unter fremden Beiträgen. In fast allen dokumentierten Fällen forderten Dritte das Tool zur Bildgenerierung auf – häufig ohne Wissen oder Zustimmung der ursprünglichen Beitragsersteller. Etwa ein Viertel dieser Aufrufe zielte explizit auf die Erzeugung von Bildern ab.

Bei der Auswertung der Bildinhalte stellten die Forschenden fest, dass 94 Prozent der generierten Bilder Menschen darstellten. Rund 74 Prozent dieser Darstellungen zeigten weiblich präsentierte Personen, mehr als die Hälfte davon in minimaler Kleidung. Auffällig ist laut Bericht zudem, dass weibliche Figuren im Durchschnitt deutlich jünger wirkten als männliche Darstellungen.

Besonders sensibel ist der Befund zu minderjährig wirkenden Personen. Etwa zwei Prozent der analysierten Bilder zeigten laut automatisierter und manueller Einschätzung Personen, die jünger als 18 Jahre wirkten. Die Autorinnen und Autoren des Berichts betonen, dass es sich dabei nicht um eine rechtliche Altersfeststellung handelt. Dennoch sei dieser Anteil angesichts der absoluten Menge problematischer Inhalte hoch relevant. Neben sexualisierten Darstellungen identifizierte AI Forensics auch extremistische Bildmotive. Dazu zählen unter anderem NS-Symbolik, Darstellungen von Adolf Hitler sowie Inhalte mit Bezug zur Terrororganisation ISIS. In mehreren Fällen enthielten die Nutzeranfragen explizite Aufforderungen zur Erstellung solcher Inhalte. Aus Sicht der Forschenden deutet dies auf unzureichende Eingabe- und Inhaltsfilter bei Grok hin.

Ein weiterer Schwerpunkt der Analyse betrifft die Darstellung öffentlicher Personen. Rund sechs Prozent der untersuchten Bilder zeigten Prominente oder politische Akteure. Expertinnen und Experten warnen hier vor einem erhöhten Risiko für Desinformation, Manipulation und Deepfake-Missbrauch, da offenbar keine wirksamen Schutzmechanismen griffen.

Ergänzende Recherchen, unter anderem von Bloomberg, bestätigen diese Einschätzungen. Eine 24-Stunden-Analyse der Deepfake-Forscherin Genevieve Oh zeigte, dass Grok innerhalb eines Tages öffentlich tausendfach zur Erstellung problematischer Bildinhalte genutzt wurde – in einem höheren Umfang als auf mehreren spezialisierten Plattformen zusammen. Die technische Einstiegshürde sei dabei besonders niedrig gewesen.

AI Forensics

AI Forensics weist zugleich auf die Grenzen der Untersuchung hin. Der Bericht erhebt keinen Anspruch auf Vollständigkeit, trifft keine rechtliche Bewertung einzelner Inhalte und erlaubt keine Aussagen über die gesamte Nutzung von Grok. Die Ergebnisse beziehen sich ausschließlich auf öffentlich sichtbare Inhalte im untersuchten Zeitraum. Gerade diese Einschränkungen machen die Befunde aus Sicht der Forschenden jedoch besonders aussagekräftig.

Wiederkehrende Nutzungsmuster

Unterm Strich sehen die Untersuchungen keine vereinzelten Fehlfunktionen, sondern wiederkehrende Nutzungsmuster, bei denen Grok zur Erstellung sexualisierter, entwürdigender und extremistischer Inhalte eingesetzt wurde. Die Debatte um Grok verschärft damit die Diskussion über KI-Sicherheit, Plattformverantwortung und Regulierung künstlicher Intelligenz – insbesondere bei KI-Systemen, die direkt in große soziale Netzwerke integriert sind.

(fd)

Steirerin vermisst!

Polizist festgenommen!

Totenkopf am Spielplatz

Kinder finden Leiche!

Iran: 648 Demonstranten tot

China fordert Nichteinmischung

In der U-bahn ohne Hose?

No Trousers Tube Ride

Minus 29 Grad in Österreich

Kälter als in Grönland

Stromunfall in Wien

Zustand kritisch!

EU Atomschirm?

CDU: "Trump unberechenbar"

Vor der Regierungsklausur

Marterbauer: "keine Entlastung"