Gorilla rettet Baby?
Achtung vor Fake-News!
(23.07.2025) Ein virales Video sorgt weltweit für Gänsehaut: Ein Gorilla hilft einem verirrten Kleinkind in einem Gehege, hebt es behutsam hoch und bringt es zu seiner vermeintlichen Mutter zurück. Die Netzgemeinde reagiert emotional – doch so herzerwärmend die Szene wirkt, sie ist nicht echt.
Das Video, das derzeit auf TikTok, Instagram und X viral geht, stammt ursprünglich von einem YouTube-Kanal, der auf KI-generierte Inhalte spezialisiert ist. Das heißt: Weder das Kind noch der Gorilla noch die Szene selbst existieren in der Realität. Die Bilder wurden vollständig künstlich erzeugt – mithilfe modernster KI-Tools und 3D-Animationen. Besonders brisant: Die Version, die in sozialen Netzwerken kursiert, wurde manipuliert. Das ursprünglich sichtbare Wasserzeichen, das auf die KI-Herkunft hinweist, fehlt. Der Clip wirkt dadurch täuschend echt – und wird von vielen Nutzerinnen und Nutzern fälschlich für real gehalten.
Solche Videos spielen mit unseren Gefühlen: Der starke Gorilla, das verletzliche Kind, die stille Rettung – all das erzeugt ein intensives emotionales Erlebnis. Doch genau darin liegt die Gefahr. Denn emotionale Inhalte werden oft unkritisch geteilt, ohne überprüft zu werden. So verbreiten sich Falschinformationen rasend schnell – mit echtem Einfluss auf Meinungen, Weltbilder und das Vertrauen in mediale Inhalte. Auch wenn der Clip auf den ersten Blick „harmlos“ wirkt: Er ist ein Beispiel dafür, wie leicht sich KI-generierte Fakes als Wahrheit tarnen lassen – und wie wenig es braucht, um Millionen Menschen zu täuschen.
🔍 So erkennt man Deepfake-Videos
- Unnatürliche Bewegungen: Kleine Details wie flimmernde Übergänge oder unrealistische Körperhaltungen verraten oft den KI-Ursprung.
- Fehlende Kennzeichnung: Wenn ein Clip ohne Wasserzeichen oder Quellenangabe auftaucht, ist Skepsis angesagt.
- Plattform-Check: Stammen Videos von bekannten KI-Kanälen oder Content-Creators, sollte man sie als fiktional einordnen – nicht als reale Dokumentation.
(fd)