Achtung: Deepfake-Kriegsvideos

Täuschend echte Clips

(21.03.2022) Warnung vor Deepfake-Kriegsvideos! IT-Spezialisten mahnen uns User zur Vorsicht, welche Inhalte wird in den sozialen Medien teilen. Erst vor wenigen Tagen ist ja ein täuschend echtes Deepfake-Video aufgetaucht, in dem der ukrainische Präsident Wolodomir Selenski angeblich seine Soldaten dazu auffordert, die Waffen niederzulegen. Faktenchecker haben den vermeintlichen Kapitulationsaufruf schnell als Deepfake entlarvt. Ein solche Deepfake-Video ist ein mit Hilfe künstlicher Intelligenz erstellter Clip, das täuschend echt wirkt. Die KI sorgt dafür, dass sowohl die Stimme echt klingt, als auch dass Sprache und Mimik zueinander passen.

Thorsten Behrens von “saferinternet.at“:
“Als Laie kann man nicht erkennen, ob so ein Deepfake-Video echt ist, oder nicht. Daher muss man wirklich aufpassen, bevor man solche Clips teilt. Erst mal ruhig bleiben und checken, ob Faktenchecker wie Mimikama schon etwas zu diesem Video berichten. Mehrere Quellen überprüfen und nur wenn man sich wirklich ganz sicher ist, dass das Video echt ist, kann man es auch teilen.“

(mc)

3-fach Mutter stirbt bei Unfall

Kinder im Auto

Wieder Beben in Neapel!

Stärke 4,0

Gaza: Zu wenig Lebensmittel

Rationen halbiert

EU gibt Russland-Zinsen frei

Rund 1,5 Milliarden Euro

Frau ohne Führerschein: Unfall

Kinder im Auto

Bandengewalt: 2 Festnahmen

Bandenkrieg in Wien

Taifun "Gaemi": Immer mehr Tote

Horror auf den Philippinen

Banküberfall in Tirol

Täter flüchtig