Deepfakes und Fakenews sind eine Gefahr für die Demokratie und rücken gerade jetzt im Wahlkampf wieder in den Fokus. Aussagen von Politiker:innen, die sie nie gemacht haben, lassen sich teilweise nicht mehr von echten Videos unterscheiden. Mit dem bloßen Auge kann man solche Manipulationen oft nicht als solche erkennen – ob Technik es kann, daran wird auch in Hamburg geforscht.
Im SAT.1 REGIONAL Studio sprechen wir heute mit Prof. Dr. Volker Skwarek von der Hochschule für Angewandte Wissenschaften Hamburg (kurz: HAW) über eine technische Lösung zur Erkennung von gefakten Bildern, Videos und Audiodateien.
Deepfakes erkennen
Bisher musste man auf Feinheiten wie unnatürliche Schatten oder Mimik achten oder Bilder in hoher Auflösung genau analysieren, ist die Technik heute soweit, dass Deepfakes mit dem bloßen Auge oft nicht mehr zu erkennen sind. Deshalb ist es umso wichtiger, den Kontext zu prüfen.
- Google News: Ist das Video auch auf seriösen Nachrichtenseiten zu finden oder nur auf Social Media? Passen die Aussagen der gezeigten Person zu dem, für was sie sonst steht?
- Haben Faktencheck-Portale das Video schon überprüft? Beispiele sind:
CORRECTIV, dpa-Faktencheck, Mimikama und BAIT: Faktencheck-Kanal für Jugendliche auf TikTok. - Lässt sich mit Google Videos, Google Bilder oder einer anderen Suchmaschine herausfinden, wann und wo das Video erstmals veröffentlicht wurde?
Weitere Infos:
- HAW Hamburg: Unsichtbare Wasserzeichen
- Bundesamt für Sicherheit und Informationstechnik: Deepfakes – Gefahren und Gegenmaßnahmen
- Bundesamt für Sicherheit in der Informationstechnik: BSI-Experte erklärt: Deep Fakes
- klicksafe: Desinformation und Meinung
SAT.1 REGIONAL/Bundesamt für Informationstechnik/klicksafe