Das Superwahljahr 2024 steht erstmals vollständig im Zeichen der Künstlichen Intelligenz. Zusätzlich zu drei Landtagswahlen finden u.a. noch die Europawahl und die Präsidentschaftswahlen in den USA statt. KI hat das Potenzial, den Wahlkampf und die Wahlen selbst grundlegend zu verändern – sowohl im Positiven als auch im Negativen. Wir wollen daher aufzeigen, inwiefern KI demokratische Prozesse beeinflussen kann und wie Content für Wahlkämpfe durch KI in kürzester Zeit effizient erstellt wird.

Künstliche Intelligenz stellt Demokratien vor Herausforderungen

Ein Kernproblem im Zusammenhang mit KI im Wahlkontext sind Fake News. Durch fortschrittliche Algorithmen ist es heute möglich, überzeugende Fake News, Deepfakes (manipulierte Videos) und realistisch aussehende Bilder zu generieren. Diese können dazu verwendet werden, politische Gegner zu diskreditieren oder die öffentliche Meinung zu manipulieren. Besonders besorgniserregend ist die Leichtigkeit, mit der solche Inhalte verbreitet werden können. Denn Soziale Netzwerke und Plattformalgorithmen verstärken oft unbeabsichtigt die Reichweite dieser gefälschten Nachrichten. Wir wollen an dieser Stelle einmal speziell auf KI-generierte Deepfakes im Bereich von Videografie und Sprache eingehen. Gleichzeitig werden wir Ihnen vermitteln, wie Sie diese erkennen können.

Videobasierte Deepfakes

Der Einsatz von KI zur Erzeugung von Fake-Videos hat in den letzten Jahren zugenommen. Hier sind einige konkrete Beispiele, die die Verbreitung und die potenziellen Gefahren dieser Technologie verdeutlichen:

Politiker im Fadenkreuz

Von Bundeskanzler Olaf Scholz gibt es bereits eine Vielzahl von Fake Videos. Eines der aktuellen zeigt ihn vermeintlich mit einem beachtlichen Muskeltonus beim Workout. Verbreitet wird das Video u.a. auf der Plattform TikTok. Zahlreiche Kommentare lassen erkennen, dass die Nutzer, ungeachtet der eher dürftigen Videoqualität und des fragwürdigen Kontextes, dieses Video für authentisch halten. Und das ist problematisch. Ein weiteres bekanntes Beispiel ist ein Deepfake-Video von Barack Obama, das von Buzzfeed und dem Regisseur Jordan Peele bereits 2018 erstellt wurde. In diesem Video scheint der ehemalige US-Präsident Obama Dinge zu sagen, die er nie gesagt hat, wie Beleidigungen gegenüber Donald Trump. Das Video wurde bewusst produziert, um auf die Gefahren von Deepfakes aufmerksam zu machen.

Desinformation hat Konjunktur

Im politischen Kontext werden Deepfakes oft verwendet, um Fehlinformationen zu verbreiten. Zum Beispiel gab es Fälle, in denen politische Führer in Videos zu sehen sind, die Aussagen machen oder Handlungen ausführen, die nie stattgefunden haben. Diese können in sensiblen Zeiten, wie vor Wahlen, verwendet werden, um die öffentliche Meinung zu beeinflussen oder Unruhe zu stiften. Auf Plattformen wie Snapchat und Instagram sind Filter und Effekte, die Gesichter verändern können, sehr beliebt. Diese Technologien basieren auch auf Formen der KI und können als harmlose Vorläufer von Deepfakes angesehen werden. Sie zeigen jedoch, wie einfach und zugänglich solche Technologien geworden sind.

So erkennen Sie videobasierte Deepfakes

Deepfakes können täuschend echt wirken, aber es gibt einige Techniken und Hinweise, die Ihnen helfen können, sie zu erkennen. Hier sind einige praktische Tipps:

  1. Achten Sie auf Ungereimtheiten im Gesicht

    Unnatürliche Gesichtsbewegungen oder Mimik: Wenn Gesichtsbewegungen oder die Mimik seltsam oder unnatürlich erscheinen, könnte es sich um ein Deepfake handeln.

    Unstimmigkeiten bei den Augen oder am Rand der Iris: In Deepfakes sind oft die Augenpartien fehlerhaft oder unnatürlich.

    Schlecht synchronisierte Lippenbewegungen: Wenn die Lippenbewegungen nicht genau mit der gesprochenen Sprache übereinstimmen, könnte das ein Indiz für ein manipuliertes Video sein.

  2. Suchen Sie nach Anomalien in der Bildqualität

    Inkonsistente Beleuchtung und Schatten: Überprüfen Sie, ob Beleuchtung und Schatten auf dem Gesicht und im Hintergrund logisch und konsistent sind.

    Verpixelung oder unscharfe Bereiche: Manchmal können bei der Erstellung von Deepfakes bestimmte Bereiche des Videos, insbesondere an den Übergängen zwischen Gesicht und Hals, verpixelt oder unscharf erscheinen.

    Unstimmige Haargrenzen: Haare sind für KI-Modelle schwer korrekt zu rendern, daher können die Haargrenzen oft unnatürlich erscheinen.

  3. Überprüfen Sie den Kontext des Videos

    Quellenkritik: Überlegen Sie, woher das Video stammt und ob die Quelle vertrauenswürdig ist.

    Plausibilität des Inhalts: Reflektieren Sie, ob der Inhalt des Videos realistisch und plausibel erscheint oder ob er Zweifel weckt.

  4. Audio-Analyse

    Unnatürliche Stimmmuster: Hören Sie genau hin, ob die Stimme unnatürliche Tonhöhenänderungen oder Rhythmen aufweist, was ein Hinweis auf eine künstliche Erzeugung sein kann. Dies ist auch ein wichtiges Kriterium für die Entlarvung sprachbasierter Deepfakes.

Sprachbasierte Deepfakes

Bei Deepfakes denkt man oft zuerst an gefälschte Videos, aber die Technologie der KI-basierten Sprachsynthese hat ebenfalls große Fortschritte gemacht. Solche KI-generierten Sprach-Deepfakes können ebenso beeindruckend und irreführend sein. Hier sind einige Beispiele und Anwendungen im Bereich der Sprachgenerierung mit KI:

  1. Synthetische Stimmen von Politikern

    KI-Systeme können genutzt werden, um die Stimmen von Politikern oder öffentlichen Persönlichkeiten nachzuahmen. Diese Technologie wird manchmal in Medien und Unterhaltung eingesetzt, kann aber auch missbraucht werden, um gefälschte Audioaufnahmen zu erstellen, die diese Personen scheinbar Dinge sagen lassen, die sie nie gesagt haben.

  2. Telefonbetrug

    Ein besonders besorgniserregender Einsatz von Sprach-Deepfakes ist im Bereich des Betrugs. Kriminelle können die Stimmen von Angehörigen oder Vorgesetzten imitieren, um ihre Opfer zu täuschen und sie dazu zu bringen, Geld zu überweisen oder sensible Informationen preiszugeben. Es gab Fälle, in denen Betrüger die Stimmen von CEOs nachgeahmt haben, um finanzielle Überweisungen von Mitarbeitern zu erschleichen.

So erkennen Sie sprachbasierte Deepfakes

Das Erkennen von sprachlichen Deepfakes oder synthetisch erzeugter Sprache kann eine Herausforderung darstellen, da die Technologie immer ausgefeilter wird. Hier sind jedoch einige Strategien, die Ihnen helfen können, diese Deepfakes zu identifizieren:

  1. Klangqualität und Natürlichkeit der Sprache

    Unnatürliche Betonungen oder Intonationen: Hören Sie auf Anzeichen unnatürlicher Betonungen oder seltsamer Intonationsmuster, die in natürlicher Sprache untypisch wären.

    Atmungsgeräusche und Mikro-Pausen: Echte menschliche Sprache beinhaltet normalerweise Atemgeräusche und Mikro-Pausen. Fehlen diese, könnte es sich um eine KI-Generierung handeln.

  2. Konsistenz in der Sprechweise

    Inkonsistente Sprechgeschwindigkeiten: Achten Sie auf plötzliche Änderungen in der Sprechgeschwindigkeit, die in natürlicher Konversation ungewöhnlich sind.

    Wiederholte Sprachmuster oder Phrasen: KI-generierte Sprache kann wiederholende Muster aufweisen, die bei natürlicher Sprache weniger häufig sind.

  3. Hintergrundgeräusche und Audioqualität

    Fehlende oder inkonsistente Hintergrundgeräusche: Überprüfen Sie, ob Hintergrundgeräusche vorhanden sind und ob sie logisch zum Kontext passen.

    Digitale Artefakte oder Verzerrungen: Digitale Artefakte oder leichte Verzerrungen im Audio können Hinweise auf eine synthetische Produktion sein.

Chancen durch Künstliche Intelligenz – Content-Erstellung leicht gemacht

Trotz dieser der Herausforderungen durch video- und sprachbasierte Deepfakes bietet die KI auch erhebliche Vorteile für die Demokratie, insbesondere bei der Erstellung von Inhalten für Wahlkämpfe.

Effizienzsteigerung und Kostensenkung

KI kann den Content-Erstellungsprozess erheblich beschleunigen und vereinfachen. Texte, Bilder und Videos können in einem Bruchteil der Zeit produziert werden, die ein menschlicher Content-Ersteller benötigen würde. Dies reduziert nicht nur die Kosten, sondern ermöglicht auch eine größere Skalierung der Inhaltsproduktion, was besonders in umfangreichen Wahlkämpfen nützlich sein kann.

Personalisierung von Inhalten

Durch KI können Inhalte effizient personalisiert werden, um auf die spezifischen Bedürfnisse und Interessen verschiedener Wählergruppen einzugehen. Dies erhöht die Relevanz und Wirksamkeit von Wahlkampfbotschaften und verbessert die Wählerbindung.

Verbesserung der Informationsqualität

KI kann auch dazu beitragen, die Qualität der Informationen zu verbessern, die Wähler erhalten. Durch automatisierte Überprüfung von Fakten und Quellen könnte die Verbreitung von Fehlinformationen eingedämmt werden. KI-gestützte Systeme könnten erkennen, wenn Fakten falsch dargestellt werden, und den Nutzern korrekte Informationen zur Verfügung stellen.

Fazit

Der Einsatz von KI im Wahlkampf stellt Demokratien vor bedeutende Herausforderungen, insbesondere im Hinblick auf die Verbreitung von Fake News und die Wahrung der Privatsphäre. Doch zugleich eröffnet sie auch neue Möglichkeiten, den Wahlkampf effizienter, zielgerichteter und informativer zu gestalten. Es ist entscheidend, dass politische Entscheidungsträger und die Öffentlichkeit sich dieser dualen Natur der KI bewusst sind und sowohl regulative Maßnahmen als auch Bildungsinitiativen fördern, um die positiven Aspekte der Technologie zu maximieren und ihre Risiken zu minimieren. Letztendlich könnte der kluge Einsatz von KI nicht nur die Art und Weise, wie Kampagnen geführt werden, verbessern, sondern auch dazu beitragen, die Demokratie selbst zu stärken.

Wenn Sie mehr über die Erstellung von Content mithilfe von KI erfahren möchten, dann sprechen Sie uns an!

Über den Autor

Mathias Herrmann

CEO bei ALLEHERZEN

Mathias Herrmann ist Internetunternehmer der ersten Stunde mit einem tiefen Interesse für digitale und Zukunftstechnologien. Seit über 20 Jahren hilft er Unternehmen dabei, mit innovativen Lösungen das Beste aus Ihren Daten zu machen – ohne dabei die Menschen hinter den Daten zu vergessen.

Buchen Sie jetzt direkt einen kostenlosen VideoCall von 30 oder 60 Minuten: