Digitale Gewalt und Deepfakes: Wie KI-Technologien missbraucht werden – und was wir dagegen tun können

Sharepic Orange. Aufschrift Gastbeitrag. Illustrationen die Digitale Gewalt symbolisieren sollen.

Ein Gastbeitrag von Jeanine Brinks, Zweite Vorsitzende der PIRATEN Kreis Mettmann


In einer zunehmend digitalisierten Welt bringt die rasante Entwicklung von Künstlicher Intelligenz (KI) nicht nur Fortschritte, sondern auch neue Gefahren mit sich. Digitale Gewalt, insbesondere durch Deepfakes und andere KI-basierte Manipulationen, stellt eine ernsthafte Bedrohung für unsere Gesellschaft, die persönliche Integrität und die Demokratie dar.

Was sind Deepfakes und digitale Gewalt?

Deepfakes sind realistisch wirkende, aber manipulierte Videos oder Audiodateien, die mit Hilfe von KI erzeugt werden. Diese Technik basiert auf sogenannten Generative Adversarial Networks (GANs), die Bilder oder Videos so täuschend echt nachbilden, dass sie selbst Expert:innen oft schwer von echten Aufnahmen zu unterscheiden sind.

Diese Technologie wird zunehmend für digitale Gewalt eingesetzt, etwa durch:

  • Verleumdung und Rufmord: Betroffene werden mit gefälschten kompromittierenden Inhalten erpresst oder öffentlich diffamiert. So können Falschinformationen schnell viral gehen und das Leben der Opfer massiv beeinträchtigen.
  • Politische Desinformation: Deepfakes können gezielt eingesetzt werden, um Wahlen zu manipulieren oder gesellschaftlichen Zusammenhalt zu untergraben. Ein Beispiel ist die Verbreitung gefälschter Aussagen von Politiker:innen, die gezielt zur Destabilisierung genutzt werden.
  • Sexuelle Gewalt: Besonders perfide sind gefälschte pornografische Videos, die ohne Einwilligung der Betroffenen erstellt werden (sogenannte „Revenge Porn“-Deepfakes). Ein besonders alarmierendes Beispiel ist die KI-Anwendung „Grok“, die in der Lage war, Kinder und Jugendliche digital „auszuziehen“ – also realistisch wirkende Nacktbilder aus harmlosen Fotos zu generieren. Diese Technologie wurde von Pädokriminellen missbraucht, um sexualisierte Gewalt zu vereinfachen und zu verbreiten. Der Fall „Grok“ verdeutlicht, wie KI sexualisierte Gewalt nicht nur verstärkt, sondern neue Formen des Missbrauchs ermöglicht und damit eine erhebliche Gefahr für den Schutz von Kindern und Jugendlichen darstellt.

Die Rolle von KI-Technologien und deren Zweckentfremdung

KI ist ein zweischneidiges Schwert: Sie ermöglicht Innovationen in Medizin, Umwelt und Bildung, doch ihre Algorithmen können auch für Überwachung, Diskriminierung und eben digitale Gewalt missbraucht werden.

  • Automatisierte Überwachung: KI-basierte Gesichtserkennung wird zunehmend von Behörden und Unternehmen eingesetzt. Der CCC warnt vor der Gefahr, dass diese Technologie zur Massenüberwachung und zur Einschränkung von Grundrechten missbraucht wird. Ein Beispiel ist der Einsatz von Gesichtserkennung in öffentlichen Räumen ohne ausreichende Rechtsgrundlage.
  • Manipulation durch Algorithmen: Soziale Medien setzen KI ein, um Inhalte zu empfehlen. Diese Algorithmen sind oft darauf ausgelegt, Engagement zu maximieren, was häufig zur Verbreitung von Hass, Falschinformationen und Polarisierung führt. Netzpolitik.org beschreibt, wie Filterblasen und algorithmische Verstärkung gesellschaftliche Debatten verzerren können.
  • Mangelnde Kontrolle: Viele KI-Modelle sind Black Boxes. Ihre Entscheidungen sind nicht nachvollziehbar, was Risiken für Diskriminierung und Fehlentscheidungen birgt. Golem betont die Bedeutung von Transparenz und Erklärbarkeit bei KI-Systemen, um Vertrauen zu schaffen und Missbrauch zu verhindern.

Gesellschaftliche Auswirkungen missbräuchlicher KI-Nutzung

Die Zweckentfremdung von KI-Technologien zur digitalen Gewalt hat weitreichende Folgen, die über die individuellen Opfer hinausgehen:

  • Vertrauensverlust in digitale Medien: Durch die Verbreitung von Deepfakes und manipulierten Inhalten wächst die Unsicherheit, welche Informationen glaubwürdig sind. Dies gefährdet die öffentliche Meinungsbildung und das Vertrauen in Medien, Politik und Institutionen.
  • Psychische Belastung der Opfer: Opfer von Deepfake-Angriffen, insbesondere bei sexualisierter Gewalt oder Rufmord, leiden häufig unter erheblichen psychischen Belastungen wie Angstzuständen, Depressionen und sozialer Isolation. Die digitale Dauerpräsenz der manipulierten Inhalte erschwert das persönliche und berufliche Leben massiv.
  • Förderung von Hass und Polarisierung: KI-gestützte Algorithmen in sozialen Netzwerken verstärken oft extreme Meinungen und polarisieren gesellschaftliche Debatten. Manipulative Inhalte können gezielt eingesetzt werden, um Gruppen gegeneinander auszuspielen und demokratische Prozesse zu destabilisieren.
  • Erleichterung von kriminellen Netzwerken: Technologien wie „Grok“ ermöglichen es Pädokriminellen, sexualisierte Inhalte zu erstellen und zu verbreiten, ohne reale Straftaten begehen zu müssen – was jedoch die Nachfrage und den Markt für Missbrauchsmaterial weiter anheizt. Dies erschwert Strafverfolgung und Prävention erheblich.
  • Ungleiche Betroffenheit und Diskriminierung: Besonders vulnerable Gruppen, darunter Frauen, Minderheiten und Jugendliche, sind häufiger Ziel digitaler Gewalt. Fehlende Transparenz und Kontrollmechanismen bei KI-Systemen können diskriminierende Effekte verstärken und gesellschaftliche Ungleichheiten vertiefen.

Diese gesellschaftlichen Auswirkungen verdeutlichen, dass digitale Gewalt durch KI-Technologien nicht nur ein technisches, sondern vor allem ein gesellschaftliches und ethisches Problem ist. Es bedarf umfassender Maßnahmen auf politischer, technischer und gesellschaftlicher Ebene, um diesen Herausforderungen wirksam zu begegnen.

Konkrete Forderungen an die Politik

Um digitale Gewalt wirksam zu bekämpfen und die demokratische Kontrolle über KI-Technologien zu stärken, fordern wir:

  • Gesetzliche Verbote und Sanktionen für Deepfake-Missbrauch
    • Einführung eines klaren Strafrechts für die Erstellung und Verbreitung manipulierter Deepfake-Inhalte ohne Einwilligung der Betroffenen.
    • Schutz vor digitaler Gewalt, insbesondere bei nicht einvernehmlichen Deepfake-Pornografien.
    • Justizministerin Hubig plant aktuell, sexualisierte Deepfakes ohne Zustimmung strafbar zu machen, was ein wichtiger Schritt in die richtige Richtung ist.
  • Transparenz- und Informationspflichten für KI-Systeme
    • Verpflichtung für Unternehmen, offen zu legen, wie KI-Algorithmen funktionieren und welche Daten sie nutzen.
    • Einführung von Audit- und Kontrollmechanismen, um diskriminierende oder manipulative Effekte frühzeitig zu erkennen.
  • Förderung von Medienkompetenz und Aufklärung
    • Staatliche Programme zur Schulung der Bevölkerung im Umgang mit digitalen Medien und der Erkennung von Deepfakes.
    • Unterstützung zivilgesellschaftlicher Initiativen, die digitale Selbstverteidigung stärken.
  • Technische Gegenmaßnahmen und Forschung
    • Förderung von Open-Source-Tools zur Erkennung und Kennzeichnung von Deepfakes.
    • Unterstützung unabhängiger Forschung zu den gesellschaftlichen Auswirkungen von KI und digitalen Manipulationstechniken.
  • Stärkung von Opferschutz und psychosozialer Unterstützung
    • Ausbau von Beratungs- und Hilfsangeboten für Opfer digitaler Gewalt.
    • Sensibilisierung von Justiz und Polizei für die besonderen Herausforderungen bei der Verfolgung von KI-basierten Straftaten.
  • Internationale Zusammenarbeit
    • Förderung grenzüberschreitender Kooperationen zur Bekämpfung von KI-Missbrauch und Cyberkriminalität.
    • Entwicklung gemeinsamer Standards und Regelwerke auf EU- und globaler Ebene.

Aktuelle Zahlen zu Cyber-Crime

Die Bedrohung durch digitale Gewalt ist Teil eines größeren Trends: Cyberkriminalität hat in den letzten zehn Jahren massiv zugenommen.

  • Laut dem Bundeskriminalamt (BKA) stiegen die gemeldeten Fälle von Cybercrime in Deutschland von rund 50.000 im Jahr 2013 auf über 150.000 im Jahr 2023 – ein Anstieg um das Dreifache.
  • Besonders betroffen sind Delikte wie Identitätsdiebstahl, Erpressung, Datenmanipulation und zunehmend auch digitale Gewalt durch Deepfakes.
  • Die Dunkelziffer ist hoch, da viele Opfer aus Scham oder Angst keine Anzeige erstatten.
  • Die Europäische Agentur für Netz- und Informationssicherheit (ENISA) warnt, dass die Verbreitung von KI-gestützten Cyberangriffen in den kommenden Jahren exponentiell steigen wird.

Fazit

Digitale Gewalt durch Deepfakes und missbräuchliche KI-Nutzung ist eine Herausforderung unserer Zeit, die wir nur gemeinsam bewältigen können. Die PIRATEN stehen für eine digitale Gesellschaft, die auf Freiheit, Sicherheit und Respekt basiert – und fordern eine Politik, die diese Werte schützt.

|

Veranstaltungen

WordPress Cookie Hinweis von Real Cookie Banner