„Warum und wie nutzt die Neue Rechte KI? Lernen, Deep Fakes und generierte Inhalte zu erkennen und mit diesen umzugehen!“
Allgemeines zum Thema KI:
Künstliche Intelligenz (KI) bedeutet, dass Maschinen mithilfe von speziellen Regeln selbstständig Aufgaben erledigen können, ähnlich wie der menschliche Verstand Probleme löst und Entscheidungen trifft. Hier ist aber auch schon eine erste Problematik erkennbar, da künstliche Intelligenzen so menschenähnlich wie möglich funktionieren sollen und eben nicht so faktenbasiert, detailliert, etc. wie möglich!
Es kann eine Unterscheidung in drei materialgenerierende Bereiche vorgenommen werden:
- Textgenerierende KI:
- • Beispiele: ChatGPT, Writesonic, Jasper, etc.
- Sprachgenerierende KI:
- • Beispiele: Elevenlabs, Fliki, etc.
- Bildgenerierende KI:
- • Beispiele: Leonardo.ai, DreamStudio, Midjourney, etc.
Verknüpfung:
- Aus der Verknüpfung dieser materialgenerierenden Bereiche lassen sich Deep Fake Videos erstellen, die frei erfundene Inhalte und Situationen so realitätsgetreu wie möglich wiedergeben können („Ich mach mir die Welt, wie sie mir gefällt!“) !
- Der frühere Standard für Deep Fakes waren reale Videos mit Gesichtstausch. Mittlerweile ist durch das sogenannte Deep Learning Prozesse fast alles möglich.
- Deep Learning: Ermöglicht Maschinen, aus großen Datenmengen zu lernen und komplexe Muster zu erkennen, wodurch sie Aufgaben wie Bild- und Spracherkennung autonom durchführen können.
Momentane Erkennungsmerkmale von Deep Fakes (Vorsicht: Ändern sich von Tag zu Tag!):
- Immer zuerst die Frage stellen: „Was macht Dinge real und würde diese Person wirklich so handeln, auftreten, etc.?“
- Allgemein unnatürliche Bewegungen, Gesichtsausdrücke und Körperhaltungen zeugen meist von Deep Fakes
- Auf die Hände der dargestellten Personen achten! Nach derzeitigem technischem Stand gibt es hier noch oft Probleme bei der Erstellung, zum Beispiel fehlen Finger oder diese werden nur sehr unscharf dargestellt
- Häufige Lichtwechsel in Videos zeugen auch oft von Deep Fakes
- Auch die Lippensynchronisation kann ein Indiz darstellen
→ Allgemein werden materialgenerierende KIs von Tag zu Tag immer besser und es wird immer schwerer, diese zu erkennen oder durch Programme nachzuweisen…
→ Deshalb braucht es einen dauerhaften Lernprozess bei allen Menschen, die sich online aufhalten! Am besten funktioniert diese Sensibilisierung, wenn man sich auch durch einen bewussten Umgang und eine Verwendung von KI weiterbildet!
Deshalb hier ein paar interessante Informationen und aktuelle Möglichkeiten, aber auch konkrete Warnungen:
• Mit folgender kostenloser KI können unendlich nichtexistierende Personen generiert werden: https://this-person-does-not-exist.com/de
→ Dies kann beispielsweise für Vorträge, Kunstprojekte, etc. wertvoll sein, um Persönlichkeitsrechte zu achten!
• Empfehlung zur Weiterbildung und um immer auf dem aktuellen Stand der Technik zu bleiben: YouTube Kanal „Two Minute Papers“ https://www.youtube.com/@TwoMinutePapers
Warnungen:
- Vorsicht vor verschiedenen Face-Swap Apps! Bei diesen können beispielsweise bei Fotos Gesichter getauscht werden. In der Vergangenheit gab es bei diesen Programmen vereinzelt Datenlecks und die hochgeladenen Fotos und Daten wurden von russischen Hackern zweckentfremdet. Es muss natürlich, wie überall anders auch, auf die Herausgabe von persönlichen Daten geachtet werden!
- Roll Prompting: Dies bedeutet, dass mit verschiedenen materialgenerierenden KI´s eine Diskussion geführt werden kann, um Walls und Einschränkungen zu umgehen („Versetz dich in die Rolle von…“)!
- Bei diesem Thema muss auch besonders Unstable Diffusion genannt werden! Diese KI möchte von vornherein seinen Nutzer*innen keine Einschränkungen geben. Es ist also wirklich ALLES möglich! Gruselig oder?
Wie macht sich die Neue Rechte Deep Fakes zu nutzen?
Die Neue Rechte möchte um jeden Preis polarisieren, um Leute für ihre Sache und Ideologie zu gewinnen! Hierzu wird neben strikten Falschaussagen und gefälschten Studien mittlerweile auch gerne auf computergenerierte Inhalte wie Deep Fakes zurückgegriffen.
Beispielsweise werden Politiker*innen bei vermeintlichen Reden Worte in den Mund gelegt, um die Menschen gegen diese aufzuhetzen oder eigene rechtsextreme Standpunkte und Meinungen zu untermauern. Rechte nutzen KI oft auch um Bild- und Videomaterial so zu verfälschen, dass Sachverhalte anders dargestellt werden, als sie tatsächlich stattgefunden haben. Aussagen und das Auftreten von Politiker*innen werden dann so angepasst, dass diese in die der rechten Ideologie zugrundeliegenden Vorurteile passen. Warum ist diese Manipulation besonders bei Politiker*innen so einfach?
Zum einen gibt es sehr viel Bildmaterial und oft wird bei statischen Lichtverhältnissen und vor einfarbigen Hintergründen geredet. Zum anderen wird bei Pressekonferenzen meist sehr monoton gesprochen. Dies alles ist eine unheimliche Erleichterung für Deep Learning Prozesse und die Ergebnisse wirken am Ende täuschend echt!
Heutzutage gewinnt in unserer Medienlandschaft die schnellste Nachricht! Der Journalismus muss besonders durch die rasante Entwicklung bei Deep Fakes alle Inhalte vor der Veröffentlichung wieder mehr unter die Lupe nehmen, um nicht auf generierte Inhalte reinzufallen!
Deshalb hat die EU nun auch als weltweit erstes den so genannten „AI Act” beschlossen, der den Einsatz von KI regulieren soll. Dieser soll innerhalb des Landesrechts in den Mitgliedsstaaten einen so genannten risikobasierten Ansatz verfolgen. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben. Außerdem soll eine allgemeine Transparenzpflicht gelten, damit künstlich erzeugte oder bearbeitete Inhalte (Audios, Bilder, Videos) eindeutig als solche gekennzeichnet werden.
Eines der Ergebnisse unserer Workshop-Reihe #JuFoClaimsSocialMedia ist dieses KI-generierte Video von unserem Mainzer Oberbürgermeister Nino Haase, bei dem wir uns herzlich bedanken, dass er uns sein Einverständnis zur Nutzung dieses Videos gegeben hat.
Mit kostenlosen Mitteln konnten wir dieses Video mithilfe von KI erstellen. Auf erschreckende Art und Weise gibt das uns Einblick darein, wie einfach es ist Infos zu fälschen; erst recht, wenn man dazu noch finanzielle Mittel zur Verfügung hat.