[4] KI am Lagerfeuer: Beeinflusst KI unsere Meinung?

Dieser Artikel zeigt, wie Künstliche Intelligenz (KI) unsere Meinung manipuliert, und gibt euch Tipps, wie ihr damit umgehen könnt.

Nahezu in allen Lebensbereichen ist KI mittlerweile angekommen, jeder hat KI bewusst oder unbewusst schon mal eingesetzt. Und alle reden drüber. Aber was ist KI eigentlich und was bedeutet das für uns als Pfadfinder*innen?

In dieser Artikelserie wollen wir uns mit den vielfältigen Aspekten von KI auseinandersetzen. Wie funktioniert KI? Wo kann es uns helfen? Brauchen wir KI? Und was sind sinnvolle Einsatzgebiete im Pfadfinderalltag? Der kritische Blick soll natürlich nicht fehlen, denn „KI“ wird in den kommenden Jahren sehr viel verändern. Und nicht alles wird „besser“, darum ist es gut mitreden zu können.

Stellt euch vor, ihr diskutiert in eurer Gruppe hitzig über ein Bild von einem Mitleiter, dass in einer Messenger Gruppe aufgetaucht ist. Gemeinsam mit ein paar anderen Leuten läuft er auf einer rechtsradikalen Demo. Das Foto wirkt echt, doch ihr könnt es nicht glauben; „Das kann doch nicht unser Leiter sein!?“ Und bei näherer Betrachtung findet ihr auch Hinweise darauf, dass es ein Deep Fake ist.

Solche Deep Fakes verändern, wie wir uns unsere Meinungen bilden, und verstärken Polarisierung.

Was sind Deep Fakes?
Deepfakes sind mit Künstlicher Intelligenz erzeugte oder veränderte Bilder, Audios oder Videos, die täuschend echt wirken. Sie zeigen aber nicht die Realitä. Dabei werden Gesichter, Stimmen oder ganze Szenen so manipuliert oder generiert, dass Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben. Für die Meinungsbildung sind Deepfakes gefährlich, weil sie Vertrauen in echte Medien untergraben und gezielt eingesetzt werden können, um Menschen zu täuschen, zu manipulieren oder politische Stimmungen zu beeinflussen.

KI-Mechanismen im Alltag

Sicher habt ihr schon einmal von „Echokammern“ oder „Filterblasen“ gehört. In den sozialen Medien lernen KI-Algorithmen aus unseren Klicks und Likes, um personalisierte Feeds zu erstellen. Dabei werden Inhalte priorisiert, die Emotionen wecken, bevorzugt Wut oder Empörung. Denn diese beiden Emotionen sorgen für mehr Interaktionen. Durch diesen Mechanismus entstehen unsichtbare Filter, die widersprüchliche Ansichten ausblenden und uns immer wieder Inhalte zeigen, welche unsere bereits vorhandene Meinung bestätigen.

Generative KI wie ChatGPT ist hier weniger anfällig. Bei Generativer KI liegt das Problem vielmehr darin, dass diese darauf programmiert sind, immer eine Antwort zu liefern. Fehlen Informationen oder Zusammenhänge, werden diese Informationen erfunden. Dieses Phänomen nennt sich „Halluzination“. An diesem Problem arbeiten die Hersteller der KI Systeme intensiv. Die Halluzination lässt sich nur schlecht zur Manipulation der direkt Nutzenden ausnutzen.

Was jedoch oft für die Beeinflussung der Meinungsbildung genutzt wird, sind KI-Bildgeneratoren. Diese produzieren täuschend echte Fakes: Texte, Bilder oder Videos, die Fakten verdrehen. In Wahlen 2025 nutzten Kampagnen KI, um gezielt Wähler zu beeinflussen.

Auswirkungen auf Gesellschaft und Jugend

Studien zeigen: Jeder Dritte ist schon auf politische Fake News hereingefallen, oft durch KI-verstärkte Desinformation. Dies führt zu Spaltung. Gruppen radikalisieren sich, da KI gegensätzliche Stimmen verstummen lässt. Junge Menschen, sind hier besonders anfällig, da sie viel online sind und das Internet als primäre Informationsquelle.

Selbstverständlich kann KI aber auch Meinungen bereichern. Etwa durch faktenbasierte Zusammenfassungen, Erklärungen in einfacher oder leichter Sprache oder der Analyse von Texten. ​

Ideen für die Gruppenstunde

Idee 1: „Fake-Check-Runden“

Wieso nicht mit der Gruppe trainieren? Führt „Fake-Check-Runden“ ein, wo jede:r interessante oder fragwürdige Quellen oder Bilder mitbringen kann. Gemeinsam prüft ihr dann die Quellen und Bilder. Ist es echt? Wer steckt dahinter? Seid Detektiv:innen im Auftrag der Wahrheit! Tauscht euch zu dem Thema aus, führt eine offene Debatten jenseits der Algorithmen. So stärkt ihr kritisches Denken und lernt sicher eine Menge dazu!

Idee 2: Regeln für den Gruppenchat

Setzt euch zusammen und besprecht gemeinsame Regeln für euren Gruppenchat. Was ist ok? Was nicht? Ein gemeinsam erarbeiteter Rahmen wird von allen verstanden und akzeptiert. Jede:r sollte sich fragen: Was ist ok für mich? Was nicht? Was brauche ich, um mich im Chat wohl und sicher zu fühlen?

Deep Fakes erkennen – Drei Tipps

Deepfakes lassen sich mittlerweile nur schwer erkennen. Aber es gibt ein paar Warnsignale, auf die du achten kannst.

Tipp 1: Genau hinsehen!

Schau dir zuerst das Bild oder Video ganz genau an: Wirken Gesichter “wächsern”, unnatürlich glatt oder sind die Augenbewegungen und das Blinzeln seltsam? Achte auch auf unpassende Lichtverhältnisse, unsaubere Kanten oder Details wie Zähne, Ohren, Hände und Schmuck – hier verraten sich KI-Fakes oft durch Unschärfen oder Verzerrungen. Im echten Leben ist kein Gesicht symmetrisch, KI stellt Gesichter aber oft symmetrisch dar!

Tipp 2: Genau hinhören!

Höre bei Videos genau hin: Klingt die Stimme unnatürlich, abgehackt oder passt die Betonung nicht zu Mimik und Gestik, kann das ein Hinweis auf einen Deepfake sein. Gerade die Handbewegungen können bei Deep Fakes schnell unnatürlich und übertrieben wirken.

Tipp 3: Quelle checken!

Prüfe außerdem die Quelle: Wer hat das Video veröffentlicht, gibt es darüber Berichte in seriösen Medien und findest du dieselbe Szene auch auf anderen, verlässlichen Kanälen? Im Zweifel gilt: Nicht sofort teilen, sondern erst mit anderen darüber sprechen!

Quellen

  1. BPB: Systematische Manipulation sozialer Medien im Zeitalter der KI
  2. Uni Tübingen: KI beeinflusst die Meinungsbildung – im Guten wie im Schlechten
  3. MDR: Jeder Dritte schon auf politische Fake News reingefallen
  4. Freiheit.org: Studie zu KI in Wahlkämpfen
  5. Resilienz Aachen: Filterblasen und Echokammern
  6. DGAP: Systematische Manipulation sozialer Medien
  7. Bundestag: Echokammern und Filterblasen
  8. acatech: Einfluss von KI auf die demokratische Gesellschaft

Über den*die Autor*in

Digge Schmedding

Digge war schon vieles. Jetzt ist er Mitglied im BSG e.V., dem Rechtsträger der Bundesebene. Nebenbei schreibt er für die VZ und ist Teil des Notfallmanagement Teams.