Nahezu in allen Lebensbereichen ist KI mittlerweile angekommen, jeder hat KI bewusst oder unbewusst schon mal eingesetzt. Und alle reden drüber. Aber was ist KI eigentlich und was bedeutet das für uns als Pfadfinder*innen?
In dieser Artikelserie wollen wir uns mit den vielfältigen Aspekten von KI auseinandersetzen. Wie funktioniert KI? Wo kann es uns helfen? Brauchen wir KI? Und was sind sinnvolle Einsatzgebiete im Pfadfinderalltag? Der kritische Blick soll natürlich nicht fehlen, denn „KI“ wird in den kommenden Jahren sehr viel verändern. Und nicht alles wird „besser“, darum ist es gut mitreden zu können.
Stellt euch vor, ihr diskutiert in eurer Gruppe hitzig über ein Bild von einem Mitleiter, dass in einer Messenger Gruppe aufgetaucht ist. Gemeinsam mit ein paar anderen Leuten läuft er auf einer rechtsradikalen Demo. Das Foto wirkt echt, doch ihr könnt es nicht glauben; „Das kann doch nicht unser Leiter sein!?“ Und bei näherer Betrachtung findet ihr auch Hinweise darauf, dass es ein Deep Fake ist.
Solche Deep Fakes verändern, wie wir uns unsere Meinungen bilden, und verstärken Polarisierung.
Was sind Deep Fakes? Deepfakes sind mit Künstlicher Intelligenz erzeugte oder veränderte Bilder, Audios oder Videos, die täuschend echt wirken. Sie zeigen aber nicht die Realitä. Dabei werden Gesichter, Stimmen oder ganze Szenen so manipuliert oder generiert, dass Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben. Für die Meinungsbildung sind Deepfakes gefährlich, weil sie Vertrauen in echte Medien untergraben und gezielt eingesetzt werden können, um Menschen zu täuschen, zu manipulieren oder politische Stimmungen zu beeinflussen.
Sicher habt ihr schon einmal von „Echokammern“ oder „Filterblasen“ gehört. In den sozialen Medien lernen KI-Algorithmen aus unseren Klicks und Likes, um personalisierte Feeds zu erstellen. Dabei werden Inhalte priorisiert, die Emotionen wecken, bevorzugt Wut oder Empörung. Denn diese beiden Emotionen sorgen für mehr Interaktionen. Durch diesen Mechanismus entstehen unsichtbare Filter, die widersprüchliche Ansichten ausblenden und uns immer wieder Inhalte zeigen, welche unsere bereits vorhandene Meinung bestätigen.
Generative KI wie ChatGPT ist hier weniger anfällig. Bei Generativer KI liegt das Problem vielmehr darin, dass diese darauf programmiert sind, immer eine Antwort zu liefern. Fehlen Informationen oder Zusammenhänge, werden diese Informationen erfunden. Dieses Phänomen nennt sich „Halluzination“. An diesem Problem arbeiten die Hersteller der KI Systeme intensiv. Die Halluzination lässt sich nur schlecht zur Manipulation der direkt Nutzenden ausnutzen.
Was jedoch oft für die Beeinflussung der Meinungsbildung genutzt wird, sind KI-Bildgeneratoren. Diese produzieren täuschend echte Fakes: Texte, Bilder oder Videos, die Fakten verdrehen. In Wahlen 2025 nutzten Kampagnen KI, um gezielt Wähler zu beeinflussen.
Studien zeigen: Jeder Dritte ist schon auf politische Fake News hereingefallen, oft durch KI-verstärkte Desinformation. Dies führt zu Spaltung. Gruppen radikalisieren sich, da KI gegensätzliche Stimmen verstummen lässt. Junge Menschen, sind hier besonders anfällig, da sie viel online sind und das Internet als primäre Informationsquelle.
Selbstverständlich kann KI aber auch Meinungen bereichern. Etwa durch faktenbasierte Zusammenfassungen, Erklärungen in einfacher oder leichter Sprache oder der Analyse von Texten.
Wieso nicht mit der Gruppe trainieren? Führt „Fake-Check-Runden“ ein, wo jede:r interessante oder fragwürdige Quellen oder Bilder mitbringen kann. Gemeinsam prüft ihr dann die Quellen und Bilder. Ist es echt? Wer steckt dahinter? Seid Detektiv:innen im Auftrag der Wahrheit! Tauscht euch zu dem Thema aus, führt eine offene Debatten jenseits der Algorithmen. So stärkt ihr kritisches Denken und lernt sicher eine Menge dazu!
Setzt euch zusammen und besprecht gemeinsame Regeln für euren Gruppenchat. Was ist ok? Was nicht? Ein gemeinsam erarbeiteter Rahmen wird von allen verstanden und akzeptiert. Jede:r sollte sich fragen: Was ist ok für mich? Was nicht? Was brauche ich, um mich im Chat wohl und sicher zu fühlen?
Deepfakes lassen sich mittlerweile nur schwer erkennen. Aber es gibt ein paar Warnsignale, auf die du achten kannst.
Schau dir zuerst das Bild oder Video ganz genau an: Wirken Gesichter “wächsern”, unnatürlich glatt oder sind die Augenbewegungen und das Blinzeln seltsam? Achte auch auf unpassende Lichtverhältnisse, unsaubere Kanten oder Details wie Zähne, Ohren, Hände und Schmuck – hier verraten sich KI-Fakes oft durch Unschärfen oder Verzerrungen. Im echten Leben ist kein Gesicht symmetrisch, KI stellt Gesichter aber oft symmetrisch dar!
Höre bei Videos genau hin: Klingt die Stimme unnatürlich, abgehackt oder passt die Betonung nicht zu Mimik und Gestik, kann das ein Hinweis auf einen Deepfake sein. Gerade die Handbewegungen können bei Deep Fakes schnell unnatürlich und übertrieben wirken.
Prüfe außerdem die Quelle: Wer hat das Video veröffentlicht, gibt es darüber Berichte in seriösen Medien und findest du dieselbe Szene auch auf anderen, verlässlichen Kanälen? Im Zweifel gilt: Nicht sofort teilen, sondern erst mit anderen darüber sprechen!