Nahezu in allen Lebensbereichen ist KI mittlerweile angekommen, jeder hat KI bewusst oder unbewusst schon mal eingesetzt. Und alle reden darüber. Aber was ist KI eigentlich und was bedeutet das für uns als Pfadfinder*innen?
In dieser Artikelserie wollen wir uns mit den vielfältigen Aspekten von KI auseinandersetzen. Wie funktioniert KI? Wo kann es uns helfen? Brauchen wir KI? Und was sind sinnvolle Einsatzgebiete im Pfadfinderalltag? Der kritische Blick soll natürlich nicht fehlen, denn „KI“ wird in den kommenden Jahren sehr viel verändern. Und nicht alles wird „besser“, darum ist es gut mitreden zu können.
Künstliche Intelligenz (KI) ist ein Bereich, der der Informatik zuzuordnen ist. KI setzt sich mit der Entwicklung von Systemen auseinander, die menschliches Denken und Verhalten nachahmen sollen.
Diese Systeme nutzen Algorithmen und Daten, um Entscheidungen zu treffen und Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern. In den letzten Jahren hat die KI-Technologie enorme Fortschritte gemacht und steht bereit in fast alle Bereiche unseres Lebens einzudringen. Darum wird KI mittlerweile auch als disruptive Technologie bezeichnet und auf dieselbe Stufe gestellt wie der Buchdruck oder die Erfindung der Dampfmaschine.
Die Ideen zur Schaffung intelligenter Maschinen reicht schon lang zurück. Oft wird hier auf Julien Offray de La Mettrie und sein 1748 veröffentlichtes Werk L’Homme Machine als erstes Schriftstück dazu genannt.
Nimmt man die Geschichte der Automaten auch in den Blick geht es noch viel weiter zurück. In der Antike haben die Griechen schon erste, quasi autonome, Automaten entwickelt. Im 18. und 19. Jahrhundert setzten sich immer mehr Tüftler und Wissenschaftler mit der Schaffung von mechanischen Automaten auseinander. In der Öffentlichkeit bekannt und beliebt wurden Jahrmarktattraktionen wie der Wahrsager-Automat.
Die moderne Geschichte der KI begann in den 1950er Jahren, als Wissenschaftler, wie Alan Turing und John McCarthy, die Grundlagen für maschinelles Lernen und symbolische KI legten. Die Entwicklung von Computern und der Aufstieg des Internets haben die Forschung und Anwendung von KI so richtig vorangetrieben.
In den 1980er Jahren führte dann die Entwicklung von sogenannten Expertensystemen zu einer breiteren Anwendung von KI in der Industrie. Doch erst in den letzten zwei Jahrzehnten, dank der immensen Fortschritte in der Rechenleistung und der Verfügbarkeit großer Datenmengen, hat die KI wirklich an Fahrt gewonnen. Dies mündete in die rasante Entwicklung der Large Language Models (LLM) und der Generative Pre-Trained Transformer (GPT), die Einzug in unseren Alltag gefunden haben.
KI kann grob in zwei Kategorien eingeteilt werden: schwache KI und starke KI. Schwache KI ist darauf spezialisiert, spezifische Aufgaben auszuführen, wie z.B. Spracherkennung oder Bildverarbeitung. Starke KI, auch als allgemeine KI bekannt, besitzt die Fähigkeit, jegliche kognitive Aufgaben zu bewältigen, die ein Mensch ausführen kann. Derzeit existiert starke KI nur in der Theorie, während schwache KI bereits weit verbreitet ist.
Wenn aktuell also über KI gesprochen wird, geht es derzeit im wesentlichen um „schwache KI“.
Innerhalb der KI sind maschinelles Lernen und Deep Learning zwei der wichtigsten Teilbereiche. Maschinelles Lernen ermöglicht es Systemen aus Daten zu lernen und ihre Leistung im Laufe der Zeit zu verbessern. Deep Learning, eine Unterkategorie des maschinellen Lernens, nutzt künstliche neuronale Netze, um komplexe Muster und Zusammenhänge in großen Datenmengen zu erkennen.
Ganz einfach an einem Beispiel erklärt: Wir wollen ein KI Modell trainieren uns zu sagen, wie wir das Holz aufschichten müssen, damit wir ein möglichst helles Feuer bekommen. Dafür erfassen wir aus unserer Sicht wichtige Informationen:
Das sind dann quasi unsere Eingabeparameter.
Zudem messen wir die Brenndauer und die Helligkeit des Feuers nach bestimmen Zeitintervallen. Das sind dann unsere Ausgabeparameter. Da die KI ja gute Tipps geben soll, definieren wir, was für uns ein optimales Feuer ausmacht. Diese Bewertung nehmen wir bei allen 100 Lagerfeuern vor. Jetzt haben wir unsere Trainingsdaten. Von unseren 100 Datensätzen legen wir 30 zur Kontrolle beiseite.
Mit den restlichen Datensätzen trainieren wir nun unsere KI. Das Training funktioniert vereinfacht erklärt so: Wir geben unserem Modell alle Daten, die wir haben und die KI „sortiert“ jeden Datensatz in einen N-dimensionalen Raum. Zur einfachen Vorstellung: Mit drei Parametern haben wir einen 3-dimensionalen Raum, mit jedem Parameter kommt eine Dimension hinzu. In Wirklichkeit geht es aber um tausende oder auch Millionen Dimensionen, je nach Komplexität. Beim Training wird jeder Datensatz in diesem N-dimensionalen Raum verortet. Im besten Fall bilden sich Punktwolken, ähnliche Datensätze liegen dabei näher beieinander.
Ist das Model trainiert, legen wir dem Model die Kontrolldaten vor. Jetzt lassen wir nur die Informationen weg, die wir gerne wissen würden: Brenndauer und Helligkeit. Dazu nimmt das trainierte Model den Testdatensatz und verortet auch diesen in unserem N-dimensionalen Raum. Über die Entfernung zu den trainierten Daten kann die KI so den Datensatz einschätzen und die erwartete Aussage ermitteln.
Das Model wird zu jedem der 30 Testdatensätze eine Aussage machen. Diese können wir dann mit dem tatsächlich gemessenen Wert vergleichen. Sehr wahrscheinlich ist, dass das Ergebnis nicht sehr zufriedenstellend ist. Also müssen wir unsere Eingabeparameter nochmal nachjustieren. Das machen wir über „Gewichtungen“. Wir sagen unserem Model, dass z.B. die „Anzahl der Holzscheite“ mehr „Gewicht“ bei der Entscheidung bekommen soll. Da wir nicht wissen, was in unserem KI Model passiert, können wir uns nur so einem gutem Ergebnis nähern.
Zur Bewertung werden in der Regel zwei Werte herangezogen: Der Anteil der „False Positive“ und der Anteil der „False Negative“. Als „False Positive“ bezeichnet man in unserem Fall diejenigen Datensätze, bei denen die KI gesagt hat „Das wird hell!“, bei denen unsere Messungen aber ergeben haben, dass das nicht stimmt. „False Negative“ sind alle, bei denen die KI sagt: „Das Feuer wird mau“, wir aber wissen, dass das schön hell wird. Ziel eines Training ist immer, dass beide Werte möglichst klein bleiben. Auf Null kommen „False Positive“ oder „False Negativ“ nahezu nie. In der Regel besteht das Problem, dass beide Werte sich beeinflussen. Dann muss abgewogen werden, welcher der beiden Werte mehr Relevanz für die Qualität des Model hat.
Wir trainieren unser Model jetzt so lange, indem wir immer wieder die Gewichtung ändern, bis wir mit den Werten von „False Positive“ und „False Negativ“ zufrieden sind.
Jetzt können wir unser KI Model nutzen: Wir geben die Anzahl der Scheite und den Zunder ein, die wir haben und ob wir draussen oder im Zelt sind. Unser KI Modell kann uns dann sagen, wie wir das Holz aufschichten müssen für ein optimales Lagerfeuererlebnis!
Die nächste Stufe wäre dann ein selbstlernenden Model: Die KI nimmt alle von ihr vorgeschlagenen Feuer mit in die Datenbasis auf und nimmt die Anpassungen der Gewichtungen selber vor. Dadurch optimiert sich das KI Model im Prinzip selbst.
Das hier vorgestellte Prinzip ist eine sehr vereinfachte Darstellung der Arbeitsweise von Neuronalen Netzwerken, einem der wesentlichen Prinzipien im Bereich KI.
Aber wie funktionieren denn nun LLM (Large Language Models)? Das dann ein anderes Mal!