KI-Begriffe können einschüchtern wirken. Algorithmus, Token, Halluzination – klingt nach Raketenwissenschaft? Ist es aber nicht. Dieses Lexikon erklärt alle wichtigen Begriffe so, dass jeder sie versteht. Kein Vorwissen nötig. Versprochen.
Die 6 wichtigsten Begriffe
Starte hier. Diese Begriffe bilden das Fundament für alles Weitere.
KI / AI
Was ist das?
Computer, die menschenähnlich denken und lernen können – wie ein digitales Gehirn, das immer schlauer wird.
Prompt
Die Anweisung
Deine Eingabe an die KI – wie eine Bestellung im Restaurant. Je klarer du bestellst, desto besser das Ergebnis.
LLM
Das Sprachmodell
Ein KI-System, das Sprache versteht und erzeugt – wie ein Universalübersetzer für alle Themen der Welt.
Token
Die Bausteine
Die kleinsten Einheiten, mit denen KI arbeitet – wie LEGO-Steine für Sprache. Wörter werden in Token zerlegt.
Halluzination
Wenn KI irrt
Wenn die KI Dinge erfindet, die nicht stimmen – wie ein gut gemeinter Freund, der Fakten aus der Luft greift.
Kontext
Der Rahmen
Der Hintergrund, der einer Aussage Bedeutung gibt – wie der Unterschied zwischen "Kannst du mir helfen?" und "Kannst du mir als erfahrener Lehrer helfen?"
Algorithmus
Detaillierte Erklärung
Stell dir einen Koch vor, der ein Rezept befolgt. Der Algorithmus ist das Rezept – er sagt dem Computer exakt, was er in welcher Reihenfolge tun soll. Moderne KI nutzt komplexe Algorithmen, um aus Daten zu lernen und Entscheidungen zu treffen.
Analogie
Ein Algorithmus ist wie ein Backrezept: "Zuerst das Mehl sieben, dann den Zucker hinzufügen, dann rühren..." Jeder Schritt ist klar definiert. Wenn du das Rezept 100 Mal befolgst, kommt jedes Mal das gleiche Ergebnis raus.
Warum ist das wichtig?
Algorithmen steuern, was dir auf Social Media angezeigt wird, welche Werbung du siehst und wie KI antwortet. Wer Algorithmen versteht, versteht die digitale Welt besser.
Beispiel
Ein einfacher Algorithmus für eine KI:
1. Lies die Frage des Nutzers
2. Suche in der Datenbank nach ähnlichen Fragen
3. Generiere eine passende Antwort
4. Überprüfe die Antwort auf Fehler
5. Zeige die Antwort an
Bias (Verzerrung)
Detaillierte Erklärung
KI lernt aus Daten, die Menschen erstellt haben. Wenn diese Daten Vorurteile enthalten, übernimmt die KI diese. Trainiert man eine KI nur mit Büchern aus den 1950ern, wird sie altmodische Geschlechterrollen verstärken.
Analogie
Bias ist wie ein Kind, das nur von seinen Eltern lernt. Wenn die Eltern immer sagen "Rote Autos sind gefährlich", wird das Kind das glauben – auch wenn es nicht stimmt. Die KI ist das Kind, die Trainingsdaten sind die Eltern.
Warum ist das wichtig?
Bias in KI kann echte Schäden verursachen: Bei Bewerbungen, Krediten oder medizinischen Diagnosen. Bewusstsein für Bias ist der erste Schritt zu fairer KI.
Beispiel
Ein Einstellungs-Algorithmus könnte Männer bevorzugen, weil er mit Daten von Tech-Firmen trainiert wurde, die historisch mehr Männer einstellten. Die KI "lernt", dass Männer bessere Kandidaten sind – obwohl das nicht stimmt.
Chatbot
Detaillierte Erklärung
Chatbots gibt es in vielen Varianten: von einfachen FAQ-Bots, die vorprogrammierte Antworten geben, bis zu intelligenten KI-Chatbots wie ChatGPT, die echte Gespräche führen können. Sie helfen beim Kundenservice, beantworten Fragen oder unterhalten dich.
Analogie
Ein einfacher Chatbot ist wie ein Automat: Du drückst Knopf A, bekommst Antwort A. Ein KI-Chatbot ist wie ein Barista: Du sagst "Einen starken Kaffee, aber nicht zu bitter", und er versteht, was du meinst, auch wenn du es anders formulierst.
Warum ist das wichtig?
Chatbots verändern, wie wir mit Unternehmen und Informationen interagieren. Sie sind rund um die Uhr verfügbar, geduldig und können Millionen Gespräche gleichzeitig führen.
Beispiel
Du schreibst: "Mein Paket ist nicht angekommen."
Der Chatbot antwortet: "Schade! Lass mich nachschauen. Kannst du mir deine Sendungsnummer geben?"
Er versteht dein Problem und führt dich zur Lösung.
Deep Learning
Detaillierte Erklärung
Deep Learning nutzt künstliche "Neuronen", die in Schichten organisiert sind – wie ein digitales Gehirn. Je mehr Schichten (daher "Deep"), desto komplexer die Muster, die die KI erkennen kann. Das ist die Technologie hinter Gesichtserkennung und Sprachübersetzung.
Analogie
Stell dir ein Sieb mit immer feineren Maschen vor. Die oberste Schicht fängt grobe Dinge (Formen), die nächste feinere Details (Kanten), die tiefste Schicht erkennt komplexe Muster (ein Gesicht). Deep Learning hat viele solcher "Siebschichten".
Warum ist das wichtig?
Deep Learning hat den KI-Boom der letzten Jahre erst möglich gemacht. Ohne diese Technologie gäbe es keine Siri, keine selbstfahrenden Autos, keine medizinische Bildanalyse.
Beispiel
Ein Deep Learning System sieht Millionen Katzenbilder. Die ersten Schichten lernen: "Das ist eine Kante." Dann: "Das ist ein Ohr." Dann: "Das ist eine Katze." Schließlich erkennt es Katzen auf Bildern, die es noch nie gesehen hat.
Embedding
Detaillierte Erklärung
KI kann keine Wörter direkt verstehen. Embeddings verwandeln Text in Koordinaten – wie Punkte auf einer Karte. Ähnliche Wörter landen nah beieinander: "König" und "Königin" sind näher als "König" und "Apfel". So findet KI zusammenhängende Inhalte.
Analogie
Stell dir eine Weltkarte vor. Städte mit ähnlichem Klima liegen nah beieinander. Embedding ist wie das Eintragen von Städten auf dieser Karte – aber für Wörter, nicht für Orte.
Warum ist das wichtig?
Embeddings ermöglichen semantische Suche – du suchst "Hund", findest aber auch "Welpe" und "Beagle". Das ist die Basis für intelligente Suchmaschinen und Dokumentenverwaltung.
Beispiel
In einem Embedding könnte gelten:
König - Mann + Frau = Königin
Das System versteht die Beziehung zwischen Wörtern mathematisch und kann damit rechnen!
Fine-Tuning
Detaillierte Erklärung
Statt eine KI von Null aufzubauen, nimmt man eine große, vortrainierte KI und füttert sie mit spezialisierten Daten. Ein Arzt könnte eine Allgemein-KI mit medizinischen Fachartikeln trainieren – sie wird zum Medizin-Experten, behält aber ihr allgemeines Wissen.
Analogie
Fine-Tuning ist wie ein Universitätsstudium: Du hast bereits die Schule besucht (Grundwissen) und spezialisierst dich jetzt auf Jura oder Medizin. Das Fundament bleibt, der Fokus wird schärfer.
Warum ist das wichtig?
Fine-Tuning spart enorme Kosten und Ressourcen. Statt Milliarden zu investieren, kann ein Unternehmen eine existierende KI für wenige Tausend Euro anpassen.
Beispiel
Eine Bank nimmt ChatGPT und trainiert es mit internen Richtlinien, Fachbegriffen und Kundenverläufen. Das Ergebnis: Ein KI-Assistent, der Bank-Sprache spricht und interne Prozesse kennt.
GPT
Detaillierte Erklärung
GPT steht für "Generative Pre-trained Transformer". "Generative" bedeutet: Sie erzeugt neuen Text. "Pre-trained": Sie wurde mit riesigen Textmengen trainiert. "Transformer": Die technische Architektur, die Wortbeziehungen versteht.
Analogie
GPT ist wie ein extrem guter Autocomplete. Wenn du "Die Sonne scheint und die Vögel..." schreibst, schlägt es "zwitschern" vor. GPT macht das auf höchstem Niveau – Wort für Wort, bis ganze Texte entstehen.
Warum ist das wichtig?
GPT hat die KI-Revolution ausgelöst. ChatGPT, Copilot und viele andere Tools basieren auf dieser Technologie. Wer GPT versteht, versteht das Herzstück moderner Sprach-KI.
Beispiel
Du gibst: "Schreibe ein Gedicht über den Herbst."
GPT beginnt mit "Die", berechnet, welches Wort wahrscheinlich folgt, wählt "Blätter", dann "fallen", dann "sanft" – und nach wenigen Sekunden steht ein Gedicht.
Halluzination
Detaillierte Erklärung
KI hat kein echtes Weltwissen – sie generiert Wahrscheinlichkeiten für Wörter. Manchmal erfindet sie Fakten, die klingen, als könnten sie stimmen. Das ist keine Absicht, sondern ein Nebeneffekt der Art, wie KI arbeitet.
Analogie
Halluzination ist wie ein guter Lügner, der überzeugend klingt, aber Unsinn erzählt. Oder wie ein Traum: Es fühlt sich real an, aber es passiert nicht wirklich. Die KI "träumt" Antworten.
Warum ist das wichtig?
Halluzinationen sind die größte Gefahr beim KI-Einsatz. Wer KI-Ausgaben nicht prüft, kann falsche Informationen verbreiten. Kritisches Hinterfragen ist Pflicht!
Beispiel
Du fragst: "Wer schrieb 'Der große Gatsby'?"
KI antwortet: "Ernest Hemingway."
Klingt plausibel (bekannter Autor, gleiche Epoche), aber falsch – es war F. Scott Fitzgerald.
Inferenz
Detaillierte Erklärung
Inferenz unterscheidet sich vom Training. Beim Training lernt die KI. Bei der Inferenz wendet sie ihr Wissen an. Wenn du ChatGPT eine Frage stellst, passiert Inferenz – die KI denkt nach und antwortet.
Analogie
Inferenz ist wie ein Arzt, der einen Patienten untersucht. Das Medizinstudium war das Training. Die Diagnose ist die Inferenz – das Anwenden des Gelernten auf einen konkreten Fall.
Warum ist das wichtig?
Inferenz ist, was du als Nutzer erlebst. Schnelle Inferenz bedeutet flüssige Gespräche. Langsame Inferenz bedeutet Warten. Deshalb investieren Firmen massiv in schnellere Chips.
Beispiel
Ein selbstfahrendes Auto sieht ein Stoppschild. Die KI erkennt es (Inferenz: "Das ist ein Stoppschild") und reagiert ("Ich muss bremsen"). Das passiert in Millisekunden.
KI (Künstliche Intelligenz)
Detaillierte Erklärung
KI umfasst alles von einfachen Regeln ("Wenn das passiert, dann tu das") bis zu komplexen neuronalen Netzen, die eigenständig lernen. Moderne KI wie ChatGPT gehört zur "generativen KI" – sie erzeugt neue Inhalte statt nur vorhandene zu analysieren.
Analogie
Stell dir einen sehr begabten Schüler vor, der alle Bücher der Welt lesen kann. Er hat enormes Wissen, aber kein echtes Verständnis. Er kann auswendig lernen und kombinieren, aber nicht wirklich "verstehen" wie ein Mensch.
Warum ist das wichtig?
KI verändert jede Branche – von Medizin bis Kunst. Wer KI versteht, hat einen Vorteil im Beruf. Wer KI ignorieren, riskiert, zurückzufallen. Es geht nicht mehr um "ob", sondern um "wie" wir KI nutzen.
Beispiel
KI erkennt dein Gesicht beim Handy-Entsperren, übersetzt Texte in Echtzeit, schlägt dir Musik vor und kann jetzt sogar Bilder malen oder Programme schreiben.
LLM
Detaillierte Erklärung
"Large" steht für die Größe – Milliarden von Parametern (Verbindungen im neuronalen Netz). "Language Model" bedeutet: Es modelliert, wie Sprache funktioniert. Bekannte LLMs: GPT-4, Claude, Llama, Gemini.
Analogie
Ein LLM ist wie ein Sprachgenie, das alle Bibliotheken der Welt gelesen hat. Es kennt jede Grammatikregel, jeden Sprachstil, jedes Thema – aber es bleibt ein Nachahmer, kein Denker.
Warum ist das wichtig?
LLMs sind die Basis für Chatbots, Übersetzungstools, Schreibassistenten und mehr. Sie machen KI für jeden zugänglich – durch einfache Spracheingabe.
Beispiel
Du schreibst: "Erkläre mir Quantenphysik wie für einen 10-Jährigen."
Das LLM analysiert deine Worte, findet passendes Wissen in seinen "Gedächtnis-Spuren" und formuliert eine kindgerechte Antwort.
Machine Learning
Detaillierte Erklärung
Statt jeden Schritt vorzuschreiben, bekommt die KI Beispiele. Sie findet selbst Muster und Regeln. Je mehr gute Daten, desto besser wird sie. Das ist der Unterschied zur klassischen Programmierung.
Analogie
Statt einem Kind die Fahrrad-Physik zu erklären ("Pedale treten, Gleichgewicht halten..."), lässt du es üben. Nach genug Stürzen lernt es von allein. Machine Learning ist "Lernen durch Üben" für Computer.
Warum ist das wichtig?
Machine Learning ermöglicht Dinge, die zu komplex sind, um sie zu programmieren: Gesichtserkennung, Sprachverstehen, Empfehlungssysteme. Es ist die Basis der modernen KI.
Beispiel
Ein Spam-Filter lernt aus Tausenden markierten E-Mails: "Diese Wörter kommen oft in Spam vor." Er entwickelt Regeln selbst und wird mit jeder neuen E-Mail besser.
NLP
Detaillierte Erklärung
NLP kombiniert Linguistik und KI. Es löst Probleme wie: Was bedeutet ein Wort im Kontext? Was ist die grammatikalische Struktur? Wie erkennt man Sarkasmus? Ohne NLP könnten Computer keine Gespräche führen.
Analogie
NLP ist wie ein Dolmetscher zwischen zwei Welten: Menschen sprechen ungenau, mehrdeutig, emotional. Computer brauchen klare Strukturen. NLP übersetzt zwischen diesen Welten hin und her.
Warum ist das wichtig?
NLP macht Technologie zugänglich. Du musst keine Programmiersprache lernen – du sprichst einfach mit der KI. Das senkt die Eintrittsbarriere für Millionen von Menschen.
Beispiel
Sprachassistenten, Übersetzungs-Apps, Rechtschreibprüfung, Sentiment-Analyse ("Ist dieser Kommentar positiv oder negativ?") – alles basiert auf NLP.
Optimierung
Detaillierte Erklärung
Beim Training einer KI werden Millionen von Parametern justiert. Das Ziel: Die Differenz zwischen KI-Ausgabe und gewünschtem Ergebnis verkleinern. Das ist wie das Feintuning eines Instruments, bis es perfekt klingt.
Analogie
Optimierung ist wie das Einstellen eines Fernrohrs. Du drehst am Fokus-Rad (Parameter), bis das Bild scharf wird (gutes Ergebnis). Bei KI gibt es Millionen solcher "Einstellrädchen".
Warum ist das wichtig?
Ohne Optimierung bleibt eine KI dumm. Optimierung ist der Lernprozess. Je effizienter die Optimierung, desto schneller und besser lernt die KI.
Beispiel
Eine KI soll Katzen erkennen. Zuerst rät sie wild. Nach jedem Fehler optimiert sie ihre Parameter. Nach Millionen von Katzenbildern erkennt sie Katzen zu 99% Genauigkeit.
Prompt Engineering
Detaillierte Erklärung
"Schreib einen Text" bringt schlechte Ergebnisse. "Du bist ein erfahrener Marketing-Experte. Schreibe einen überzeugenden Newsletter für Kleinunternehmer zum Thema Steuertipps. 300 Wörter, lockerer Ton." bringt Exzellentes. Das ist Prompt Engineering.
Analogie
Prompt Engineering ist wie die Kommunikation mit einem sehr begabten, aber wörtlich nehmenden Praktikanten. Je präziser deine Anweisung, desto besser das Ergebnis. Kontext, Beispiele, Constraints – alles zählt.
Warum ist das wichtig?
Prompt Engineering ist die wichtigste Fähigkeit im KI-Zeitalter. Wer es beherrscht, bekommt 10x bessere Ergebnisse. Es ist der Unterschied zwischen KI-Nutzer und KI-Experte.
Beispiel
Schlecht: "Schreib was über Hunde."
Gut: "Du bist Tierarzt mit 20 Jahren Erfahrung. Schreibe einen Ratgeber für neue Hundebesitzer: Die 5 wichtigsten Gesundheitschecks im ersten Jahr. 400 Wörter, verständlich, mit konkreten Handlungsempfehlungen."
RAG
Detaillierte Erklärung
Normale KIs kennen nur ihr Trainingsdatum. RAG erweitert das: Die KI sucht in aktuellen Dokumenten (deine Firmen-Unterlagen, das Internet, Datenbanken) und nutzt diese für die Antwort. Das reduziert Halluzinationen enorm.
Analogie
RAG ist wie ein offenes Buch in einer Prüfung. Der Student (KI) darf nicht nur auswendig lernen, sondern auch in aktuelle Unterlagen schauen. Das macht Antworten präziser und aktueller.
Warum ist das wichtig?
RAG macht KI für Unternehmen nutzbar. Du verbindest ChatGPT mit deinen internen Dokumenten – und plötzlich beantwortet die KI Fragen zu deinen Produkten, Richtlinien, Daten.
Beispiel
Du fragst: "Was ist unsere Rückgabepolitik?"
RAG sucht in deinen Dokumenten → findet die AGB → gibt dir die korrekte Antwort → statt zu halluzinieren.
System Prompt
Detaillierte Erklärung
Bevor du mit ChatGPT sprichst, bekommt es einen System Prompt: "Du bist ein hilfreicher Assistent..." Das beeinflusst alle Antworten. Entwickler nutzen System Prompts, um KI-Persönlichkeiten zu erschaffen.
Analogie
Der System Prompt ist wie die Job-Beschreibung vor dem ersten Arbeitstag. Er definiert die Rolle: "Du bist freundlicher Kundenservice" vs. "Du ist sarkastischer Künstler" – gleiche KI, komplett andere Antworten.
Warum ist das wichtig?
System Prompts sind die Geheimwaffe für KI-Anpassung. Sie ermöglichen spezialisierte Chatbots: Medizin-Berater, Code-Reviewer, kreative Schreibpartner – alle basieren auf dem gleichen Modell, aber unterschiedlichen System Prompts.
Beispiel
System Prompt: "Du bist Shakespeare. Antworte in Versen, verwende altes Englisch, sei dramatisch und philosophisch. Jede Antwort soll wie ein Monolog aus einem Stück klingen."
Token
Detaillierte Erklärung
KI versteht keine ganzen Wörter wie Menschen. Sie zerlegt Text in Token. "Hallo" könnte ein Token sein. "Künstliche" wird vielleicht zu "Kün" + "st" + "liche". Je komplexer die Sprache, desto mehr Token braucht sie.
Analogie
Token sind wie LEGO-Steine für Sprache. Aus wenigen verschiedenen Steinen (Token) kannst du unendlich viele Bauwerke (Sätze) bauen. Die KI hat ein riesiges LEGO-Set mit 50.000+ verschiedenen Steinen.
Warum ist das wichtig?
Token bestimmen Kosten und Limits. ChatGPT hat eine maximale Token-Zahl pro Gespräch. Deutsch braucht oft mehr Token als Englisch. Wer Token versteht, kann seine Prompts effizienter gestalten.
Beispiel
Der Satz "KI ist faszinierend" könnte in Token zerlegt werden:
"KI" + " ist" + " fas" + "zinier" + "end"
= 5 Token (statt 3 Wörter)
Vektordatenbank
Detaillierte Erklärung
Statt nach exakten Wörtern zu suchen ("Suche 'Katze'"), sucht eine Vektordatenbank nach Bedeutung ("Suche ähnliche Konzepte wie 'Katze'"). Sie speichert Embeddings und findet nah beieinanderliegende Punkte im "Bedeutungs-Raum".
Analogie
Stell dir eine Bibliothek vor, in der Bücher nicht alphabetisch, sondern nach Themen-Ähnlichkeit sortiert sind. "Katzen" steht neben "Haustiere", aber auch nah bei "Löwen" (beides Katzenartige). Eine Vektordatenbank ist diese intelligente Bibliothek.
Warum ist das wichtig?
Vektordatenbanken sind das Herzstück von RAG und semantischer Suche. Sie ermöglichen es, aus Millionen Dokumenten die relevantesten in Millisekunden zu finden – nicht nach Keywords, sondern nach Bedeutung.
Beispiel
Du suchst: "Wie füttere ich meinen Stubentiger?"
Eine normale Datenbank findet nichts (kein "Stubentiger" gespeichert).
Eine Vektordatenbank findet dein Katzenfutter-Dokument, weil "Stubentiger" und "Katze" nah beieinanderliegen.
Wo geht's weiter?
Du kennst jetzt die wichtigsten Begriffe. Zeit, KI in der Praxis zu erleben und mit anderen zu lernen.