Glossar

Grundlagen und Architektur

  • KI bezeichnet computerbasierte Systeme, die Aufgaben übernehmen können, für die normalerweise menschliche Intelligenz nötig ist – z. B. Lernen, Erkennen, Verstehen von Sprache oder Planen. Dabei nutzt KI Methoden wie maschinelles Lernen oder regelbasierte Systeme.

    Beispiel: Ein digitales Prüfungssystem, das offene Antworten auswertet und Feedback gibt.

    Siehe auch: Maschinelles Lernen, Algorithmus, Generative KI

  • Generative KI ist eine Unterform der KI, die eigenständig neue Inhalte erzeugt – etwa Texte, Bilder, Musik, Videos oder Programmcode. Grundlage sind große Modelle, die Muster aus riesigen Mengen an Trainingsdaten gelernt haben.

    Beispiel: ChatGPT schreibt eine Gedichtinterpretation oder Midjourney erstellt ein passendes Bild dazu.

    Siehe auch: Transformer, Prompt Engineering, Multimodale Modelle

  • Ein Algorithmus ist eine klar definierte Abfolge von Rechenschritten, die ein bestimmtes Problem löst oder eine Aufgabe automatisiert. In der KI bildet der Algorithmus die Grundlage dafür, wie ein Modell lernt, Entscheidungen trifft oder Inhalte generiert. Er bestimmt z. B., wie Daten verarbeitet, Muster erkannt oder Texte erstellt werden.

    Beispiel: In generativen KI-Modellen wie ChatGPT kommt unter anderem der Transformationsalgorithmus zum Einsatz, der mithilfe von Wahrscheinlichkeiten entscheidet, welches Wort als Nächstes sinnvoll erscheint. Dabei werden komplexe mathematische Verfahren wie Self-Attention und Gradientenabstieg verwendet, um Sprache möglichst natürlich und kontextbezogen zu erzeugen.

    Siehe auch: Black Box, Maschinelles Lernen

  • Eine „Black Box“ ist ein System, dessen innere Funktionsweise nicht transparent erkennbar ist. Viele komplexe KI-Modelle wie neuronale Netze gelten als Black Box – wir sehen nur Eingaben und Ausgaben, nicht aber den exakten Entscheidungsweg.

    Beispiel: Eine KI gibt eine Note für eine Hausarbeit, aber die genauen Kriterien sind nicht nachvollziehbar.

    Siehe auch: Explainability, Transparenz

  • Ein KNN ist vom Aufbau menschlicher Nervenzellen inspiriert. Es besteht aus vielen künstlichen „Neuronen“, die Informationen verarbeiten und weitergeben. Grundsätzliche Struktur: Eingabeschicht → mehrere versteckte Schichten → Ausgabeschicht. KNNs sind zentrale Bausteine moderner KI.

    Beispiel: Ein KNN erkennt auf einem Foto, ob darauf eine Katze vorkommt.

    Siehe auch: Deep Learning, Strukturen künstlicher neuronaler Netze

  • Eine GPU ist ein spezieller Prozessor, der für parallele Berechnungen optimiert ist und ursprünglich für Grafikdarstellung entwickelt wurde. Heute ist sie zentral für KI und neuronale Netze, da sie die massiven Rechenoperationen beim Training und der Ausführung von Deep-Learning-Modellen stark beschleunigt. Moderne GPUs, oft mit speziellen KI-Recheneinheiten, verkürzen Trainingszeiten großer Sprachmodelle enorm.

    Siehe auch: Künstliches neuronales Netz, Deep Learning

  • Die Struktur eines künstlichen neuronalen Netzes beschreibt, wie seine Neuronen miteinander verbunden sind und wie Informationen verarbeitet werden. Sie beeinflusst, welche Aufgaben ein Netz besonders gut lösen kann. Die wichtigsten Grundtypen sind:

    1. Feedforward-Netze

    Diese Netze bestehen aus klar getrennten Schichten, durch die Informationen nur vorwärts fließen – von der Eingabe zur Ausgabe.

    • Typisch für: Klassifikation, einfache Vorhersagen.
    • Relevanz: Grundlage vieler KI-Systeme, z. B. zur automatischen Bewertung oder Mustererkennung.

    2. Rekurrente Netze

    Hier können Informationen zurückfließen, sodass frühere Eingaben spätere Ausgaben beeinflussen.

    • Typisch für: Verarbeitung von Sprache, Text oder Zeitreihen.
    • Relevanz: Nützlich für Anwendungen mit Kontextbezug, z. B. Chatbots oder adaptive Lernsysteme.

    3. Transformer-Netze

    Transformer-Netze verarbeiten Informationen parallel und kontextsensitiv mithilfe von Selbstaufmerksamkeit. Sie sind besonders leistungsfähig bei großen Datenmengen und komplexen Aufgaben.

    • Typisch für: Generative KI wie ChatGPT, Bildgeneratoren oder automatische Textzusammenfassungen.
    • Relevanz: Grundlage moderner KI-Tools in der Lehre, z. B. zur Erstellung von Lernmaterialien, Feedback oder Simulationen.

    Weitere Strukturen wie Convolutional Networks, Autoencoder oder GANs kommen ebenfalls zum Einsatz, insbesondere bei der Verarbeitung von Bildern, Datenkompression oder kreativer Inhaltserzeugung.

    Siehe auch: Künstliches neuronales Netz, Transformer

  • Transformer sind eine Architektur im Deep Learning, die mittels „Attention“-Mechanismus relevante Teile einer Eingabe flexibel gewichtet. Das macht sie besonders stark bei Verarbeitung langer Texte. Modelle wie GPT, BERT oder T5 basieren darauf.

    Beispiel: ChatGPT erkennt in einem langen Text, welche Informationen für die Antwort entscheidend sind.

    Siehe auch: Generative KI, Attention, Strukturen künstlicher neuronaler Netze

  • Beschreibt extrem große, schnelle und vielfältige Datenmengen, die mit herkömmlicher Software nicht einfach verarbeitet werden können. KI nutzt Big Data, um Muster zu lernen und Vorhersagen zu treffen.

    Beispiel: Analyse von Millionen Forschungsartikeln zur Trendsuche in der Wissenschaft.

    Siehe auch: Korpus, Maschinelles Lernen

  • Die Modellgröße beschreibt, wie viele Parameter – also lernbare Verbindungen zwischen Neuronen – ein künstliches neuronales Netz enthält. Sie beeinflusst maßgeblich die Leistungsfähigkeit, den Speicherbedarf und die Rechenzeit eines Modells. Große Modelle wie GPT-4 verfügen über Milliarden von Parametern und können dadurch komplexe Aufgaben wie Textgenerierung oder Sprachverstehen besonders gut bewältigen. In der Lehre spielt die Modellgröße eine Rolle bei der Auswahl geeigneter KI-Werkzeuge, etwa im Hinblick auf lokale Nutzung oder Cloud-basierte Dienste.

  • Die Temperatur ist ein Steuerparameter, der beeinflusst, wie kreativ oder faktentreu ein KI-Modell bei der Textgenerierung arbeitet. Eine niedrige Temperatur (z. B. 0,2) führt zu vorhersehbaren, sachlichen und konsistenten Antworten – ideal für Anwendungen, bei denen Genauigkeit und Verlässlichkeit im Vordergrund stehen. Eine höhere Temperatur (z. B. 0,8 oder mehr) erlaubt mehr Variation und kreative Freiheit, erhöht aber auch das Risiko sogenannter „Halluzinationen“, also erfundener oder ungenauer Inhalte. In der Lehre kann die Temperatur gezielt eingesetzt werden – etwa für kreative Schreibaufgaben, Ideengenerierung oder zur Simulation unterschiedlicher Perspektiven.

    Siehe auch: Halluzinationen

  • Bei der Nutzung generativer KI besteht oft ein Spannungsverhältnis zwischen der Geschwindigkeit der Ausgabe und ihrer inhaltlichen Genauigkeit. Schnelle Antworten entstehen meist durch kleinere Modelle oder vereinfachte Berechnungen, können aber oberflächlich oder fehleranfällig sein. Genauere Ergebnisse erfordern dagegen komplexere Modelle mit mehr Parametern, was die Rechenzeit erhöht. In der Lehre ist diese Abwägung besonders relevant: Für spontane Ideen oder erste Entwürfe kann Geschwindigkeit im Vordergrund stehen, während bei der Erstellung verlässlicher Lerninhalte Genauigkeit entscheidend ist.

    Siehe auch: Effizienz

  • Effizienz beschreibt, wie ressourcenschonend ein KI-Modell arbeitet – also wie viel Rechenleistung, Energie und Zeit benötigt werden, um qualitativ hochwertige Ergebnisse zu erzeugen. Um effiziente große Sprachmodelle (LLMs) zu konstruieren, setzen Entwickler auf verschiedene Ansätze: etwa die gezielte Aktivierung nur einzelner Modellteile (Mixture-of-Experts), die parallele Verarbeitung mehrerer Tokens (Multi-Token Prediction) oder die Optimierung der Architektur für bestimmte Hardware. Effizienz betrifft dabei nicht nur die technische Leistung, sondern auch ökonomische (Kosten für Betrieb und Infrastruktur) und ökologische Aspekte (Stromverbrauch, CO₂-Fußabdruck).

    Beispiel: Das Modell DeepSeek-V3 gilt als besonders effizient, da es mehrere dieser Techniken kombiniert und so hohe Qualität bei geringem Ressourcenverbrauch ermöglicht.

    Siehe auch: Geschdindigkeit vs. Genauigkeit, Ethik / Nachhaltigkeit

  • Open Source bedeutet, dass der Quellcode und oft auch die Trainingsdaten oder Modellgewichte eines KI-Modells öffentlich zugänglich sind. Bei großen Sprachmodellen (LLMs) erlaubt dies eine transparente Nutzung, individuelle Anpassung und die Weiterentwicklung durch die Community. Vorteile sind unter anderem die Unabhängigkeit von kommerziellen Plattformen, die Förderung von Innovation und die Möglichkeit, Modelle datenschutzkonform in eigenen Systemen zu betreiben. Nachteile können in der hohen Komplexität, dem fehlenden Support und potenziellen Sicherheitsrisiken liegen, wenn Modelle unkontrolliert eingesetzt werden. Oftmals sind Open Source Sprachmodelle zudem nicht so leistungsfähig wie kommerzielle.

    Beispiel: Zu den bekanntesten Open-Source-LLMs zählen LLaMA (Meta), Mistral, Falcon, Gemma (Google), DeepSeek, OpenChat, Mixtral und Qwen. Diese Modelle werden häufig in Forschung, Lehre und Entwicklung eingesetzt – etwa zur Erstellung eigener KI-gestützter Lernanwendungen.

  • Eine Sammlung großer Datenmengen – z. B. Texte, Bilder oder Audio – die strukturiert gespeichert wird, um ein Modell zu trainieren. Je vielfältiger und qualitativ hochwertiger der Korpus, desto besser das Modell.

    Beispiel: Ein Korpus mit allen deutschsprachigen Wikipedia-Artikeln.

    Siehe auch: Big Data, Labeling

  • Beim Labeling werden Daten manuell oder automatisch mit Kategorien versehen, um KI-Modelle zu trainieren.

    Beispiel: Jedes Tierbild im Datensatz wird als „Katze“ oder „Hund“ markiert.

    Siehe auch: Überwachtes Lernen, Maschinelles Lernen, Training

  • Modelle, die mehrere Datenarten gleichzeitig verarbeiten können, z. B. Text, Bild, Ton oder Video.

    Beispiel: Ein Modell beschreibt ein Bild (Input: Bild, Output: Text) oder generiert auditives Lernmaterial in Form eines Podcasts basierend auf einer Beschreibung (Input: Text, Output: Audio).

    Siehe auch: Generative KI, Transformer

Konzepte der Künstlichen Intelligenz

  • KI-Systeme, die auf bestimmte Aufgaben spezialisiert sind und kein Bewusstsein oder allgemeines Denken besitzen. Die meisten aktuellen KI-Anwendungen gehören dazu.

    Beispiel: Ein Chatbot, der Fragen beantwortet, aber nicht außerhalb seines Programms „denken“ kann.

  • Eine bisher theoretische Form von KI, die über menschliche Intelligenz und Bewusstsein verfügt, eigenständig lernen, denken und Probleme lösen kann. Diese Form ist noch nicht realisiert, aber Ziel einiger Forschung.

    Zukunftsperspektive: Starke KI könnte völlig neue Formen von Lernen und Wissen ermöglichen.

Lernverfahren und Methoden

  • Teilgebiet der KI, bei dem Algorithmen aus Beispieldaten lernen, Muster erkennen und Entscheidungen treffen. Die Hauptarten des Maschinellen Lernens sind:

    1. Überwachtes Lernen: Mit Daten, bei denen Eingaben und richtige Ausgaben vorliegen. Bsp.: E-Mails mit Label „Spam/Nicht-Spam“.
    2. Unüberwachtes Lernen: Ohne Labels, die KI sucht selbst Muster. Bsp.: Clustering von Studierenden in Leistungsgruppen.
    3. Bestärkendes Lernen: Lernen durch Ausprobieren mit Belohnung/Bestrafung. Bsp.: Ein Roboter lernt, ein Labyrinth zu durchqueren.

    Siehe auch: Labeling, Deep Learning

  • Spezielle Form des Maschinellen Lernens mit mehreren Schichten von Neuronen (deep = tief). Je tiefer das Netz, desto komplexere Muster kann es lernen.

    Beispiel: Erkennung von Gesichtern in einer Menschenmenge.

    Siehe auch: Künstliches neuronales Netz, Transformer

  • Training bezeichnet den Lernprozess künstlicher neuronaler Netze, bei dem das Netz anhand großer Datenmengen seine internen Verbindungen so anpasst, dass es Aufgaben wie Klassifikation, Vorhersage oder Generierung möglichst zuverlässig lösen kann. Dabei vergleicht das Netz seine Ausgaben mit den erwarteten Ergebnissen und korrigiert systematisch die Gewichtungen zwischen den Neuronen, um Fehler zu minimieren. Dieser Vorgang wird viele Male wiederholt, bis das Netz Muster und Zusammenhänge in den Daten verinnerlicht hat. Generative KI-Modelle wurden durch Training auf umfangreichen Textsammlungen so optimiert, dass sie neue Inhalte wie Texte, Erklärungen oder Aufgabenstellungen erzeugen können

    Siehe auch: Inferenz

  • Weitertraining eines vortrainierten Modells auf spezialisierte Daten, um es einer konkreten Aufgabe anzupassen.

    Beispiel: ChatGPT wird mit juristischen Texten nachtrainiert, um Rechtsfragen zu beantworten.

    Siehe auch: Maschinelles Lernen, Korpus

  • Inferenz bezeichnet die Phase, in der ein bereits trainiertes künstliches neuronales Netz auf neue Eingabedaten angewendet wird, um daraus eine Ausgabe zu erzeugen – etwa eine Klassifikation, eine Vorhersage oder einen generierten Text. Anders als beim Training werden die Gewichte des Netzes dabei nicht mehr verändert.

    Siehe auch: Training

Prompting-Techniken

  • Ein Prompt ist die Eingabe, mit der Nutzer:innen generative KI-Systeme wie ChatGPT oder DALL·E steuern. Es kann sich dabei um eine Frage, Anweisung oder Beschreibung handeln. Die Qualität und Genauigkeit der KI-Antwort hängen stark vom Prompt ab. Darum ist es wichtig, Prompts klar, präzise und zielgerichtet zu formulieren.

    Beispiel: „Erkläre den Stoffwechselprozess in einfacher Sprache.“

  • Das ist die Kompetenz, Prompts so zu gestalten und zu optimieren, dass die KI möglichst hilfreiche und genaue Antworten liefert. Dabei können verschiedene Techniken getestet werden, um die beste Art der Fragestellung zu finden, z.B. das bewusste Einfügen von Kontextinformationen oder das Strukturieren von Anfragen.

    Anwendung: In der Lehre können Lehrende etwa Prompts so erstellen, dass die KI wichtige Aspekte eines Themas besonders gut erklärt.

  • Die KI soll eine Aufgabe ohne vorherige Beispiele lösen, nur durch die Anweisung im Prompt. Das verlangt präzise Anweisungen ohne Erläuterungen.

    Analog zu: Aufgabenstellung bei der Prüfung ohne Hilfestellung.

    Siehe auch: Few-Shot Prompting

  • Hierbei werden der KI wenige Beispielaufgaben oder Beispiele im Prompt mitgegeben, um das gewünschte Antwortverhalten zu verdeutlichen. Die KI lernt dadurch, den Stil oder die Struktur der Antwort besser zu erfassen.

    Beispiel: „Übersetze die folgenden Sätze: ‚Guten Morgen‘ → ‚Good morning‘. ‚Wie geht es dir?‘ →“

    Siehe auch: Zero-Shot Prompting

  • Ein Meta-Prompt fordert die KI auf, eigene Prompts oder Antworten zu generieren, die dann wiederum als Grundlage für weitere Antworten genutzt werden. So entstehen teilweise komplexe Promptstrukturen.

    Beispiel: „Schreibe einen Prompt, der einen Text über Klimawandel erklärt.“

  • Hier wird die KI aufgefordert, ihre Gedankenschritte bei der Problemlösung sichtbar zu machen und in einer logischen Reihenfolge darzustellen. Das führt oft zu besseren und nachvollziehbareren Ergebnissen, gerade bei komplexen Aufgaben.

    Beispiel: Bei Mathematikaufgaben beschreibt die KI jeden Rechenschritt, bevor sie zum Ergebnis kommt.

  • Chain of Verification ist eine Prompting-Technik, bei der ein KI-generierter Inhalt systematisch überprüft wird – entweder durch die KI selbst oder durch eine zweite Instanz. Dabei wird der ursprüngliche Output auf Fehler, Widersprüche oder fehlende Belege hin analysiert und gegebenenfalls korrigiert. Diese Methode eignet sich besonders für Anwendungen, bei denen Zuverlässigkeit und Faktenprüfung wichtig sind, etwa bei der Erstellung von Lernmaterialien, Zusammenfassungen oder wissenschaftsnahen Texten. In der Lehre kann sie helfen, die Qualität KI-generierter Inhalte zu sichern und Studierende für kritisches Denken im Umgang mit KI zu sensibilisieren.

    Siehe auch: Halluzinationen, Self-Critique Prompting

  • Chain of Density ist eine Prompting-Technik, bei der ein Text schrittweise überarbeitet wird, um ihn inhaltlich dichter zu machen – also mehr Informationen pro Satz unterzubringen, ohne die Verständlichkeit zu verlieren. Dabei wird der ursprüngliche Text in mehreren Durchläufen erweitert, wobei jeweils neue, relevante Details ergänzt werden. Diese Methode eignet sich besonders gut für die Generierung prägnanter, faktenreicher Texte und kann in der Lehre z. B. zur Verdichtung von Zusammenfassungen oder zur Verbesserung von Lernmaterialien eingesetzt werden.

  • Komplexe Aufgaben werden in mehrere Teilschritte zerlegt, die jeweils durch separate Prompts an die KI gestellt und bearbeitet werden. Die Ergebnisse eines Schrittes fließen in den nächsten ein.

    Beispiel: Erst Fakten recherchieren, dann einen Text schreiben, abschließend Korrektur durchführen lassen.

  • Die KI wird aktiv aufgefordert, ihre Antwort zu bewerten und mögliche Fehler oder Unklarheiten zu kommentieren. Dadurch steigt die Qualitätssicherung.

    Siehe auch: Chain of Verification

Informationsabruf und Verarbeitung

  • Tokens sind die kleinsten sinnvollen Textbausteine, die ein KI-Modell verarbeitet. Das können ganze Wörter, Wortteile oder einzelne Zeichen sein, je nach Modell. Durch die Zerlegung in Tokens versteht und erzeugt die KI Sprache.

    Beispiel: Das Wort „Künstliche“ könnte zerlegt werden in Tokens wie „Künst“, „lich“ und „e“.

    Nutzung in der Lehre: Kenntnis über Tokens hilft, die Länge von Texteingaben richtig zu bemessen, z.B. in ChatGPT (Token-Limits).

    Siehe auch: Token-Kosten, Kontextlänge

  • Token-Kosten bezeichnen den rechnerischen Aufwand, der bei der Verarbeitung von Text durch ein KI-Modell entsteht – gemessen in der Anzahl der Tokens, die für Eingabe und Ausgabe verwendet werden. Da viele KI-Dienste nach der Menge der verarbeiteten Tokens abgerechnet werden, beeinflussen Token-Kosten direkt die wirtschaftliche Nutzung generativer KI. Je länger ein Text oder je komplexer eine Aufgabe, desto höher die Token-Anzahl – und damit auch die Kosten.

    Siehe auch: Token

  • Die Kontextlänge bezeichnet die maximale Anzahl an Zeichen, Wörtern oder Token, die ein KI-Modell gleichzeitig verarbeiten kann, um eine sinnvolle Antwort zu erzeugen. Sie bestimmt, wie viel „Gedächtnis“ das Modell für den aktuellen Dialog oder Textabschnitt hat. Je länger die Kontextlänge, desto besser kann die KI Zusammenhänge erfassen, frühere Aussagen berücksichtigen und konsistente Inhalte generieren. In der Lehre ist die Kontextlänge besonders relevant bei der Nutzung generativer KI, etwa wenn längere Texte analysiert, kommentiert oder fortgesetzt werden sollen. Moderne Modelle wie GPT-4 können mehrere Tausend Token verarbeiten, was komplexe Aufgaben wie das Schreiben von Essays oder die Simulation von Dialogen ermöglicht.

    Siehe auch: Token

  • Embeddings sind Zahlenvektoren, die Wörter, Sätze oder Dokumente mathematisch so darstellen, dass ähnliche Bedeutungen nahe beieinander liegen. Mit Embeddings kann die KI semantische Ähnlichkeiten erkennen und relevante Inhalte finden.

    Beispiel: „Auto“ und „Fahrzeug“ liegen im Embedding-Raum nah beieinander.

  • Information Retrieval umfasst Methoden, um aus großen Datenmengen gezielt relevante Dokumente oder Informationen zu finden. Klassische Beispiele sind Suchmaschinen. Im Kontext von KI helfen IR-Systeme, Wissen zur Unterstützung von Lernenden oder Lehrenden bereitzustellen.

    Beispiel: Eine Lernplattform sucht automatisch passende Fachtexte basierend auf einer Textanfrage.

  • Retrieval Augmented Generation ist eine Technik, bei der generative KI-Modelle während der Textgenerierung gezielt auf externe Datenquellen zugreifen und so aktuelles oder spezifisches Wissen einbinden. Das verbessert die Genauigkeit und Aktualität der Antworten.

    Beispiel: Ein KI-gestützter Tutor greift während der Antwort auf ein neues Fachbuch oder Datenbankartikel zurück.

    Siehe auch: Internetanbindung

  • Einige moderne KI-Systeme kombinieren generative Fähigkeiten mit direktem Zugriff auf das Internet. Dadurch können sie nicht nur Inhalte erzeugen, sondern auch aktuelle Informationen aus dem Web abrufen, bewerten und in ihre Antworten integrieren. Ein Beispiel dafür ist Perplexity AI, das als Mischung aus Suchmaschine und generativer KI funktioniert: Es stellt Antworten auf Fragen zusammen, indem es relevante Webseiten durchsucht und die Inhalte sprachlich aufbereitet. Diese Verbindung von Echtzeitrecherche und Textgenerierung erweitert die Einsatzmöglichkeiten in der Lehre erheblich – etwa für aktuelle Themen, Quellenarbeit oder die Erstellung kontextbezogener Lernmaterialien.

    Siehe auch: Retrieval Augmented Generation (RAG)

  • Ein Mechanismus, der es KI-Modellen erlaubt, den Fokus auf bestimmte Teile der Eingabe zu legen, um den Kontext besser zu verstehen. Die „Aufmerksamkeit“ verbessert vor allem die Verarbeitung langer und komplexer Texte.

    Beispiel: In einem langen Aufsatz konzentriert sich die KI besonders auf relevante Absätze für die Beantwortung einer Frage.

Anwendung in der Lehre

  • Softwareprodukte, die KI-Methoden nutzen, um Lehr- und Lernprozesse zu unterstützen oder Verwaltungsaufgaben zu automatisieren. Die Tools reichen von Chatbots über automatisierte Feedbacksysteme bis hin zu personalisierten Lernplattformen.

    Beispiel: Ein Tool, das automatisch Schreibfehler oder inhaltliche Mängel in Essays erkennt.

  • Lerninhalte, die mithilfe von KI aktiv an das individuelle Lernniveau, Lerntempo und Interessen der Studierenden angepasst werden, um effektivere Lernprozesse zu fördern.

    Beispiel: Ein Mathematik-Lernprogramm, das schwierigere Aufgaben stellt, wenn die Studierenden Fortschritte zeigen.

  • Ein virtueller, KI-gestützter Assistent, der Lernende individuell unterstützt, Fragen beantwortet und Feedback gibt. Solche Systeme simulieren persönliche Betreuung und fördern selbstgesteuertes Lernen.

    Beispiel: Ein Schreibcoach, der automatisch Verbesserungsvorschläge für studentische Texte macht.

  • Automatisches Erstellen von Texten durch KI, z.B. für Zusammenfassungen, Essay-Vorlagen oder Fragen zum Lernstoff.

    Beispiel: Generierung einer Zusammenfassung aus einer langen Textquelle für effizientes Lernen.

  • Der Einsatz von KI, um repetitive oder aufwendige Aufgaben ohne menschliches Zutun auszuführen, wodurch Lehrende entlastet werden.

    Beispiel: Automatische Korrektur von Multiple-Choice-Tests.

  • KI verwendet Lehrmaterialien, um automatisch neue Prüfungsfragen zu erstellen, die unterschiedlich schwer sind und verschiedene Themen abdecken.

    Beispiel: KI generiert individuell angepasste Übungsfragen für Studierende.

  • KI-basierte Systeme, die individuelles und schnelles Feedback zu Lernleistungen oder Arbeiten geben, oft adaptiv und mit Verbesserungsvorschlägen.

    Beispiel: Automatisiertes Feedback auf wissenschaftliches Schreiben hinsichtlich Stil und Argumentation, z. B. COFFEE.

  • Interaktive KI-Systeme, die via Text oder Stimme Antworten auf Fragen oder Hilfestellungen geben. Sie sind rund um die Uhr verfügbar und können viele Routineanfragen abdecken.

    Beispiel: ChatGPT im Studium – beantwortet Fragen zu Stoff oder organisiert Lernpläne.

  • Digitale Assistenten wie Siri oder Alexa, die Sprachbefehle verarbeiten und Aufgaben wie Terminplanung oder Informationssuche erledigen. Sie können Lernenden helfen, mit wenig Aufwand Antworten zu erhalten.

    Beispiel: Ein Studierender fragt Siri nach Definitionen oder Lernressourcen.

  • Mithilfe generativer KI lassen sich Podcasts automatisiert erstellen – von der Skripterstellung über die Sprachsynthese bis hin zur Veröffentlichung. Dabei können KI-Modelle Inhalte zu einem gewünschten Thema recherchieren, strukturieren und in gesprochene Sprache umwandeln, oft sogar mit verschiedenen Stimmen oder Stilen. In der Lehre eröffnen sich dadurch neue Möglichkeiten, Lerninhalte flexibel, personalisiert und barrierearm bereitzustellen – etwa als Zusammenfassungen von Vorlesungen, thematische Einführungen oder begleitende Lernformate für unterwegs.

  • Generative KI kann aus Texten, Stichpunkten oder Skripten automatisch Videos und Präsentationen erstellen – inklusive visueller Gestaltung, Sprecherstimme und Animationen. In der Lehre ermöglicht dies die schnelle Produktion von Erklärvideos, Vorlesungszusammenfassungen oder interaktiven Lerninhalten, oft auch in mehreren Sprachen.

  • KI-Modelle können aus einem Thema oder Text strukturierte Mind Maps erzeugen, die zentrale Begriffe und Zusammenhänge visuell darstellen. Dies unterstützt Lernende beim Verstehen komplexer Inhalte und fördert die aktive Auseinandersetzung mit dem Stoff.

  • Generative KI kann aus Lehrtexten automatisch Fragen, Multiple-Choice-Tests oder digitale Lernkarten erstellen. Diese Formate eignen sich besonders gut zur Wiederholung, Selbstüberprüfung und individuellen Förderung im Lernprozess.

  • Für Programmieraufgaben kann generative KI aus Aufgabenstellungen oder Beispielen funktionierenden Programmiercode erzeugen – inklusive Kommentaren und Erklärungen. In der Lehre unterstützt dies sowohl die Vermittlung von Programmierkonzepten als auch die Entwicklung eigener Projekte.

  • Moderne KI-Modelle wie OpenAI Whisper ermöglichen die automatische Transkription und Untertitelung von Audioinhalten – etwa aus Lernvideos, Podcasts oder Vorlesungsaufzeichnungen. Dabei wird gesprochene Sprache in Echtzeit oder nachträglich in geschriebenen Text umgewandelt, oft inklusive Zeitmarken und Übersetzung. In der Lehre verbessert dies die Barrierefreiheit, unterstützt das Verständnis durch visuelle Ergänzung und erleichtert die Nachbereitung von Lerninhalten. Solche Systeme können auch bei der Erstellung von Skripten oder Zusammenfassungen helfen und lassen sich gut in digitale Lernplattformen integrieren.

    Info-Seite zu Untertiteln

Herausforderungen, Ethik und Regulierung

  • Eine Technologie, die mit KI realistisch wirkende, aber manipulierte Audio- oder Videoaufnahmen erzeugt. Im Bildungsbereich ist das Bewusstsein für Deepfakes wichtig, um Medienkompetenz und kritisches Denken zu fördern.

    Beispiel: Deepfake-Videos, die zeigen, wie Personen Dinge sagen, die sie nie gesagt haben.

  • Vorurteile oder Verzerrungen in KI-Ergebnissen, die durch einseitige Trainingsdaten oder ungeeignete Algorithmen entstehen können. Dies führt zu unfairen oder falschen Ergebnissen und kann z.B. Diskriminierung fördern.

    Beispiel: Eine Rekrutierungs-KI bevorzugt Bewerber eines bestimmten Geschlechts aufgrund historischer Daten.

  • Ein Modell hat Lerndaten zu genau „auswendig gelernt“ und kann deshalb neue, unbekannte Daten nicht gut verarbeiten. Kleine Schwankungen führen zu großen Fehlern.

    Beispiel: Eine Prüfungsantwort wird nur erkannt, wenn sie exakt wie in der Trainingsphase formuliert ist.

    Siehe auch: Generalisierung

  • Die Generalisierung beschreibt die Fähigkeit eines KI-Modells, das während des Trainings gelernte Wissen auf neue, unbekannte Daten oder Situationen anzuwenden. Ein Modell, das gut generalisiert, kann also nicht nur auf den Trainingsdaten genau arbeiten, sondern auch verlässliche Vorhersagen für echte Anwendungsfälle machen. Gute Generalisierung ist zentral für die Praxis, da KI-Systeme oft mit neuen, unbekannten Eingaben umgehen müssen.

    Beispiel: Ein Sprachmodell, das nach dem Training auf Texten aus einem bestimmten Wissenschaftsbereich auch Texte aus einer anderen Fachrichtung sinnvoll versteht und beantwortet.

    Siehe auch: Overfitting

  • Transparenz bedeutet, dass die Funktionsweisen eines KI-Systems, seine Datenquellen, Algorithmen und Entscheidungsprozesse offen und nachvollziehbar dargestellt werden. Gerade in der Hochschullehre ist Transparenz wichtig, um Vertrauen in KI-gestützte Anwendungen aufzubauen sowie Fehleinschätzungen und Missbrauch zu vermeiden. Transparenz unterstützt Lehrende und Studierende dabei, die Ergebnisse kritisch zu hinterfragen.

    Beispiel: Eine Lernplattform, die erklärt, auf welchen Kriterien automatisierte Bewertungen beruhen, damit Nutzer*innen verstehen, wie Noten zustande kommen.

    Siehe auch: Black Box, Explainability

  • Explainability umfasst Methoden und Techniken, um komplexe KI-Entscheidungen Rückverfolgbar und verständlich zu machen. Dazu gehören Visualisierungen, vereinfachte Modelle oder Textbeschreibungen, die Nutzenden Einblick in die Entscheidungsbasis geben. Erklärbarkeit ist besonders wichtig, wenn KI erzieherische oder bewertende Funktionen übernimmt, damit Ergebnisse überprüfbar und transparent bleiben.

    Beispiel: Ein Tool, das anzeigt, welche Textstellen in einer Hausarbeit zu einer guten oder schlechten Bewertung geführt haben.

    Siehe auch: Black Box, Transparenz

  • Datenschutz schützt personenbezogene Informationen vor unbefugtem Zugriff und Missbrauch bei der Verarbeitung durch KI-Systeme. In der Lehre ist es essenziell, dass sensible Daten von Studierenden, etwa Noten oder persönliche Angaben, sicher gehandhabt und nicht ohne Erlaubnis weiterverwendet werden. Oft werden Nutzungsdaten auch zum Training von KI-Modellen verwendet, was streng reguliert und transparent kommuniziert werden muss.

    Beispiel: Ein Lehrender gibt personenbezogene Daten von Studierenden in einem KI-Tool ein – die Hochschule muss sicherstellen, dass diese Daten nicht für andere Zwecke missbraucht oder verbreitet werden.

    Siehe auch: Urheberrecht, Ethik

  • Das Urheberrecht regelt die rechtlichen Bedingungen der Nutzung, Weitergabe und Erstellung von Inhalten – auch bei KI-generierten Texten, Bildern oder Videos. Für den Hochschulbereich gilt: Wenn Studierende beispielsweise FernUni-Skripte oder Lehrmaterialien in kommerzielle KI-Tools hochladen, kann dies eine Urheberrechtsverletzung darstellen, da die Materialien meist urheberrechtlich geschützt sind. Außerdem ist oft unklar, wie die Anbieter mit diesen Daten umgehen, was die Rechte der Urheber tangiert. Solche Uploads sollten daher mit Vorsicht erfolgen und ggf. über institutionelle, datenschutzkonforme Systeme.

    Beispiel: Eine Studierende nutzt ein KI-Tool zur Textgenerierung und gibt dazu geschützte Skriptinhalte ein – das könnte rechtliche Folgen für die Nutzung haben.

    Siehe auch: Datenschutz, Ethik

  • Ethik in der KI umfasst moralische Fragestellungen, etwa die gerechte und verantwortungsvolle Nutzung von KI-Technologien. Dazu gehören neben Datenschutz und Transparenz auch Aspekte wie Fairness, Vermeidung von Diskriminierung und soziale Gerechtigkeit. Im Bildungsbereich spielt zudem die Umweltverträglichkeit (Stichwort Green AI) von Rechenzentren zur KI-Berechnung eine Rolle, ebenso wie faire Arbeitsbedingungen bei der Vorbereitung von Trainingsdaten (z.B. Labeling durch Menschen in Entwicklungs- oder Schwellenländern, wo oft prekäre Arbeitsbedingungen bestehen). Verantwortungsvolles KI-Design und Nutzung respektiert diese Aspekte.

    Beispiel: Beim Einsatz von KI in der Lehre ist darauf zu achten, dass keine diskriminierenden Inhalte gefördert und die Privatsphäre der Lernenden geschützt werden.

    Siehe auch: Datenschutz, Urheberrecht

  • Robustheit bezeichnet die Widerstandsfähigkeit eines KI-Modells gegenüber fehlerhaften, unvollständigen oder störenden Eingaben sowie die Fähigkeit, auch unter veränderten oder unerwarteten Bedingungen zuverlässig zu funktionieren. Ein robustes KI-System liefert stabile Ergebnisse, auch wenn es z.B. auf unbekannte Daten oder leicht manipulierte Inputs trifft. Im Kontext der Lehre bedeutet Robustheit, dass KI-gestützte Bewertungen oder Empfehlungen nicht durch kleine Fehler oder Störungen unbrauchbar werden.

    Beispiel: Ein automatisches Korrekturprogramm erkennt trotz Tippfehlern oder ungewöhnlicher Formulierungen noch die Intention des Studierenden korrekt.

    Siehe auch: Generalisierung, Overfitting

  • Halluzinationen sind ein Phänomen bei KI-Modellen, bei dem sie plausible, aber falsche oder erfundene Informationen generieren. Das passiert besonders bei generativen Modellen, die auf probabilistischer Basis arbeiten und nicht alle Fakten vollständig kennen. Halluzinationen können zu Fehlinformationen führen, die im Lernkontext problematisch sind. Aus diesem Grund ist eine kritische Überprüfung von KI-Ausgaben stets erforderlich.

    Beispiel: Ein KI-Textgenerator erfindet einen fiktiven Forschungsartikel, der gar nicht existiert.

    Siehe auch: Nichtdeterminismus, Verifikation, Temperatur

  • Verifikation bezeichnet die systematische Überprüfung der Ergebnisse von KI-Anwendungen auf ihre Richtigkeit, Qualität und Plausibilität. Gerade wenn KI in der Lehre eingesetzt wird, ist Verifikation notwendig, um Fehler, Halluzinationen oder Verzerrungen frühzeitig zu erkennen und zu korrigieren. Lehrende und Studierende sollten nicht blind auf KI-Ausgaben vertrauen, sondern diese kritisch beurteilen.

    Beispiel: Vor der Nutzung eines automatisch generierten Textes wird dieser von einer Expertin überprüft.

    Siehe auch: Evaluation, Halluzinationen

  • Nichtdeterminismus beschreibt die Eigenschaft eines Systems, bei gleichen Eingaben nicht immer exakt dasselbe Ergebnis zu liefern. Große Sprachmodelle erzeugen ihre Ausgaben probabilistisch, das heißt sie wählen Wörter und Sätze auf Basis von Wahrscheinlichkeiten aus einer Vielzahl möglicher Alternativen aus. Dadurch sind die Antworten nicht fix vorgegeben, sondern können bei identischer Fragestellung variieren.

    Beispiel: Wenn man ein und dieselbe Frage mehrmals an ChatGPT stellt, können die Antworten leicht unterschiedliche Formulierungen oder zusätzliche Informationen enthalten, auch wenn die Kernbotschaft ähnlich bleibt.

    Siehe auch: Halluzinationen, Temperatur

  • Evaluation umfasst die Bewertung von KI-Modellen oder -Systemen hinsichtlich ihrer Genauigkeit, Leistungsfähigkeit und Anwendbarkeit. Dies erfolgt durch Tests, Nutzerfeedback und vergleichende Analysen, um sicherzustellen, dass die KI für den vorgesehenen Einsatzzweck geeignet ist. In der Hochschullehre hilft Evaluation dabei, die Qualität von KI-basierten Lehr- und Lernwerkzeugen sicherzustellen.

    Beispiel: Ein KI-gestütztes Prüfungsfeedback-System wird anhand von Vergleich mit Expertenbewertungen getestet.

    Siehe auch: Verifikation, Robustheit

  • Die europäische KI-Verordnung, die seit 2024 in Kraft ist, stellt einen Rechtsrahmen für KI-Systeme dar. Sie regelt den sicheren und verantwortungsvollen Einsatz von KI, insbesondere bei Hochrisikoanwendungen, und betrifft auch Bildungseinrichtungen beim Einsatz von KI-Tools.

    Link zum Verordnungstext

  • Edge-KI bezeichnet den Einsatz von künstlicher Intelligenz direkt auf lokalen Geräten wie Smartphones, Tablets oder Laptops – ohne ständige Verbindung zu einem Cloud-Server. Das ermöglicht schnellere Reaktionen, mehr Datenschutz und geringeren Energieverbrauch.

  • AI Literacy beschreibt die Fähigkeit, künstliche Intelligenz kompetent, kritisch und verantwortungsvoll zu nutzen und zu verstehen. Dazu gehört das Wissen über Funktionsweise, Möglichkeiten und Grenzen von KI-Systemen sowie die Fähigkeit, deren Ergebnisse zu hinterfragen und sinnvoll in Lern- und Lehrprozesse zu integrieren. AI Literacy wird zunehmend zu einer digitalen Schlüsselkompetenz.

 

Die Texte dieses Glossars wurden mit KI-Unterstützung erstellt und von Menschen geprüft.