<?xml version="1.0" encoding="UTF-8"?>
<!-- generator="FeedCreator 1.8" -->
<?xml-stylesheet href="https://www.thinkwiki.rene-baier.de/lib/exe/css.php?s=feed" type="text/css"?>
<rdf:RDF
    xmlns="http://purl.org/rss/1.0/"
    xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
    xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
    xmlns:dc="http://purl.org/dc/elements/1.1/">
    <channel rdf:about="https://www.thinkwiki.rene-baier.de/feed.php">
        <title>ThinkWi-KI - glossar</title>
        <description>Künstliche Intelligenz erklärt – verständlich und praxisnah</description>
        <link>https://www.thinkwiki.rene-baier.de/</link>
        <image rdf:resource="https://www.thinkwiki.rene-baier.de/lib/exe/fetch.php?media=wiki:dokuwiki.svg" />
       <dc:date>2026-04-18T09:39:42+00:00</dc:date>
        <items>
            <rdf:Seq>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:api&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:backpropagation&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:batch-size&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:benchmark&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:bias&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chain-of-thought&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chatgpt&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:confusion-matrix&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:context-window&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:dataset&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:embedding&amp;rev=1747933781&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:epoch&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:f1-score&amp;rev=1747933781&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:few-shot&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:fine-tuning&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:function-calling&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:generalisierung&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:gradient-descent&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:halluzination&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:inference-time&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:latency&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:learning-rate&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:loss&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:model&amp;rev=1747933781&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:multimodalitaet&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:overfitting&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:prompt&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:reasoning&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:self-attention&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:system-prompt&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:temperature&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token-limit&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:tokenization&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:training&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:transformer&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:turing-test&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:validation&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot-cot&amp;rev=1746962546&amp;do=diff"/>
                <rdf:li rdf:resource="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot&amp;rev=1746962546&amp;do=diff"/>
            </rdf:Seq>
        </items>
    </channel>
    <image rdf:about="https://www.thinkwiki.rene-baier.de/lib/exe/fetch.php?media=wiki:dokuwiki.svg">
        <title>ThinkWi-KI</title>
        <link>https://www.thinkwiki.rene-baier.de/</link>
        <url>https://www.thinkwiki.rene-baier.de/lib/exe/fetch.php?media=wiki:dokuwiki.svg</url>
    </image>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:api&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>API (Programmierschnittstelle)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:api&amp;rev=1746962546&amp;do=diff</link>
        <description>API (Programmierschnittstelle)

Eine API (Application Programming Interface) ermöglicht es, Softwarekomponenten oder Dienste automatisiert zu nutzen.

KI-Kontext

Viele KI-Systeme wie GPT werden über eine API angesteuert – z. B. mit einem Textprompt und Parametern.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:backpropagation&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Backpropagation</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:backpropagation&amp;rev=1746962546&amp;do=diff</link>
        <description>Backpropagation

Backpropagation ist der Algorithmus, mit dem Modelle ihre Fehler rückwärts durch das Netzwerk propagieren, um Gewichte zu aktualisieren.

Wichtig

Zentrale Methode beim Training neuronaler Netze.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:batch-size&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Batch Size</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:batch-size&amp;rev=1746962546&amp;do=diff</link>
        <description>Batch Size

Die Batch Size gibt an, wie viele Trainingsbeispiele gleichzeitig verarbeitet werden, bevor das Modell seine Gewichte aktualisiert.

Einfluss

	*  Große Batches: schnelleres Training, höherer Speicherbedarf
	*  Kleine Batches: mehr Varianz, langsamere Konvergenz</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:benchmark&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Benchmark</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:benchmark&amp;rev=1746962546&amp;do=diff</link>
        <description>Benchmark

Benchmarks sind standardisierte Tests, mit denen KI-Modelle verglichen werden können.

Beispiel

MMLU, BigBench, HumanEval (für GPTs)</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:bias&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Bias</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:bias&amp;rev=1746962546&amp;do=diff</link>
        <description>Bias

Bias bezeichnet eine Verzerrung im Modell – z. B. durch unausgewogene Trainingsdaten, die zu diskriminierenden Ergebnissen führen können.

Beispiel

Ein Bewerbungssystem bevorzugt Männer, weil es auf historischen Daten basiert, in denen Männer häufiger eingestellt wurden.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chain-of-thought&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Chain-of-Thought</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chain-of-thought&amp;rev=1746962546&amp;do=diff</link>
        <description>Chain-of-Thought

Chain-of-Thought (CoT) ist eine Prompting-Technik, bei der das Modell explizit aufgefordert wird, „laut zu denken“.

Beispiel

„Denke Schritt für Schritt, bevor du antwortest.“</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chatgpt&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>ChatGPT</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:chatgpt&amp;rev=1746962546&amp;do=diff</link>
        <description>ChatGPT

ChatGPT ist ein dialogorientiertes Sprachmodell von OpenAI, basierend auf der GPT-Architektur (ab GPT-3.5, aktuell GPT-4 bzw. GPT-4o).

Eigenschaften

	*  Kann Text verstehen und erzeugen
	*  Unterstützt Kontexteingabe und Rückfragen
	*  Weit verbreitet im Alltag, Beruf und Bildung</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:confusion-matrix&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Confusion Matrix</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:confusion-matrix&amp;rev=1746962546&amp;do=diff</link>
        <description>Confusion Matrix

Eine Confusion Matrix zeigt, wie gut ein Klassifikationsmodell zwischen verschiedenen Kategorien unterscheidet.

Aufbau

Zeilen: tatsächliche Klassen, Spalten: vorhergesagte Klassen.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:context-window&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Kontextfenster (Context Window)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:context-window&amp;rev=1746962546&amp;do=diff</link>
        <description>Kontextfenster (Context Window)

Das Kontextfenster beschreibt die maximale Länge an Tokens, die ein Sprachmodell auf einmal verarbeiten kann.

Beispiel

GPT-4 hat je nach Version 8.000 bis 128.000 Token Kontextfenster.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:dataset&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Dataset (Datensatz)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:dataset&amp;rev=1746962546&amp;do=diff</link>
        <description>Dataset (Datensatz)

Ein Dataset ist eine strukturierte Sammlung von Daten, mit denen ein KI-Modell trainiert oder getestet wird.

Arten

	*  Train / Test / Validation Split
	*  Gelabelt oder unlabelt</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:embedding&amp;rev=1747933781&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-22T17:09:41+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Embedding</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:embedding&amp;rev=1747933781&amp;do=diff</link>
        <description>Embedding

Ein Embedding ist eine mathematische Darstellung von Wörtern oder Konzepten als Vektoren in einem mehrdimensionalen Raum.

Nutzen

	*  Erlaubt semantische Vergleiche (z. B. Wortähnlichkeit)
	*  Wird in NLP, LLMs und Empfehlungssystemen eingesetzt</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:epoch&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Epoch</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:epoch&amp;rev=1746962546&amp;do=diff</link>
        <description>Epoch

Eine Epoch ist ein vollständiger Durchlauf aller Trainingsdaten durch das Modell.

Beispiel

Bei 10.000 Datensätzen und einer Batch Size von 100 braucht es 100 Schritte für eine Epoch.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:f1-score&amp;rev=1747933781&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-22T17:09:41+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>F1-Score</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:f1-score&amp;rev=1747933781&amp;do=diff</link>
        <description>F1-Score

Der F1-Score ist eine Metrik, die Präzision und Recall kombiniert – besonders nützlich bei unausgewogenen Datensätzen.

Formel

F1 = 2 * (Precision * Recall) / (Precision + Recall)</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:few-shot&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Few-shot Learning</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:few-shot&amp;rev=1746962546&amp;do=diff</link>
        <description>Few-shot Learning

Beim Few-shot Learning werden dem Modell wenige Beispiele mitgegeben, damit es das gewünschte Muster erkennt und weiterführt.

Beispiel

Q: Hauptstadt von Frankreich? A: Paris  
Q: Hauptstadt von Spanien? A:

Verwandte Begriffe</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:fine-tuning&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Fine-Tuning</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:fine-tuning&amp;rev=1746962546&amp;do=diff</link>
        <description>Fine-Tuning

Fine-Tuning bezeichnet die Nachanpassung eines bereits trainierten Modells auf eine spezifische Aufgabe oder Domäne.

Beispiel

Ein allgemeines Sprachmodell wird auf juristische Texte spezialisiert.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:function-calling&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Function Calling</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:function-calling&amp;rev=1746962546&amp;do=diff</link>
        <description>Function Calling

Function Calling ist eine Technik, bei der ein Sprachmodell strukturierte Daten erzeugt, die eine Anwendung direkt weiterverarbeiten kann.

Beispiel

Ein GPT-Modell gibt JSON aus, das eine API ausliest.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:generalisierung&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Generalisierung</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:generalisierung&amp;rev=1746962546&amp;do=diff</link>
        <description>Generalisierung

Ein Modell generalisiert gut, wenn es nicht nur auf Trainingsdaten, sondern auch auf neue, unbekannte Daten sinnvolle Ergebnisse liefert.

Zusammenhang

Gegenspieler von Overfitting.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:gradient-descent&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Gradient Descent</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:gradient-descent&amp;rev=1746962546&amp;do=diff</link>
        <description>Gradient Descent

Gradient Descent ist das Optimierungsverfahren, das KI-Modelle verwenden, um Fehler zu minimieren.

Prinzip

Das Modell passt Gewichte an, um „bergab“ im Fehlerraum zu gehen.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:halluzination&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Halluzination</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:halluzination&amp;rev=1746962546&amp;do=diff</link>
        <description>Halluzination

Halluzination beschreibt den Effekt, wenn ein Sprachmodell plausible, aber faktisch falsche Aussagen macht.

Beispiel

Ein Modell „erfindet“ Quellen, Zitate oder Daten.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:inference-time&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Inference Time</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:inference-time&amp;rev=1746962546&amp;do=diff</link>
        <description>Inference Time

Inference Time ist die Zeit, die ein KI-Modell benötigt, um auf eine Eingabe eine Antwort zu generieren.

Wichtig

Kritisch bei Echtzeitanwendungen (z. B. Chatbots, Bilderkennung)</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:latency&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Latenz (Latency)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:latency&amp;rev=1746962546&amp;do=diff</link>
        <description>Latenz (Latency)

Latenz bezeichnet die Verzögerung zwischen Eingabe und Ausgabe in einem System – insbesondere bei KI-Modellen.

Beispiel

Spürbare Latenz: längere Denkpause bei Chatbots.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:learning-rate&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Learning Rate</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:learning-rate&amp;rev=1746962546&amp;do=diff</link>
        <description>Learning Rate

Die Learning Rate (Lernrate) bestimmt, wie stark ein Modell seine Gewichte nach jedem Trainingsschritt anpasst.

Wichtig

Zu hoch → Modell springt  
Zu niedrig → Modell lernt zu langsam</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:loss&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Loss</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:loss&amp;rev=1746962546&amp;do=diff</link>
        <description>Loss

Der Loss (Verlustwert) misst, wie stark die Vorhersage eines KI-Modells vom tatsächlichen Ergebnis abweicht – je kleiner, desto besser.

Beispiel

Bei Klassifikationen: Cross Entropy Loss  
Bei Regression: Mean Squared Error</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:model&amp;rev=1747933781&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-22T17:09:41+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Modell (Model)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:model&amp;rev=1747933781&amp;do=diff</link>
        <description>Modell (Model)

Ein Modell ist ein trainiertes KI-System, das auf Basis von Daten Zusammenhänge erkennt und Vorhersagen trifft.

Beispiele

	*  GPT-4 (Sprachmodell)
	*  ResNet (Bildklassifikation)
	*  Entscheidungsbaum (strukturierte Daten)

Hinweis</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:multimodalitaet&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Multimodalität</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:multimodalitaet&amp;rev=1746962546&amp;do=diff</link>
        <description>Multimodalität

Multimodale Modelle können verschiedene Eingabeformate gleichzeitig verarbeiten – z. B. Text, Bild oder Audio.

Beispiel

GPT-4o kann Bild und Sprache gleichzeitig interpretieren.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:overfitting&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Overfitting (Überanpassung)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:overfitting&amp;rev=1746962546&amp;do=diff</link>
        <description>Overfitting (Überanpassung)

Overfitting beschreibt den Zustand, wenn ein Modell zu sehr auf Trainingsdaten abgestimmt ist und bei neuen Daten schlecht generalisiert.

Beispiel

Ein Modell erkennt nicht mehr die Regel, sondern nur die Trainingsmuster.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:prompt&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Prompt</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:prompt&amp;rev=1746962546&amp;do=diff</link>
        <description>Prompt

Ein Prompt ist die Eingabeaufforderung, mit der man ein KI-Modell (z. B. ein Sprachmodell) dazu bringt, eine gewünschte Antwort zu erzeugen.

Merkmale

	*  Besteht meist aus Text
	*  Kann Anweisungen, Rollen, Beispiele enthalten

Beispiel</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:reasoning&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Reasoning (Schlussfolgern)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:reasoning&amp;rev=1746962546&amp;do=diff</link>
        <description>Reasoning (Schlussfolgern)

Reasoning beschreibt die Fähigkeit eines KI-Systems, logische oder wahrscheinliche Schlüsse zu ziehen – ähnlich wie menschliches Denken.

Typen von Reasoning

	*  Deduktiv (vom Allgemeinen zum Speziellen)
	*  Induktiv (vom Speziellen zum Allgemeinen)</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:self-attention&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Self-Attention</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:self-attention&amp;rev=1746962546&amp;do=diff</link>
        <description>Self-Attention

Self-Attention ist der Mechanismus in Transformer-Modellen, der es ermöglicht, den Kontext aller Wörter einer Eingabe gleichzeitig zu berücksichtigen.

Beispiel

Das Wort „Bank“ kann je nach Kontext als Finanzinstitut oder Sitzgelegenheit erkannt werden.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:system-prompt&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>System Prompt</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:system-prompt&amp;rev=1746962546&amp;do=diff</link>
        <description>System Prompt

Ein System Prompt ist eine initiale, unsichtbare Anweisung an ein LLM, die das Verhalten des Modells steuert.

Beispiel

„Du bist ein hilfreicher Assistent.“ – legt Tonfall und Grenzen fest.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:temperature&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Temperature</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:temperature&amp;rev=1746962546&amp;do=diff</link>
        <description>Temperature

Die Temperature ist ein Parameter bei der Textgenerierung, der bestimmt, wie „kreativ“ oder zufällig das Modell antwortet.

Beispiel

	*  0.2 = präzise, vorhersehbar
	*  0.8 = kreativ, vielfältig</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token-limit&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Token Limit</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token-limit&amp;rev=1746962546&amp;do=diff</link>
        <description>Token Limit

Das Token Limit legt fest, wie viele Tokens ein Modell gleichzeitig verarbeiten kann – inklusive Eingabe und Ausgabe.

Beispiel

GPT-4 mit 8k Kontext kann ca. 6000 Wörter aufnehmen.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Token</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:token&amp;rev=1746962546&amp;do=diff</link>
        <description>Token

Ein Token ist die kleinste vom Sprachmodell verarbeitete Einheit – oft ein Wortbestandteil.

Wichtig für

	*  Prompt-Länge
	*  Kontextgrenzen
	*  Abrechnung bei API-Nutzung</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:tokenization&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Tokenization (Tokenisierung)</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:tokenization&amp;rev=1746962546&amp;do=diff</link>
        <description>Tokenization (Tokenisierung)

Tokenization ist der Prozess, bei dem ein Text in kleine Einheiten (Tokens) zerlegt wird – oft als Vorbereitung für NLP-Modelle.

Beispiel

„Ich liebe KI.“ → [„Ich“, „liebe“, „KI“, „.“]</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:training&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Training</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:training&amp;rev=1746962546&amp;do=diff</link>
        <description>Training

Training ist der Prozess, bei dem ein KI-Modell anhand von Beispieldaten lernt, Zusammenhänge zu erkennen und Vorhersagen zu treffen.

Beispiel

Ein Modell erhält Tausende Texte mit dem Ziel, passende nächste Wörter zu lernen.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:transformer&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Transformer</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:transformer&amp;rev=1746962546&amp;do=diff</link>
        <description>Transformer

Die Transformer-Architektur ist das Grundgerüst moderner KI-Sprachmodelle. Sie nutzt Self-Attention, um Kontext effizient zu erfassen.

Siehe auch

	*  transformer
	*  embedding</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:turing-test&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Turing-Test</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:turing-test&amp;rev=1746962546&amp;do=diff</link>
        <description>Turing-Test

Der Turing-Test ist ein Konzept, bei dem eine Maschine als intelligent gilt, wenn ein Mensch in einem Gespräch nicht erkennen kann, ob er mit einer Maschine oder einem Menschen spricht.

Ursprung

Vorgeschlagen von Alan Turing im Jahr 1950 als Antwort auf die Frage:</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:validation&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Validation</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:validation&amp;rev=1746962546&amp;do=diff</link>
        <description>Validation

Validation (Validierung) ist die Überprüfung der Modellleistung auf einem separaten Datensatz, der nicht im Training verwendet wurde.

Ziel

Frühzeitiges Erkennen von Overfitting.</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot-cot&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Zero-shot Chain-of-Thought</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot-cot&amp;rev=1746962546&amp;do=diff</link>
        <description>Zero-shot Chain-of-Thought

Siehe auch: Chain-of-Thought



Zero-shot CoT kombiniert die Vorteile von Zero-shot Prompting und Chain-of-Thought, indem das Modell durch gezielte Formulierung zum Nachdenken angeregt wird – ganz ohne Beispiele.

Beispiel

„Beantworte die Frage und erkläre, wie du darauf kommst.“</description>
    </item>
    <item rdf:about="https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot&amp;rev=1746962546&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-05-11T11:22:26+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Zero-shot Learning</title>
        <link>https://www.thinkwiki.rene-baier.de/doku.php?id=glossar:zero-shot&amp;rev=1746962546&amp;do=diff</link>
        <description>Zero-shot Learning

Zero-shot Learning bedeutet, dass ein Modell ohne konkrete Beispiele eine Aufgabe lösen soll – nur auf Basis der allgemeinen Sprach- oder Weltkenntnis.

Beispiel

„Nenne die Hauptstadt von Kanada.“</description>
    </item>
</rdf:RDF>
