Zum Hauptinhalt springen
Aufträge generieren Messbare Ergebnisse Nachhaltiger Erfolg

Large Language Model (LLM)

cropped klaus kirnbauer

Ein Large Language Model (kurz LLM, auf Deutsch „großes Sprachmodell“) ist ein KI-System, das auf riesigen Mengen an Textdaten trainiert wurde, um menschliche Sprache zu verstehen und zu erzeugen. LLMs bilden die technische Grundlage hinter bekannten Tools wie ChatGPT, Google Gemini, Claude von Anthropic oder Llama von Meta. Ihr entscheidendes Merkmal ist die schiere Größe — sowohl in Bezug auf die Trainingsdaten als auch auf die Anzahl der internen Parameter, also der Stellschrauben, die während des Trainings eingestellt werden.

Wie ein LLM eigentlich denkt — und warum es das nicht wirklich tut

Um zu verstehen, was ein LLM macht, hilft ein einfaches Bild: Stell dir vor, du deckst das letzte Wort eines Satzes ab und versuchst zu erraten, was dort stehen könnte. Genau das tut ein LLM im Kern — aber auf der Basis von Milliarden von Textbeispielen und mit enormer statistischer Präzision.

Technisch gesehen zerlegt das Modell einen eingehenden Text zunächst in sogenannte Tokens — das sind Wortfragmente, einzelne Wörter oder Satzzeichen. Diese Tokens werden in numerische Vektoren umgewandelt, sogenannte Embeddings, die semantische Bedeutung kodieren. Das Wort „Wien“ liegt im Vektorraum näher bei „Graz“ als bei „Fahrrad“. Auf Basis dieser Repräsentationen berechnet das Modell dann Schicht für Schicht, welches Token als nächstes am wahrscheinlichsten ist.

Was das Ganze so leistungsfähig macht, ist der sogenannte Self-Attention-Mechanismus: Er erlaubt dem Modell, beim Verarbeiten eines Wortes gleichzeitig alle anderen Wörter im Kontext zu berücksichtigen — also nicht nur das direkte Nachbarwort, sondern auch weit entfernte Teile eines Textes. Das ist ein grundlegender Unterschied zu früheren Ansätzen, die Text sequenziell verarbeiteten.

Die Architektur dahinter: der Transformer

Die technische Basis aller modernen LLMs ist die sogenannte Transformer-Architektur. Sie wurde im Dezember 2017 von einem achtköpfigen Google-Forscherteam um Ashish Vaswani auf der Konferenz NeurIPS vorgestellt — im Paper mit dem provokanten Titel „Attention Is All You Need“. Die zentrale Innovation: Transformer verarbeiten einen Text nicht Wort für Wort von links nach rechts, sondern parallel — das ermöglicht erst das Training auf den enormen Datenmengen, die moderne LLMs brauchen, weil GPUs (Grafikprozessoren) für diese Parallelverarbeitung besonders gut geeignet sind.

Transformers bestehen aus gestapelten Schichten, die jeweils einen Attention-Mechanismus und ein einfaches neuronales Netz kombinieren. Je mehr solcher Schichten ein Modell hat, desto komplexere Zusammenhänge kann es erfassen — und desto größer wird der Rechenaufwand.

Von BERT bis GPT-4: eine kurze Geschichte der LLMs

Auf Basis der Transformer-Architektur entstanden ab 2018 in rascher Folge eine Reihe wegweisender Modelle. Im Juni 2018 veröffentlichte OpenAI das erste GPT (Generative Pre-trained Transformer), wenige Monate später stellte Google BERT vor — ein Modell, das Text bidirektional versteht, also gleichzeitig links und rechts vom Zielbegriff schaut, statt nur vorwärts zu lesen. Google begann im Oktober 2019 damit, BERT für die Verarbeitung von Suchanfragen einzusetzen.

Im Mai 2020 erschien GPT-3 mit 175 Milliarden Parametern und zeigte, dass mit zunehmender Modellgröße qualitativ neue Fähigkeiten entstehen — das Modell konnte plötzlich ohne spezifisches Nachtraining für viele verschiedene Aufgaben eingesetzt werden. Der eigentliche Wendepunkt für die breite Öffentlichkeit kam im November 2022 mit dem Start von ChatGPT, einem auf GPT-3 aufbauenden Chatbot von OpenAI, der innerhalb weniger Wochen Millionen von Nutzerinnen und Nutzern gewann und eine Welle an Investitionen, Konkurrenzprodukten und gesellschaftlicher Debatte auslöste.

Training: drei Phasen bis zum fertigen Modell

Ein LLM wird nicht in einem einzigen Schritt trainiert. Der Prozess läuft typischerweise in drei Phasen ab.

Zuerst kommt das Pre-Training: Das Modell liest gigantische Textmengen aus dem Internet, Büchern und anderen Quellen und lernt dabei statistische Muster der Sprache — Grammatik, Zusammenhänge, Faktenwissen. Danach folgt das Instruction Fine-Tuning: Das Modell bekommt viele Beispiele echter Aufgaben und lernt, Anweisungen sinnvoll zu befolgen. Die dritte Phase ist das Reinforcement Learning from Human Feedback (RLHF): Menschliche Bewerterinnen und Bewerter beurteilen verschiedene Antworten des Modells, und das Modell wird so optimiert, dass es bevorzugt jene Antworten liefert, die als hilfreich eingestuft wurden.

Grenzen und Kritik

LLMs haben trotz ihrer beeindruckenden Leistung bekannte Schwächen. Die bekannteste ist das Phänomen der Halluzination: Ein LLM kann mit großer Selbstsicherheit falsche Fakten, erfundene Quellen oder nicht existierende Personen produzieren, weil es statistisch plausible Texte erzeugt — nicht zwingend faktisch korrekte. Das liegt daran, dass das Modell keinen echten Zugang zur Wahrheit hat, sondern nur zu Mustern in seinen Trainingsdaten.

Ein weiteres Problem ist das Wissens-Cutoff-Datum: Weil LLMs auf historischen Daten trainiert werden, wissen sie nach Abschluss des Trainings nichts mehr über neuere Ereignisse. Einen Ausweg bietet hier die Methode RAG (Retrieval-Augmented Generation): Das Sprachmodell ruft dabei aktuelle Informationen aus einer externen Datenbank oder dem Web ab, bevor es antwortet — so wie es etwa Perplexity AI oder die Websuche von ChatGPT umsetzen.

Daneben gibt es grundlegende Fragen rund um Datenschutz und Urheberrecht: LLMs wurden auf immensen Textmengen aus dem Internet trainiert, oft ohne ausdrückliche Zustimmung der Urheber. Verlage und Medienunternehmen klagen in mehreren Ländern gegen KI-Anbieter, weil deren Inhalte ohne Lizenz verwendet wurden.

Bedeutung für SEO und Online Marketing

LLMs verändern, wie Menschen Informationen suchen — und damit auch, wie Webseiten gefunden werden. Google integriert LLM-Technologie in seine Suche über die AI Overviews, die seit Mai 2024 weltweit ausgerollt wurden. Chatbots wie ChatGPT, Perplexity oder Claude werden zunehmend direkt als Antwortmaschinen genutzt, ohne dass Nutzerinnen und Nutzer anschließend eine Website besuchen.

Für SEO bedeutet das einen wachsenden Anteil an sogenannten Zero-Click-Antworten: Das LLM beantwortet die Frage direkt, ohne auf eine externe Quelle weiterzuleiten. Einige Publisher berichten von Traffic-Rückgängen, andere Studien — etwa von Seer Interactive aus 2025 — zeigen, dass Traffic aus KI-Quellen mit rund 15,9 % deutlich besser konvertiert als klassischer organischer Traffic.

Als Reaktion darauf etabliert sich eine neue Teildisziplin: GEO (Generative Engine Optimization) oder LLMO (Large Language Model Optimization) zielt darauf ab, Inhalte so zu gestalten, dass LLMs sie als verlässliche Quellen erkennen und zitieren. Gut strukturierte, faktisch fundierte und klar formulierte Inhalte — exakt das, was klassische SEO seit jeher empfiehlt — haben dabei den größten Einfluss.

Häufige Fragen

Was ist der Unterschied zwischen einem LLM und ChatGPT?

Ein LLM ist die zugrunde liegende Technologie — ein trainiertes Sprachmodell. ChatGPT ist ein konkretes Produkt von OpenAI, das auf einem LLM (der GPT-Serie) aufbaut und über ein Chat-Interface zugänglich gemacht wurde. Ähnlich wie ein Automotor und ein fertiges Auto: Das eine ist das Werkzeug, das andere das fertige Produkt.

Können LLMs wirklich denken oder verstehen?

Nein — zumindest nicht im menschlichen Sinne. LLMs berechnen statistische Wahrscheinlichkeiten für Textfolgen. Sie erzeugen sprachlich kohärente und oft inhaltlich korrekte Antworten, weil ihre Trainingsdaten Millionen von Zusammenhängen abbilden — aber sie besitzen kein Bewusstsein, keine Absichten und kein echtes Verständnis.

Wie sollte ich meine Website für LLMs optimieren?

Inhalte, die von LLMs als Quellen herangezogen werden, zeichnen sich durch klare Struktur, inhaltliche Tiefe und faktische Genauigkeit aus. Strukturierte Daten (Schema Markup), eindeutige Autorenschaft und präzise Antworten auf konkrete Fragen helfen sowohl klassischen Suchmaschinen als auch KI-gestützten Antwortmechanismen, deine Inhalte korrekt einzuordnen.