LLM-Sichtbarkeit Glossar

Alle wichtigen Begriffe rund um KI-Suchmaschinen, llms.txt und Website-Optimierung verständlich erklärt

A

Zugänglichkeit

Accessibility (Barrierefreiheit)

Die Zugänglichkeit einer Website für alle Nutzer, einschließlich Menschen mit Behinderungen und KI-Bots. Wichtige Elemente sind Alt-Texte für Bilder, korrekte Überschriftenstruktur, ARIA-Labels und semantisches HTML. KI-Suchmaschinen bevorzugen barrierefreie Websites, da sie leichter zu crawlen und zu verstehen sind.

SEO

AI-Readiness

Der Grad, zu dem eine Website für KI-Suchmaschinen wie ChatGPT, Claude und Perplexity optimiert ist. Umfasst strukturierte Daten, semantisches HTML, klare Metadaten und crawlbare Inhalte. Eine AI-ready Website wird von KI-Bots besser verstanden und häufiger in AI-generierten Antworten zitiert.

Technisch

Alt-Text

Alternativer Text, der Bilder beschreibt. Wird von Screenreadern vorgelesen und hilft KI-Bots, Bildinhalte zu verstehen. Format: <img alt="Beschreibung des Bildes">. Wichtig für Accessibility und AI-Readiness, da Bots Bilder nicht "sehen" können.

Technisch

ARIA-Labels

Accessible Rich Internet Applications — HTML-Attribute, die zusätzliche Informationen für Screenreader und KI-Bots bereitstellen. Beispiel: aria-label="Suchfeld", role="navigation". Verbessert die semantische Struktur und AI-Verständlichkeit.

B

SEO

Bot / Crawler

Automatisierte Programme, die Websites durchsuchen und indexieren. Beispiele: Googlebot (Google), GPTBot (ChatGPT), ClaudeBot (Claude). Bots folgen Links, lesen Inhalte und sammeln Daten für Suchmaschinen oder KI-Modelle. Die robots.txt steuert, welche Bots Zugriff haben.

Content

Breadcrumbs

Navigationspfad, der die Seitenstruktur zeigt (z.B. Home › Produkte › Kategorie). Hilft Nutzern und Bots, die Website-Hierarchie zu verstehen. Kann mit Schema.org BreadcrumbList strukturiert werden für bessere AI-Verständlichkeit.

C

KI

ChatGPT

KI-Chatbot von OpenAI, der Websites über GPTBot crawlt. Nutzt gecrawlte Inhalte, um Fragen zu beantworten. Websites können GPTBot in der robots.txt blockieren oder erlauben. Wichtig für AI-Readiness: strukturierte Daten und klare Inhalte.

KI

Claude

KI-Assistent von Anthropic, crawlt Websites mit ClaudeBot. Analysiert Inhalte für Kontext und Antworten. Bevorzugt gut strukturierte, barrierefreie Websites mit klaren Metadaten und Schema.org Markup.

SEO

Content-Qualität

Maß für die Qualität von Website-Inhalten. Faktoren: Textlänge, Text-Code-Verhältnis, interne Verlinkung, Überschriftenstruktur, Listen und Tabellen. KI-Bots bevorzugen substanziellen, gut strukturierten Content gegenüber dünnen Seiten.

SEO

Crawlability

Die Fähigkeit von Bots, eine Website zu durchsuchen. Wird beeinflusst durch robots.txt, Meta-Tags (noindex/nofollow), Sitemaps und interne Verlinkung. Gute Crawlability ist essentiell für AI-Readiness.

D

Technisch

Disallow

Anweisung in der robots.txt, die Bots vom Crawlen bestimmter Bereiche ausschließt. Beispiel: "Disallow: /" blockiert alle Bots. "Disallow: /admin/" blockiert nur den Admin-Bereich. Kritisch für AI-Readiness: versehentliches Blockieren verhindert Indexierung.

G

SEO

GEO (Generative Engine Optimization)

Die Optimierung von Inhalten für KI-gestützte Suchmaschinen und Chatbots wie ChatGPT, Claude und Perplexity. GEO geht über klassisches SEO hinaus und fokussiert sich auf strukturierte Daten, natürliche Sprache, Kontext und semantisches Markup, um in KI-generierten Antworten zitiert zu werden. Synonym für AI-Readiness und KI-Sichtbarkeit.

KI

Google Gemini / Bard

KI-Chatbot von Google, nutzt Google-Extended Bot zum Crawlen. Integriert in Google-Suche. Websites können über robots.txt steuern, ob Google-Extended Zugriff hat.

KI

GPTBot

Offizieller Crawler von OpenAI für ChatGPT. User-Agent: "GPTBot". Kann in robots.txt blockiert werden: "User-agent: GPTBot" + "Disallow: /". Crawlt Websites, um Trainingsdaten und aktuelle Informationen zu sammeln.

H

Technisch

H1-Tag

Hauptüberschrift einer Seite (Heading 1). Best Practice: genau eine H1 pro Seite, beschreibt das Hauptthema. Wichtig für SEO und AI-Readiness, da Bots H1 als primären Content-Indikator nutzen.

Zugänglichkeit

Heading-Hierarchie

Logische Struktur der Überschriften (H1 → H2 → H3). Keine Ebenen überspringen! Falsch: H1 → H3. Richtig: H1 → H2 → H3. Hilft Bots und Screenreadern, die Inhaltsstruktur zu verstehen.

Technisch

HTML Sitemap

Für Menschen lesbare Übersicht aller Seiten einer Website (meist /sitemap.html). Ergänzt die XML-Sitemap und verbessert die Navigation für Nutzer und Bots.

K

SEO

KI-Sichtbarkeit

Synonym für AI-Readiness. Beschreibt, wie gut eine Website von KI-Suchmaschinen wie ChatGPT, Claude und Perplexity gefunden, verstanden und zitiert wird. Faktoren: Strukturierte Daten (Schema.org), semantisches HTML, Crawlability (robots.txt), Content-Qualität und Barrierefreiheit. Im deutschen Markt der etablierte Begriff für die Optimierung auf KI-Bots.

KI

KI-Suchmaschine

Suchmaschine, die KI nutzt, um Antworten zu generieren statt nur Links zu zeigen. Beispiele: ChatGPT, Claude, Perplexity, Google Gemini. Nutzen Webinhalte, um natürlichsprachliche Antworten zu erstellen.

L

Technisch

Lang-Attribut

HTML-Attribut, das die Sprache einer Seite definiert. Format: <html lang="de">. Hilft Bots und Screenreadern, die richtige Sprache zu erkennen. Wichtig für internationale SEO.

LLM-Sichtbarkeit

llms.txt

Textdatei im Markdown-Format im Root-Verzeichnis einer Website (yourdomain.de/llms.txt). Liefert KI-Systemen wie ChatGPT, Claude und Perplexity strukturierte Informationen über die Website — ähnlich wie robots.txt für Crawler, aber als inhaltliche Beschreibung. 2024 von Jeremy Howard vorgeschlagen, von Anthropic offiziell unterstützt. Aktuell haben weniger als 1% aller Websites eine llms.txt. Mehr dazu im llms.txt Guide.

LLM-Sichtbarkeit

llms-full.txt

Optionale Erweiterung zu llms.txt. Enthält den vollständigen Inhalt der wichtigsten Seiten in einer für LLMs optimierten Form — als eine einzige lesbare Datei. Besonders nützlich für Dokumentationsseiten und Knowledge Bases. Für die meisten Websites ist llms.txt der wichtigere erste Schritt.

KI

LLM (Large Language Model)

Großes Sprachmodell — die KI-Technologie hinter Chatbots wie ChatGPT, Claude und Gemini. LLMs werden auf riesigen Textmengen trainiert und können natürlichsprachliche Texte verstehen und generieren. Basis für KI-Suchmaschinen und AI-Assistenten.

M

SEO

Meta Description

Kurze Beschreibung einer Seite im HTML-Head. Wird in Suchergebnissen angezeigt. Optimal: 150–160 Zeichen. Wichtig für Click-Through-Rate, hilft auch KI-Bots beim Verstehen des Seiteninhalts.

Technisch

Meta-Tag

HTML-Element im <head>, das Metainformationen bereitstellt. Beispiele: description, keywords, robots, viewport. Meta-Tags steuern, wie Bots die Seite behandeln (indexieren/nicht indexieren).

N

Technisch

NOINDEX

Meta-Tag, das Suchmaschinen anweist, eine Seite NICHT zu indexieren. Format: <meta name="robots" content="noindex">. Verhindert, dass die Seite in Suchergebnissen erscheint. Häufiger Fehler bei AI-Readiness!

Technisch

NOFOLLOW

Anweisung an Bots, Links auf einer Seite nicht zu folgen. Als Meta-Tag: <meta name="robots" content="nofollow"> oder Link-Attribut: <a rel="nofollow">. Verhindert Weitergabe von Link-Authority.

O

SEO

Open Graph

Meta-Tags für Social Media Sharing (Facebook, LinkedIn). Format: og:title, og:description, og:image. Steuert, wie Links in sozialen Medien dargestellt werden. Verbessert die Präsentation beim Teilen.

P

KI

Perplexity

KI-Suchmaschine, die Websites mit PerplexityBot crawlt. Spezialisiert auf faktenbasierte Antworten mit Quellenangaben. Zitiert häufig gut strukturierte Websites mit klaren Daten.

R

Technisch

robots.txt

Textdatei im Root-Verzeichnis (/robots.txt), die Crawling-Regeln für Bots definiert. Steuert, welche Bereiche gecrawlt werden dürfen. Kritisch für AI-Readiness: "Disallow: /" blockiert ALLE Bots!

Content

RSS-Feed

XML-Format für Content-Updates (Really Simple Syndication). Ermöglicht automatische Content-Distribution. Hilft Bots, neue Inhalte schnell zu entdecken. Format: application/rss+xml oder application/atom+xml.

S

SEO

Schema.org

Vokabular für strukturierte Daten im Web. Definiert Typen wie Article, Product, Organization. Wird in JSON-LD, Microdata oder RDFa eingebettet. Essentiell für AI-Readiness — hilft Bots, Inhalte semantisch zu verstehen.

SEO

SEO (Search Engine Optimization)

Optimierung einer Website für Suchmaschinen. Umfasst On-Page (Content, Meta-Tags, Struktur) und Off-Page (Backlinks) Maßnahmen. Grundlage für AI-Readiness, aber KI-Optimierung geht darüber hinaus (strukturierte Daten, semantisches HTML).

Technisch

Sitemap

XML-Datei, die alle URLs einer Website auflistet (meist /sitemap.xml). Hilft Suchmaschinen, Seiten zu finden und zu indexieren. Wird in robots.txt oder Google Search Console eingereicht. Wichtig für vollständige Indexierung.

Strukturierte Daten

Strukturierte Daten

Maschinenlesbare Daten im Code, die Inhalte semantisch beschreiben. Formate: JSON-LD (bevorzugt), Microdata, RDFa. Nutzt Schema.org Vokabular. Ermöglicht Rich Snippets in Suchmaschinen und besseres KI-Verständnis.

T

SEO

Title-Tag

Titel einer Seite im HTML-Head. Wird in Browser-Tabs und Suchergebnissen angezeigt. Optimal: 50–60 Zeichen. Wichtigster On-Page SEO-Faktor. Sollte Hauptkeyword enthalten und zum Klicken anregen.

U

Technisch

User-Agent

Kennung, die ein Bot oder Browser sendet. Beispiele: "Googlebot", "GPTBot", "ClaudeBot". In robots.txt verwendet, um spezifische Bots zu steuern. Wichtig: Jeden Bot einzeln in robots.txt definieren!

W

Technisch

Wildcards (*)

Platzhalter in robots.txt für mehrere URLs. User-agent: * = alle Bots. Disallow: /*.pdf = alle PDF-Dateien. Nützlich für effiziente Crawling-Regeln.

X

Technisch

XML Sitemap

Maschinelles Sitemap-Format für Suchmaschinen (/sitemap.xml). Enthält URLs, letzte Änderung, Priorität. Hilft Bots, alle Seiten zu finden. Sollte in robots.txt verlinkt werden: "Sitemap: https://example.com/sitemap.xml"