llms.txt für Next.js, Nuxt und Astro: Framework-Guide 2026
Key Insights: llms.txt für Next.js, Nuxt und Astro:...
- 1Maximal 50 Einträge: KI-Crawler verarbeiten kompakte Dateien besser. Priorisieren Sie die wichtigsten 50 Seiten.
- 2Beschreibungen in einem Satz: Jeder Link braucht eine knappe Erklärung. KI nutzt diese Beschreibung als Kontext.
- 3Dynamisch generieren: Wenn Ihr Content sich ändert, sollte sich die llms.txt automatisch aktualisieren. Hardcoded Dateien veralten.
- 4robots.txt ergänzen: Verweisen Sie in Ihrer robots.txt auf die llms.txt: Llms-Txt: /llms.txt
WordPress und Shopify haben Plugins für llms.txt. Aber was ist mit modernen Frameworks? Next.js, Nuxt und Astro — drei der meistgenutzten Web-Frameworks 2026 — brauchen eine manuelle Implementation. Hier ist die Anleitung für alle drei.
Was ist llms.txt und warum braucht Ihr Framework das?
llms.txt ist eine Datei im Root-Verzeichnis Ihrer Website, die KI-Crawlern (ChatGPT, Perplexity, Claude) strukturiert erklärt, worum es auf Ihrer Seite geht. Ohne llms.txt muss die KI Ihre gesamte Website parsen — mit llms.txt bekommt sie eine kuratierte Zusammenfassung.
Next.js: llms.txt als Static File
// Methode 1: Datei in /public/llms.txt ablegen
// Automatisch unter yourdomain.com/llms.txt erreichbar
// Methode 2: Dynamisch via Route Handler (app/llms.txt/route.ts)
export async function GET() {
const content = `# Firmenname
> Kurzbeschreibung in einem Satz
## Produkte
- [Produkt A](/produkt-a): Beschreibung
- [Produkt B](/produkt-b): Beschreibung
## Blog
- [Neuester Artikel](/blog/artikel): Zusammenfassung
`;
return new Response(content, {
headers: { 'Content-Type': 'text/plain; charset=utf-8' },
});
}
Vorteil von Methode 2: Sie können die llms.txt dynamisch aus Ihrem CMS oder Ihrer Datenbank generieren — neue Blog-Artikel erscheinen automatisch.
Nuxt 3: Server Route für llms.txt
// server/routes/llms.txt.ts
export default defineEventHandler(() => {
const content = `# Firmenname
> Beschreibung
## Seiten
- [Startseite](/): Hauptangebot
- [Blog](/blog): Fachartikel
`;
setResponseHeader(event, 'Content-Type', 'text/plain');
return content;
});
Astro: llms.txt als Static Endpoint
// src/pages/llms.txt.ts
export async function GET() {
const content = `# Firmenname
> Beschreibung
## Inhalte
- [Startseite](/): Überblick
- [Docs](/docs): Dokumentation
`;
return new Response(content, {
headers: { 'Content-Type': 'text/plain; charset=utf-8' },
});
}
Best Practices für alle Frameworks
- Maximal 50 Einträge: KI-Crawler verarbeiten kompakte Dateien besser. Priorisieren Sie die wichtigsten 50 Seiten.
- Beschreibungen in einem Satz: Jeder Link braucht eine knappe Erklärung. KI nutzt diese Beschreibung als Kontext.
- Dynamisch generieren: Wenn Ihr Content sich ändert, sollte sich die llms.txt automatisch aktualisieren. Hardcoded Dateien veralten.
- robots.txt ergänzen: Verweisen Sie in Ihrer robots.txt auf die llms.txt:
Llms-Txt: /llms.txt
Validierung: Funktioniert Ihre llms.txt?
Nach dem Deployment prüfen Sie:
curl -s https://ihre-domain.de/llms.txt— Gibt es eine Antwort mit Status 200?- Content-Type:
text/plain? - Markdown-Formatierung korrekt? (# Überschriften, – Listen, > Zitate)
Automatisch prüfen lassen: Der llms.txt Generator validiert Ihre Datei und zeigt Verbesserungsvorschläge. Oder testen Sie Ihre gesamte AI-Sichtbarkeit mit dem kostenlosen GEO Audit.
Gorden Wuebbe
AI Search Evangelist & GEO Tool Entwickler
Ich helfe Unternehmen, dort aufzutauchen, wo ihre Kunden morgen suchen – in ChatGPT, Gemini und Perplexity. Nicht nur gelistet. Zitiert.
Mein Ansatz: Technische SEO trifft Entity-basierte Content-Strategie. Ich baue maschinenlesbare Inhalte, die KI-Systeme tatsächlich verstehen, und Pages, die aus „interessant" ein gebuchtes Gespräch machen.
Was Sie von mir erwarten können: Weniger Theorie, mehr getestete Playbooks. Ich probiere neue Such- und Nutzerverhalten früh aus und teile, was funktioniert – und was nicht.
Zeit für Ihre llms.txt?
Überlassen Sie Ihre Sichtbarkeit nicht dem Zufall. Erstellen Sie jetzt eine maschinenlesbare Visitenkarte für Ihre Website.