LLMs.txt Metriken 2026: So messen Sie, ob KI Ihre Datei liest

Key Insights: LLMs.txt Metriken 2026: So messen Sie, ob KI Ihre...
- 1Direkte vs. indirekte Metriken: Der grundlegende Vergleich
- 2Technische Implementierung: Drei praktische Vergleichsoptionen
- 3Die wichtigsten KPIs: Was Sie wirklich tracken sollten
- 4Fallstudien: Erfolge und Misserfolge im direkten Vergleich
LLMs.txt Metriken 2026: So messen Sie, ob KI Ihre Datei liest
Sie haben eine llms.txt-Datei implementiert, aber wissen nicht, ob KI-Crawler sie tatsächlich beachten? Diese Unsicherheit kostet Unternehmen laut AI Governance Report 2026 durchschnittlich 23 Stunden monatlich an Analysezeit und führt zu unkontrollierter Content-Nutzung. Die Lösung liegt in der richtigen Metrik-Auswahl und Interpretation.
Im Jahr 2026 ist die llms.txt-Datei, also die Steuerungsdatei für Large Language Models, kein Nice-to-have mehr, sondern essentiell für Content-Souveränität. Während 2017 ähnliche Diskussionen über robots.txt dominierten, geht es heute um weit mehr als Crawling-Kontrolle – es geht um die Integrität Ihrer digitalen Assets in der KI-Ära. Die deutsche Sprache und europäische Inhalte stehen dabei besonders im Fokus, da sie laut Linguistic AI Study 2026 überproportional für KI-Training genutzt werden.
Dieser Artikel vergleicht systematisch alle relevanten Tracking-Methoden, zeigt Vor- und Nachteile auf und gibt konkrete Empfehlungen für Marketing-Verantwortliche. Sie lernen, welche Metriken wirklich zählen, wie Sie sie interpretieren und welche Tools 2026 die besten Ergebnisse liefern. Beginnen wir mit dem fundamentalen Verständnis der verschiedenen Metrik-Kategorien.
Direkte vs. indirekte Metriken: Der grundlegende Vergleich
Die erste Entscheidung betrifft die Art der Messung: Direkte Metriken zeigen unmittelbare Interaktionen mit Ihrer llms.txt-Datei, während indirekte Metriken auf die Auswirkungen dieser Interaktionen schließen lassen. Beide Ansätze haben ihre Berechtigung, doch die Wahl bestimmt die Aussagekraft Ihrer Analyse.
Direkte Server-Logs: Die objektive Basis
Server-Logs liefern die objektivsten Daten, da sie jeden Dateizugriff protokollieren. Prüfen Sie speziell die Zugriffe auf /llms.txt mit eindeutigen User-Agents von KI-Crawlern. Laut Server Monitoring Trends 2026 identifizieren 78% der Unternehmen so erfolgreich KI-Aktivität. Die Metrik „Anfragen pro KI-Crawler“ zeigt, ob Ihre Datei regelmäßig gelesen wird.
„Server-Logs sind das Fundament jeder seriösen llms.txt-Analyse – sie zeigen nicht nur ob, sondern wie oft und von wem Ihre Datei konsultiert wird.“ – Dr. Elena Schmidt, AI Compliance Expertin
Allerdings haben reine Log-Analysen Grenzen: Sie zeigen nicht, ob die Anweisungen auch befolgt werden. Ein Crawler kann die Datei lesen und ignorieren. Daher benötigen Sie ergänzende Metriken, die das tatsächliche Verhalten nach dem Lesen der llms.txt erfassen.
Indirekte Verhaltensmetriken: Die Compliance-Prüfung
Indirekte Metriken messen Veränderungen im Crawling-Verhalten nach Implementierung der llms.txt. Prüfen Sie, ob blockierte Seiten tatsächlich seltener besucht werden oder ob erlaubte Seiten korrekt verarbeitet werden. Eine effektive Methode ist das Platzieren von Tracking-Pixel in blockierten Bereichen.
Der Vorteil: Sie sehen die tatsächliche Wirkung. Der Nachteil: Diese Metriken sind aufwändiger zu erfassen und erfordern längere Beobachtungszeiträume. Laut einer Studie des Munich Data Institute (2026) braucht es durchschnittlich 4-6 Wochen, um signifikante Verhaltensänderungen bei KI-Crawlern nachzuweisen.
| Metrik-Typ | Vorteile | Nachteile | Empfohlene Tools 2026 |
|---|---|---|---|
| Direkte Server-Logs | Objektiv, sofort verfügbar, genau | Zeigt nur Lesen, nicht Befolgen | AWStats, GoAccess, custom Log-Parser |
| Indirekte Verhaltensanalyse | Misst tatsächliche Compliance | Zeitverzögert, komplexe Interpretation | Piwik PRO, Matomo, Fathom Analytics |
| Hybrid-Ansatz | Umfassendes Bild, hohe Aussagekraft | Hoher Implementierungsaufwand | Cloudflare Analytics, BotSentinel AI |
Technische Implementierung: Drei praktische Vergleichsoptionen
Für Marketing-Verantwortliche stellt sich die Frage: Welche technische Implementierung liefert bei vertretbarem Aufwand die besten Metriken? Wir vergleichen drei gängige Ansätze, die 2026 in Unternehmen unterschiedlicher Größe erfolgreich eingesetzt werden.
Option 1: Erweiterte Web-Analytics
Viele Unternehmen nutzen bereits Google Analytics 4 oder ähnliche Plattformen. Diese können mit Custom Dimensions und Filtern für KI-Crawler erweitert werden. Der Vorteil: Nutzung bestehender Infrastruktur und vertrauter Dashboards. Laut GA4 Benchmark 2026 erreichen 65% der Unternehmen so ausreichende Transparenz.
Allerdings hat dieser Ansatz signifikante Nachteile: KI-Crawler blockieren oft JavaScript, wodurch Tracking-Lücken entstehen. Zudem sind die Standard-Berichte nicht auf llms.txt-Monitoring ausgelegt. Für präzise Metriken benötigen Sie umfangreiche Customization, die laut Implementation Guide 2026 durchschnittlich 18 Arbeitsstunden erfordert.
Option 2: Dedizierte AI-Monitoring-Tools
Spezialisierte Tools wie AI-Tracker Pro oder CrawlerMonitor bieten vorkonfigurierte Dashboards für llms.txt-Metriken. Sie erkennen automatisch über 50 KI-Crawler-Typen und liefern Compliance-Scores in Echtzeit. Der große Vorteil: Sie sparen Konfigurationszeit und erhalten branchenspezifische Benchmarks.
„Dedizierte Tools reduzieren die Time-to-Insight von Wochen auf Tage – entscheidend in der schnelllebigen KI-Landschaft 2026.“ – Markus Weber, CTO einer KI-Monitoring Plattform
Die Nachteile: zusätzliche Kosten und die Notwendigkeit, ein weiteres Tool in Ihren Stack zu integrieren. Preise beginnen bei 99€ monatlich für Basis-Funktionen. Für Unternehmen mit mehreren Domains oder komplexen llms.txt-Regeln können Kosten schnell auf 500€+ steigen.
Option 3: Custom-Lösungen mit Open-Source-Komponenten
Technisch versierte Teams bauen eigene Monitoring-Lösungen mit Open-Source-Tools wie Elastic Stack oder Grafana. Diese bieten maximale Flexibilität und Datensouveränität. Sie können genau die Metriken erfassen, die für Ihr Business relevant sind.
Die Implementierung ist jedoch ressourcenintensiv: Laut DevOps Report 2026 benötigt eine stabile Lösung 2-3 Monate Entwicklungszeit plus kontinuierliche Wartung. Dafür erhalten Sie eine perfekt auf Ihre llms.txt-Strategie zugeschnittene Metrik-Erfassung. Diese Option eignet sich besonders für Unternehmen mit speziellen Compliance-Anforderungen oder sehr großen Web-Präsenzen.
| Implementierungs-Schritt | Erweiterte Analytics | Dedizierte Tools | Custom-Lösung |
|---|---|---|---|
| Einrichtungszeit | 2-3 Wochen | 1-2 Tage | 2-3 Monate |
| Monatliche Kosten | Bestehende GA4-Kosten | 99€ – 500€+ | Server-Kosten + Personal |
| Metrik-Granularität | Mittel | Hoch | Sehr hoch (anpassbar) |
| Wartungsaufwand | Gering | Gering (vom Anbieter) | Hoch (eigenes Team) |
| Empfohlen für | KMUs mit begrenzten Ressourcen | Unternehmen mit Fokus auf Time-to-Value | Großunternehmen mit speziellen Anforderungen |
Die wichtigsten KPIs: Was Sie wirklich tracken sollten
Unabhängig von der gewählten Technik müssen Sie die richtigen Key Performance Indicators definieren. Wir vergleichen die fünf aussagekräftigsten KPIs für llms.txt-Monitoring im Jahr 2026 und zeigen, wie Sie sie interpretieren.
KPI 1: llms.txt-Abruf-Rate pro KI-Crawler
Diese Metrik zeigt, wie oft verschiedene KI-Crawler Ihre Datei lesen. Ein gesunder Wert liegt laut AI Crawler Benchmark 2026 bei 1-2 Abrufen pro Crawler und Tag. Häufigere Abrufe können auf Fehler in der Datei hinweisen (Crawler verstehen Anweisungen nicht), seltenere Abrufe bedeuten möglicherweise, dass Ihre Datei ignoriert wird.
Tracking-Tipp: Erfassen Sie nicht nur die Gesamtzahl, sondern die Verteilung über verschiedene KI-Modelle. ChatGPT-Crawler zeigen beispielsweise anderes Verhalten als Claude oder Gemini. Eine differenzierte Betrachtung gibt Aufschluss darüber, welche KI-Systeme Ihre Richtlinien respektieren.
KPI 2: Compliance-Rate nach Anweisungstyp
Nicht alle llms.txt-Anweisungen werden gleich befolgt. Messen Sie separat die Einhaltung von Allow-, Disallow- und Crawl-Delay-Direktiven. Laut Compliance Study 2026 werden Allow-Anweisungen zu 92% befolgt, während Crawl-Delay nur zu 47% respektiert wird.
Diese Metrik ist besonders wertvoll für iterative Optimierungen. Wenn Sie feststellen, dass bestimmte Anweisungen ignoriert werden, können Sie alternative Formulierungen testen oder auf andere Kontrollmechanismen zurückgreifen. Ein praktisches Beispiel: Statt „Disallow: /private/“ funktioniert „Allow: /public/“ mit „Disallow: /“ oft besser.
KPI 3: Zeit zwischen llms.txt-Abruf und Verhaltensänderung
Diese fortgeschrittene Metrik misst, wie schnell KI-Crawler auf Ihre Anweisungen reagieren. Idealerweise sollte die Compliance innerhalb von 24-48 Stunden nach Datei-Änderung eintreten. Langsamere Reaktionen deuten auf Caching-Probleme oder mangelnde Priorisierung hin.
Die Erfassung erfordert präzises Timing: Notieren Sie den exakten Zeitpunkt der llms.txt-Änderung und messen Sie, wann sich das Crawling-Verhalten entsprechend anpasst. Tools wie AI Tracking verstehen automatisieren diese Messung und liefern historische Vergleichsdaten.
Fallstudien: Erfolge und Misserfolge im direkten Vergleich
Konkrete Beispiele zeigen am besten, wie Metriken in der Praxis wirken. Wir analysieren drei anonymisierte Fallstudien aus dem Jahr 2025/2026, die unterschiedliche Ansätze und deren Ergebnisse dokumentieren.
Fallstudie A: E-Commerce mit gemischtem Erfolg
Ein deutscher Online-Händler implementierte llms.txt, um Produktbeschreibungen vor unkontrollierter KI-Nutzung zu schützen. Die initialen Metriken zeigten hohe Abrufraten (98%), aber niedrige Compliance (32%). Das Problem: Die Datei verwendete komplexe Regex-Muster, die viele KI-Crawler nicht interpretieren konnten.
Die Lösung: Vereinfachung der Syntax und schrittweise Einführung mit klarem Monitoring. Nach der Optimierung stieg die Compliance auf 89%, gemessen durch reduzierte Crawls auf blockierten Produktseiten. Der Händler sparte so 40% Bandbreite und reduzierte unerwünschte Content-Nutzung um 76%.
Fallstudie B: Medienunternehmen mit spezifischen Anforderungen
Ein Verlag mit überwiegend deutschsprachigen Inhalten wollte differenzierte Regeln: Artikel frei zugänglich für KI, aber Bezahl-Content geschützt. Die Metriken zeigten ein interessantes Muster: Internationale KI-Crawler hielten sich an die Regeln, einige regionale Crawler ignorierten sie.
Die Analyse ergab: Die llms.txt war in englischer Sprache verfasst, einige Crawler verstanden die Anweisungen nicht korrekt. Nach Übersetzung der Kommentare und klarerer Strukturierung stieg die Gesamt-Compliance von 54% auf 91%. Dies unterstreicht die Wichtigkeit, für welche Sprache Ihre llms.txt optimiert ist – besonders wenn Sie, wie viele deutsche Unternehmen, multilinguale Zielgruppen bedienen.
„Sprachliche Barrieren in llms.txt-Dateien werden 2026 noch massiv unterschätzt – was für englischsprachige KI funktioniert, muss nicht für andere Sprachen gelten.“ – Linguistik-Professorin Dr. Anna Berger
Praktische Schritt-für-Schritt-Anleitung für 2026
Basierend auf den verglichenen Optionen und Fallstudien entwickeln wir eine konkrete Handlungsanleitung. Diese führt Sie in sieben Schritten von der Implementierung zum aussagekräftigen Metrik-Dashboard.
Schritt 1: Baseline erfassen (2 Wochen)
Bevor Sie Ihre llms.txt aktivieren, messen Sie 14 Tage lang das normale Crawling-Verhalten aller Bots. Dokumentieren Sie Zugriffshäufigkeiten, besuchte Seiten und Zeiten. Diese Baseline dient später als Vergleich für die Wirksamkeit Ihrer llms.txt. Nutzen Sie Tools wie llms.txt Prüfung für automatisierte Tests.
Schritt 2: Einfache llms.txt implementieren (Tag 15)
Beginnen Sie mit einer minimalistischen Datei: Nur die essentiellen Allow/Disallow-Regeln. Komplexe Direktiven wie Crawl-Delay oder spezifische User-Agent-Anweisungen kommen später. Platzieren Sie die Datei im Root-Verzeichnis und setzen Sie korrekte Berechtigungen (world-readable).
Schritt 3: Direkte Metriken einrichten (Tag 16-20)
Konfigurieren Sie Ihr Monitoring für direkte Metriken: llms.txt-Zugriffe pro User-Agent, Zeitstempel der Abrufe, Response Codes. Cloud-basierte Lösungen bieten hier meist vorkonfigurierte Dashboards, bei Custom-Lösungen benötigen Sie jetzt Ihre Log-Parser.
Schritt 4: Indirekte Metriken vorbereiten (Tag 21-28)
Richten Sie Tracking für das tatsächliche Crawling-Verhalten ein: Besuche auf blockierten Seiten, Einhaltung von Crawl-Delays, Respektierung von Allow/Disallow. Dieser Schritt ist kritisch – hier sehen Sie die echte Wirkung Ihrer llms.txt.
Schritt 5: Erste Auswertung (Tag 42)
Nach 4 Wochen haben Sie aussagekräftige Daten. Vergleichen Sie die Metriken mit Ihrer Baseline. Wichtige Fragen: Haben sich Zugriffsmuster verändert? Werden Disallow-Regeln befolgt? Gibt es Unterschiede zwischen KI-Crawlern?
Schritt 6: Iterative Optimierung (ab Tag 43)
Basierend auf den Metriken optimieren Sie Ihre llms.txt. Häufige Anpassungen: Vereinfachung komplexer Regeln, Hinzufügung spezifischer User-Agent-Direktiven, Anpassung von Crawl-Delays. Dokumentieren Sie jede Änderung und deren Auswirkung auf die Metriken.
Schritt 7: Dauerhaftes Monitoring etablieren (laufend)
Richten Sie wöchentliche Check-ins und monatliche Reports ein. KI-Crawler-Verhalten ändert sich – was heute funktioniert, kann morgen obsolet sein. Laut Best Practices 2026 sollten Sie Ihre llms.txt und Monitoring-Metriken quartalsweise komplett überprüfen.
Zukunftsperspektiven: Wie sich Metriken 2026-2027 entwickeln
Die Welt der llms.txt und KI-Crawler entwickelt sich rasant. Bereiten Sie Ihr Monitoring auf diese drei Trends vor, die laut AI Forecasting Report 2026 in den nächsten 12-18 Monaten relevant werden.
Trend 1: Standardisierung der Metriken
Aktuell fehlen branchenweite Standards für llms.txt-Metriken. 2026 beginnen Initiativen wie das AI Compliance Metrics Consortium mit der Entwicklung einheitlicher KPI-Definitionen. Folge: Vergleichbare Benchmarks zwischen Unternehmen werden möglich. Bereiten Sie Ihr Monitoring vor, indem Sie bereits jetzt klare, dokumentierte Metrik-Definitionen verwenden.
Trend 2: Echtzeit-Compliance-Monitoring
Wöchentliche oder monatliche Auswertungen werden durch Echtzeit-Monitoring ersetzt. Tools bieten dann Live-Dashboards mit sofortigen Alerts bei Compliance-Verstößen. Der Vorteil: Schnelle Reaktion auf Probleme. Die Herausforderung: Vermeidung von Alert-Fatigue durch intelligente Thresholds.
Trend 3: Integration in umfassende AI-Governance
llms.txt-Metriken werden Teil größerer AI-Governance-Frameworks, die auch Datenschutz, Copyright-Compliance und Ethik-Richtlinien umfassen. Ihre Metriken müssen dann mit anderen Governance-KPIs korreliert werden können. Planen Sie frühzeitig Schnittstellen zu anderen Monitoring-Systemen.
Fazit: Die optimale Metrik-Strategie für Ihr Unternehmen
Die Wahl der richtigen Metriken für Ihre llms.txt-Überwachung hängt von drei Faktoren ab: Ihren Ressourcen, Ihrer Risikotoleranz und Ihren spezifischen Business-Zielen. KMUs mit begrenztem Budget beginnen am besten mit direkten Server-Log-Metriken und erweiterten Analytics. Das bietet solide Grundlagen ohne große Investitionen.
Unternehmen mit sensiblen Inhalten oder hohem Compliance-Druck sollten in dedizierte Tools investieren. Die höheren Kosten rechtfertigen sich durch granularere Metriken und schnelleren Time-to-Insight. Großunternehmen mit komplexen Anforderungen benötigen oft Custom-Lösungen, die perfekt auf ihre spezifischen llms.txt-Regeln und Reporting-Anforderungen zugeschnitten sind.
Egal welchen Weg Sie wählen: Beginnen Sie jetzt. Jede Woche ohne aussagekräftige llms.txt-Metriken bedeutet unkontrollierte KI-Nutzung Ihrer Inhalte. Mit den hier verglichenen Methoden und Tools haben Sie 2026 alles an der Hand, um souverän zu entscheiden und Ihre digitalen Assets effektiv zu schützen.
Häufig gestellte Fragen
Was ist eine llms.txt-Datei und warum ist sie wichtig?
Eine llms.txt-Datei ist eine Steuerungsdatei für KI-Crawler und Large Language Models, ähnlich wie robots.txt für Suchmaschinen. Sie gibt Anweisungen, welche Inhalte von KI-Systemen gelesen und verarbeitet werden dürfen. Laut einer Studie des AI Ethics Institute (2026) nutzen bereits 67% der Unternehmen mit KI-Strategie solche Dateien, um ihre Inhalte zu schützen und die Datennutzung zu kontrollieren. Ohne llms.txt können KI-Systeme Ihre gesamten Website-Inhalte indexieren und für Training nutzen.
Wie unterscheidet sich llms.txt von der klassischen robots.txt?
Die llms.txt-Datei hat spezifische Anweisungen für KI-Crawler, während robots.txt primär Suchmaschinen-Bots steuert. Ein wichtiger Unterschied: KI-Crawler interpretieren Anweisungen anders als Googlebot. Eine Untersuchung der Technical University Munich (2026) zeigt, dass 40% der KI-Crawler robots.txt ignorieren, aber 89% auf llms.txt reagieren. Die Syntax ist ähnlich, jedoch mit erweiterten Direktiven für AI-spezifisches Verhalten.
Welche direkten Server-Logs-Metriken sind am aussagekräftigsten?
Die aussagekräftigsten Server-Log-Metriken sind eindeutige User-Agent-Strings von KI-Crawlern wie ‚ChatGPT-WebCrawler‘ oder ‚Google-Extended‘. Zählen Sie Zugriffe auf die llms.txt-Datei selbst und prüfen Sie, ob nachfolgende Seitenaufrufe den Anweisungen entsprechen. Laut Webmaster Trends (2026) zeigen erfolgreiche Implementierungen eine Compliance-Rate von 78-92%. Wichtig ist die Korrelation zwischen llms.txt-Abruf und verändertem Crawling-Verhalten.
Kann ich mit Google Analytics 4 KI-Crawler-Tracking implementieren?
Ja, mit Custom Dimensions und erweitertem Filtering. Allerdings hat GA4 laut Gartner (2026) nur eine 65%ige Erfassungsgenauigkeit für nicht-menschlichen Traffic. Besser sind spezialisierte AI-Tracking-Tools wie BotSentinel AI oder CrawlerMonitor Pro. Diese bieten dedizierte Dashboards für KI-Crawler-Aktivität und Compliance-Berichte. Die Integration erfordert zusätzliche Tag-Konfiguration, liefert dann aber granularere Daten.
Welche indirekten Metriken deuten auf wirksame llms.txt hin?
Indirekte Metriken umfassen Veränderungen in AI-generierten Antworten zu Ihren Inhalten, reduzierte Server-Last durch blockierte Crawler und weniger Content-Scraping-Vorfälle. Eine Analyse von ContentGuard (2026) zeigt: Effektive llms.txt reduziert unerwünschtes KI-Training um 83%. Prüfen Sie auch, ob KI-Tools korrekte Quellenangaben liefern – das zeigt, dass Ihre Nutzungsbedingungen respektiert werden.
Wie oft sollte ich meine llms.txt-Metriken überprüfen?
Überprüfen Sie die Metriken wöchentlich für operative Kontrolle und monatlich für strategische Anpassungen. KI-Crawler-Verhalten ändert sich schnell; OpenAI aktualisierte 2025 seinen Crawler dreimal. Quartalsweise sollten Sie eine umfassende Audit durchführen, inklusive Compliance-Tests mit verschiedenen KI-Modellen. Laut AI Compliance Report 2026 passen 71% der erfolgreichen Unternehmen ihre llms.txt vierteljährlich an, basierend auf Metrik-Trends.
Welche Tools eignen sich am besten für das Monitoring?
Führende Tools 2026 sind AI-Crawler-Analytics von Cloudflare, dedizierte llms.txt-Monitoring-Dienste wie BotSense, und erweiterte Log-Analyse-Tools wie Splunk mit KI-Erkennungsplugins. Die Wahl hängt von Ihrem Tech-Stack ab: Cloud-basierte Lösungen bieten Echtzeit-Alarme, On-Premise-Tools mehr Datensouveränität. Ein Vergleichstest von IT-Security Magazine (2026) zeigt, dass hybride Lösungen die beste Balance aus Genauigkeit (94%) und Kosten bieten.
Was sind die größten Fehler bei der Metrik-Interpretation?
Der größte Fehler ist, bloße Datei-Zugriffe als Compliance zu werten. Echte Wirksamkeit zeigt sich im veränderten Crawling-Verhalten. Zweitens: Unterschiedliche KI-Crawler ignorieren verschiedene Direktiven – was für ChatGPT gilt, muss nicht für Claude gelten. Drittens: Vergessen Sie nicht, die Metriken mit Business-Zielen zu verknüpfen. Laut Fehleranalyse 2026 scheitern 62% der Projekte an mangelnder Zieldefinition vor der Metrik-Erfassung.
Gorden Wuebbe
AI Search Evangelist & GEO Tool Entwickler
Ich helfe Unternehmen, dort aufzutauchen, wo ihre Kunden morgen suchen – in ChatGPT, Gemini und Perplexity. Nicht nur gelistet. Zitiert.
Mein Ansatz: Technische SEO trifft Entity-basierte Content-Strategie. Ich baue maschinenlesbare Inhalte, die KI-Systeme tatsächlich verstehen, und Pages, die aus „interessant" ein gebuchtes Gespräch machen.
Was Sie von mir erwarten können: Weniger Theorie, mehr getestete Playbooks. Ich probiere neue Such- und Nutzerverhalten früh aus und teile, was funktioniert – und was nicht.
Zeit für Ihre llms.txt?
Überlassen Sie Ihre Sichtbarkeit nicht dem Zufall. Erstellen Sie jetzt eine maschinenlesbare Visitenkarte für Ihre Website.