Die technische Suchmaschinenoptimierung stellt einen Teilbereich der allgemeinen Suchmaschinenoptimierung dar. Mit ihr wird dafür Sorge getragen, dass Suchmaschinen-Crawler auf Websites zugreifen können und diese bestmöglich lesen sowie verstehen können. Schwerwiegende Fehler und starke Rankingverluste (auch kurzfristiger Art) sind oftmals auf technische Probleme zurückzuführen.
Patricks Meinung:
Ohne ein profundes technisches Verständnis, können viele technische Optimierungspotenziale nicht identifiziert oder optimiert werden. Die technische Grundbasis spielt dabei bereits bei der Planung einer Website eine wichtige Rolle und ist mitentscheidend für den Erfolg im Google Ranking.
Technical SEO Tools
Ob eine Seite technische Probleme aufweist, kannst du über die Google Search Console oder die Bing Webmaster Tools erfahren. Diese Tools sind kostenfrei und machen unter anderem auf technische Probleme aufmerksam. Helfen können hierbei auch Google Lighthouse, PageSpeed Insights oder die Tests für Mobile-Friendly und Rich-Suchergebnisse.
Die gängigen SEO-Tools wie Semrush, Searchmetrics oder Sistrix liefern Hinweise und Warnungen, sofern den Crawlern etwas Verdächtiges auffällt. Jedoch können nicht alle Probleme von Maschinen erkannt werden und häufig liefern Tools aufgrund von Missverständnissen falsche Handlungsempfehlungen.
Die beste und gründlichste Methode ist ein geschulter, detaillierter Blick. Hierfür eigenen sich Tools wie der Screaming Frog. Mit diesem lässt sich ein Crawler simulieren und so allerlei technische Mängel feststellen.
Technische Optimierungspotenziale
Viele der heutigen Content Management Systeme und zugehörige Plugins sorgen bereits für eine solide technische Basis. Viele Fehler werden automatisch verbessert und einige Tools bieten Hinweise, mit denen sich durch Knopfdruck Probleme schnell und effektiv beheben lassen.
Im Folgenden findest du eine Auflistung von Schlagworten und Bereichen, die bei der technischen Suchmaschinenoptimierung beachtet werden sollten.
- Sicherheit: Vermeide mixed-content und sorge dafür, dass deine Website über HTTPS aufrufbar ist.
- Crawling: Prüfe die robots.txt und achte darauf, dass die verschiedenen Crawler auf alles Notwendige Zugriff haben.
- Sitemap.xml: Mindestens eine funktionierende XML-Sitemap gehört zu jeder Website.
- Ladegeschwindigkeit: Ein Rankingfaktor, der besonders viel Aufmerksamkeit erhalten sollte.
- Meta-Daten: Eine falsche Implementierung sorgt für völlig falsche Signale. Achte auf eine korrekte Steuerung der Crawler.
- URL-Architektur: Sprechende URLs und eine durchdachte Eltern-Kind-Struktur spielen eine wichtige Rolle.
- Strukturierte Daten: Mit dem richtigen Markup hilft man den Suchmaschinen den Inhalt noch besser zu verstehen.
- Statuscodes: Mit falschen Statuscodes riskiert man Rankingverluste.
- Canonical-Tags: Wichtig, um Crawler auf doppelte Inhalte bzw. die originalen Ressourcen aufmerksam zu machen.
- Optimierung der Medien: Achte auf sinnvolle Dateinamen und Dateigrößen und zeichne Medien entsprechend aus.
- Server: Ausreichend Leistung, keine Limitierungen und vor allem eine korrekte Serverkonfiguration sind unerlässlich.
- Quellcode: „Einfacher“ Quellcode nach aktuellem Standard sorgen für ein besseres Verständnis und eine hohe Qualität.