Technische Suchmaschinenoptimierung

Ohne eine vernünftige Suchmaschinenoptimierung (SEO) ist deine Website zu einem Schattendasein im Internet verdammt. Um dies zu verhindern, zeige ich dir die grundlegenden Schritte, die du unternehmen musst, um deine Website auf die vorderen Plätze der Suchmaschinenergebnisse zu bringen. Dabei achte ich sowohl auf die leichte Nachvollziehbarkeit als auch auf die nachhaltige Wirkung der behandelten Vorgehensweisen. Du lernst die wichtigsten Rankingfaktoren, die Auswahl der richtigen Keywords, On- und Offpage-Optimierung und vieles mehr in meinen Blogbeiträgen über Suchmaschinenoptimierung (SEO). Eine Einführung in die Erfolgsmessung rundet die Blogreihe ab. 

In diesem speziellen Blogbeitrag geht es nun um die Technische Suchmaschinenoptimierung. Wenn du die anderen Teile der Blogreihe über Suchmaschinenoptimierung lesen willst, diese findest du HIER. 

Was ist technische Suchmaschinenoptimierung?

Die technische Suchmaschinenoptimierung ist neben deinen Inhalten und den Links zu deiner Website der dritte wichtige Teilbereich der SEO. Sie stellt das Fundament dar, auf dem die anderen Disziplinen wie die Onpage- und Offpage-Optimierung, sprich gute Inhalte und Links, aufbauen.

Selbst wenn deine Inhalte exzellent sind, könnten sie übersehen werden, wenn Google Schwierigkeiten hat, darauf zuzugreifen und sie zu interpretieren. Das bedeutet, wenn es Probleme beim Crawlen und Indexieren gibt, werden deine Inhalte möglicherweise nicht in den Google-Index aufgenommen.

Folglich, wenn deine Inhalte nicht im Index sind, werden sie auch nicht in der Google-Suche angezeigt und können nicht gefunden werden. Die technische Suchmaschinenoptimierung beschäftigt sich intensiv mit dem Quellcode deiner Website und der Serverkonfiguration.

In diesem Abschnitt gehen wir auf die wichtigsten Grundlagen und Steuerelemente ein, die die Grundvoraussetzung dafür sind, dass deine weiteren SEO-Maßnahmen erfolgreich sein können. Es ist entscheidend, diese Aspekte zu verstehen, um sicherzustellen, dass deine Website optimal für Suchmaschinen aufgestellt ist.

Blogbeitrag zum Thema Technische Suchmaschinenoptimierung SEO

Technische Unterstützung für Crawling und Indexierung

Wenn Besucher auf deine Website kommen, orientieren sie sich in der Regel visuell. Sie navigieren durch die Menüs, lesen die Inhalte und erhalten zusätzliche Informationen zu deinem Angebot durch Bilder und möglicherweise Videos.

Für Suchmaschinenroboter ist die Sichtweise etwas anders. Sie durchsuchen den Quelltext deiner Website und erfassen dabei die Inhalte. Wenn du F12 auf einer Website drückst, siehst du, dass die Internetwelt für Bots anders aussieht als für menschliche Besucher.

Du kannst Bots beim Crawlen und Indexieren deiner Website unterstützen sowie ihre Aktivitäten steuern. Du hast auch die Möglichkeit, Seiten oder ganze Bereiche von der Durchsuchung und Indexierung auszuschließen.

Zusätzlich kannst du Googlebot im Quelltext zusätzliche Informationen über den Inhalt deiner Seiten zur Verfügung stellen. Dafür gibt es verschiedene Steuerelemente und Angaben wie die robots.txt-Datei, den Meta-Tag robots, die XML-Sitemap, das canonical-Attribut, verschiedene Arten von Weiterleitungen, strukturierte Daten zur Informationsübermittlung und die Verwendung des hreflang-Attributs für internationale oder mehrsprachige Websites.

Im Folgenden werde ich dir anhand von Beispielen zeigen, wie und wofür du diese verschiedenen Steuerelemente verwenden kannst. Damit kannst du die Aktivitäten der Suchmaschinenroboter auf deiner Website gezielter steuern und sicherstellen, dass deine Inhalte optimal erfasst werden.

robots.txt und Meta-Tag 'robots' einsetzen

Die robots.txt-Datei ist eine einfache Textdatei, die sich im Root-Verzeichnis deiner Website befindet. Sie gibt Crawlern wie Googlebot Anweisungen zum Crawlen, also zum Lesen und Verarbeiten deiner Website. In der robots.txt-Datei werden Crawler als User-agent bezeichnet und können direkt angesprochen werden. Wenn du ein Asterisk angibst, bedeutet das alle Crawler. Mit den Anweisungen “Allow” (erlaubt) und “Disallow” (nicht erlaubt) können Verzeichnisse oder Dokumente vom Crawlen ausgeschlossen werden.

Eine einfache Beispielvariante in der robots.txt-Datei ist, wenn User-agent: * alle Bots anspricht und das Crawlen aller Inhalte erlaubt, außer dem Admin-Verzeichnis, das mit Disallow angegeben ist. Weitere Hinweise zur Syntax und Erstellung der robots.txt-Datei findest du in der Google-Dokumentation für Entwickler.

Mit Hilfe der Google Search Console kannst du deine robots.txt-Datei testen. Du kannst einzelne URLs testen, um zu prüfen, ob sie von der robots.txt-Datei blockiert werden. Zum Beispiel die Kontakt-Seite, wenn du sie für Googlebot testen möchtest.

Ein weiteres Steuerelement für das Crawlen und Indexieren deiner Website ist das Meta-Tag “robots”, das du im Quelltext deiner Website findest. Mit diesem Tag kannst du Bots mitteilen, ob eine bestimmte Seite indexiert werden soll oder nicht und ob Verlinkungen innerhalb der Seite gefolgt werden sollen oder nicht.

Zum Beispiel, wenn du verschiedene Varianten einer Produktseite für verschiedene Kampagnen nutzt, kannst du mit dem Meta-Tag “robots” und der Anweisung “noindex” die zusätzlichen Varianten von der Indexierung ausschließen, um Probleme mit doppelten Inhalten und einer möglichen Konkurrenz in den Suchergebnissen zu vermeiden.

Diese Steuerelemente, sei es die robots.txt-Datei oder das Meta-Tag “robots”, sind mächtige Werkzeuge, um das Verhalten der Bots zu steuern. Sei jedoch äußerst vorsichtig mit deinen Anweisungen. Verstehe genau, welche Auswirkungen sie auf das Crawling und Indexieren haben, und teste stets deine Implementierung, um aus Versehen wichtige Seiten auszuschließen.

Beachte, dass bei der gemeinsamen Nutzung von robots.txt und Meta-Tag “robots” Vorsicht geboten ist. Wenn du eine Seite definitiv vom Indexieren ausschließen möchtest, verwende das Meta-Tag “robots” mit der Anweisung “noindex”. Achte jedoch darauf, dass die Seite nicht gleichzeitig vom Crawling ausgeschlossen ist, da dies dazu führen kann, dass Googlebot deine noindex-Angabe auf der Seite nicht sieht und die URL trotzdem indexiert. Sei also vorsichtig, dass sich die verwendeten Steuerelemente nicht ungewollt gegenseitig beeinflussen. 

XML-Sitemap einsetzen

Eine XML-Sitemap fungiert als Inhaltsverzeichnis deiner Website und wird als XML-Datei erstellt. Sie ist zwar nicht zwingend erforderlich, aber besonders bei umfangreicheren Websites enorm hilfreich, um den Suchmaschinen-Robotern die Navigation und Erkundung deiner Seiten und Unterseiten zu erleichtern.

Die URL zu deiner XML-Sitemap sollte in der Datei robots.txt hinterlegt sein und zusätzlich in der Google Search Console hochgeladen werden. In der XML-Sitemap sollten alle relevanten URLs für das Ranking enthalten sein, und zwar in ihrer kanonischen Variante. Das bedeutet, dass die URLs im Standardformat vorliegen sollten, das du als deine Haupt-URL festgelegt hast – zum Beispiel mit “https://www.deinewebsite.de/kategorie1/produkt1/“, inklusive “https”, “www” und einem abschließenden Schrägstrich am Ende der URL.

Abweichungen von dieser Standardform gelten praktisch als separate Adressen und könnten Googlebot zu nicht kanonischen URLs führen. Es ist auch möglich, mehrere XML-Sitemaps zu erstellen, insbesondere wenn eine Sitemap die maximale Dateigröße von 50 MB überschreitet oder mehr als 50.000 URLs enthält. Für diesen Fall kannst du eine Indexdatei erstellen, die auf alle anderen Sitemaps verweist – quasi eine Sitemap, die auf deine Sitemaps hinweist.

Diese können für verschiedene Website-Bereiche, Sprachen oder auch für verschiedene Arten von Mediendateien wie Bilder und Videos erstellt werden. Viele Content Management Systeme generieren Sitemaps automatisch. Falls das bei deinem System nicht der Fall ist, kannst du sie auch manuell mithilfe von Tools wie dem XML-Sitemap-Generator erstellen. Weitere detaillierte Anleitungen zur Erstellung und Einreichung von XML-Sitemaps findest du auch direkt bei Google.

Canonical-URLs anwenden

Hast du auf deiner Website Seiten mit sehr ähnlichen Inhalten, die über verschiedene URL-Pfade erreichbar sind? Zum Beispiel kann ein Produkt in verschiedenen Kategorien aufgeführt sein oder eine Übersichtsseite kann über unterschiedliche Pfade die gleichen Produkte anzeigen. Stell dir vor, eine Seite für Sommerkleider kann über verschiedene Pfade aufgerufen werden, aber der Inhalt bleibt gleich. Die URL ändert sich, aber die Seite zeigt dieselben Produkte. Dadurch entsteht Duplicate Content. Eine weitere Quelle für doppelte Inhalte können Filter sein, die deine URL dynamisch verändern, zum Beispiel für verschiedene Farben wie blau, rot oder gelb. Dadurch generierst du den Inhalt mehrfach unter verschiedenen Adressen.

Für Besucher kann es sinnvoll sein, verschiedene Inhalte durch die Verwendung solcher Filter zu sehen. Aber für Suchmaschinen können doppelte Inhalte problematisch sein. Die Seiten konkurrieren miteinander, das Ranking wird auf mehrere Seiten verteilt und mindert so das Potenzial für jedes einzelne Ranking.

Um das zu vermeiden, solltest du eine kanonische URL-Variante festlegen und das Linkattribut rel=canonical nutzen. Damit sagst du Suchmaschinen wie Google, welche der URLs für die Suchergebnisse berücksichtigt werden soll. Definiere zuerst, welche URL die kanonische ist, und verweise dann mit dem rel=canonical-Link-Tag von allen anderen URLs darauf. Das fügst du im head-Bereich der Seiten ein. Die kanonische URL zeigt dann auf sich selbst. So vereinheitlichst du die verschiedenen URLs und gibst Google (und übrigens auch Bing) Bescheid, welche Seite die richtige für die Suchergebnisse ist. Bitte beachte, dass dies nur ein Hinweis ist und Google die Angabe manchmal ignorieren kann.

Weiterleitungen anwenden

Du kennst bereits die Vorgehensweise, wenn es um URLs mit Duplicate Content für Suchmaschinen geht. Wenn zum Beispiel eine Seite über mehrere Kategorien und damit verschiedene URL-Pfade erreichbar ist, nutzt du das Attribut canonical.

Aber Duplicate Content kann auch anders entstehen, etwa wenn eine URL über verschiedene Varianten wie http oder https, mit oder ohne www, oder mit oder ohne Trailing Slash erreichbar ist. Für Google sind das verschiedene Varianten desselben Inhalts, die du vermeiden solltest.

Definiere deine bevorzugte URL-Variante, beispielsweise https://www.beispiel.de/kategorie/ – also mit https, www und Trailing Slash am Ende der URL. Abweichungen davon wären zum Beispiel die gleiche URL, jedoch erreichbar über http oder ohne Trailing Slash oder ohne www. Das sind quasi neue URLs für Suchmaschinen, die denselben Inhalt darstellen, aber über verschiedene URL-Varianten verfügbar sind.

Da du nur eine Variante für deine Besucher benötigst, löse die inhaltliche Duplizierung durch eine serverseitige 301-Weiterleitung. Im Gegensatz zum Canonical-Link-Tag ist dies keine Empfehlung, sondern eine technische Maßnahme, die Besucher und Bots auf die gewünschte URL-Variante umleitet. 301 ist dabei der Statuscode für eine permanente Weiterleitung, der dem Server signalisiert wird.

Obwohl es andere Weiterleitungsarten gibt, sollte aus SEO-Sicht meist die 301-Weiterleitung genutzt werden. Hier werden die Rankingsignale größtenteils an die Zielseite übertragen, und die weitergeleiteten Seiten verschwinden oft nach mehreren Crawls aus dem Index.

Eine temporäre Variante ist die 302-Weiterleitung, die aus SEO-Sicht weniger günstig ist. Google nimmt an, dass die ursprüngliche URL zu einem späteren Zeitpunkt wieder relevant wird. Die ursprüngliche URL bleibt im Index, und die Ranking-Signale werden nur schwach auf die neue Ziel-URL übertragen.

Es gibt sicherlich gute Gründe für den Einsatz von 302-Weiterleitungen, besonders wenn die Weiterleitung wirklich nur temporär sein soll. Zur Vermeidung von Duplicate Content durch URL-Varianten ist jedoch die 301-Weiterleitung die bessere Wahl.

Übrigens, beim Aufruf der Seite ist nicht immer erkennbar, ob Weiterleitungen stattfinden. Tools wie httpstatus.io oder Browser-Add-ons wie Ayima Redirect Path helfen dabei. Bei Statuscode 200 gibt es keine Weiterleitung. Mehrere 301 oder 302-Instanzen bilden Redirect-Ketten, die vermieden oder am besten behoben werden sollten. Sie beeinträchtigen die Ladezeiten und das Crawlen deiner Website durch Suchmaschinenbots.

Informationen mit strukturierten Daten übermitteln

Du weißt sicher, dass Suchmaschinen wie Google ziemlich gut darin sind, Informationen und Inhalte von Websites zu verarbeiten. Aber sie sind auch nicht perfekt. Durch strukturierte Daten können sie gezielt Hinweise zur Bedeutung von Inhalten und Verbindungen erhalten. Diese Daten können dazu beitragen, dass deine Website in den Suchergebnissen mit Rich-Funktionen angezeigt wird. Das macht dein Ergebnis auffälliger, beansprucht mehr Platz auf der Suchergebnisseite und zieht mehr Klicks sowie mehr Traffic, also mehr Besucher, auf deine Website. Dazu gehören Rezepte, Veranstaltungen oder Sternebewertungen. 

Eine komplette Liste von Suchergebnisformaten mit Rich-Funktionen findest du in der Google-Dokumentation. Dort siehst du die Suchgalerie und welche Formate möglich sind. Es gibt dort eine ganze Liste von Dingen, die du mit strukturierten Daten kennzeichnen kannst. Vielleicht findest du zahlreiche Ideen für deine eigenen Inhalte und Optimierungen.

 

Optimierung der Ladezeiten

Du weißt schon, dass das Ziel der Google-Suchmaschine ist, personalisierte und relevante Ergebnisse für jede Anfrage zu liefern. Google berücksichtigt dabei auch die Nutzererfahrung. Die Ladezeit einer Website, auch PageSpeed genannt, trägt maßgeblich zur Nutzererfahrung bei und ist daher bereits seit einiger Zeit ein offizieller Google-Rankingfaktor. Du kennst das sicher aus eigener Erfahrung. Wenn eine Website langsam lädt, neigst du eher dazu, sie schnell zu verlassen oder nur wenige Seiten aufzurufen. Das ist vor allem bei Online-Shops mühsam, wenn Produktbilder langsam laden, besonders wenn du eine schlechte Internetverbindung hast. Die Ladezeit deiner Website kann sich also positiv oder negativ auswirken.

Schauen wir uns verschiedene Bereiche an.

1.) Die Auswirkung auf das Crawling und die Indexierung. Langsam ladende Websites werden langsamer und weniger gründlich von Googlebot gecrawlt. Das kann Einfluss darauf haben, wie schnell deine Seiten indexiert werden und wie aktuell deine Inhalte im Google-Index sind.

2.) Die Nutzererfahrung. Je schneller die Ladezeit, desto besser die Nutzererfahrung und Zufriedenheit der Besucher. Wenn deine Seiten jedoch langsam laden, ist die Wahrscheinlichkeit hoch, dass Besucher deine Website frühzeitig verlassen und nicht wiederkommen.

3.) Die Konversionsrate. Bei einer schlechten Nutzererfahrung sind Konversionen weniger wahrscheinlich, und du könntest Kunden an deine Mitbewerber verlieren. Das bedeutet, langsame Ladezeiten wirken sich auch direkt auf deinen Umsatz aus.

4.) Dein Ranking in der Google-Suche. Für Google und andere Suchmaschinen ist eine positive Nutzererfahrung ein wichtiger Qualitätsfaktor und damit ein Hinweis auf die Relevanz deiner Website für Suchergebnisse. Die Ladegeschwindigkeit ist ein Ranking-Faktor, und je schneller deine Website lädt, desto höher ist die Chance auf bessere Platzierungen im Suchergebnis. Wie wichtig deine Ladezeiten sind, siehst du am besten im direkten Vergleich mit deinen Mitbewerbern. Je schneller deine Website im Vergleich ist, desto besser.

Um deine eigenen Ladezeiten zu analysieren und zu optimieren, gibt es zahlreiche Tools wie beispielsweise Googles PageSpeed Insights oder GTmetrix. Natürlich gibt es viele weitere Anbieter, die du online leicht finden kannst. Und wenn du die Google Search Console nutzt, findest du auch hier Berichte mit Hinweisen zu den Ladezeiten deiner Website und wo es Optimierungspotenzial gibt.

Schauen wir uns nur noch als Beispiel Googles PageSpeed Insights an. Mit den Google PageSpeed Insights kannst du jede Domain analysieren, also deine eigene und die deiner Mitbewerber. Du kannst verschiedene Seiten angeben. Ich empfehle dir, verschiedene Seitentypen zu analysieren, also beispielsweise die Startseite, Kategorieseiten und Unterseiten wie Produktseiten. Das kannst du dann für die mobile Variante und für die Desktop-Version der URL tun. Du erhältst dort eine Bewertung zur Leistung und einige Empfehlungen zur Optimierung. Du siehst dort eine ganze Liste von Maßnahmen, die du umsetzen könntest, um die Ladezeiten dieser Website zu verbessern. Diese kannst du dir dann genauer im Detail ansehen.

Wie du siehst, ist die Analyse und Optimierung deiner Ladezeiten sehr technisch. Es bietet sich also an, sofern du selbst die entsprechenden Maßnahmen nicht umsetzen kannst oder willst, mit internen oder externen Experten zusammenzuarbeiten.

Mobilfreundlichkeit überprüfen

Die Mobilfreundlichkeit deiner Website ist seit 2015 ein wichtiger Google-Ranking-Faktor. Seit 2016 nutzt Google den Mobile-First-Index, was bedeutet, dass die mobile Version deiner Website für Suchmaschinen-Rankings und den Google-Index verwendet wird. Google berücksichtigt verschiedene Kriterien, um die Mobilfreundlichkeit zu bewerten. Dazu gehören die Nutzung geeigneter Software für Mobilgeräte, lesbare Texte ohne Zoomen, angepasste Darstellung des Inhalts und ausreichender Abstand zwischen Links für einfache Bedienung.

Es ist wichtig, darauf zu achten, dass Pop-ups und Banner die Nutzung nicht beeinträchtigen, deine Inhalte auf Mobilgeräten lesbar sind, die Navigation einfach ist und Interaktionen wie das Ausfüllen von Formularen problemlos möglich sind. Außerdem ist schnelles Laden der Seiten und Inhalte, wie du bereits weißt, entscheidend. Es gibt verschiedene Tools, um die Mobilfreundlichkeit zu überprüfen, wie zum Beispiel das Google Test Tool zur Optimierung für Mobilgeräte. Auch in der Google Search Console findest du Hinweise zur Mobilfreundlichkeit.

Es ist ratsam, die Nutzerfreundlichkeit manuell zu überprüfen und von Testpersonen prüfen zu lassen. Verschiedene Testszenarien können helfen, Probleme gezielt aufzudecken. Schauen wir uns an, wie Google deine Website auf Mobilfreundlichkeit einschätzt. Das Test Tool für die Optimierung für Mobilgeräte erlaubt dir, beliebige URLs zu testen. 

Du siehst das Ergebnis deiner gestesteten Seite und du kannst zusätzliche Informationen abrufen sowie die mobile Darstellung der Seite anzeigen lassen. Mit der Google Search Console kannst du nur deine eigene Website analysieren, aber du erhältst eine Übersicht über Probleme und Potenziale über einen längeren Zeitraum.

Im Bereich “Nutzerfreundlichkeit” der Google Search Console findest du Informationen zur Mobilfreundlichkeit. Eventuelle Probleme kannst du hier genauer betrachten und beheben. Diese Tools sind hilfreich, ersetzen aber nicht die manuelle Überprüfung. Besonders bei neuen Seiten oder Funktionen ist manuelles Testen wichtig, um Schwierigkeiten schnell zu erkennen und zu beheben.

Schlussworte

Die technische Seite der Suchmaschinenoptimierung mag komplex erscheinen, aber sie ist unerlässlich, um das volle Potenzial deiner Website auszuschöpfen. Durch die Implementierung bewährter technischer Strategien kannst du sicherstellen, dass deine Inhalte von Suchmaschinen effektiv interpretiert und präsentiert werden. Bleibe stets auf dem neuesten Stand der Entwicklungen und nutze die verfügbaren Tools, um kontinuierlich an der Optimierung deiner Website zu arbeiten. Indem du die technische SEO als einen fundamentalen Bestandteil deiner Gesamtstrategie betrachtest, legst du das Fundament für langfristigen Erfolg und eine nachhaltige Sichtbarkeit in den Suchergebnissen.

Wenn du Hilfe für spezifische Aspekte oder Punkte möchtest, lass es mich wissen!

Jana Mohn, Expertin für WordPress Webdesign und laufende Webseiten Pflege, sowie Webseiten Betreuung

Hej, ich bin Jana.

Webdesignerin und Webseiten Betreuung für (Solo)Selbstständige und kleine Unternehmen.

Viele haben noch immer sehr schlechte Webseiten oder gar keine, die nicht nur veraltet sind, sondern auch nicht die tatsächliche Praxis wiederspiegeln oder einen Mehrwert bieten. Es fehlt an der Authentizität und einem Mehrwert für den Alltag. Und dabei will ich helfen, das zu verbessern.

Ich bin Ihre Ansprechpartnerin für einen modernen und professionellen Onlineauftritt Ihres Businesses. Ich weiß, wie schwer es ist, sich durch den Dschungel der technischen Aspekte zu kämpfen. Ich stehe Ihnen zur Seite, wenn es um Ihre Website und Landingpages geht, ebenso beim Implementieren neuer Tools oder wenn die Technik überhandnimmt.

Feedback

Echte Meinungen von sehr realen Menschen.

Ich glaube, dass jedes Unternehmen erfolgreich sein kann, wenn es seine Zielgruppe begeistert. Deshalb arbeite ich mit dir an Lösungen, damit du genau das machen kannst. Für dein Projekt eine nachhaltige Lösung zu schaffen, hat für mich oberste Priorität. Du sollst für die Herausforderungen von morgen gewappnet, stolz auf das Ergebnis sein und möglichst lange Freude damit haben.

Ich erstelle für meine Kunden WordPress Webseiten, die zeigen, wie professionell du und dein Unternehmen arbeiten und mit denen sie auch von Google gefunden werden. Außerdem biete ich meinen WordPress Webseiten Support an. Frage mich, was ich für dich tun kann.

Kontaktinfo

So erreichst du mich:

0179 / 6710980

© 2024 Created by Jana Mohn 74226 Nordheim, Landkreis Heilbronn

WordPress Cookie Hinweis von Real Cookie Banner