Hinwiederum, wird die robots.txt falsch verwendet, kann dies zu großen Problemen auf Suchergebnisseiten führen, wie Abbildung 1 zeigt. Im Mai 2019 hat Google den hauseigenen Google Crawler auf die aktuelle Chromium-Version 74 geupdatet. Abbildung 1: Von Google indexierte Webseiten, für die keine Beschreibungen angezeigt werden können, weil sie in der robots.txt vom Crawling ausgeschlossen sind. Der neue Crawler kann nun moderne SEO Optimierung erkennen und bessere Onpage Analysen durchführen. Dies ist ein wichtiger Hinweis, da der Vorgänger veraltet war und nur wenige moderne Web-Technologien unterstützte. Ist diese leserlich und für Menschen klar verständlich? Darauf folgend müssen Sie die URL-Struktur Ihrer Webseite überprüfen. Ist sie nicht zu lang? Die URL-Struktur sollte nicht über 5 Hierarchiestufen hinaus gehen. Können User daraus ablesen, wo sie sich auf der Webseite befinden? Dies geht auch das Webseitenstruktur einher. Heutiges Onpage SEO ist keine Optimierung für Suchmaschinen, sondern für User. I. e., dass Inhalte leicht und schnell zugänglich sein müssen.
Beim Crawling handelt es sich ausschließlich um den Zugriff auf Inhalte und hat nichts eine der Indexierung zu tun. Suchmaschinen wie Google crawlen durchaus Seiten, indexieren diese jedoch nicht. Gefühlt Relevanz der Inhalte zu verbessern, sollten jedoch nur die Inhalte crawlbar gemacht werden, die https://seoholics.de/lsi unbedingt durch die Suchmaschinen verarbeitet werden sollen. Unwichtige https://seoholics.de Seiten, wie Suchergebnisseiten oder das Impressum sollten daher vom Crawling ausgeschlossen werden. Hier spricht man von der Optimierung des sogenannten Crawl-Budgets. Dies kann unterschiedlichste Gründe haben, zusätzlich eine schlechte Suchmaschinenoptimierung. Dieses legt fest, wie viele Seiten einer Webseite gecrawlt werden können und wird von Suchmaschinen individuell für jede Domain festgelegt. Nutzen Sie für die Steuerung des Crawlings das Meta Tag „robots“ sowie die „robots.txt“ Datei. Crawling is nich mit Indexierung gleichzusetzen! Bei der „robots.txt“ an der Zeit sein jedoch zu beachten, dass die enthaltenen Anweisungen nur ein Empfehlung für die Suchmaschinen darstellen und nachweislich durchaus ungehört verhallen. Nicht zuletzt können Suchmaschinen auch über andere Wege auf dort ausgeschlossene Seiten gelangen, z.B. Backlinks. Die Nutzung der „Disallow“ Funktion ist daher kein zuverlässiger Weg, Seiten vom Crawling auszuschließen.
Da sich der Algorithmus wandelt, müssen Marken auch ihre SEO-Praktiken regelmäßig anpassen, um mit den Veränderungen Schritt zu halten. Überprüfe regelmäßig deine früher erstellten Inhalte und suche nach Möglichkeiten, sie zu verbessern. Die Verwendung eines On-Page-SEO-Checkers hilft dir dabei. Beachte dabei, dass sich der Algorithmus ändern mag, das Ziel aber das gleiche bleibt: qualitativ hochwertige Inhalte für Benutzer bereitzustellen. Kunden schätzen Bilder und danken ihre Verwendung mit höheren Interaktionsraten. Nutze Bilder, die deinen Inhalt aufwerten, einschließlich solcher, die du selbst erstellen kannst und die abbilden, was du auf einer bestimmten Seite besprichst. Die genutzten Bilder ( Bilder SEO) sollten stets optimiert sein. Stelle sicher, dass sie schnell geladen werden, indem du Strategien wie Komprimierung und verzögertes Laden verwendest. Erstelle exzellente Alt-Tags, die der Suchmaschine mitteilen, was auf deinen Bildern zu sehen ist, damit Google sie als nützlichen Inhalt deiner Website verstehen kann. Alternativtext hilft sehbehinderten Personen, die Website zu nutzen und die Inhalte zu verstehen. Der Inhalt deiner Seite sollte den Leser ansprechen und binden. Das Ziel ist, die Sitzungsdauer zu erhöhen und die Absprungrate zu verringern. Wähle Titel und Dateinamen für deine Bilder aus, die den Bildinhalt und die Keywords widerspiegeln, zirka der Inhalt kreist. Diese Faktoren zeigen Google, dass Nutzer deine Inhalte schätzen. Verwende klare Überschriften, die das Thema jedes Abschnitts deines Contents widerspiegeln, plus/minus Lesbarkeit zu verbessern. Verwende Aufzählungslisten, ums Überfliegen des Materials zu vereinfachen. Binde Videos in deine Inhalte ein. Erstelle relevante Handlungsaufforderungen (Call-to-Action, CTAs), die Benutzer dazu bringen, auf Gated Content zuzugreifen. Die Interaktion mit deiner Website legt den Grundstein für eine Beziehung zu diesem Besucher, der hoffentlich später zum Lead wird. Sorge für ein sauberes und klares Layout, das Benutzer nicht von deinen Inhalten ablenkt. Stelle sicher, dass die Seite schnell lädt, indem du Pagespeed optimierst und Best Practices für die Ladezeit umsetzt.
Deine Leser lieben Interviews, weil diese meistens immer einen Mehrwert bieten. Wie gehst du vor? Eine Nischenseite über gesunde Ernährung, kann beispielsweise eine Ernährungsberaterin interviewen. Finde einen Gesprächspartner, der sich zum Thema deiner Webseite auskennt und ebenfalls davon profitiert. Interviews müssen nicht notwendigerweise direkt persönlich geführt werden. Skype oder die Fragen per Mail sind auch adequat. Bereite dich gut vor und versuche die passenden Fragen zu finden, die deine Leser interessieren. Stelle interessante Fragen und binde damit gute Antworten in deine Webseite ein. Bekannte Personen bekommen immer die selben Fragen. Geh die Thematik nicht zu verkrampft an, sondern führe ein lockeres Interview, wo ihr zwei Hübschen Spaß an der Sache habt. Ändere die Taktik und versuche neue Fragen zu stellen, damit das Interview auch für den Gast einen gewissen Schwung bekommt. Den Link zum geführten Interview auf deiner Seite, bindet der Interviewpartner in seiner Präsenz ein und du bekommst dadurch einen wertvollen und extrem themenrelevanten Backlink.
Welkom bij
Beter HBO
© 2024 Gemaakt door Beter HBO. Verzorgd door
Je moet lid zijn van Beter HBO om reacties te kunnen toevoegen!
Wordt lid van Beter HBO