🔥 Nur 5 Minuten , um die Ansicht zu ändern.

Protokolldateianalyse für das Web. Unternehmen: Suche nach SEO bei der Google -Suchkonsole.

So lange, willst du lesen?

Das eigentliche Problem im Leben

Hast du dich jemals so gefühlt? Ihr SEO -Team arbeitet hart. Bearbeiten Sie alle Punkte, an denen die Google Search Console (GSC) empfiehlt, alle grün zu sein, aber ... der SEO -Rang der wichtigen Seite "ist völlig still". Wenn Sie sich nirgendwo oder schlechter bewegt, ist neuer Inhalte, der gerade veröffentlicht wurde. Es dauert lange, bis Google Daten sammelt (Index), obwohl das Drücken von "Indexierung anfordern".

Sie können in den Tempeln sitzen und denken: "Was vermissen wir?" "Warum kämpft die große Website des Unternehmens gegen eine kleine Website der Konkurrenten in einigen Schlüsselwörtern?" Die Antwort auf diese Frustration ist möglicherweise nicht in dem Bericht, den wir jeden Tag sehen. Aber in den Rohdatendateien versteckt, die Sie möglicherweise noch nie geöffnet haben. Das ist die "Protokolldatei" des Servers.

Aufforderung für Illustrationen: Das Bild eines Vermarkters oder des SEO -Teams sitzt ernsthaft ein Treffen. Der Computerbildschirm zeigt das SEO -Diagramm an, das völlig ruhig ist und ein Symbol für Google -Suchkonsolen im Bildschirm enthält, um die Anstrengungen zur Lösung des Problems mit den Tools zu vermitteln. Aber die Lösung noch nicht gefunden

Warum ist dieses Problem aufgetreten?

Dieses Problem tritt auf, da die Google -Suchkonsole die "Schlussfolgerung" ist, die Google an uns berichtet, aber nicht alle "echten Verhaltensweisen", die auftreten. Für große Unternehmenswebsites mit Zehntausenden von Webseiten verfügt Google über eine begrenzte Ressource, um Daten zu sammeln. Auch als "Crawl Budget" bekannt

Stellen Sie sich GoogleBot als Lieferpersonal vor, das jeden Tag nur begrenzte Zeit und Öl hat. Wenn Ihre Website wie eine große Stadt mit einer kleinen Gasse ist, ein wenig SOI (wie URL, die durch einen seltsamen Filter, einen Parameter und doppelten Pflicht verursacht wird). Anstatt Waren tatsächlich an das Haus des Kunden zu liefern (wichtige Seite), ist dieses Problem der Schlüssel zum Verständnis der Verwaltung des Crawl -Budgets, was GSC uns nicht direkt mitteilt.

Aufforderung für Abbildungen: Infografik -Bilder vergleichen das Crawl -Budget wie den "Öltank" des GoogleBot -Autos, wobei mehrere Rohre aus dem Tank zum Symbol gelangen, das "nicht wichtige Aufgaben" wie Filter, Fehlerseiten oder doppelte Aufgaben vermittelte, was dazu führte, dass das Öl "wichtige Seiten" (wichtige Seiten) erreichte (wichtige Seiten) (wichtige Seiten) (wichtige Seiten) (wichtige Seiten).

Wie wird es sich auswirken, wenn es übrig ist?

Ermöglicht, dass GoogleBot verloren geht und das Crawl -Budget mehr betrifft, das sich mehr auf das Geschäft auswirkt, als nur "die Ranglisten steigen nicht". Der wahre greifbare Einfluss ist:

  • Wichtige Seiten werden auf die Wichtigkeit reduziert: Neue Produktseite, die Hauptservice -Seite oder der Artikel des Geschäfts können möglicherweise besucht werden. Weil es Zeit mit dem Müll braucht, was dazu führt, dass diese Seiten in den Augen von Google nicht frisch sind
  • Verlust der Geschäftsmöglichkeiten: Wenn die Zielseite oder eine neue Werbeseite langsam ist, bedeutet dies, dass Sie die Gelegenheit verlieren, jeden Tag zu verkaufen und zu konkurrieren.
  • Die Verwendung eines Budgets für Inhalte lohnt sich nicht: Ihr Team kann widmen, qualitativ hochwertige Inhalte zu erstellen, aber wenn GoogleBot selten trifft oder nicht. Dieser Inhalt erstellt fast überhaupt keine SEO -Ergebnisse.
  • Enorme Risiken beim Verschieben des Webs: Wenn Sie die Protokolldatei noch nie überprüft und das Web verschoben haben. Das versteckte Problem kann schwerwiegend werden und der Verkehr ist schwer zu erholen. Checkliste für das Verschieben des Webs ist sehr wichtig, aber die Analyse der Protokolldatei wird die Checkliste perfekter.

Aufforderung für Abbildungen: Bild zeigt eine Kalenderseite mit einer neuen Marketingkampagne, aber auf der Webseite befindet sich eine Spinne sowie das Verkehrsdiagramm, das aufgrund unsichtbarer technischer Probleme verlassen wurde.

Gibt es eine Lösung? Und wo soll es anfangen?

Die direkteste Lösung ist, "Vermutung" zu stoppen. Das Verhalten von GoogleBot und Drehung, um die "Wahrheit" aus Rohdaten zu betrachten, dh "Protokolldateianalyse" durchzuführen.

Analyse der Protokolldatei ist der Prozess der Verwendung eines Serverprotokolls, um zu analysieren, um zu sehen, welche Suchmaschinenbot (insbesondere GoogleBot) auf unserer Website vorgehen sollen. Es sagt uns, dass wir auf die zweite Ebene der Seite detailliert sind. Wie oft, welcher Fehler wird gefunden und welcher Teil der Website ist besonders?

Was Sie aus der Protokolldateianalyse erhalten:

  • Entdecken Sie die Funktion von GoogleBot oft, aber es gibt keinen Wert. SEO: Zum Beispiel wird die Pflicht durch facettierte Navigation (Filterung) verursacht, die Millionen von URL schafft. In Robots.txt verwaltet werden
  • Auf der Suche nach wichtigen Aufgaben, aber GoogleBot ist selten: Um den Grund zu finden, warum Bot nicht erreicht wird, möglicherweise weil der interne Link zu klein ist oder die Webstruktur zu kompliziert ist.
  • Überprüfen Sie die tatsächlichen Statuscodes: Suchseite 404 (nicht gefunden) oder 301 (Umleitung), die falsch ist. GSC kann nicht vollständig melden.
  • Bestätigen Sie technische Lösungen: Nachdem wir alles behoben haben, können wir in der Protokolldatei feststellen, ob GoogleBot diese Änderung noch kennen.

Screaming Frog -Log -Dateianalysator oder Lumar (ehemals Deepcrawl) verwenden, die für diese Veranstaltung entwickelt wurden. Und ist auch eine wichtige Grundlage für tiefere SEOs wie Edge SEO .

Eingabeaufforderung für Abbildungen: Der Detektivstil verwendet eine Erweiterungsbrille, um die Datei zu protokollieren, die ein langer Buchstabencode ist. Und im Lupenglas erscheint es als einfaches Symbol für das Verstehen wie GoogleBot -Symbole, 404 -seitige Symbole, Symbole und Frequenzen. Um zu vermitteln, dass die Tools dazu beitragen, komplexe Informationen zum Verständnis bereitzustellen

Beispiele aus der realen Sache, die früher erfolgreich waren

Ein großes E-Commerce-Unternehmen Es gibt mehr als 50.000 SKUS-Produkte. Sie stoßen auf Probleme, dass neue Sammlungen, die stark investieren, überhaupt nicht eingestuft haben. Der Verkehr von organischer Suche seit Jahren, obwohl das Team nach ganz GSC angepasst hat.

Zu tun: Das Team beschloss, zum ersten Mal die Dateianalyse zu protokollieren, und was gefunden wurde, war sehr schockierend. Sie stellten fest, dass 70% des Crawl -Budgets mit Crawl verwendet wurden. Die Pflicht ist auf die Benutzer von "Filtern" -Produkten (z. B. Farben, Größen, Preise) zurückzuführen, die unzählige URL erzeugen. Darüber hinaus ist das Keyword -Kannibalisierungsproblem , das zwischen der Kategorie und diesen Filtern verborgen ist

Ergebnis: Nachdem das Team die URL aus diesen Filtern in der Datei roboots.txt blockiert und die neue interne Linkstruktur nur 3 Monate später verwaltet hat. Das Ergebnis war:

  • GoogleBot ist zurück zu Crawl, der Hauptproduktseite und der Kategorie -Seite häufiger. 300%
  • Die neue Sammlung beginnt innerhalb weniger Wochen auf Seite 1-2.
  • Der gesamte organische Verkehr der Website stieg in einem Viertel um 25% .

Dies ist die Kraft der Vision davon, was Wettbewerber unsichtbar sind. Dies ist der einzige Weg, um von der Google -Suchkonsole zu kommen

Eingabeaufforderung für Abbildungen: Vor- und Nach dem Diagramm klären Sie die Linke (vorher) ein Crawl -Budget -Bild von 70%, rot und 30%. Das Recht (nach), 80% des Anteils sind grün und 20% rot (verschwendet), zusammen mit den montierten Verkaufsleitungen.

Wenn Sie folgen möchten, was tun Sie dann? (Kann sofort verwendet werden)

Sie können die Protokolldateianalyse selbst starten und die folgenden Schritte ausführen:

  1. Fordern Sie eine Protokolldatei vom IT -Team oder dem Hosting -Dienstanbieter an: Sagen Sie Ihrem Team mit, dass Sie die "Serverzugriffsprotokolle" der Website möchten, und geben Sie den gewünschten Zeitraum an. (Mindestens 30 Tage zurückkehren). Die Dateien sind normalerweise. Log oder .gz
  2. Vorbereitung der Protokolldateianalysator: Für Anfänger der Schreien -Frosch -Protokolldateianalysator eine sehr gute Option. Weil es einfach zu bedienen ist und eine kostenlose Version zum Probieren hat
  3. Protokolldatei in das Programm importieren: Befolgen Sie die Prozeduren des Programms, um die Protokolldatei zu importieren, und sollte Ihre Website mit normalem Schreienfrosch kragen, um alle URL -Daten zu vergleichen.
  4. Beginnen Sie mit der Analyse des Schatzes:
    • Schauen Sie sich "URLS" -Rist für "URLs" an: Auf der Suche nach URL in GoogleBot häufig (hohe Anzahl von Crawls), aber es ist URL, dass Sie nicht eingestuft werden möchten.
    • Sehen Sie sich die Registerkarte "Antwortcodes" an: Überprüfen Sie, ob es eine 404 -Seite (nicht finden kann) oder 5xx (Serverabsturz), die GoogleBot viel gefunden hat oder nicht.
    • Im Vergleich zu Daten von GSC: Bringen Sie die GoogleBot -Informationen häufig im Vergleich zur Pflicht mit. Eindruck/Klicken Sie in GSC, auf welcher Seite sich häufig befindet, aber niemals einen Verkehr erhält. Es kann ein Zeichen des Problems sein.

Diese Datenanalyse hilft Ihnen dabei, das Gesamtbild zu sehen und die Webstruktur direkt zu planen. Wenn Sie die Unternehmens -Website -Struktur verbessern , dass diese Herausforderungen mit Daten aus der Protokolldatei umgehen, ist dies die stärkste Grundlage.

Eingabeaufforderung für Abbildungen: Schritt für Schritt 4 Schritt 1) 1) Log 2) Symbol. Schreiender Nebel 3) Icon Pfeil import 4) Dashboard-Symbol mit Grafik und ausführliche Informationen werden angezeigt. Zeigen Sie, dass der Prozess nicht so kompliziert wie erwartet ist

Fragen, die Menschen neigen, und die Antworten, die geklärt werden

Frage: Wie sind die Informationen in der Protokolldatei nicht in der Google -Suchkonsole (Crawl -Statistiken)?
Antwort: GSC -Crawl -Statistiken sind die Informationen, die Google "Zusammenfassung und Stichproben" sehen, aber die Protokolldatei ist die "100%Rohdaten", die tatsächlich auf Ihrem Server stattgefunden haben. Es ist viel detaillierter und vollständiger. Verursachen das Problem, das GSC übersehen kann

Frage: Wie oft führen wir Protokolldateianalysen durch?
Antwort: Für große Unternehmenswebsites wird empfohlen, mindestens einmal im Viertel zu erledigen. Wenn sich jedoch eine große Änderung der Webstruktur, das Verschieben des Webs oder die Verkehrsmenge fällt, ohne zu wissen, dass der Grund sofort erfolgen sollte.

F: Sehen wir zusätzlich zu GoogleBot auch andere Bots?
Antwort: Sieh alles! Sie sehen sowohl Bingbot, Ahrefsbot, Semrushbot als auch andere Bots, mit denen Sie verstehen können, dass jemand Ihre Website gesammelt hat. Für das SEO -Ziel konzentrieren wir uns jedoch hauptsächlich auf GoogleBot.

Frage: Ist es eine Protokolldateianalyse? Ist es ein Programmierer?
Antwort: Nicht notwendig. Schreien Sie Foga- oder Lumar -Tools, sodass Menschen SEOs ohne die Basis des Codes analysieren können. Sie müssen jedoch ein grundlegendes Verständnis der technischen SEO haben, um Informationen zu interpretieren und weiterhin zu verwenden.

Aufforderung für Abbildungen: Bildsymbole, Personen mit einem Fragezeichen, das über dem Kopf schwebt, und es gibt einen Pfeil, der auf ein anderes Symbol zeigt

Zusammenfassung, um leicht zu verstehen + zu verstehen, möchte es versuchen zu tun

SEO für große Websites ist wie die Pflege komplexer Maschinen. Die Abhängigkeit von nur der Google -Suchkonsole kann dazu führen, dass wir die Probleme mit kleinen Ausrüstung übersehen, die einige falsch arbeiten.

Analyse der Protokolldatei wird den Motordeckel geöffnet, um die tatsächliche Arbeit einzeln zu sehen. Es ist eine Änderung von "Vermutung" zu "Real Knowledge", wie Google Ihre Website sehen und interagieren kann. Investitionen sind wirksam, um diese Informationen zu verstehen. Ist, einen nachhaltigen Wettbewerbsvorteil zu schaffen, der jedem Geld hilft, das mit Inhalten und SEO investiert, am meisten lohnend.

Lassen Sie Ihre Website nicht nicht vollständig funktionieren. Beginnen wir das Gespräch mit Ihrem IT -Team von heute, um Zugriffsprotokolle anzufordern und die neue Welt der SEO zu öffnen, die tiefgreifend ist und gemessen werden kann.

Wenn Sie bereit sind, Ihre Organisationswebsite auf die nächste Ebene zu aktualisieren, ob die Website (Website -Renovierung) oder eine neue Organisationswebsite erstellen. Das hat auf lange Sicht eine starke Struktur, die für SEO bereit ist. Das Vision X Brain Team ist bereit, Ratschläge zu geben.

Aktie

Neuerer Blog

Google Eeat für die IR -Website: So erstellen Sie ein zuverlässiges Signal, damit die Anleger zuversichtlich sind.

Eeat ist nicht nur seo! In den Teilen, wie Sie Erfahrungen, Fachkenntnisse, Autorendei und Vertrauenswürdigkeit auf der IR -Website aufbauen und zeigen können, um Investoren zu gewinnen.

Erstellen Sie "digitale Show" für Industrieunternehmen: Produkte, kompliziert, leicht zu verstehen und kaufen zu kaufen.

Wechseln Sie die langweilige Website in einen digitalen Showroom! UX/UI -Designtechniken und verwenden Sie interaktive Inhalte, um ein interessantes industrielles Produkt zu präsentieren und den Kontakt zu stimulieren.

"Barnacle SEO" für KMU -Unternehmen: Halten Sie sich an der großen Website fest, um den Datenverkehr zu erstellen und Autorität zu erstellen.

Kein Budget, um eine große Website zu bekämpfen? Verwenden Sie die Strategie von "Barnacle SEO", um eine starke Identität auf einer starken Plattform zu schaffen, um qualitativ hochwertigen Verkehr zu gewinnen und Glaubwürdigkeit für Ihre Marke KMU aufzubauen.