Google Search Console - ausgeschlossene Webseiten

Thema wurde von guenter_zietlow, 25. Juli 2019 erstellt.

  1. guenter_zietlow

    guenter_zietlow Mitglied

    Registriert seit:
    25. November 2017
    Beiträge:
    10
    Danke erhalten:
    0
    Danke vergeben:
    2
    Hallo Community,

    wir haben folgende Fragen:

    In der „Google-Search-Konsole“ finden wir unter „Abdeckung“ 941 gültige Seiten, das entspricht auch gut der jeweils aktuell eingereichten Sitemap. Unter „Ausgeschlossen“ finden wir jedoch 10.522 Seiten. Wie kann das sein ??????

    Davon sind 6.785 Seiten „Ausgeschlossen“ weil durch „robots.txt“ blockiert. Weiter sind „Ausgeschlossen“ 3.216 Seiten mit dem Hinweis „Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt“

    Schaut man sich die „Ausgeschlossenen“ Seiten an, so weisen diese fast ausschließlich die Form „….html?switch_country=ES“ auf (als Beispiel), gefolgt jeweils von den europäischen Länderkennzeichnungen. Verursacht wird das offensichtlich in der „robots.txt“ durch „Disallow: /*switch_country=*“

    Unsere Frage ist nun:

    a) Ob es sinnvoll ist, „Disallow: /*switch_country=*“ aus der „robots.txt“ zu löschen.
    b) Kann das eine Erklärung sein, weswegen unser Ranking bei Google grottenschlecht ist. Unsere Seite – www(dot)hfhealthcare(dot)de - existiert seit gut einem Jahr und das Ranking ist katastrophal, obwohl wir uns sehr bemüht haben, die Website für ein gutes Ranking entsprechen aufzubauen.

    Wer kann helfen ????

    Vielen Dank und viele Grüße,
    Günter
     
  2. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.310
    Danke vergeben:
    2.208
    Keinesfalls!

    Du kriegst dann ein und die gleichen Seiten mit verschiedenen URLs geranked, die sich gegenseitig allen Saft klauen.

    Ausgeschlossene Seiten sind etwas anders als fehlerhafte Seiten, dann stünde da fehlerhafte Seiten. Hier gehts aber um ausgeschlossene, Sachen die extra NICHT in den Index sollen.

    Was das Thema angeht: Da kommt garantiert viel von dem Sprachflaggen Einbau oben. Das setzt dir pro Seite und pro Sprache je einen Link, dem nicht gefolgt werden darf, weil er nicht auf die Seite sondern in die Sprachumschaltung führt. Das zu entblockieren wäre ein kompletter Bockschuss.
     
  3. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.310
    Danke vergeben:
    2.208
    Nachtrag:

    Ich hab nur den Parameter gesehen und die Flaggen, dann geseufzed, dann geschrieben. Dann hatte ich mein Tab noch und bin mal auf so eine Flagge gefahren: Nur Bilder da, kein Code dahinter...

    Ist das mit dem Einbau der Sprachumschaltung auch noch insich schiefgegangen?
     
  4. guenter_zietlow

    guenter_zietlow Mitglied

    Registriert seit:
    25. November 2017
    Beiträge:
    10
    Danke erhalten:
    0
    Danke vergeben:
    2
    Hallo Wilken,

    vielen Dank für Deine Antwort. Wir machen uns also keine Gedanken mehr über "Ausgeschlossene" Webseiten.

    Die Länderflaggen oben sind nur Bilder, ohne Funktion. Hast Du für uns eine Erklärung, weswegen unser Ranking so schlecht ist, auch gegen Bezahlung.

    Gruß Günter
     
  5. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.310
    Danke vergeben:
    2.208
    Sich darüber gar keine Gedanken machen ist auch falsch, aber man sollte lange nicht jeden Ausschluss automatisch als Fehler begreifen, das ist der Knackpunkt.

    Ein blödes Bild: Ein Auto wird fürs fahren gebaut. Wir sehen ein Auto an, und stellen fest der Motor ist aus. Wir können jetzt annehmen das ist ein Fehler, denn so fährt das nicht. Wenn das Auto aber gerade ohne Fahrer in einer Parklücke steht, dann könnte das tendenziell goldrichtig und genau nicht falsch sein, die Intention ist valide.

    Das bedeutet:
    Man muss sich die blockierten URLs nehmen und sich anschauen wo die hinzeigen. Dann überlegt man sich, ob man genau da einen Crawler haben will oder nicht.

    Wenn man einige URLs durchgeht, findet man dabei oft Muster, so dass man nicht 23000x überlegen muss, sondern nur darüber ob 10 bestimmte, wiederkehrende Muster nun richtig oder falsch sind.

    Wenn man das nicht beurteilen kann, geht man mit einem Muster einer solchen URL los und fragt ein Publikum, dabei können wir und andere Händlerkollegen zum Beispiel hier helfen.

    Dazu kann man ohne vorherige Analyse sehr wenig sagen. Gambio ist auch in dem Sinne auch keine SEO-Agentur, die einzelne Shopbetreiber da spezifisch beraten kann, dafür haben wir keine personelle Aufstellung.

    Wenn man nun SEO-Agenturen empfiehlt lehnt man sich immer weit aus dem Fenster, das ist generell sofort superdünnes Eis, weil da trotz aller Wissenschaft auch Alchemie mitspielt. Bei diesen beiden exemplarischen Vorschlägen hätte ich aber beispielsweise das Gefühl die wissen was sie tun und handeln plausibel:

    https://www.data-blue.de/
    https://www.orange-raven.de/
     
  6. guenter_zietlow

    guenter_zietlow Mitglied

    Registriert seit:
    25. November 2017
    Beiträge:
    10
    Danke erhalten:
    0
    Danke vergeben:
    2
    Hallo Wilken,

    wir danken Dir für Deine Hinweise und werden Deinen Rat befolgen.

    Gruß Günter