Falsch. Falsch. (Wobei ich hier nur mutmaße den richtigen Shop genommen zu haben...) Es sind also erheblich mehr Bilder indexiert. Mit "das Problem ist noch da" könnte ich besser leben
Das is mir klar, ich meinte was GSC anzeigt nicht was real in google Bildersuche angezeigt wird. Geht ja nur darum ob es in der GSC dann besser dargestellt ist wieviele wirklich im index sind. Hab auch nicht erwartet das es nach 24h steigt. Wollte es aber festhalten jeden Tag damit man ne Tendenz sieht wie schnell es hoch/runter geht.
Nein, da steht was anderes. Da steht "Von den in der Sitemap eingereichten Bildern sind 3 indexiert". Da steht nicht "von der Property sind 3 Bilder indexiert". Es gibt ein Schnittmengenproblem von in der Sitemap referenzierten Bildern zu von der Property indexierten Bildern. Ich bin sehr sicher es gibt kein "es werden keine Bilder indexiert" Problem. Ich hab das die Tage immer wieder draussen untersucht und Stichproben genommen: Wieviele Links sind in der Sitemap, wieviel Bilder sind im Schnitt pro Seite da, wieviele sind im Google Index. Die Zahlen sind alles andere als beunruhigend ausgefallen. Ist etwas Arbeit, aber kann man ja auch jeder mal am eigenen Objekt ausmessen. Das Problem wird immer klarer zu: Wir geben überall sicher erreichbare Bilder in der Sitemap an, Google interessiert sich aber nicht dafür, weil es so klug ist aus der Seite Bilder holt, die als gleicher Inhalt erkannt werden und höherwertig eingestuft werden. Da steckt auch der Kurzschluss in Dennis These, die da nicht fachmännisch ist: Google will möglichst viele verschiedene Bilder, das findet Google gut. Google will aber nie immer wieder gleiche Inhalte vielfach gereicht bekommen, das mag Google nicht. Damit ist die hochwahrscheinliche Prognose unser immernoch eigentlich gut funktionierender Ansatz zur Erzielung guter SEO Ergebnisse für Bilder bei leichzeitiger Erhaltung von Betriebssicherheit für eine maximale Zahl von Leuten wirft einen neuen Beunruhigungsfaktor für Seitenbetreiber auf. Man kann dazu annehmen, dass die Existenz dieses Problems auch nahelegt, dass wir noch bessere SEO Ergebnisse für alle erzielen können, wenn wir unsere Kletterhilfen für Crawler der neuen Situation anpassen und daraufhin verändern. Der ist ja klüger geworden und macht ansich was richtiges. Wir müssen dann nur schauen, dass wir die Shopbetriebssicherheit dabei minimal gefährden, das ist eine Baustelle. Dazu gibts aber Ideen, alles in Arbeit.
Da google aber eh alle Versionen findet ist das Argument auch wieder nicht 100% Richtig von dir. Wir geben ihm zwar nur eine Version per Sitemap aber der crawler wird dennoch alle Versionen ansehen wenn er die Website besucht und entscheidet dann welche Version er nimmt. Hier tippe ich auf das original image wegen besserer Qualität in den meisten Fällen. Daher ja auch der Test aktuell. Und ja bin mir bewusst, dass es nur um das optische in der GSC geht und nicht um das reale. Meine Meinung ihm alle Versionen über Sitemaps zu geben ziehlt darauf ab zu sehen welche Versionen er indexiert. Wenn jede Größe eine Sitemap Datei hätte könnte man das halt schön auswerten und der Shopbetreiber sieht es umfangreicher dargestellt. Ich pers. bezweifle das das nachteile hätte oder ein Bilder crawling Budget reduzieren würde, da er eh alle Bilder beim crawlen findet. Und daher eh das selbe Budget beansprucht und verbraucht. Aber das müssen wir ja nicht hier ausdiskutieren. Warten wir ab wie die original images abschneiden.
Es geht um das reale. Das ist nicht erfunden, das ist so. Die Konsole hat recht. Worum es hier geht ist die Nachricht der Konsole GENAU zu lesen und GENAU zu interpretieren was die sagen will. Doch, ist es. Es geht darum dem Crawler einen maximalen Steigbügel zu geben, damit der seinen Job gut macht. Der Crawler ist ein Apfelsammler (blödes Bild für Inhalte) und sagt dir weil er ein Apfelsammler (Inhaltesammler) ist er hätte gerne Äpfel von dir. Du solltest ihm dann gezielt Äpfel geben und nicht noch Pfirsiche, Bananen und Schraubenschlüssel. Er wird die ohne das du ihm die Pfirsiche, Bananen und Schraubenschlüssel gibts wahrscheinlich auch sehen, aber schnell sagen die interessieren ihn nicht und dem keine tiefere Beachtung schenken. Er will ja Äpfel. Du willst nun sagen "Apfelsammler, du blödes Stück Technik, ich will dass du meine Pfirsiche, Bananen und Schraubenschlüssel auch ansiehst! Hey, vielleicht ist ein Pfirsich, eine Banane oder ein Schraubenschlüssel ja auch ein Apfel! Ich will dass du das genau ansiehst und Zeit dafür verwendest! Kuck hin! Mach es!" Das ist Unsinn. Und das weiss man vorher. Das hab ich vorher schon geschrieben, das weiss man auch so. Das ist völlig unnötig. Ändert aber nichts am Zeitverschwendungscharakter des Tests, denn man kennt immernoch vorher das Ergebnis, und das würde andere vorhanden, wertvolle Relationen zwischen Artikeln und Bildern immernoch verschlechtern. Das schrieb ich auch bereits. An dem Punkt waren wir schon. So stoisch wie du deine Idee immer wieder hochhältst, werde ich übrigens die erklärende Ablehnung immer wieder bringen. Chancenlos Dennis, nach Überlegung echt nicht gewollt und auch echt nicht als guter Vorschlag anerkannt. Alle SEO-involvierten hier sehen das anders.
Auf welcher Grundlage? Die Anzahl der Bilder die er abarbeitet ist die selbe. Die Sitemap ist lediglich ein Hilfsmittel, kein SEO Tool. Das zumindest die Aussage von Google selbst. Es soll laut google keinen Einfluss aufs Rangking haben steht bei denen. Also ist es nur eine Karte. Du sagst man soll nur relevante Äpfel zeigen (original Images). Ich sag geb ihm für jede Obstsorte ne Karte. Dann zeigt die GSC erheblich genauer die Gesamtanzahl der Bilder an auch wenn er ein popup statt eines Originalen Bildes nimmt. und ob er beide Versionen nimmt oder nur eine. Das Budget richtet sich doch nach Gesamtanzahl der Bilder die er abarbeitet. Wer sagt das er die Sitmeap Bilder zuerst abarbeitet und nicht erst die die ihm der webcrawler nennt? und wer sagt dass er durch die Sitemap die originalen schneller indexiert als anders? Nur weil du ihm die in der Sitemap gibst und er die anderen Größen nur über den webcrawler findet? - Das doch von euch genauso ne Theorie ohne belege. Ich verstehe ja was du meinst, ich seh das halt nur anders. Müssen wir auch nicht weiter ausdiskutieren. warten wir halt den Test ab.
also wenn ich bei mir mit site.domain.de bei images schaue, dann sehe ich dort hauptsächlich PDF-Files und nur wenige Bilder. Angeblich sind 73 indexiert, könnte hinkommen. Erklärung?
Das einliefern eine XML-Sitemap ist ganz klar eine SEO-Maßnahme. Welchen Grund hättest du sonst das zu tun? Crawler lenken ist SEO. Dann lösch mal deine Sitemap und gib nie wieder eine ab. Müsste dann ja nichts verändern. In der Praxis könnte das auf bereits im Index etablierten Seiten sogar annähernd sein, aber es gibt auch genug Gründe es trotzdem zu machen. Darauf will ich dich stossen. Was sagt das aus? Ist das Ding nun sachlich wertlos oder nicht? Wenn ja warum machen wir das hier dann? Warum willst du dann was anders haben? Du hast das nach wie vor nicht zuende gedacht. Das ist abgelehnt. Ich hab schon 3x (2x sehr deutlich) geschrieben warum. Nein. Das hat Nachteile. Die wollen wir nicht! Du musst lesen, nicht immer nur antworten. Die willst du nicht! Ich weiss das schon, ich bin da weiter mit deinem Denken. Nein, du kommst nicht weiter voran. Ja. Darum gehts nicht. Das isr irrelevant. Darum gehts nicht. Die These ist falsch, das behaupte ich nicht. Darum gehts auch nicht. Nein, es sind recht viele Belege daran zu glauben was wir empirisch geprüft haben. Du stellst nur immer falsche Thesen auf was wir glauben. Und du liest nicht was wir unbedingt behalten wollen, was wir bei deinen Ideen aufgeben müssten. Lies bitte endlich mal was ich schreibe, wenn du immer weiter widersprechen möchtest. Nimm dabei besonders das Wort Relationen auf. Wir wollen Relationen erhalten. Wir lieben Relationen. Weil Google Relationen liebt. Dein Modell kan keine Relationen. Wir wollen Relationen. Relationen Relationen Relationen. Relationen! *Seufz* Ich geh jetzt Kekse in der Firma suchen
Ich hab mir das kurz angesehen und schätze nach erstem Blick dass es tatsächlich ein Problem bei dir gibt. Die Beobachtungen unterscheiden sich auch von den vielen anderen Shops die ich angesehen habe, damit halte ich deinen Fall im Moment für besonders und nicht mit dem hier beschriebenen Fragen identisch. Ich weiss adhoc auch nicht zielsicher wodran das liegt. Dein Template wirft relativ viele Fehler und Warnings im W3C Validator, von Stilfragen über zuviele h1 Überschriften in Artikeln und invalides Javascript. Das ist nicht gut, aber ob das ein Killer ist oder nicht kann man auch nicht so leicht sagen. Ich hab mir die HTML Bildcontainer kurz angesehen, darin aber nicht sofort ein erkennbares Verbrechen entdeckt, so auf die Schnelle kann ich das nicht ermitteln. Wäre wahrscheinlich klug da mal einen SEO-Experten auf deine Baustelle draufsehen zu lassen.
Jap, hab ich auch weiter unten geschrieben. WOllte nur festhalten wie die veränderungen sind. und wenn paar leute täglich schauen sieht man wie unterschiedlich es abläuft oder ob es rel. gleich steigt. usw. Es ist lediglich ein festhalten des Tages Standes. Keine Wertung ! Steht übrigens immer noch auf 3
Was auffällt, ist, dass immer ein paar Bilder akzeptiert werden. Es sind nie "0" Bilder = grundsätzlicher Fehler. Welche Bilder sind das? Sind es z.B. diejenigen der Startseite, welche nur in einem einzigen Format vorliegen?
Es geht her nur und ausschliesslich um in der Sitemap gelistete Bilder. Es geht nicht um die Gesamtheit der Bilder auf deiner Webseite. Bilder auf deiner Startseite sind nicht in der Sitemap, also sind die raus. Die akzeptierten sprechen eher für Crawlingfehler. Die sind in sehr kleinem Umfang normal und recht unbedenklich. Würde der Crawler wirklich alles verstehen, müsste da eine 0 sein.
Könnten das nicht auch Kategoriebilder sein? Die liegen doch auch nur in einem Format vor und tauchen auch in der Sitemap auf
Na ja, so träge nun auch wieder nicht, wenn innerhalb von einer Woche rd 1800 Bilder aus der GSC entfernt werden, oder? Spass beiseite. Jetzt sind es es bei uns seit Tagen 0 oder 1 oder 2 (abwechselnd) Bilder in der GSC, bei den Bilder die man mit "site:domain" findet, tut sich seit Tagen auch nicht viel. Im Mittel werden rd. 995 Bilder angezeigt. Schwankt so um 0-3 Bilder am Tag. Irgendeinen Zusammenhang zwischen dem, was in der GSC steht und dem was beim Search auffindbar, scheint es offenbar nicht zu geben. "Normale" Webseiten sind 1042 eingereicht, 1014 gemäß GSC indexiert und wenn man die nach site:domain sucht bekommt man als Ergebnis zunächst "ca. 1810 Seiten". Ok verstanden, Google findet mehr als in der Sitemap angegeben. Soweit ok. Wenn man sich dann bis auf die letzte Seite der Paginierung durchklickt, hier Seite 30, steht dann oben auf Seite 30 "Seite 30 von 300 Ergebnissen", passt ja dann auch bei 10 Ergebnissen pro Seite. Das ist dann aber auch das einzige was da irgendwie zusammen passt, ansonsten erschließt sich da für mich kein weiterer Zusammenhang mehr mit den Informationen aus der GSC. Ich denke, dass die Bedeutung der sitemap tendenziell überbewertet ist. Google liest die Seite und indexiert was es will, wann es will, nach Regel die wir nur raten können. Vielleicht wird die sitemap zur Hilfe genommen, vielleicht aber auch nicht. Am naheliegensten für mich ist, dass Google Veränderungen in der GSC vorgenommen hat, im Handling der Bilder, das ist ja offensichtlich. Vielleicht auch einfach ein Fehler beim Umbau die neue GSC. Vielleicht versteh ich das alles auch nicht richtig, wenn mich da einer aufklären kann. Gerne. EDIT: Jetzt lese ich gerade das Google neuerdings selber empfiehlt, struktruierte Daten nicht über den Tag Manager auszuspielen, weil es "mal funktionieren könnte und mal nicht". Also habe ich die letzten beiden Absätze entfernt. Ganz ehrlich: Die spinnen doch.