Habe dasselbe Problem mit unterschiedliche Sitemaps.
Der Verlauf - Die Sitemaps wurde in dieser Zeit einige male umgestellt/verändert und neu Übermittelt.
Pro Tag gecrawlte Seiten
Als die Sitemap zum ersten mal (wurde verändert - die Sitemap ist nun aufgeteilt) übermittelt wurde, crawlte Google alle Seiten.
Seitdem kommt der Googlebot, crawlt (unterschiedlich) und indexiert ein paar ( < 10 ) Seiten…
Die Hälfte der Seiten die in den Sitemaps stehen wurden nicht indexiert.
damit ne Seite in den Google index kommt musst du dich schon gedulden … wenns dumm geht über 8 Wochen … man kann das zwar oft ein bisschen beschleunigen trozdem sehr träge.
Ist ja auch verständlich Google ist ja nicht “arbeitslos” und wartet bis jemand (endlich) seine Seite in Webmaster Tools einträgt.
Bei meinen Sitemaps:
[ul][li]7/8 (ist aber eine doppelt)[/li]
[li]8/9 (eine davon ist umgezogen(301 header))[/li]
[li]363/845 (ka was da ist sind zu viele glaub sind aber einige kaputte dabei)[/li]
[li]318/347 …[/li][/ul]
Einfach mal warten, ggf. hier nen Link posten dann dauerts auch nimma so lang.
//edit2: meine sitemap datein sind meistens einfache txt Datein wo in jeder Zeile eine URL steht… Wenn du das mit xml datein machst dann solltest du auch drauf achten das des in etwa stimmtbwas du da angibst, denn ich denke mal nicht das du den artikel (blog.tssif-team.bplaced.de/der-e … eite-text/) stündlich änderst oder?
Habe mal ein paar Fehler mit der Hilfe von w3.org behoben und mit der Sitemap hast du auch recht .
Ich mache also heute/morgen einfach mal ne einfache Sitemap, lade die hoch und warte einfach so 2 Monate .