27
Mrz

Relevanz der semaGER Webseiten Analyse

   Posted by: SEO-Xplorer   in Werkzeuge

Ich bin heute durch einen Kunden mal wieder auf die Webseiten Analyse von semaGER angesprochen worden… „Hilfe! semaGER sagt meine Website ist Spam! Was mach ich bloß falsch?“

Daraufhin habe ich mir die Analyse mit ein paar Testwebseiten angeschaut…

…und ich muss sagen, da sind sicherlich ein paar recht wertvolle Tipps dabei, die die Maschine da ausspuckt. Insbesondere die Keyword Analyse und die Tipps für weitere Keywords sind gut zu gebrauchen. U.U. sind diese Tipps auch (nach weiterer Analyse über z.B. Google Insights Search und das Google Keyword Tool) dazu geeignet eventuelle Keyword-Substitutionen vorzunehmen (wenn z.B. das bisher nicht verwendete Keyword deutlich seltener gesucht wird als da Mögliche „Substitut“.

Aber bei einer der Testseiten z.B. bemäkelt die Maschine zu viele Hauptwörter => SPAM!
IMHO interessiert das Google derzeit! noch überhaupt nicht…

Da ist halt so eine Art Sitemap auf der Einstiegsseite, um den Benutzer von dort direkt dahin zuführen, wo er hin will; das ist deswegen noch lange kein Spam im Google Sinne. Für eine (semantische Such-) Maschine, die Volltexte (also so ganze Sätze) finden will, ist das natürlich nix…

Ich halte es jedenfalls jetzt noch für völlig verfrüht schon für semantische Suchmaschinen zu optimieren. Insbesondere solange sie der Otto-Normalverbraucher eh‘ nicht nutzt… Weil er’s auch nicht versteht… Der Standarduser ist froh, dass er meistens weiss was er bei Google eingeben muss, um zu finden was er sucht. – Mit semantischen Suchmaschinen muss man ganz andere Suchstrategien fahren…

So und nun nochmal zu der eigentlichen Website des Kunden: ein paar Keywords zuviel (aus der Sicht von semaGER) und sonst alles im sprichwörtlich „Grünen Bereich“ und schon ist die Seite SPAM!Kopfschüttel…
Insbesondere, da die Keywords in erster Linie – wenn man für Google (Marktanteil in Deutschland > 90%) optimiert – eh irrrelevant sind. Ein schönes Beispiel hierfür ist die Seite von Prof. Dr. Mario Fischer (www.websiteboosting.de) – einfach mal im Sourcecode nachschauen wie er so das keywords-meta-tag nutzt 🙂

Und gerade der Mittelteil der Latent Semantischen Analyse „könnte stark verbessert werden“. Z.B. bei etlichen Seiten tauch ein Keyword in einer 2-er Kombination in der Keywordliste links auf, um dann als „nicht vorhanden“ in der Rubrik „Keywords die aus semantischer Sicht ergänzt werden könnten“ aufzutauchen…

Auch die Frage ob Duplicate Content vorliegt oder nicht wird nicht wirklich beantwortet… Ein Klick auf den Link „Suche nach max. Übereinstimmung“ führt nur zu einer Suche nach einer Reihe von anscheinend eher zufällig ausgewählten Keywords… der Benutzer soll (kann?) sich dann selbst ein Bild machen, ob jetzt Duplicate Content vorliegt oder nicht…

Wichtiger sind da schon die Informationen von den Google-Webmaster-Tools! Denn wenn Google was zu meckern hat: Title/Description zu kurz, zu lang, auf mehreren Seiten gleich – DAS sollte einem „Sorgen“ machen… aber nur so lange bis man’s geändert hat… geht ja i.d.R. mit den Infos von Google auch schnell…

Tags: , ,

This entry was posted on Freitag, März 27th, 2009 at 22:37 and is filed under Werkzeuge. You can follow any responses to this entry through the RSS 2.0 feed. Both comments and pings are currently closed.

Comments are closed at this time.