Archive for März, 2010

23
Mrz

Ranking Faktoren 2010 – SMX München

   Posted by: SEO-Xplorer    in Allgemeines

Erstes Panel auf der SMX München:

Ranking Faktoren

Ben Hendrickson  (SEOmoz)

Marcus Tandler (Tandler Doerje und Partner)

Uwe Tippmann (abakus-internetmarketing.de)

Ben Hendrickson berichtete über einen rein statistischen Ansatz um die relevanten Rankingfaktoren zu ermitteln, in dem er sehr viele (~11.000) Suchanfragen und die dazu ausgelieferten Ergebnisse nach verschiedenen vermuteten Kriterien analysiert hat um Korrelationen herauszufinden… Ein insgesamt etwas dröger Vortrag, der insbesondere nur für Statistiker tatsächlich durchschaubar war…

Ein paar kleine Takeaways, die selbst ich habe heraushören können:

– Derzeit sieht es so aus, als würde Bing noch viel stärker als Google Links als primäre Rankingfaktoren bewerten.

– Onpage ist und bleibt das Keyword in der Domain schlichtweg DER Rankingfaktor, gefolgt von (allerdings schon mit sehr großem Abstand) dem Title-Tag. Alle anderen wie z.B. a-tag, h1, h2, subdomain, filename, querystring, … sind mit unterschiedlicher Standardabweichung sehr ähnlich wichtig, wenn auch nur mit deutlich geringerer statistischer Signifikanz als die zwei zuerst genannten…

Der zweite Vortrag des Panels von Uwe Tippmann

Speed Matters

führte sehr schön anschaulich auf, dass Page-Speed einer der neuen großen Rankingfaktoren sein wird, bzw. schon ist…

Google zeigt dem aufmerksamen SEO über diverse Kanäle, dass Google Webseitengeschwindigkeit für extrem wichtig hält (z.B. Google-Motto: „Let’s make the web faster“), dem kürzlich gelaunchten Google URL Shortener (auch hier mit dem Ziel Geschwindigkeit: kurze URLs sollen schneller aufgelöst werden können). Weiterhin gibt Google dem Webmaster/SEO Speed Tools an die Hand:

– Speed Tracer auch für Chrome (Google Web Toolkit)

– PageSpeed als Firefox Plugins (hat der Autor hier auch schon selbst eingesetzt und tatsächlich auf verschiedenen Websites erfolgreich genutzt)

– Load time („There is strong lobbying in Google to introduce page load as a new ranking factor into the system“ Matt Cutt PubCon Nov 2009)

– seit März 2008 bereits im Quality Score – Adwords Help Center – warum sollte Google dies also nicht auch mit in die Rankingfaktoren für die organischen Suchergebnisse mit einfließen lassen?

– Users are less likely to abandon a site that loads quickly (Adwords team)

– Fast is better than slow (Ten Things..)

– Google’s eigene Erfahrungen: Moving from a 10-result page loading in 0.4 sec to a 30-result page loadin in 0.9 seconds decreased troffic and ad revenues by 20% (Quelle: Google)

insbesondere auch für das Thema Realtime-Search ist natürlich der Pagespeed der Website wichtig. Um zu sehen wie schnell Google heutzutage in der Lage ist neue Websites zu erfassen und in den Index mit aufzunehmen, kann man auch selbst gut ausprobieren (Tipp von Uwe: URL-Parameter: &as_qdr=s90 (Advanced Search _ Query Date Range) Seconds 90 ). Laut Uwe ist der Indexing-Rhythmus in den USA bereits bei 1 Sekunde angekommen, hier in Deutschland hat er bisher einen Update-Rhythmus von ca. 10 Sekunden feststellen können.)
Für wen relevant?
– Sites, welch auf High-Traffic Keys / Keyword Sets optimieren
– Traffic-Spitzen bedienen können

– News-Papers / Seiten mit hohem Aktualitätsgrad
– schnelle Auslieferung der Inhalte

– Communities & Long-Tail Seiten
– Riesige Content-Mengen performant bereitstellen

– Sites in einem konkurrierenden Umfeld
– Performance des Mitbewerbers toppen

– Online Shops und kommerzielle Webangebote
– Product-Updates, Semantische und Strukturierte Daten zeitnah publizieren

Tools:
1. WebPagetest.org (incl. Vergleichstool + Video wie die Seite aufgebaut/gelanden)
2. ySlow (Yahoo!)
3. PageSpeed FF Plugins
4. Speedtracer (Ajax / Chrome)
5. Leistungsanalyse von Google (ab 1000 Messpunkte interessant/relevant)
6. Firebug

Best Practice:
– Smush IT Bilddaten Kompression
– gzip Datenkompression
http://httpd.apache.org/docs/2.0/ (.htaccess)
http://www.whatsmyip.org/http… (PHP)

– Javascript Compressing & CSS Shrinking

– Nutzung von DataURIs (MHTML) – reduzieren von HTTP / DNS Requests
<img src=“data:image/png;base64, iVBOR….rk.lggg“ />

CSS Sprites nutzen Image Requests reduzieren

Der letzte Vortrag von Marcus Tandler ging um Refined Rankings…

D.h. Rankingfaktoren die auf dem Konzept der optimierten User-Experience basieren. Soll heißen, dass die User durch ihre Nutzung der Suche und ihr Verhalten Google unmittelbaren Feedback auf die von ihnen wahrgenommene Qualität der Resultsets geben.

Marcus ging hierbei besonders auf 2 weiche Ranking-Faktoren ein:

1. CTR als Ranking Factor
2. Bounce Rate…

1. CTR als Ranking Factor

Hierbei trackt Google die CTRs bei verschiedenen ausgelieferten Resultsets um die Seiten mit der besten Clickrate auch besser zu ranken…

2. Bounce Rate

Dabei wird hier nicht einfach gemessen, wie oft der User direkt wieder über den Back-Butten zurück zur Suche zu kommen,  sondern auch ob der User innerhalb der gleichen Session zum gleichen Thema weitere Suchen durchgeführt hat, was für Google den Schluß zuläßt, dass wohl die bisher besuchten Seiten den User nicht haben zufriedenstellen können…

Basierend daruf gab er noch 2 ultimative Tipps:

=> Optimize your Snippet! Schreib ein Snippet was zum Hauptkeyword der Seite möglichst perfekt passt, um dem Benutzer klar zu machen, dass er auf Deiner Seite genau das bekommt wonach er gesucht hat. (Tipp: Verschiedene Snippets mit Adwords und anderen PPC-Programmen testen)

und:

=> Satisfy your Customer – biete an, was der User auch gesucht hat… (auf der Zielseite)

(Anmerkung: Links kommen später noch rein 😉  sorry habe aber hier auf der SMX direkt nicht die Zeit und Muße….)