23.11.2012 0 comments Events

Keynote – SEOkomm Liveblogging

Marcus Tandler heizt den Besuchern gleich 400 Slides in 40 min – eine lustige Präsentationstechnik, bei der alle 1-2 Sekunden neue Folien eingeblendet werden.

Links sind laut Marcus immer noch ein Problem. Hidden text etc. schon lange bekämpft, versucht mit nofollow linkspam zu bekämpfen, hat nicht sonderlich gut funktioniert, dann Penguin-Update. Penguin auch gegen große Brands, die werden aber noch gebraucht.  Z.b. per reconsideraton request bekommt gute Infos zur Identifikation von gekauften Links, die dann wieder Grundlage für neue Updates sein können.

Disavow Tool hätte er nicht erwartet, weil Google damit zugibt dass negatives SEO möglich ist und kleine Webmaster dabei überfordert sein werden. Google verhindert die Überforderung zu verhindern, indem viele Warnhinweise angezeigt werden, und eine allgemein schlechte Usability. Unter dem Strich werden das eigentlich nur Leute nutzen, die wissen was sie machen und vor allem wissen was sie gemacht haben. Es ist quasi der Spam Report 2.0 – nicht mehr Andere anzeigen, sondern Selbstanzeige.

Penguin: sein Beispiel für ein „recovery“ ist check24

  • Ist eine Marke, marken sollen eigentlich genutzt werden um den „Sumpf“ im SEO-Bereich trocken zu legen
  • Da war der Fehler, dass der Brand eigentlich kaum im Linkprofil war

Was ist die Lösung? Wie geht es weiter? Content Marketing!

Tandler.Doerje.Partner hat einen Testcase aufgesetzt

Eigene Domain :Wofam.de (world of finance and money) . Haben einen Ratgeber zum Jahreswechsel gemacht, der per Infografik verbreitet wurde und es gab:

  • 1000 Linkes, viele Links, -> schnell gute Rankings … aber ein paar Wochen wieder weg.
  • Was lernt man daraus? Viele „Content Flights“ nacheinander, kontinuierlich geht es dann langsam nach oben, zeigt er an der Visibility eines Kunden.
  • Warum klappt es trotzdem bei vielen nicht? Weil es nicht gut gemacht wird!
  • Research/ Vorbereitung: Er empfiehlt den Social Visibilty Report von Searchmetrics, da kann man nach Plattform untersuchen, was auf welchen Seiten funktioniert
  • Seeding: Linkerati finden z.B. über Followerwonk

Und schon sind wir nach über 30 Folien bei … den Autoren und Author Rank.

Google hat das Problem, dass sie kein Social Network sondern ein Social Layer über alle ihre Produkte sind. Für Google gibt es kein zurück von Google Plus und der sozialen Suche, auch weil die Nutzer das mittlerweile erwarten.  SEOs müssen sich anpassen.

Wie untersucht Google ob ich ein guter Autor bin?

  • Interaktion untersuchen mit den Seiten des Authors, Klickstatisitken (Trivial bei bit.ty). Herausforderung ist, dass google herausfinden muss wer klickt und wer shared. Sie können es versuchen, ist aber nicht einfach.

Google wird Links nicht durch Social Signals ersetzen, weil es nicht geht: Wäre erst einmal genauso einfach zu manipulieren.

Google versucht es aber da einzubauen wo es Sinn macht, z.B. untersuchen welche Autoren in welchen Bereichen (da legt Marcus besonders wert drauf) gute Inhalte schreiben und teilen.

Deshalb denkt Marcus auch nicht, dass Google Facebook-Daten verwendet – denn das sind nur Metriken, nur mit dem Social Graph dahinter

Die Kategorisierung nach Themen funktioniert schon hin und wieder – siehe Klout, siehe Linkedin.

Es wird sicher kommen, dass man aktiv bzw. Experte in seiner Branche sein muss, um auch einflussreich in der Suche zu sein –> eine Meinung haben! Diskussionen anregen!

Author Integration verbessert CTR – jeder sollte mitmachen, auch die die nicht wollen, weil es so viel bringt!

Das ganze könnte aber noch weiter gehen – es gibt ein Patent von Google von 2004, das Links nach User Behavior werten will – dh Links im Footer , Sidebar, Widgets könnten weniger wert sein. Links im Content bringen einfach mehr … solange es kein SEO Blogpost ist, mit  1 Link auf Kunden und 1 Link auf wikipedia.

Das ist aber von 2004, wie könnte es jetzt sein? Traffic könnte laut ihm der Schlüssel sein – Chrome hat 32% Marktanteil. Über die Toolbar, Analytics, Adsense, Doubleclick hat Google extrem viele Daten. Laut einer Statistik haben mittlerweile 75% der Top 1 Mio Seiten einen Google Code auf ihrer Seite.

Google übergibt vielleicht auch nicht Referrerinformationen, weil sie wiederum wissen dass Facebook viele Integrationen hat und selber sehen könnte was Leute machen, um damit eine eigene Suche zu bauen. Laut Searchmetrics haben in den USA 30+% der Seiten einen Facebook Code.

Praxisbeispiel: „Scary Data“ von seinem Blog

  • Google bekommt sehr gute Nutzungsdaten.
  • Über Suche Abbruch/ Änderungen kann Google sehen, ob Nutzererwartungen befriedigt wurden. Daraus entstehen Muster, die Google analysieren kann.

Diese Informationen kann Google natürlich nutzen, um das beste Ergebnis für die User zu zeigen – und nicht unbedingt das, was das beste SEO macht. Dafür könnten dann Links stärker gewertet werden, die auch wirklich geklickt werden.

Beispiel Buchkauf: Traffic ist sehr schwer manipulierbar, somit wird auch immer Amazon für Bücher zu finden sein. Selbst über Mechanical Turk und Proxies ist es sehr schwer zu faken – denn man kennt das normaler Verhalten bei Keywords nicht (Suchvolumen, klickverhalten, Scrollverhalten …)

Google testet auch viel mit Webseiten – sieht man in den Webmastertools, CTR auf vielen verschiedenen Positionen wird angezeigt. Wenn man sich nach oben spammt, sieht so eine Grafik dann vielleicht nicht normal auch.

Wie kann man es faken? Man muss es nicht faken! CTR durch Rich Snippets erhöhen, guten Content schreiben -> schon ist man besser dran!

Am Ende lösen die SEOs wirklich die Probleme der Nutzer, angetrieben durch das Traffic-Verhalten – genau das will Google und genau das ist laut Marcus die Zukunft!

Leave a Comment

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>