Matt Cutts Übersetzung vom Youtube Video: Optimize for Search Engines or Users

Tja diese Frage kennt wohl jeder SEO:

SEO für Suchmaschinen oder User?

Drei Jahre alt und trotzdem aktuell. Ich denke jeder SEO kennt die Antwort auch ohne das Video zu sehen, wir alles wissen wie Erfolgreich so manche Webseiten sein können so lange es User gibt die diese interessant machen.

Zuerst wie immer das Original Youtube-Video:

Matt Cutts „Head of Webspam“ Optimize for Search Engines or Users

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

OK. Weiter geht’s. Nebenbei gesagt habe ich mein Impressum jemanden vom Google-Video-Team gezeigt und er sagte: “Mensch,  es sieht so aus, als wärst du entführt worden.“ Vielleicht sollte ich mir dahinten ja eine Art ‚Rocketboom’ oder so anschaffen, aber ich weiß nicht wirklich. Ich denke, euch sind die Informationen wichtiger und nicht wie hübsch es aussieht. (Das sollte er mal in Deutschland versuchen, Abmahnung garantiert 😉 )

OK. Todder schreibt. Ich habe eine einfache Frage:

„Was findest du bei der Entwicklung und Erhaltung einer Website wichtiger: Suchmaschinenoptimierung oder Endbenutzeroptimierung?“

[sociallocker] Todder, das ist eine großartige Frage! Beide sind sehr wichtig. Ich denke, wenn man beide nicht hat, funktioniert das nicht so gut, weil wenn man keine Suchmaschinenoptimierung hat, ist es schwieriger, gefunden zu werden. Und wenn man keine Endbenutzeroptimierung hat, bekommt man keine Conversion. So kann man die Leute nicht halten und dazu bewegen, seine Seite zu mögen, auf seinem Forum zu posten oder seine Produkte zu kaufen usw. Also ich meine, man braucht beide. Der Trick liegt allerdings darin, die Welt so zu sehen, dass sie das Gleiche sind und man sollte es so gestalten, dass die Interessen seiner Benutzer sowie das Interesse der Suchmaschine so verbunden wie möglich sind. Und wenn man das schafft, dann ist man gewöhnlich auch gut in Form. Denn man hat dann verlockenden Content, Gründe, warum man eure Seite besuchen möchte und so wird es für Benutzer und für Suchmaschinen sehr leicht sein, sich fortzubewegen und ihr müsst da auch wirklich keine seltsamen Tricks anwenden. Alles, was man tut, was gut für Suchmaschinen ist, wird man auch seinen Benutzern zeigen. Also denke ich, man sollte Beides ausgleichen.

Tedsie schreibt uns mit einigen interessanten Fragen.

Kannst du uns ein paar Werkzeuge zum Detektieren von Spam empfehlen?

Ich würde meine Seiten gern so ausgestalten, um sicherzustellen, dass diese sauber aussehen und eine rechtsgültige Weise haben, meine nicht so guten Spamming-Wettbewerber in die Pfanne zu hauen.“ Wenn du dir sicher bist, dass es sich um Spamming handelt, gibt es eine Menge Werkzeuge, um Spamming zu entdecken und zu kennzeichnen, aber die meisten von denen sind außerhalb von Google nicht verfügbar. Was du dir anschauen kannst ist der Yahoo-Site-Explorer, der Backlinks auf der Grundlage pro Seite und pro Domain anzeigt, wenn ich mich nicht irre. Das kann sehr nützlich sein. Außerdem gibt es Tools da draußen, um einen alles auf einer IP-Adresse zu zeigen. Wenn es sich allerdings um Virtual Hosting handelt, erhältst du tonnenweise völlig normale Seiten. Aber manchmal kann es vorkommen, dass jemand viele seiner Seiten auf einer IP-Adresse hinterlässt und wenn eine davon Spam ist, könntest du so mehr von deren Seiten finden, aber man sollte schon vorsichtig sein, nicht automatisch anzunehmen, dass sie alle zu einer einzigen Person gehören. Was das Prüfen deiner Seite angeht, um sicherzugehen, dass diese sauber erscheint, würde ich auf jeden Fall Sitemaps verwenden oder das Webmastertool, welches dir sagen kann, ob es Crawling-Fehler oder andere Probleme gibt, die gefunden wurden.

Die zweite Frage, die Tedzie stellt, die meiner Meinung nach wirklich gut ist, lautet: „

Wie sieht es mit der Sauberkeit des Codes, z.B. W3C aus?Besteht da eine Chance, dass die einsehbare Arbeit in den Haupt-Algorithmus durchsickert?“

Diese Frage stellt man mir nun schon sehr lange und meine typische Antwort lautet: Normale Menschen schreiben Code mit ihren, es passiert einfach. Eric Brewer, einer der Mitbegründer von Inktomi hat eine Studie durchgeführt, die im Grunde genommen gezeigt hat, dass 40 % aller HTML-Seiten Syntaxfehler haben und es gibt keine Möglichkeiten für eine Suchmaschine , 40 % vom Content des Index zu entfernen , nur weil jemand nicht validiert hat oder so. Also ich denke, es gibt sehr viel Content, besonders handgemachten Content, den Studenten benutzen usw.mw Er ist von sehr hoher Qualität, validiert aber wahrscheinlich nicht. Wenn man mich also vor einer Weile gefragt hätte, wäre mein Antwort die folgende gewesen: Wir haben so ein Signal nicht in unseren Algorithmen und dies wahrscheinlich auch aus einem guten Grund. Das ist traurig, jetzt da sich Roman die Arbeit gemacht hat, diese Suche anzustellen, und ich bin mir sicher, dass jemand daran arbeitet, es in einem möglichen Signal zu verwenden. Jedes Signal, welches wir verwenden, um die Qualität zu verbessern, muss durch eine Menge Bewertungen und so weiter. In der Regel ist es eine gute Idee zu versuchen, seine Seite zu validieren, aber ich würde es nicht als Priorität ansehen. Ich würde folgendes als Priorität ansehen: verlockender Content und das Herstellen einer guten Seite.*  Und wenn man dann all das erreicht hat, kann man zurückgehen und alles versuchen, um sicherzustellen, dass man auch gute Zugänglichkeit hat.  Man sollte immer nach einer guten Zugänglichkeit streben, aber Validierung und das Erreichen der letztgenannten Dinge macht in der Regel nicht so viel Unterschied für die Suchmaschinen. Eine Pause an dieser Stelle.

*Ich kenne SEOs die betrachten Matt Cutts als Labertasche von Google der nicht mehr wirklich an der Entwicklung beteiligt ist. Im Jahr 2014 ist das Zauberwort für SEO ,,Content“, früher waren es ,,Backlink“ und andere. Dieses Video entstand vor drei Jahren und die von mir Fett markierte Aussage ist für mich der Beweis das es sich durchaus Lohnt auch seine älteren Videos anzuschauen.

Wie immer bedanke ich mich bei  Susann Delgado Ruiz M.A. für die tolle Übersetzung.
[/sociallocker]