Bessere Text mit ChatGPT

27-seitiges E-BOOk für 0 €

14 simple Tipps, mit denen ChatGPT dramatisch bessere Texte schreibt

In unserem E-Book zeigen wir dir, wie du mit kleineren Änderungen oder Ergänzungen in deinen Prompts mit ChatGPT deutlich bessere Texte schreibst.

Google-Ranking-Faktoren: 200+ Fakten, Mythen und (begründete) Spekulationen

200+ Google-Ranking-Faktoren im Überblick
Foto des Autors

Finn Hillebrandt

Zuletzt aktualisiert:

Google hat laut eigenen Angaben über 200 (oder je nach Quelle auch hunderte) Faktoren, anhand derer die Reihenfolge von Seiten in den Suchergebnissen bestimmt wird.

Listen oder Aufzählungen dazu gibt es schon viele. Diese haben jedoch oft Qualitäts-Probleme:

  • Sie vermissen Quellenangaben
  • Sie stützen sich auf unzuverlässige Quellen (z. B. Patente, die gar nicht von Google stammen)
  • Sie sind zu unübersichtlich
  • Sie listen Ranking-Faktoren, die vielleicht vor 10 Jahren mal relevant waren
  • Sie verwechseln oder vermischen Ranking-, Crawling- und Indexierungs-Faktoren
  • Ranking-Faktoren werden ohne Anlass als Fakten dargestellt

Das finde ich sehr schade. 😩

Deshalb habe ich versucht, es besser zu machen:

Ich habe alle Faktoren in meiner Liste penibel recherchiert, kategorisiert und bewertet. 🤓

Zu den aktuell 208 Faktoren findest du 600+ Quellenangaben. Umfassende Infos zur Zuverlässigkeit dieser Quellen habe ich dir weiter unten zusammengestellt.

Damit du dich besser in der Liste zurechtfindest, kannst du zudem alle Faktoren nach verschiedenen Kriterien filtern. 💪

Alles in allem ist ein riesiger Wissensfundus entstanden, den du auf unterschiedlichste Weise nutzen kannst, z. B. als Liste mit SEO-Mythen, als Checkliste für einen SEO-Audit oder um den Chef oder Kunden davon zu überzeugen, eine bestimmte SEO-Maßnahme umzusetzen.

Die 4 wichtigsten Ranking-Faktoren

Die wichtigsten Google-Ranking-Faktoren sind:

  1. Relevanz
  2. E-A-T
  3. Nutzererfahrung
  4. Technische SEO

Genau genommen handelt es sich dabei um Faktoren-Gruppen. Die meisten der 200+ Faktoren in dieser Liste lassen sich eine dieser Gruppen zuordnen.

Hier kurze (und vereinfachte) Erklärungen dazu, was die einzelnen Punkte bedeuten:

  • Je relevanter eine Seite ist, desto besser beantwortet sie eine Suchanfrage. Die Relevanz einer Seite bestimmt sich unter anderem daraus, wie häufig und an welchen Stellen das Keyword auf der Seite vorhanden ist.
  • Je mehr E-A-T (kurz für Expertise, Authority, Trust) eine Seite besitzt, desto vertrauenswürdiger ist sie. E-A-T bestimmt sich unter anderem durch die Anzahl und Qualität der Backlinks, die auf die Seite und die dazugehörige Website zeigen.
  • Je besser die Nutzererfahrung einer Seite ist, desto schneller beantwortet sie die Suchanfrage. Dazu zählt unter anderem, ob eine Seite mobiloptimiert ist und wie schnell sie lädt.
  • Technische SEO sorgt unter anderem dafür, dass eine Seite fehlerfrei gecrawlt, indexiert und im Browser angezeigt werden kann. Sie ist kein Ranking-Faktor an sich, stellt aber sicher, dass die Ranking-Signale einer Seite vollständig bei Google ankommen und wirkt sich auf andere Faktoren aus.

Wichtig dabei zu verstehen ist, dass Relevanz, E-A-T und die Nutzererfahrung je nach Suchanfrage eine andere Gewichtung haben können.

Für sensible Themen aus dem sogenannten YMYL-Bereich („Your Money, Your Life“), wie Gesundheit oder Finanzen, spielt die Vertrauenswürdigkeit (E-A-T) einer Seite und deren Website eine größere Rolle als deren Relevanz.

Ein Beispiel dazu…

Nehmen wir mal an, du suchtest bei Google nach „Erkältungssymptomen“ und es gäbe zwei Seiten dazu:

  1. Den Artikel „Grippesymptome erkennen und behandeln“ vom SPIEGEL, in dem das Wort „Erkältungssymptome“ einmal im Fließtext vorkommt, aber in dem es hauptsächlich um Grippesymptome geht.
  2. Den Artikel „Erkältungssymptome erkennen und behandeln“, in dem es zwar hauptsächlich um Erkältungssymptome geht und der deshalb die Suchanfrage besser beantwortet, aber der von der neuen und noch unbekannten Website „Gesundheitscheck24“ kommt.

Dann würde der Google-Algorithmus den Artikel vom SPIEGEL auf Platz 1 und den von Gesundheitscheck24 auf Platz 2 einordnen, weil in dem Fall die Vertrauenswürdigkeit höher wöge als die Relevanz.

Wichtige Hinweise zur Liste

1. Kein Ranking-Faktor ist 100 % sicher

Zur Recherche von Google-Ranking-Faktoren kommen generell folgende Quellen in Betracht:

  1. Aussagen von Google selbst (z. B. von Google-Mitarbeitern auf Twitter, auf offiziellen Google-Blogs oder -Hilfebereichen, wie der Google Search Central)
  2. Die Search Quality Evaluator Guidelines (Googles Leitfaden für menschliche Evaluatoren, deren Bewertungen zur Verbesserung des Google-Algorithmus verwendet werden)
  3. Wissenschaftliche durchgeführte Studien (z. B. von Searchmetrics, ahrefs oder SEMRush)
  4. Google-Patente und -Forschungspapiere
  5. Anekdoten, Case Studys und Erfahrungen von SEOs

Wichtig dabei zu wissen ist:

Jede dieser Quellen ist auf ihre eigene Weise rauschanfällig (inwiefern genau habe ich weiter unten geschrieben).

Das heißt zwar nicht, dass wir nicht viel dadurch lernen können und begründete Annahmen über den Google-Algorithmus treffen können (vor allem, wenn wir die Quellen miteinander kombinieren).

Letzten Endes ist die Funktionsweise des Algorithmus jedoch niemandem außer Google bekannt (bitte halte dir das stets vor Augen, wenn du in der Liste stöberst).

Um das zu verdeutlichen, habe ich für jeden Ranking-Faktor lediglich Wahrscheinlichkeiten angegeben, nach denen du die Liste filtern kannst:

Nach Wahrscheinlichkeit filtern

Die Quellenangaben für einzelne Faktoren findest du im Toggle unter jedem Faktor:

Toggle mit Quellen zu jedem Faktor

2. Crawling ≠ Indexierung ≠ Ranking!

Ich unterscheide in dieser Liste zwischen Faktoren, die sich auf das Crawling, die Indexierung und das Ranking beziehen. Du kannst sie in der Liste auch danach filtern:

Crawling, Indexierung oder Ranking?

Kurz zur Erklärung, was die Unterschiede sind:

  • Crawling-Faktor: Wirkt sich auf Crawl-Budget und -Geschwindigkeit einer Website aus (also wie schnell Google Seiten innerhalb einer Website entdecken kann)
  • Indexierungs-Faktor: Wirkt sich darauf aus, ob eine Seite in den Google-Index aufgenommen wird und welche Inhalte auf dieser Seite genau.
  • Ranking-Faktor: Wirkt auf den Ranking-Score für eine Seite (oder ganze Website) aus und damit auf deren Positionen für bestimmte Keywords in den Suchergebnissen.

Natürlich beeinflusst das Crawling die Indexierung und die wiederum das Ranking, letzten Endes sind das doch verschiedene paar Schuhe, die ich hier nicht vermischen möchte.

3. Positive, negative und nichtbinäre Faktoren

Du kannst die Liste nach positiven, negativen und nichtbinären Faktoren filtern:

Positiv, negativ oder nichtbinär?

Nichtbinäre Faktoren können sich je nach Ausgestaltung positiv oder negativ auf den Ranking-Score (bzw. Crawling und/oder Indexierung) auswirken.

4. Das Problem mit der Gewichtung

Ich habe es vermieden, die einzelnen Faktoren nach Gewichtung einzuteilen, denn Gewichtungen können sich je nach Thema, Keyword oder Nutzer unterscheiden.

Ein einfaches Beispiel:

Für ein Branded Keyword wie blogmojo google ranking faktoren, gelten ganz andere Faktoren als für ein normales Know-Keyword wie google ranking faktoren.

Das liegt daran, dass sie Suchintention eine ganz andere ist (bei ersterem Keyword wollen Nutzer genau diese Liste von Blogmojo lesen, bei zweiterem nicht unbedingt).

Dazu kommt, dass die Gewichtung einzelner Ranking-Faktoren wahrscheinlich durch maschinelles Lernen beeinflusst wird, was es schwerer macht, Gewichtungsmuster zu erkennen und bestimmte Faktoren als ursächlich für ein bestimmtes Ranking zu isolieren.

John Mueller vergleicht in einem Search Off the Record Podcast den Google-Algorithmus mit einem neuralen Netzwerk, bei dem viele Wege zu einem gewünschten Resultat führen können:

It’s not that every site has to do the same thing. So I use a mental model of something like a neural network […] And when you have this kind of a network, there are lots of different paths that could lead through that dental work that end up with the same result.

Kurzum:

Nutze diese Liste, um die allgemeine Qualität und Vertrauenswürdigkeit deiner Seiten und deiner Website zu verbessern. Aber konzentriere dich auf die Suchintention, wenn es um das Ranking für einzelne Keywords geht.

Was ich dir allerdings bieten kann, ist ein (vorsichtiger) genereller Gewichtungs-Trend:

Genereller Gewichtungs-Trend

5. Eine Liste, viele Möglichkeiten!

Durch die Fülle an Informationen und die zahlreichen Filterfunktionen kannst du die Liste auf vielfältige Weise nutzen, z. B.:

  • als Checkliste für einen On-Page-Audit oder Backlink-Audit
  • als Zusammenstellung von SEO-Mythen
  • um zu erfahren, welche Ranking-Faktoren von Google offiziell bestätigt wurden
  • um mehr über E-A-T zu erfahren
  • als Übersicht über Googles manuelle Maßnahmen

Faktoren filtern

Ranking-, Indexierungs- oder Crawling-Faktor?

Welche Kategorie?

Positiv, negativ oder nichtbinär?

Mit welcher Wahrscheinlichkeit ein direkter Faktor?

Genereller Gewichtungs-Trend

Sonstiges

Domainalter

Das Alter einer Domain (gemessen am Registrierungsdatum) ist vielleicht ein Ranking-Faktor.

Google könnte z. B. neu registrierte Domains in den SERPs “zurückhalten”, um Spam vorzubeugen.

Sollte das Domainalter ein Ranking-Faktor sein, ist es jedoch kein besonders gewichtiger:

Wenn eine alte Domain besser rankt als eine neue, ist es wahrscheinlicher, dass andere Faktoren dafür verantwortlich sind, wie z. B. ein höherer PageRank oder TrustRank.

Quellen und weiterführende Infos

In dem 2005 erstmals veröffentlichtem Googles Patent US7346839B2 wird das Registrierungsdatum als Beispielmethode genannt, um das Veröffentlichungsdatum (engl. inception date) eines Dokuments zu bestimmen:

According to another implementation, the date that a domain with which a document is registered may be used as an indication of the inception date of the document.

Das Veröffentlichungsdatum wiederum kann laut Patent für das Ranking von Dokument herangezogen werden:

Search engine 125 may use the inception date of a document for scoring of the document. For example, it may be assumed that a document with a fairly recent inception date will not have a significant number of links from other documents (i.e., back links). For existing link-based scoring techniques that score based on the number of links to/from a document, this recent document may be scored lower than an older document that has a larger number of links (e.g., back links). When the inception date of the documents are considered, however, the scores of the documents may be modified (either positively or negatively) based on the documents’ inception dates.

Das Patent erwähnt jedoch auch andere Methoden, um das Veröffentlichungsdatum eines Dokuments zu bestimmen, wie z. B. den ersten Backlink:

According to yet another implementation, the first time that a document is referenced in another document, such as a news article, newsgroup, mailing list, or a combination of one or more such documents, may be used to infer an inception date of the document.

In einem Video von 2010 äußert sich Matt Cutts, ehemaliger Leiter des Google Webspam-Teams und Mit-Erfinder des oben genannten Patents, zum Domainalter wie folgt:

Well, my answer ist not to worry that much. The difference between a domain that’s six month old versus one year old is really not that big at all. So as long as you’ve been around for at least a couple of month, a few months, you should be able to make sure that you’re able to show up in the search results

John Mueller sagte in 2019 auf Twitter, dass das Domainalter nicht beim Ranking hilft:

Aussage von John Mueller zum Domainalter auf Twitter

Keyword im Domainnamen

Dass das Keyword im Domainnamen vorkommt oder diesem komplett entspricht (was man im SEO-Jargon als Exact-Match-Domain, kurz EMD, bezeichnet) ist vielleicht noch ein positiver Ranking-Faktor.

Wenn, dann allerdings ein sehr geringer.

Es ist sogar möglich, dass es sich indirekt negativ auf das Ranking auswirken kann, wenn das Keyword in der Domain vorkommt, weil Google weitere Keyword-Optimierung dann eher als Keyword-Stuffing wahrnimmt.

Quellen und weiterführende Infos

Schon in einem Video von 2011 hatte Matt Cutts angekündigt, dass Keywords im Domain-Namen zu viel Gewicht hätten und dass dieser Ranking-Faktor in Zukunft schwächer werden würde:

We have looked at the rankings and weights that we give to keyword domains and some people have complained that we’re giving a little too much weight for keywords in domains. And so we have been thinking about adjusting that mix a little bit and sort of turning the knob down within the algorithm so that given two different domains, it wouldn’t necessarily help you as much to have a domain with a bunch of keywords in it.

Im Jahr 2012 wurde hierzu der sogenannte EMD-Filter von Google eingeführt. Der soll sicherstellen, dass Webseiten mit schlechten Inhalten keine guten Rankings mehr erhalten, nur weil das Keyword im Domain-Namen zu finden ist. Matt Cutts schrieb zur Einführung auf Twitter:

Minor weather report: small upcoming Google algo change will reduce low-quality “exact-match” domains in search results.

Laut der Searchmetrics Ranking-Faktoren-Studie von 2015 ist der Anteil von Keyword-Domains in den SERPs von 2012 bis 2015 kontinuierlich zurückgegangen:

In den Top30-Rankings des untersuchten Keyword-Sets ist der Anteil von Keyword-Domains weiter zurückgegangen. In unserer ersten Studie 2012 hatten wir dieses Feature noch als wichtig ausgewiesen, doch nicht zuletzt mit dem Exact-Match Domain Update von Ende 2012 hat Google diesen Faktor deutlich abgewertet. Seitdem sinken die Anteile von Keyword-Domains in den SERPs kontinuierlich. Dieser Domain-Typus war größtenteils zu Keyword-fokussiert; die Inhalte wiesen in vielen Fällen keine gute User Experience auf. Waren es im Jahr 2014 noch 13% der URLs, die das Keyword in der Domain enthielten, sind es im Jahr 2015 nur noch 10%. Auch im Hinblick auf die Korrelation haben Keyword-Domains ihren ehemals positiven Effekt als Ranking-Faktor verloren

Ebenfalls dagegen spricht, dass Keywords in Domains noch eine große Bedeutung als Ranking-Faktor haben, dass Google seit 2017 Keywords in Domains in den Suchergebnissen nicht mehr in Fettschrift hervorhebt.

Auch John Mueller sagte in einem Google Webmaster-Hangout von 2018, dass eine Domain nicht automatisch für ein Keyword rankt, nur weil dieses im Domainnamen enthalten ist:

Just because keywords are in a domain name doesn’t mean that it’ll automatically rank for those keywords.

Wenn man einer Aussage von John Mueller im August 2020 Glauben schenken darf, legt Google EMDs aber auch nicht generell Steine in den Weg:

John Mueller auf Twitter über EMDs

Domain-Ablaufdatum

Domains werden immer bis zu einem bestimmten zukünftigen Zeitpunkt registriert. Dieses Datum findest du entweder durch eine WHOIS-Abfrage oder direkt bei deinem Domain-Registrar oder Hoster.

So sieht das zum Beispiel bei Webgo aus:

Eine Domain wird bis zu einem bestimmten Zeitpunk in der Zukunft registriert

Domains werden immer bis zu einem bestimmten zukünftigen Zeitpunkt registriert. Dieses Datum findest du entweder durch eine WHOIS-Abfrage oder direkt bei deinem Domain-Registrar oder Hoster.

So sieht das zum Beispiel bei Webgo aus:

Eine Domain wird bis zu einem bestimmten Zeitpunk in der Zukunft registriert

Es ergibt zwar Sinn, dass wertvolle Domains mehrere Jahre im Voraus bezahlt werden und solche Domains von Google entsprechend höher eingestuft werden.

Es ist trotzdem eher unwahrscheinlich, dass für Google das Ablaufdatum einer Domain ein Ranking-Faktor ist:

Die allermeisten Domains werden für 1 Jahr bezahlt. Bei vielen Registraren oder für viele TLDs ist eine Buchung für 3, 5 oder 10 Jahre im Voraus auch gar nicht möglich. Wenn das Ablaufdatum also eine Rolle spielt, dann nur eine sehr sehr geringe.

Quellen und weiterführende Infos

In Patent US7346839B2, das von Google im Jahre 2003 angemeldet wurde, geht es um das Ranking von Seiten anhand von historischen Daten. Im Zuge dessen wird auch der Registrierungszeitraum von Domains genannt:

Valuable (legitimate) domains are often paid for several years in advance, while doorway (illegitimate) domains rarely are used for more than a year. Therefore, the date when a domain expires in the future can be used as a factor in predicting the legitimacy of a domain.

Geschichte einer Domain

Wenn du mit dem Gedanken spielst, eine Bestands-Domain zu erwerben, solltest du gut aufpassen:

Die Geschichte einer Domain ist wahrscheinlich ein Ranking-Faktor für Google.

Achte beim Domainkauf darauf, dass…

  • die Domain nicht übermäßig viele Spam-Backlinks aufweist
  • Google keine manuelle Maßnahme gegen sie verhängt hat
  • es keine DMCA-Beschwerden zur Domain gibt
  • auf der ehemaligen Website keine illegale Downloads, Malware, Spam oder zweifelhafte Inhalte (Glücksspiel, Rassismus, Gewaltverherrlichung etc.) zu finden waren

Quellen und weiterführende Infos

Im Google Patent US7346839B2 heißt es:

A system identifies a document and obtains one or more types of history data associated with the document. The system may generate a score for the document based, at least in part, on the one or more types of history data.

John Mueller von Google betont in diesem Reddit-Thread sogar, dass die negative Vergangenheit einer Domain in manchen Fällen nicht rückgängig gemacht werden kann und dass es keinen internen Reset-Button bei Google gibt:

There’s no “reset button” for a domain, we don’t even have that internally, so a manual review wouldn’t change anything there. If there’s a lot of bad history associated with that, you either have to live with it, clean it up as much as possible, or move to a different domain. I realize that can be a hassle, but it’s the same with any kind of business, cleaning up a bad name/reputation can be a lot of work, and it’s hard to say ahead of time if it’ll be worth it in the end.

In diesem Video von 2014 gibt Matt Cutts einige Tipps dazu, was man beim Domainkauf beachten sollte. Er sagt zum Beispiel, dass man überprüfen solle, ob die Domain automatisch generierten Spam-Content enthalten hat:

So check with archive.org and see if you can find previous versions of the site. If it’s auto generated spammy content, that’s a really bad sign and may be a reason to avoidthat domain.

Geparkte Domain

Auf eine geparkte Domain (engl. parked domain) bist du mit Sicherheit schon einmal gestoßen.

Hierbei handelt es sich um eine Platzhalter-Website, die keinen Inhalt, sondern lediglich eine “Coming Soon”- oder “Domain steht zum Verkauf”-Nachricht beinhaltet. Dazu werden oft Werbeanzeigen eingeblendet:

Beispiel für eine geparkte Domain

Wie du dir denken kannst, haben geparkte Domains sehr selten einen Wert für Suchmaschinen-Nutzer. Deshalb entfernt Google die meisten dieser Domains aus den Suchergebnissen.

Quellen und weiterführende Infos

Google hat in einem Blogpost von 2011 angekündigt, einen Algorithmus eingeführt zu haben, der geparkte Domains erkennt und (in den meisten Fällen) aus den Suchergebnissen entfernt:

This is a new algorithm for automatically detecting parked domains. Parked domains are placeholder sites with little unique content for our users and are often filled only with ads. In most cases, we prefer not to show them.

Länderspezifische Top-Level-Domain (ccTLD)

Eine länderspezifische Top-Level-Domain (auch ccTLD genannt) kann Ranking-Vorteile im eigenen Land bringen. Eine .de-Domain wird also z. B. bei Suchanfragen in Deutschland besser bewertet also zum Beispiel eine .ch-Domain, auch wenn der Textinhalt auf beiden Websites auf Deutsch ist.

Im internationalen Ranking können sich ccTLDs allerdings nachteilig auswirken. Wenn du also eine mehrsprachige Website betreibst, dann ist eine generische Top-Level-Domain (gTLD) wie .com oder .net die bessere Wahl.

Quellen und weiterführende Infos

In der Google Search Central findet sich eine Aussage von Google, die diesen Ranking-Faktor bestätigt:

Sie können Ihre Website oder Teile davon auf Nutzer in einem bestimmten Land ausrichten, die eine bestimmte Sprache sprechen. Dies kann das Seitenranking Ihrer Seite im Zielland verbessern, dafür aber zu schlechteren Ergebnissen in anderen Sprachen bzw. für andere Länder führen.

Sowie in der Search Console-Hilfe:

Websites mit länderspezifischen Top-Level-Domains wie etwa “.ie” oder “.fr” sind bereits einer geografischen Region zugeordnet – in diesem Beispiel Irland oder Frankreich.

Und weiterhin in einem FAQ-Artikel von John Mueller:

By default, most ccTLDs (with exceptions) result in Google using these to geotarget the website; it tells us that the website is probably more relevant in the appropriate country.

Privates WHOIS

WHOIS ist ein öffentliches Protokoll, das Kontakt- und Adressdaten zu Besitzern und Ansprechpartnern einer Domain enthält.

Dieses Protokoll kann man zum Beispiel über die Kommandozeile, die jeweiligen zentralen Registrierungsstellen (wie z. B. die DENIC) oder diverse WHOIS-Tools abfragen:

Beispiel für einen WHOIS-Record

Da Google selbst ein Domain-Anbieter ist, könnte es für Google möglich sein, massenhaft WHOIS-Daten abzufragen und zu speichern.

Um private Blognetzwerke oder Spam-Aktivitäten zu verschleiern, setzen einige Website-Betreiber deshalb auf WHOIS Privacy. Dabei werden die eigenen Adress- und Kontaktdaten anonymisiert (durch Einsetzen von Proxy-Informationen).

Das heißt, dass Google Domains mit verschleiertem WHOIS weniger trauen könnte.

Dagegen spricht jedoch erstens, dass die Daten vieler ccTLDs (wie z. B. von .de-Domains) nie über das WHOIS abrufbar waren (siehe Screenshot). Zweitens dürfen seit der Anwendung der DSGVO im Mai 2018 sämtliche Adress- und Kontaktdaten von Domains nicht mehr öffentlich sein oder ohne Rechtsgrundlage gesammelt werden. Ein neues DSGVO-konformes WHOIS-System ist zwar schon in Arbeit, aber zieht sich hin.

Quellen und weiterführende Infos

In Patent US50761703P wird beschrieben, dass WHOIS-Records (und ggf. Veränderungen daran) dafür genutzt werden könnten, dubiose Domains zu erkennen:

The DNS record contains details of who registered the domain, administrative and technical addresses, and the addresses of name servers (i.e., servers that resolve the domain name into an IP address). By analyzing this data over time for a domain, illegitimate domains may be identified. For instance, search engine 125 may monitor whether physically correct address information exists over a period of time, whether contact information for the domain changes relatively often

Matt Cutts hat im Rahmen der Pubcon 2006 folgendes Statement gegeben:

Rather than any real content, most of the pages were pay-per-click (PPC) parked pages, and when I checked the whois on them, they all had “whois privacy protection service” on them. That’s relatively unusual. Having lots of sites isn’t automatically bad, and having PPC sites isn’t automatically bad, and having whois privacy turned on isn’t automatically bad, but once you get several of these factors all together, you’re often talking about a very different type of webmaster than the fellow who just has a single site or so.

Seite deckt relevante Unterthemen ab

Wenn eine Seite relevante Unterthemen zu einem eingegebenen Keyword abdeckt, ist dies wahrscheinlich ein positiver Ranking-Faktor für Google.

Nicht nur für das Ranking mit einzelnen Abschnitten (Stichwort: Passage Ranking), sondern auch für das Ranking der gesamten Seite.

Quellen und weiterführende Infos

Google hat im Blogpost zu seinem Search On-Event im Oktober 2020 angekündigt, bald in der Lage zu sein, relevante Unterthemen noch besser zu erkennen:

We’ve applied neural nets to understand subtopics around an interest, which helps deliver a greater diversity of content when you search for something broad. As an example, if you search for “home exercise equipment,” we can now understand relevant subtopics, such as budget equipment, premium picks, or small space ideas, and show a wider range of content for you on the search results page. We’ll start rolling this out by the end of this year.

Im Video dazu wird diese Algorithmus-Änderung noch einmal genauer erklärt:

We’ve now started to use AI to learn about these subtopics, which lets us capture the particular nuance of what each page is really about. We can then use this information in ranking to show a wider range of results for broad queries, so we can be more helpful to all the types of people who want to find something that’s just right for their particular need. Sometimes the answer you need is in a webpage, but other times it’s in a video.

In Googles How Search Works findet sich folgender Absatz:

Zusätzlich zum Abgleich der Keywords suchen die Algorithmen nach Hinweisen, um festzustellen, wie relevant die Ergebnisse für die Suchanfrage sind. Wenn du den Suchbegriff “Hunde” eingibst, suchst du vermutlich nicht nach einer Seite, auf der das Wort “Hunde” etliche Male vorkommt. Wir versuchen daher herauszufinden, ob eine Seite eine Antwort auf deine Frage enthält oder nur den Suchbegriff wiederholt. Die Suchalgorithmen analysieren, ob Seiten relevante Inhalte enthalten – wie zum Beispiel Bilder oder Videos von Hunden oder auch eine Liste verschiedener Hunderassen.

Clickbait in Meta-Beschreibung oder Titel

Als Clickbait (wörtlich übersetzt Klickköder) bezeichnet man Überschriften, Vorschaubilder oder Teaser-Texte, die Nutzer durch Übertreibung, Auslassung oder Kontroversität zum Klicken bewegen sollen.

Da das schlecht für die Nutzererfahrung ist, könnte Clickbait in der Meta-Beschreibung, im Titel oder anderen Elementen, die als Vorschau in den Suchergebnissen angezeigt werden, ein negativer Ranking-Faktor sein.

Zusätzlich oder alternativ könnte Clickbait dafür sorgen, dass Google selbst eine Beschreibung bzw. einen Titel für das Suchergebnis auswählt.

Quellen und weiterführende Infos

In Hilfedokument zu Google Discover wird mehrfach betont, dass ein Artikel wahrscheinlicher dort angezeigt wird, wenn dessen Titel, Titelbild und Snippet im Allgemeinen kein Clickbait enthält:

To increase the likelihood of success, ensure that you are posting outstanding and engaging content that you think users would find interesting. Especially consider the following: Having page titles that capture the essence of the content, but in a non-clickbait fashion.Avoiding tactics to artificially inflate engagement by using misleading or exaggerated details in preview content (title, snippets, images) to increase appeal, or by withholding crucial information required to understand what the content is about. Avoiding tactics that manipulate appeal by catering to morbid curiosity, titillation, or outrage.

Seit Juli 2020 sind Clickbait-Anzeigen bei Google Ads untersagt. Dementsprechend könnte dies auch auf die organische Suche zutreffen:

Im Juli 2020 aktualisiert Google die Richtlinie zu falschen Darstellungen, um die Richtlinie zu “Clickbait-Anzeigen” einzuführen. Sie gilt für Werbung mit Texten oder Bildern, die reißerisch sind oder Clickbaiting enthalten und Nutzer zu Klicks auf die Anzeige animieren, um weitere Informationen dazu zu erhalten.

Googles Qualitäts-Checkliste im Blogartikel zu Core Updates enthält folgende Frage:

Does the headline and/or page title avoid being exaggerating or shocking in nature?

Seiteninhalt in iframe

Inhalte in einem <iframe> werden in manchen Fällen nicht von Google indexiert und werden entsprechend nicht für Ranking berücksichtigt.

Externe Inhalte über einen <iframe>zu laden, kann sich zudem negativ auf die Ladegeschwindigkeit einer Webseite auswirken.

Quellen und weiterführende Infos

Auch John Mueller sagt zwar in einem Webmaster-Hangout von Juni 2017, dass Google in manchen Fällen ein eingebetteten <iframe> zur Seite gezählt, in der er eingebettet wird:

In particular if a page is embedded within an iframe, within a bigger other page, then it’s possible that we will index that embedding page as well. And when we render that page we obviously see your content because it’s is visible in the iframe as well. And to some extent we may say well this is the whole page with this content on it, we will index it like that. So we could show it in search results like that.

In einem Webmaster-Hangout von April 2020 wird dies auch von Martin Splitt bestätigt, allerdings müssen dafür bestimmte Voraussetzungen erfüllt sein, z. B. muss der <iframe> groß genug sein:

In certain cases, we will flatten iframe content into the document. That is when the iframe is large enough and when the content is – I’m not sure what the other signal is that we are using to consider it as inlineable. But if it’s inlined into HTML, it is at least sent to indexing. What I don’t know at this point, because that is also a question about indexing and somewhat related to ranking, is how ranking slash indexing actually considers this content. It is marked as flattened or injected or inlined. I think inlined is the term we’re using. It is marked as inline content. I’m not sure how it’s used in ranking. I’m not sure how exactly it is used in indexing. So I would assume it gets inlined in certain conditions. And if you see it inlined in the testing tools, that means that we’re at least seeing the content as part of this document.

Kurzum:

Wenn du auf Nummer sicher gehen willst, dass Google deine Inhalte indexiert und ins Ranking mit einbezieht, sollten diese nicht in einem <iframe> sein.

lang-Attribut in HTML

Das lang-Attribut kann im HTML-Code dazu verwendet werden, um die Sprache einer Seite anzugeben. Hier ein Beispiel für eine Seite, die als deutschsprachig ausgezeichnet ist:

<html lang="de">

Von Google wird das lang-Attribut jedoch wahrscheinlich für das Ranking ignoriert.

Quellen und weiterführende Infos

In einem Webmaster Hangout von 2016 sagt John Mueller, dass das lang-Attribut von Google komplett ignoriert wird und man stattdessen hreflang-Links nutzen sollte:

We don’t use that at all. So we use the hreflang links if you have that if you have different language versions. But the language attribute within the HTML markup is something we don’t use at all. We’ve found that this language markup is something that is almost always wrong. So we tend to ignore that.

Auf die Frage, ob Google das lang-Attribut nutzt, wenn hreflang-Links vorhanden sind, antwortet John Muller in einem Tweet von 2018, dass dieses ignoriert wird (allerdings sagt er nichts davon, ob es auch ignoriert wird, wenn keine hreflang-Links vorhanden sind).

hreflang-Links

hreflang-Links werden von Google genutzt, um die Sprache einer Seite zu bestimmen. Zusätzlich helfen sie Google dabei, verschiedene Sprachversionen einer Seite zu finden.

Sie sind entsprechend ein Crawling- und ein Ranking-Faktor.

Die Links werden im <head>-Bereich einer Webseite untergebracht und haben folgendes Format:

<link rel="alternate" hreflang="Sprachcode, z. B. de-de" href="URL, der Seite selbst oder der anderen Sprachversion"/>

Quellen und weiterführende Infos

Google schreibt in einem Hilfedokument in der Google Search Central:

Fügen Sie dem Header Ihrer Seite <link rel="alternate" hreflang="lang_code"...>-Elemente hinzu. Dadurch wird Google über alle Sprach-/Regionsversionen einer Seite informiert. Dies ist nützlich, wenn Sie keine Sitemap haben oder keine HTTP-Antwort-Header für Ihre Website angeben können.

Und weiterhin:

Wenn mehrere Versionen einer Seite für verschiedene Sprachen oder Regionen existieren, informieren Sie Google darüber. Dadurch führt die Google-Suche Nutzer zu der Version Ihrer Seite mit der passenden Sprache oder Region. Beachten Sie, dass Google auch dann andere Sprachversionen Ihrer Seite finden kann, wenn Sie uns nicht informieren. Das beste Ergebnis wird jedoch erzielt, wenn Sie Seiten in bestimmten Sprachen oder für bestimmte Regionen angeben.

In einem Webmaster Hangout von 2016 sagt John Mueller, dass das lang-Attribut von Google komplett ignoriert wird und man stattdessen hreflang-Links nutzen sollte:

We don’t use that at all. So we use the hreflang links if you have that if you have different language versions. But the language attribute within the HTML markup is something we don’t use at all. We’ve found that this language markup is something that is almost always wrong. So we tend to ignore that.

Im Bericht zur internationalen Ausrichtung kann man die häufigsten Fehler bei der Implementierung von hreflang-Links beheben:

Bericht zur internationalen Ausrichtung in der Google Search Console

Sentiment des Textes

Als Sentiment bezeichnet man die emotionale Färbung eines Textes (z. B. kritisch, positiv oder neutral).

Es ist jedoch unwahrscheinlich, dass das Sentiment ein Ranking-Faktor ist. Denn durch Herausfiltern kritischer oder lobender Artikel würde Google Partei ergreifen und die Suchergebnisse zensieren.

Quellen und weiterführende Infos

Google verfügt über die notwendige Technologie, um sogenannte Sentiment-Analysen von Textblöcken durchzuführen. Im Rahmen der Produkte AutoML Natural Language und Natural Language API bietet Google dies sogar für Kunden an:

Googles Natural-Language-Produkte implizieren Sentiment-Analyse

2018 sagte Danny Sullivan auf Twitter, dass Sentiment-Analyse nicht für die Google-Suche verwendet wird.

Auf Kritik von Donald Trump, dass Google ihn und andere konservative Stimmen in der Suche benachteilige, entgegnete ein Google-Sprecher:

When users type queries into the Google Search bar, our goal is to make sure they receive the most relevant answers in a matter of seconds. Search is not used to set a political agenda and we don’t bias our results toward any political ideology. Every year, we issue hundreds of improvements to our algorithms to ensure they surface high-quality content in response to users’ queries. We continually work to improve Google Search and we never rank search results to manipulate political sentiment.

Nutzung von strukturierten Daten (Schema.org)

Die Verwendung von Schema.org-Markup ist vielleicht ein direkter Ranking-Faktor.

Dafür würde sprechen, dass Schema.org Google dabei helfen kann, den Inhalt einer Seite besser zu verstehen (was man je nach Betrachtungsweise auch als indirekten Ranking-Faktor sehen kann).

Abgesehen davon kann Schema.org dafür sorgen, dass für eine Seite ein sogenanntes Rich Snippet in der Google-Suche angezeigt wird, das heißt ein auffälligeres Suchergebnis mit Sternen, einem Bild oder Eckdaten zum Inhalt, wie z. B. bei diesem Rezept:

Rich Snippets eines Rezepts dank WP Recipe Maker

Und dafür lohnt sich die Verwendung allemal!

Quellen und weiterführende Infos

Auf einer alten Support-Seite zu den Google Webmaster Tools (abgerufen 2011) sagt Google, dass Schema.org-Markup kein Ranking-Faktor ist:

Google doesn’t use markup for ranking purposes at this time—but rich snippets can make your web pages appear more prominently in search results, so you may see an increase in traffic.

Matt Cutts bestätigt in einem Video von 2012 verneint nicht explizit, dass es ein Ranking-Faktor ist:

Just because you implement schema.org doesn’t mean that you should necessarily rank higher. But there are some core cases. Like if you were to type in lasagna and then click over on the left-hand side and click on the recipes, that’s the sort of thing where using a schema.org markup might help because then you’re more likely to be showing up in that at all. So there are some cases where it can be helpful to use chema.org markup. I wouldn’t necessarily count on that giving you any sort of ranking boost. I’m not going to take it off the table.

In einem Hangout von September 2015 sagt John Mueller, dass Google vielleicht eines Tages Schema.org-Markup als Ranking-Faktor verwendet:

[…] over time, I think it [structured markup] is something that might go into the rankings as well.

John Muellers Aussage von 2018 dazu:

There’s no generic ranking boost for SD usage. That’s the same as far as I remember. However, SD can make it easier to understand what the page is about, which can make it easier to show where it’s relevant (improves targeting, maybe ranking for the right terms).

Mehrere H1-Überschriften

Es gilt zwar als allgemeine Best Practice bei der Suchmaschinenoptimierung, nur eine <h1>-Überschrift auf einer Seite zu nutzen.

Die Verwendung mehrere <h1>-Überschriften wirkt sich aber wahrscheinlich nicht negativ auf das Ranking aus.

Quellen und weiterführende Infos

Auf die Frage, ob es gut oder schlecht ist, mehrere H1-Überschriften auf einer Seite zu haben, antwortet Matt Cutts in einem Video von 2009:

Well, if there’s a logical reason to have multiple sections, it’s not so bad to have, you know, multiple H1s. I would pay attention to overdoing it. If your entire page is H1, that looks pretty cruddy, right?

Auf die Frage, wie viele <h1>-Überschriften auf einer einzelnen Seite benutzt werden sollten, antwortet John Müller in einem Tweet von 2017:

As many as you want.

Im HTML Living Standard findet sich ein Beispiel zu H-Überschriften, in dem mehrere <h1>-Überschriften verwendet werden:

Beispiel mit mehreren H1-Überschriften

Auch im älteren W3C-Standard ist nicht davon die Rede, dass eine Seite nur eine <h1>-Überschrift enthalten sollte. Hier findet sich ebenfalls ein Beispiel, in dem mehrere <h1>-Überschriften vorkommen:

Some people consider skipping heading levels to be bad practice. They accept H1 H2 H1 while they do not accept H1 H3 H1 since the heading level H2 is skipped.

Zu viele Links auf einer Seite

Zu viele Links auf einer Seite können das Crawling behindern.

Allerdings ist dieses Limit mittlerweile sehr hoch (mehrere Tausend Links).

Quellen und weiterführende Infos

In einem alten Blogpost von 2008 hatte Google noch empfohlen, maximal 100 Links auf einer Seite zu verwenden, um Nutzer nicht zu verwirren:

Including too many links on one page confuses visitors (we usually encourage webmasters to not have much more than 100 links per page).

Laut einem Blogpost von Matt Cutts in 2009 wurde dies empfohlen, weil Google ursprünglich nur die ersten 100 KB einer Seite indexieren konnte, was aber mittlerweile aufgehoben ist. Er empfiehlt dennoch die Anzahl der Links aus Gründen der Nutzererfahrung zu beschränken:

These days, Google will index more than 100K of a page, but there’s still a good reason to recommend keeping to under a hundred links or so: the user experience. If you’re showing well over 100 links per page, you could be overwhelming your users and giving them a bad experience. A page might look good to you until you put on your “user hat” and see what it looks like to a new visitor.

In einem Video von 2013 bestätigte Matt Cutts noch einmal, dass die Begrenzung auf 100 Links aufgehoben wurde und dass es vielleicht noch eine Größenbegrenzung für Webseiten gibt, diese aber mittlerweile deutlich höher angesetzt ist:

There may be a limit on the file size that we have now, but it’s much larger. […] But if you compare our old guideline of 100 links and you look at what the web looks like now, it’s quite common to have 200 or 300 or 400 links on a page, as long as the page is long, it has value add, there’s substantial amount of substance and real stuff on that page. So the short answer is really not to worry about it, or not to limit yourself to 100 links anymore.

Mittlerweile steht in Googles Richtlinien für Webmaster im Abschnitt “Google beim Finden der Seiten unterstützen”:

Beschränke die Anzahl der Links auf einer Seite auf ein vernünftiges Maß (maximal einige Tausend).

Zu viele H-Überschriften

Es ist unwahrscheinlich, dass es so etwas wie ein generelles Limit für H-Überschriften (<h1>, <h2>, <h3> etc.) auf einer Seite gibt.

Quellen und weiterführende Infos

Ich habe keine Quellen zu einem generellen Limit von H-Überschriften gefunden. Auf die Frage, wie viele <h1>-Überschriften auf einer einzelnen Seite benutzt werden sollten, antwortete John Müller jedoch in einem Tweet:

As many as you want.

Und das lässt sich möglicherweise auch auf <h2>, <h3> usw. übertragen.

Code-to-Text-Ratio

Ein hoher Anteil an Code gegenüber Content (auch Code-to-Text-Ratio oder Text-to-HTML-Ratio genannt) ist wahrscheinlich kein direkter negativer Ranking-Faktor.

Es ist jedoch möglich, dass ein hoher Anteil an Code ein indirekter Ranking-Faktor ist, z. B. wenn…

  • die Seite dadurch langsamer lädt (z. B. durch einen höheren Browser Reflow oder eine höhere Übertragungsgröße)
  • die Seite dadurch bei den Core Web Vitals schlechter abschneidet
  • der Content dadurch schlechter lesbar ist
  • die Indexierung des Contents verhindert wird (z. B. durch Nachladen von Content mit JavaScript)

Quellen und weiterführende Infos

John Mueller sagt in diesem Webmaster-Hangout von 2016, dass seines Wissens der Text-zu-HTML-Anteil kein Ranking-Faktor ist:

As far as I know, we don’t use the text-to-HTML ratio for anything. So this is something that I think some SEO tools came up with at some point. But from our point of view, we don’t use that at all.

Er führt aber weiter aus, dass es sich dennoch lohnen kann, den Text-zu-HTML-Anteil anzuschauen, weil aufgeblähtes HTML sich negativ auf die Ladegeschwindigkeit auswirken kann:

Unless there is something of value that you can pull out of that which works for your users, because maybe what you could be looking at there is seeing that these pages are kind of bloated HTML. And when you serve them to users, especially on mobile, it slows everything down.

Seite hat kein klar erkennbares Thema

Wenn eine Seite kein klar erkennbares Thema hat, wirkt sich das wahrscheinlich negativ auf das Google-Ranking aus.

Das ist zum Beispiel der Fall, wenn eine Seite:

  • sehr lang ist
  • unterschiedliche Themen und Keywords abdeckt
  • aus vielen kurzen Absätzen zu nicht zusammenhängenden Themen besteht
  • aussagekräftige Titel und Überschriften vermissen lässt

In SEO-Sprech wird dieses Phänomen auch Keyword Dilution (Dilution = Verwässerung) genannt.

Quellen und weiterführende Infos

Google bestimmt die Relevanz einer Seite sehr wahrscheinlich daran, wie häufig und prominent ein Keyword, dessen Synonyme und relevante Wörter im Inhalt vorkommen und wie gut eine Seite die Suchintention des Keywords erfüllt.

Daraus ergibt sich:

Durch die Abwesenheit jeglicher herausstechender Keywords oder Themen kann Google eine Seite nicht inhaltlich einordnen (und die Seite wird wahrscheinlich auch keine positiven Nutzersignale oder Backlinks sammeln).

Mischmasch-Seiten oder sehr lange Seiten könnten jedoch durch das sogenannte Passage Ranking, das 2021 in der Google-Suche eingeführt werden soll, profitieren und an Sichtbarkeit gewinnen.

Google-Mitarbeiter Martin Splitt drückte es in einem Q & A von November 2020 so aus:

Passages are kind of like a lifeline for pages that happen to have good information on them just buried and/or diluted in a really bad way.

Dass Passage Ranking für sehr lange Seiten und Mischmasch-Seiten vorteilhaft sein kann, erklärt Google zudem in diesem Twitter-Thread:

Typically, we evaluate all content on a web page to determine if it is relevant to a query. But sometimes web pages can be very long, or on multiple topics, which might dilute how parts of a page are relevant for particular queries. With our new technology, we’ll be able to better identify and understand key passages on a web page. This will help us surface content that might otherwise not be seen as relevant when considering a page only as a whole […]

Probleme mit strukturierten Daten

Probleme mit strukturierten Daten sind ein negativer Ranking-Faktor für Google.

Solche Probleme umfassen zum Beispiel verborgene, irrelevante oder irreführende Inhalte in den strukturierten Daten, wie z. B.:

  • Strukturierte Daten passen nicht zum Inhalt
  • Ein Non-Food-Rezept ist als Rezept gekennzeichnet
  • Ein Feiertag oder ein Gutschein wurde als Veranstaltung gekennzeichnet

Quellen und weiterführende Infos

Eine Verstoß gegen die Richtlininien für strukturierte Daten können laut der Richtlinien zu einem schlechteren Ranking führen, eine manuelle Maßnahme auslösen oder zur Folge haben, dass keine Rich Snippets mehr angezeigt werden:

Seiten oder Websites, die gegen diese Inhaltsrichtlinien verstoßen, erhalten möglicherweise ein schlechteres Ranking oder werden als nicht geeignet für die Anzeige in den Rich-Suchergebnissen der Google-Suche eingestuft. Hierdurch soll gewährleistet werden, dass unsere Nutzer die Internetsuche optimal nutzen können. Falls wir feststellen, dass deine Seite spam-artige strukturierte Daten oder Inhalte enthält, ergreifen wir für diese Seite eine manuelle Maßnahme.

Probleme mit strukturierten Daten werden in der offiziellen Auflistung manueller Maßnahmen aufgeführt.

Authorship-Markup

Mittels des Link-Attributs rel="author" wurde ein Bild des Autors in den Suchergebnissen angezeigt:

Beispiel für Authorship-Markup

Durch die Nutzung rel="publisher"wurde eine Website oder ein Unternehmen im Knowledge-Panel in der Google-Suche angezeigt.

Dieses sog. Authorship-Markup wurde in 2013 im Rahmen von Googles (in 2019 komplett auf Eis gelegtem) sozialen Netzwerk Google+ eingeführt.

Mittlerweile ist das Authorship-Markup kein Ranking-Faktor mehr (wenn es denn je ein Ranking-Faktor war) und führt auch nicht mehr zur Anzeige von Rich Snippets.

Quellen und weiterführende Infos

Auf der Hilfeseite zum Authorship-Markup steht:

Authorship markup is no longer supported in web search.

Text oder andere Inhalte in JavaScript

Das Nachladen von Text und anderen Inhalten (wie z. B. Bildern oder Videos) mittels JavaScript kann Probleme bei der Indexierung dieser Inhalte machen.

Zwar rendert der Googlebot JavaScript im Rahmen des Crawlings und der anschließenden Indexierung, wie in dieser Grafik aus der Google Search Central ersichtlich ist:

Crawling, Rendering und Indexing von Googlebot

Allerdings klappt dies nicht immer zuverlässig.

Deshalb sollten vor allem wichtige Inhalte idealerweise nicht per JavaScript nachgeladen werden. Wenn das nicht möglich ist, solltest du entweder versuchen für die Suche relevante JavaScript-Probleme zu beheben oder dynamisches Rendering zu implementieren.

Quellen und weiterführende Infos

In der Google Search Central gibt es einen eigenen Bereich zum Thema JavaScript SEO. Dort findet sich diese Aussage (auf der Unterseite “Für die Suche relevante JavaScript-Probleme beheben“):

JavaScript wird zwar vom Googlebot ausgeführt, allerdings musst du beim Design deiner Seiten und Apps einige Unterschiede und Beschränkungen beachten, damit deine Inhalte richtig gecrawlt und gerendert werden.

Und diese hier (auf der Unterseite “Dynamisches Rendering implementieren“):

Die Verarbeitung von JavaScript ist derzeit schwierig und nicht alle Suchmaschinen-Crawler können JavaScript sofort oder erfolgreich verarbeiten.

Weitere Infos zum Thema JavaScript-SEO findest du in Googles dazugehöriger Video-Serie auf YouTube. Google führt zudem regelmäßig Frage-und-Antwort-Runden speziell zu JavaScript-SEO auf dem YouTube-Kanal der Google Search Central durch.

Text in Bildern

Dank maschinellem Lernen hat Google zwar in den letzten Jahre große Fortschritte in der Objekt- und Texterkennung in Bildern gemacht, wie man z. B. an der eindrucksvollen Cloud Vision API sehen kann:

Cloud Vision API

Dennoch gilt für die Google-Suche nach wie vor:

Text in Bildern wird wahrscheinlich (noch) nicht indexiert und trägt entsprechend nicht zum Ranking des Bildes oder der Seite, in die das Bild eingebunden ist, bei.

Zudem ist Text in Bildern problematisch für die Barrierefreiheit und für Menschen, die zum Textverständnis auf Übersetzungs-Tools angewiesen sind.

Quellen und weiterführende Infos

Dass Google sich mit der Texterkennung in Bildern im Kontext der Google-Suche zumindest beschäftigt, zeigt Patent US20130039570. Darin wird eine Technologie vorgestellt, mit deren Hilfe Keywords aus Bildtext extrahiert werden können:

The method includes receiving an input of one or more image search terms and identifying keywords from the received one or more image search terms. The method also includes searching a collection of keywords including keywords extracted from image text, retrieving an image associated with extracted image text corresponding to one or more of the image search terms, and presenting the image.

In seinen Best Practices für Bilder empfiehlt Google allerdings nach wie vor, Text (insbesondere wichtigen) nicht in Bilder einzubetten:

Text sollte nicht in Bilder eingebettet werden. Dies gilt insbesondere für wichtige Textelemente wie Seitenüberschriften und Menüelemente, da ansonsten nicht alle Nutzer darauf zugreifen können und weil Seitenübersetzungstools bei Bildern nicht funktionieren. Für die maximale Zugänglichkeit Ihrer Inhalte empfehlen wir, dass Sie für Text nur HTML verwenden und für Bilder Alternativtext angeben.

Und rät zur Verwendung von Alternativtexten:

Google verwendet Alternativtext, Algorithmen für maschinelles Sehen und den Inhalt der Seite, um das Thema des Bildes zu verstehen. Alternativtext in Bildern ist auch als Ankertext nützlich, wenn Sie ein Bild als Link verwenden.

Laut diesem Tweet von John Mueller in 2018 hat der Alternativtext übrigens auch für die Google-Bildersuche eine sehr große Bedeutung (und das trotz der großen Fortschritte bei der Bilderkennung in den letzten Jahren):

Alt text is extremely helpful for Google Images if you want your images to rank there. Even if you use lazy-loading, you know which image will be loaded, so get that information in there as early as possible & test what it renders as.

Maschinell generierter Text

Maschinell generierter Text, der ohne menschliches Lektorat veröffentlicht wurde und der Manipulation von Suchmaschinen-Rankings dient, ist ein negativer Ranking-Faktor für Google.

In den letzten Jahren gab es jedoch große Entwicklungssprünge bei der maschinellen Textgenerierung, die klassische Methoden wie Markow-Ketten alt aussehen lassen.

Tools wie GTP-3, die auf Deep Learning aufbauen, werden es für Google immer schwerer machen, automatisch generierte Texte algorithmisch oder manuell zu erkennen.

Ich rechne deshalb damit, dass Google diesbezüglich in den nächsten Jahren härter durchgreifen wird.

Quellen und weiterführende Infos

Automatisch generierte Inhalte verstoßen gegen Googles Richtlinien für Webmaster. Im dazugehörigen Hilfedokument schreibt Google:

Automatisch generierte Inhalte sind Inhalte, die durch ein Programm erstellt wurden. Wenn Suchrankings manipuliert werden sollen und nicht dazu gedacht sind, Nutzern zu helfen, kann Google entsprechende Maßnahmen bezüglich dieser Inhalte ergreifen.

Dazu zählen auch maschinell generierte Texte:

Text, der durch automatisierte Prozesse wie Markow-Ketten generiert wird

Automatisch generierte Inhalte können auch eine manuelle Maßnahme seitens Google auslösen und werden in der offiziellen Auflistung unter dem Punkt “Minderwertige Inhalte mit geringem oder gar keinem Mehrwert” aufgeführt.

Irreführende Weiterleitungen

Irreführende Weiterleitungen auf einer Seite sind, ähnlich wie Cloaking, ein negativer Ranking-Faktor für Google.

Das beinhaltet zum Beispiel:

  • Suchmaschinen eine Version der Seite anzuzeigen und echte Nutzer zu einer anderen Version weiterzuleiten
  • Desktop-Nutzern eine Version der Seite anzuzeigen und mobile Nutzer zu einer Spam-Seite weiterzuleiten

Quellen und weiterführende Infos

Irreführende Weiterleitungen (engl. sneaky redirects) verstoßen gegen Googles Richtlinien für Webmaster. Sie sind auf einer eigenen Hilfeseite in den Qualitätsrichtlinien aufgeführt:

Einige Weiterleitungen jedoch täuschen Suchmaschinen oder zeigen Besuchern andere Inhalte als diejenigen, die den Crawlern zur Verfügung gestellt werden. Es stellt einen Verstoß gegen unsere Richtlinien für Webmaster dar, Nutzer zu anderen Seiten mit der Absicht weiterzuleiten, ihnen eine andere Seite zu zeigen als dem Suchmaschinen-Crawler.

Sie sind auch in Googles Liste der manuellen Maßnahmen unter dem Punkt “Cloaking bzw. irreführende Weiterleitungen” gelistet.

Manipulativ versteckter Text

Versteckte Texte können in manchen Fällen ein negativer Ranking-Faktor sein.

Vor allem dann, wenn diese Texte den Anschein erwecken, Google-Rankings zu manipulieren. Das ist zum Beispiel der Fall, wenn lange Keyword-Listen durch weißen Text auf weißem Hintergrund oder Schriftgröße 0 für Nutzer verborgen werden.

Quellen und weiterführende Infos

Versteckte Texte und Links verstoßen gegen Googles Richtlinien für Webmaster. Sie sind auf einer eigenen Hilfeseite in den Qualitätsrichtlinien aufgeführt:

Das Verbergen von Text oder Links in Ihren Inhalten mit dem Ziel, das Ranking in den Google-Suchergebnissen zu beeinflussen, kann von Google als Täuschung und somit als Verstoß gegen die Richtlinien für Webmaster angesehen werden.

Versteckter Text ist in Googles Liste der manuellen Maßnahmen unter dem Punkt “Verborgener Text bzw. überflüssige Keywords” gelistet.

In den Google Search Quality Evaluator Guidelines wird versteckter Text in einem Beispiel zu “Lowest Quality Pages” (Seiten mit niedrigster Qualität) genannt:

In fact, there is a brown-text-on-brown-background section at the bottom of the page (which we consider to be hidden text) that says “Disclaimer: Rachael Ray is not affiliated with nor does she sponsor or endorse this blog.” This page is deceptive in spite of the disclaimer!

Manipulativ versteckte Links

Versteckte Links können in manchen Fällen ein negativer Ranking-Faktor sein.

Vor allem dann, wenn diese Links den Anschein erwecken, Google-Rankings zu manipulieren. Das ist zum Beispiel der Fall bei:

  • Links in 1 x 1 Pixel großen Bildern
  • Links ohne Ankertext
  • Links mit einem einzigen Sonderzeichen als Ankertext (z. B. einem Punkt oder Bindestrich)

Quellen und weiterführende Infos

Versteckte Links verstoßen gegen Googles Richtlinien für Webmaster. Sie sind auf einer eigenen Hilfeseite in den Qualitätsrichtlinien aufgeführt:

Das Verbergen von Text oder Links in Ihren Inhalten mit dem Ziel, das Ranking in den Google-Suchergebnissen zu beeinflussen, kann von Google als Täuschung und somit als Verstoß gegen die Richtlinien für Webmaster angesehen werden.

Versteckte Links können auch eine manuelle Maßnahme auslösen. Sie werden zwar nicht explizit in Googles Liste der manuellen Maßnahmen genannt, jedoch ist die oben genannte Hilfeseite unter dem Punkt “Verborgener Text bzw. überflüssige Keywords” verlinkt.

Nutzung von relevanten Entitäten im Text

Unter Entitäten versteht man im Suchmaschinen-Kontext Dinge, Personen oder Konzepte, die einzigartig und eindeutig identifizierbar sind.

Dazu zählen zum Beispiel Personen des öffentlichen Lebens, Musik-Titel, Filme, Sehenswürdigkeiten oder Orte. Bei Schema.org gibt einen kompletten Überblick darüber, welche Arten von Entitäten es gibt.

Sie sind Bestandteil des Google Knowledge Graph, der 2012 offiziell eingeführt wurde. Einträge aus dem Knowledge Graph werden in Form von Infoboxen (dem sogenannten Knowledge Panel) in der Google-Suche angezeigt:

Google Knowledge Graph mit der Entität "Angela Merkel"

Entitäten und ihre Beziehungen untereinander sind wichtig für Googles Verständnis von Texten. Sie sind sozusagen “Ankerpunkte” in einer Sprachwelt voller Zweideutigkeiten, an denen sich der Google-Algorithmus bei der Relevanzbewertung einer Seite orientieren kann.

Wenn die Suchanfrage eine Entität enthält, ist es wahrscheinlich ein direkter Ranking-Faktor für Google, wenn auf einer Seite diese Entität oder verwandte Entitäten erwähnt werden.

Quellen und weiterführende Infos

In Patent US20160371385A1 ist Entität wie folgt definiert:

An entity is a thing or concept that is singular, unique, well-defined and distinguishable. For example, an entity may be a person, place, item, idea, abstract concept, concrete element, other suitable thing, or any combination thereof.

Das Patent WO2014089776A1 beschreibt, wie Entitäten dazu beitragen können, Suchergebnisse anzuzeigen, wenn die Suchanfrage eine Entität enthält:

The search system may determine weights for the metrics, wherein the weights are based in part on the type of entity included in the search. The search system may determine a score by combining the metrics and the weights. The search system may rank search results based on the score.

Dazu werden bestimmte Kennzahlen errechnet, wie z. B. die Verwandtheit der auf der Seite vorkommenden Entität mit der Entität, die in der Suchanfrage vorkommt:

An illustrative metric is, for example, a relatedness metric. In some implementations, the relatedness metric is determined based on the co-occurrence of an entity reference contained in a search query with the entity type of the entity reference on web pages. An entity type may be a defining characteristic and/or categorization of an entity. For example, where the search query contains the entity reference”Empire State Building, ” which is determined to be of the entity type”Skyscraper, ” the co-occurrence of the text “Empire State Building” and “Skyscraper” in webpages may determine the relatedness metric.

Falls du wissen willst, welche Entitäten dein Text enthält, kannst du das mit der Demo der Natural Language API von Google testen. Deren zugrundeliegende Technologien kommen wahrscheinlich auch (in ähnlicher Form) in der Google-Suche zum Einsatz:

Entitäten eines Beispieltexts in der Natural Language API Demo

Seite enthält relevante Textpassage

Wenn eine Seite eine relevante Textpassage enthält, die laut Googles neusten NLP-Technologien eine Suchanfrage beantworten kann, kann diese Seite in Zukunft bei Google dafür ranken:

Ranking von Textpassagen

Und das selbst dann, wenn die restliche Seite für die Suchanfrage nicht relevant ist.

Quellen und weiterführende Infos

In seinem Blogpost zum Search On Event 2020 schreibt Google:

We’ve recently made a breakthrough in ranking and are now able to not just index web pages, but individual passages from the pages.

Dabei hat das Wort index anfangs Verwirrung ausgelöst. Google hat daraufhin noch einmal auf Twitter klargestellt, dass Textpassagen nicht unabhängig von der dazugehörigen Seite indexiert werden und bestätigt, dass es sich dabei um einen Ranking-Faktor handelt:

This change doesn’t mean we’re indexing individual passages independently of pages. We’re still indexing pages and considering info about entire pages for ranking. But now we can also consider passages from pages as an additional ranking factor

Laut dem Video des Search On Events blendet Google beim Passage Ranking die Teile der Seite aus, die nicht so hilfreich sind:

Our new algorithm can zoom right into this one passage on a DIY forum that answers the question. Apparently, you can use the reflection of a flame to tell, and ignores the rest of the posts on the page that aren’t quite as helpful.

Das sogenannte Passage Ranking basiert auf BERT (kurz für Bidirectional Encoder Representations from Transformers), einer Technologie, die den Kontext vor und hinter einem Wort zur Relevanzbewertung in Betracht zieht und seit Oktober 2019 in der Google-Suche verwendet wird:

This breakthrough was the result of Google research on transformers: models that process words in relation to all the other words in a sentence, rather than one-by-one in order. BERT models can therefore consider the full context of a word by looking at the words that come before and after it—particularly useful for understanding the intent behind search queries.

Aufteilung des Textes in Abschnitte

Die Aufteilung des Textes auf einer Seite in kürzere Abschnitte könnte Google dabei helfen, einen Text besser zu verstehen.

Denn aktuelle Technologien im Bereich NLP (kurz für Natural Language Processing) können aufgrund der enormen Rechenleistung, die dafür benötigt wird, bislang nur kürzere Texte verarbeiten.

Die Aufteilung eines Textes in kürzere Abschnitte ist z. B. möglich durch:

  • <section>-Tags (Stichwort: semantisches Web!)
  • H-Überschriften (<h2>, <h3> etc.)
  • <div>-Tags oder Gutenberg-Blöcken in WordPress (vielleicht)
  • <p>-Tags (Absätze)
  • Satzzeichen (sehr lange Schachtelsätze könnten ein Nachteil sein)

Quellen und weiterführende Infos

Google hat in seinem Search On Event 2020 angekündigt, in Zukunft Textpassagen in den Suchergebnissen anzuzeigen, um Suchanfragen schneller beantworten zu können (der angezeigte Text im Beispiel ist 276 Zeichen und 55 Wörter lang):

Ranking von Textpassagen

Zusätzlich hat Google angekündigt, bald Unterthemen eines Textes besser verstehen zu können.

Googles BERT, das seit Oktober 2019 in der Google-Suche zum Einsatz kommt, verarbeitet je nach Einsatzzweck meist zwischen 128 und 768 Zeichen (Tokens), wie man aus dieser Tabelle entnehmen kann (das entspricht etwa 18 bis 110 deutschen Wörtern):

BERT-Modelle und deren Token-Anzahl

Es ist jedoch gut möglich, dass sich das schon bald ändern wird, denn die Entwicklung im NLP-Bereich geht aktuell rasend schnell voran. Im Oktober 2020 haben Google-Forscher zum Beispiel ein auf BERT basierendes Modell namens SMITH vorgestellt, das 2048 Zeichen verarbeiten kann (also ca. 227 deutsche Wörter):

[…] our proposed SMITH model outperforms the previous state-of-the-art models including hierarchical attention [34], multi-depth attention-based hierarchical recurrent neural network [14], and BERT. Comparing to BERT based baselines, our model is able to increase maximum input text length from 512 to 2048.

Salienz

Als Salienz (aus dem Englischen salience) bezeichnet man die semantische Gewichtung einer Entität (z. B. Ort, Person oder Objekt) innerhalb eines Dokuments oder Textabschnitts.

Enthält das Keyword ein oder mehrere bekannte Entitäten, könnte Google die Salienz dieser Entitäten auf einer Seite mit in das Ranking mit einbeziehen.

Quellen und weiterführende Infos

Im Research Paper A New Entity Salience Task with Millions of Training Examples stellen Google-Forscher ein NLP-Modell vor, das bisherige keyword-basierte Modelle zur Relevanzbewertung eines Dokuments durch die Salienz ersetzen soll:

Although many NLP systems are moving toward entity-based processing, most still identify important phrases using classical keyword-based approaches. To bridge this gap, we introduce the task of entity salience: assigning a relevance score to each entity in a document.

Und weiterhin:

While traditional techniques treat documents as collections of keywords, many NLP systems are shifting toward understanding documents in terms of entities. Accordingly, we need new algorithms to determine the prominence – the salience – of each entity in the document.

Mit der Natural Language API bietet Google eine Technologie für Cloud-Kunden an, mit der man die Salienz einer Entität innerhalb eines Textes bestimmen kann:

salience gibt den Stellenwert bzw. die Relevanz dieser Entität für den gesamten Dokumenttext an. Dieser Wert kann beim Abrufen von Informationen und bei der Zusammenfassung nützlich sein, indem auffällige Entitäten priorisiert werden. Werte, die näher bei 0.0 liegen, haben eine niedrige Relevanz. Werte, die näher bei 1.0 liegen, haben eine hohe Relevanz.

Wie das in der Praxis aussieht, kann man mit einer Demo der Natural Language API ausprobieren. Im Beispieltext haben die Entitäten Google und Mountain View die höchsten Salienz-Scores (allerdings geht es im Text um ein neues Android-Smartphone, woran man sehen kann, das die Salienz alleine nicht ausreicht, um das Thema eines Textes zu bestimmen):

Salience in der Natural Language API Demo

John Müller streitet sowohl in diesem Tweet als auch in diesem Tweet von Dezember 2019 nicht direkt ab, dass Salienz ein Ranking-Faktor ist. Er merkt aber an, dass die APIs nicht unbedingt eins zu eins in der Google-Suche verwendet werden:

I wouldn’t worry about that. Feel free to play with our APIs, there’s lots of cool things you can learn & make with them, but don’t assume that everything is used 1:1 in search.

Keyword Proximity

Keywords bestehen oft aus mehreren Wörtern. Wenn diese Wörter auf einer Seite näher beieinander stehen, wird diese Seite wahrscheinlich von Google als relevanter für das Keyword eingeschätzt.

Ein Beispiel für das Keyword blaubeertorte ohne sahne:

Gut (Abstand ist 0 Wörter): Eine Blaubeertorte ohne Sahne zu machen ist nicht schwer. Statt Sahne nehmen wir einfach Kokos-Sahne.

Schlecht (Abstand ist 12 Wörter): Um die Blaubeertorte zu machen, brauchen wir erst 300 Gramm Blaubeeren. Da wir sie ohne Sahne machen, brauchen wir auch Kokos-Sahne.

Dieser Abstand wird auch als Keyword Proximity bezeichnet.

Quellen und weiterführende Infos

Hinweise auf diesen Ranking-Faktor finden sich im Google Patent US7716216B1:

For example, documents that contain every term of the search query or that contain multiple occurrences of the terms in the search query may be deemed more relevant than other documents and therefore may be more highly ranked by the search engine. Other factors, such as the closeness of terms (also referred to as distance between the terms) in the document may also be considered. Closeness of terms in this context may be measured simply by counting the number of words in the document occurring between the search terms.

Keyword ist auffällig formatiert

Wenn das Keyword auf einer Seite auffällig formatiert ist, also z. B. in Fettschrift, kursiv, unterstrichen oder eine größere Schriftgröße hat, ist das vielleicht ein positiver Ranking-Faktor für Google.

Quellen und weiterführende Infos

In einem Patent US8818982B1, in dem es um die Bewertung der Relevanz eines Dokuments für eine Suchanfrage geht, findet sich folgender Satz:

Similarly, matches in text that is of larger font or bolded or italicized may be weighted more than matches in normal text.

In 2017 deutete John Mueller auf Twitter an, dass Fettschrift für Google möglicherweise ein Ranking-Faktor ist, aber man sie primär für Nutzer verwenden sollte:

You’ll probably get more out of bolding text for human users / usability in the end. Bots might like, but they’re not going to buy anything.

Der Startleitfaden zur Suchmaschinenoptimierung (SEO) nennt <em> und <strong> als mögliche Alternativen für H-Überschriften (und Keywords in H-Überschriften sind wahrscheinlich ein Ranking-Faktor):

Zu vermeiden: […] Verwenden von Überschrifts-Tags an Stellen, an denen andere Tags wie <em> und <strong> geeigneter sein könnten

In den Suchergebnissen hebt Google es selbst mit Fettschrift im Snippet hervor, wenn das Keyword auf einer Seite oder in der Meta-Beschreibung vorkommt:

Keyword in Fettschrift im Snippet

Früher wurden sogar Keywords im Titel und der URL eines Suchergebnisses mit Fettschrift hervorgehoben.

Keyword in der URL

Das Keyword in der URL zu haben, bietet dir wahrscheinlich leichte bis sehr leichte Ranking-Vorteile für dieses Keyword.

Zudem kann sich das Vorkommen des Keywords positiv auf die CTR auswirken, da die URL (zumindest in der Desktop-Suche) in den Suchergebnissen angezeigt wird.

Quellen und weiterführende Infos

Es deutet vieles darauf hin, dass das Keyword in der URL mal ein leichter Ranking-Faktor war, aber mittlerweile nur noch eine sehr geringe (oder möglicherweise auch gar keine) Bedeutung mehr hat.

In Googles aktuellem Startleitfaden zur Suchmaschinenoptimierung findet sich folgende Best Practice bei der URL-Optimierung:

URLs mit Wörtern, die für den Inhalt und die Struktur Ihrer Website relevant sind, erleichtern Besuchern die Navigation auf Ihrer Website.

Das Kapitel zur URL-Optimierung in der alten Version des Startleitfadens hingegen deutete noch eine höhere Relevanz hin:

If your URL contains relevant words, this provides users and search engines with more information about the page than an ID or oddly named parameter would.

In einem Video von 2009 hatte Matt Cutts Keywords in der URL noch als kleineren Ranking-Faktor bestätigt:

It does help a little bit to have keywords in the URL. It doesn’t help so much that you should go stuffing a ton of keywords into your URL. You know, if there’s a convenient way that’s good for users where you have four or five keywords that might be worthwhile.

John Mueller äußerte sich in einem Google Hangout in 2016 ählich wie Cutts:

I believe that is a very small ranking factor. So it is not something I’d really try to force. And it is not something I’d say it is even worth your effort to restructure your site just so you can get keywords in your URL.

In 2020 sagte John jedoch auf Twitter, dass Keywords in URLs überbewertet werden und dass man stattdessen URLs für Nutzer erstellen soll:

Keywords in URLs are overrated for Google SEO. Make URLs for users. Also, on mobile you usually don’t even see them.

Keyword am Anfang der URL

Dass das Keyword weiter am Anfang in der URL steht, wirkt sich vielleicht positiv auf das Ranking für dieses Keyword aus.

Wenn dein Keyword tomatensuppe ist, könnte es dir also helfen, wenn tomatensuppe in der Domain oder am Anfang des Permalinks vorkommt, also:

https://www.meinkochblog.de/tomatensuppe/

Anstatt:

https://www.meinkochblog.de/2020/10/08/suppenrezepte/leckere-rezepte-teil-27-tomatensuppe/

Wenn das stimmt, fällt dieser Ranking-Faktor jedoch nicht sonderlich stark ins Gewicht, zumal Keywords in der URL im Allgemeinen wahrscheinlich kein besonders wichtiger Faktor sind.

Quellen und weiterführende Infos

Matt Cutts bestätigt in einem Interview auf der Pubcon 2008, dass Google die ersten drei, vier oder fünf Wörter in einer URL am meisten zählen:

If you have got a three, four or five words in your URL, that can be perfectly normal. As it gets a little longer, then it starts to look a little worse. Now, our algorithms typically will just weight those words less and just not give you as much credit.

In einem Video von 2009 deutet Matt Cutts an, dass die Position von Keywords in der URL einen Einfluss hat, allerdings einen sehr, sehr geringen:

So position is going to be a very, very second order kind of thing of keywords in the URLs. I would not worry about that so much as having great content that people want to link to and people want to find out about.

Keyword in der Haupt-Überschrift

Deine Haupt-Überschrift, in einem HTML-Dokument üblicherweise formatiert als <h1>, ist ein stark hervorstechender Teil des Seiteninhalts. Sie hilft Lesern, den Inhalt deiner Seite schneller zu verstehen und gibt ihnen einen Überblick darüber, was sie erwartet.

Aus diesem Grund bewertet Google es sehr wahrscheinlich positiv, wenn deine Haupt-Überschrift das Keyword enthält.

Allerdings:

Dieser Ranking-Faktor ist nicht mehr so wichtig wie noch vor einigen Jahren. Auch auf die Formatierung der Haupt-Überschrift als <h1> und Zwischenüberschriften als <h2>, <h3> etc. legt Google wahrscheinlich nicht so viel Wert wie oft vermutet wird.

Quellen und weiterführende Infos

Googles How Search Works bestätigt Überschriften (und damit auch <h1>-Überschriften) als Ranking-Faktor:

Unsere Algorithmen durchsuchen dabei zuerst den Suchindex nach dem Begriff, um die passenden Seiten zu finden. Sie analysieren, wie häufig und wo die Keywords auf einer Seite vorkommen, ob sie zum Beispiel im Titel, in Überschriften oder im Haupttext stehen.

In Googles Patent US7716216B1 geht es um das Ranking von Dokumenten anhand der semantischen Distanz der darin enthaltenen Wörter. Im Zuge dessen wird das Dokument auf semantisch bedeutungsvolle Elemente untersucht, zu denen auch Überschriften zählen:

As discussed above, page analyzer component 410 locates visual structures that are semantically meaningful, such as implicitly defined lists in HTML documents, headings, and titles. One of ordinary skill in the art will recognize that semantically meaningful structures other than these structures may also be located by page analyzer 410.

Überschriften und Titeln wird dabei eine besondere Bedeutung zugemessen, denn sie werden als semantisch nah zu allen Wörtern in ihrem Abschnitt bzw. zu allen Wörtern im Dokument angesehen:

For headings and titles, a term in the title of a document may be considered to be close to every other term in document regardless of the word count between the terms. Similarly, a term occurring in a heading may be considered to be very close to other terms that are below the heading in the tree structure.

In einem Webmaster-Hangout von 2015 erklärt John Mueller, dass Google <h1>-Überschriften nutzt, um den Kontext und die Struktur einer Seite besser zu verstehen, dämpft aber die Erwartungen an die daraus resultierenden Ranking-Vorteile:

And we do use it [die H1-Überschrift] to understand the context of a page better, to understand the structure of the text on the page. But it’s not the case that you would automatically rank one or two steps higher just by using a header.

In einem Tweet von 2019 sagt John Mueller erneut, dass Google auf hervorgehobene Teile einer Seite wie H-Überschriften achtet, relativiert dessen Bedeutung allerdings auch hier:

TBH I suspect most get too hung up about Hn’s :). A script sees the page, you’re highlighting some things as “important parts”, so often we can use that a bit more relative to the rest. If you highlight nothing/everything, we’ll try to figure it out.

Keyword in Zwischenüberschriften

Nicht nur die Haupt-Überschrift, sondern auch die Zwischenüberschriften (üblicherweise formatiert als <h2> bis <h6>) sind hervorstechende Elemente auf einer Webseite.

Dementsprechend sind Keywords in Zwischenüberschriften sehr wahrscheinlich ein Ranking-Faktor.

Abschnitte mit Zwischenüberschriften können in Kombination mit Sprungmarken sogar bei Google ranken. In diesem Beispiel rankt eine meiner <h3>-Überschriften für das Keyword kostenlosen blog erstellen:

Snippet mit Link zu einer Zwischenüberschrift in der Meta-Beschreibung

Quellen und weiterführende Infos

Googles How Search Works bestätigt Überschriften als Ranking-Faktor:

Unsere Algorithmen durchsuchen dabei zuerst den Suchindex nach dem Begriff, um die passenden Seiten zu finden. Sie analysieren, wie häufig und wo die Keywords auf einer Seite vorkommen, ob sie zum Beispiel im Titel, in Überschriften oder im Haupttext stehen.

In Googles Patent US7716216B1 geht es um das Ranking von Dokumenten anhand der semantischen Distanz der darin enthaltenen Wörter. Im Zuge dessen wird das Dokument auf semantisch bedeutungsvolle Elemente untersucht, zu denen auch Überschriften zählen:

As discussed above, page analyzer component 410 locates visual structures that are semantically meaningful, such as implicitly defined lists in HTML documents, headings, and titles. One of ordinary skill in the art will recognize that semantically meaningful structures other than these structures may also be located by page analyzer 410.

Überschriften und Titeln wird dabei eine besondere Bedeutung zugemessen, denn sie werden als semantisch nah zu allen Wörtern in ihrem Abschnitt bzw. zu allen Wörtern im Dokument angesehen:

For headings and titles, a term in the title of a document may be considered to be close to every other term in document regardless of the word count between the terms. Similarly, a term occurring in a heading may be considered to be very close to other terms that are below the heading in the tree structure.

In einem Webmaster-Hangout von 2015 erklärt John Mueller, dass Google Überschriften nutzt, um die Struktur einer Seite besser zu verstehen, dämpft aber die Erwartungen an die daraus resultierenden Ranking-Vorteile:

So these heading tags in HTML help us understand the structure of the page, but it’s not that you have any kind of a fantastic ranking bonus by having text in an h2 tag.

In einem Tweet von 2019 sagt John Mueller erneut, dass Google auf hervorgehobene Teile einer Seite wie H-Überschriften achtet, relativiert dessen Bedeutung allerdings auch hier:

TBH I suspect most get too hung up about Hn’s :). A script sees the page, you’re highlighting some things as “important parts”, so often we can use that a bit more relative to the rest. If you highlight nothing/everything, we’ll try to figure it out.

Keyword am Anfang des Textes

Viele SEOs oder SEO-Tools empfehlen, das Keyword in der Einleitung, in den ersten 100 – 200 Wörtern des Textes, im ersten Absatz oder sogar im ersten Satz zu verwenden.

Das SEO-Plugin Rank Math, empfiehlt z. B. die Verwendung in den ersten 10 Prozent des Inhalts:

Das Keyword zu Beginn des Inhalts zu nennen, kann dein Ranking positiv beeinflussen.

Da Google manchen Inhalten, die above the fold oder generell weiter oben auf einer Website erscheinen, ein höheres Gewicht einräumt, könnte das auch auf die Einleitung zutreffen.

Sicher ist das allerdings auf keinen Fall. Ich würde die Wahrscheinlichkeit irgendwo zwischen vielleicht und unwahrscheinlich einstufen.

Das Keyword früh im Text zu nennen, könnte allerdings ein indirekter Ranking-Faktor sein, da Nutzer dadurch darin bestärkt werden, dass der Text für sie relevant ist und dadurch eher weiterlesen.

Quellen und weiterführende Infos

Ich habe keine Quellen gefunden, die diesen Ranking-Faktor direkt belegen. Allerdings gibt es viele Quellen, die die Wichtigkeit von above the fold-Content hervorheben, wie z. B. das in 2012 eingeführte Google-Update zum Page-Layout oder die 2020 eingeführten Core Web Vitals.

Oder Matt Cutts Aussage auf der PubCon 2010, dass der erste Link auf einer Seite die größte Rolle spielt:

According to Cutts, users tend to click on the first link embedded in content, and then click rates drop off the further down a link is placed within a piece.

Auch für das Ranking in der Google-Bildersuche ist es laut dieser Ankündigung von 2018 wichtig, dass ein Bild weiter oben auf der Seite vorkommt:

We now prioritize sites where the image is central to the page, and higher up on the page. So if you’re looking to buy a specific pair of shoes, a product page dedicated to that pair of shoes will be prioritized above, say, a category page showing a range of shoe styles.

Keyword im Titel

Der Titel einer Seite (auch Title-Tag oder Meta-Titel genannt) ist in vielen HTML-Standards ein Pflicht-Element. Er findet sich im <head>-Bereich einer Seite:

<head>
<title>Damenschuhe online kaufen</title>
</head>

Dass das Keyword im Titel vorkommt, ist sehr wahrscheinlich ein Ranking-Faktor.

Das liegt daran, dass der Titel ein prominentes Element ist, das zwar nicht direkt auf der Seite ersichtlich ist, aber:

  • in Tabs, der Titelleiste oder in Lesezeichen von Browsern erscheinen kann
  • von sozialen Netzwerken oder Messenger-Diensten für die Vorschau von geteilten Links eingesetzt wird
  • als Titel von Suchergebnissen bei Google erscheint (Google behält sich jedoch vor, eigene Titel zu generieren)

Da der Titel in den Suchergebnissen angezeigt wird, kann es sich möglicherweise positiv auf die CTR (Klickrate) auswirken, das Keyword darin zu erwähnen:

Der Titel einer Seite wird in den Suchergebnissen angezeigtEs ist jedoch davon auszugehen, dass Keywords im Titel als direkter Ranking-Faktor in den letzten Jahren ein bisschen an Gewicht verloren haben.

Quellen und weiterführende Infos

John Mueller sagt in in einem Webmaster-Hangout von 2016:

Titles are important! They are important for SEO. They are used as a ranking factor. Of course, they are definitely used as a ranking factor but it is not something where I’d say the time you spend on tweaking the title is really the best use of your time.

Auch Googles How Search Works bestätigt das Keyword im Titel als Ranking-Faktor:

Unsere Algorithmen durchsuchen dabei zuerst den Suchindex nach dem Begriff, um die passenden Seiten zu finden. Sie analysieren, wie häufig und wo die Keywords auf einer Seite vorkommen, ob sie zum Beispiel im Titel, in Überschriften oder im Haupttext stehen.

In Googles Patent US7716216B1 geht es um das Ranking von Dokumenten anhand der semantischen Distanz der darin enthaltenen Wörter. Im Zuge dessen wird das Dokument auf semantisch bedeutungsvolle Elemente untersucht, zu denen auch Titel zählen:

As discussed above, page analyzer component 410 locates visual structures that are semantically meaningful, such as implicitly defined lists in HTML documents, headings, and titles. One of ordinary skill in the art will recognize that semantically meaningful structures other than these structures may also be located by page analyzer 410.

Überschriften und Titeln wird dabei eine besondere Bedeutung zugemessen, denn sie werden als semantisch nah zu allen Wörtern in ihrem Abschnitt bzw. zu allen Wörtern im Dokument angesehen:

For headings and titles, a term in the title of a document may be considered to be close to every other term in document regardless of the word count between the terms. Similarly, a term occurring in a heading may be considered to be very close to other terms that are below the heading in the tree structure.

Die Ranking Factors Study 2.0 von SEMRush sieht das Keyword im Titel als vergleichsweise unwichtigen Ranking-Faktor an:
Keyword im Titel in der SEMRush Ranking Factor Study 2.0

Keyword im Alternativtext eines Bildes

Der Alternativtext (auch Alt-Text genannt) eines Bildes wird in Browsern angezeigt, wenn ein Bild nicht verfügbar ist. Man kann ihn mithilfe des alt-Attributs zu einem Bild hinzufügen:

<img alt="Google-Ranking-Faktoren" src="https://gradually.ai/wp-content/uploads/google-ranking-faktoren.jpg">

Wenn das Keyword im Alternativtext eines oder mehrerer Bilder auf der Seite vorkommt, ist dies wahrscheinlich positiver Ranking-Faktor für Google.

Quellen und weiterführende Infos

In Googles Die Suche für Entwickler gibt es eine Anleitung zur Bilder-Suche. Dort wird empfohlen passende Keywords im Alternativtext von Bildern zu verwenden:

Konzentrieren Sie sich bei der Auswahl von Alternativtext auf das Erstellen nützlicher, informativer Inhalte mit passenden Keywords, die sich auf den Seiteninhalt beziehen.

In Googles Richtlinien für Webmaster findet sich ebenfalls folgender Absatz:

Achten Sie darauf, dass die <title>-Elemente und ALT-Attribute aussagekräftig, konkret und eindeutig sind.

In Googles Search Engine Optimization (SEO) Starter Guide wird folgendes zur Optimierung von Bildern empfohlen:

Wenn Sie ein Bild als Link verwenden, wird der alternative Text für dieses Bild ähnlich behandelt wie der Ankertext eines Textlinks. Es wird jedoch davon abgeraten, in der Navigation Ihrer Website zu viele Bilder für Links zu verwenden, wenn Textlinks denselben Zweck erfüllen könnten. Außerdem erhalten Bildsuchprojekte wie die Google Bildersuche bei einer Optimierung der Bilddateinamen und des alternativen Textes aussagekräftigere Informationen zu Ihren Bildern.

Keyword in der Bildunterschrift

Wenn das Keyword in der Bildunterschrift vorkommt, ist dies vielleicht ein positiver Ranking-Faktor (sowohl für die Seite in der allgemeinen Google-Websuche als auch für das beschriftete Bild in der Google-Bildersuche).

Für Bildunterschriften gibt es ein eigenes HTML-Tag namens <figcaption>, das als Voraussetzung dafür dienen könnte, damit ein Text als Bildunterschrift von Google gezählt wird:

<figure>
<img src="garfield-isst-lasagne.jpg" alt="Garfield isst Lasagne" >
<figcaption>Garfield isst Lasagne</figcaption>
</figure>

Quellen und weiterführende Infos

Google erwähnt in einem YouTube-Video, in dem die Funktionsweise der Google-Suche erklärt wird, dass das Keyword in der Bildunterschrift ein Ranking-Faktor ist:

You may already know that pages containing the words you search for are more likely to end up at the top. No surprise there. But the location of those words, like in the page’s title, or in an image’s caption, those are factors, too.

Es ist allerdings unklar, ob das <figcaption>-Tag dafür eine Rolle spielt und ob es von Google überhaupt erkannt wird. In Googles Guide zu Best Practices für die Google-Bildersuche wird es z. B. nicht erwähnt.

In seinem Style-Guide für die eigene Google Developer Documentation empfiehlt Google bei Bildunterschriften das <figcaption>-Tag zu nehmen:

Figure captions are optional. When using the <figcaption> element, both the <figcaption> and <img> elements must be wrapped in the <figure> element to ensure that the figure caption is properly associated with the image.

In einem Thread auf Reddit von 2019 sagt John Mueller, dass Google sowohl den Alternativtext als auch die Bildunterschrift für die Google-Bildersuche nutzt (und dass man Bildutnerschriften nicht als Ersatz für Alternativtexte nehmen sollte):

I think what’s happening here is we treat the figcaption as a caption. It’s not an alternate text for the image though (which wouldn’t be the same thing as the caption anyway). For image search, we’d use both captions and alt-text (https://support.google.com/webmasters/answer/114016?hl=en). Reusing the same text for both is probably not that useful.

In Googles Patent US20130039570 geht es um die Texterkennung von Bildern. Dort wird erwähnt, dass Bilder mit Keywords verknüpft werden könnten, die in der Bildunterschrift vorkommen:

Each image is associated with keyword search terms, for example, derived from an image caption, image metadata, text within a predefined proximity of the image, or manual input.

Keyword im Dateiennamen eines Bildes

Wenn das Keyword in Dateinamen eines oder mehrerer Bilder auf einer Seite vorkommt, ist dies vielleicht ein positiver Ranking-Faktor für Google.

Quellen und weiterführende Infos

In Googles Die Suche für Entwickler gibt es eine Anleitung zur Bilder-Suche. Dort wird erwähnt, dass Dateinamen Google dabei helfen, den Inhalt von Bildern zu verstehen:

Auch der Dateiname kann Google Hinweise auf das Thema des Bildes geben.

Und weiterhin:

Google greift sowohl auf den URL-Pfad als auf die Dateinamen zurück, um Ihre Bilder zu verstehen.

Googles Search Engine Optimization (SEO) Starter Guide empfiehlt ebenfalls die Verwendung beschreibender Dateinamen für Bilder:

Auf Dateinamen und alternative Texte trifft dasselbe zu wie auf viele andere Seitenelemente, die auf eine Optimierung ausgerichtet sind: Am besten geeignet sind diejenigen, die kurz, aber beschreibend sind.

Keyword in der Meta-Beschreibung

Keywords in der Meta-Beschreibung sind sehr wahrscheinlich kein direkter Ranking-Faktor, da die Meta-Beschreibung im Allgemeinen nicht in das Ranking einer Seite miteinbezogen wird.

Du solltest jedoch dennoch Keywords in der Meta-Beschreibung verwenden, da diese in deinem Snippet in der Google-Suche gefettet werden, was die CTR erhöhen kann:

Du solltest Keywords in der META-Beschreibung nennen. Diese werden fett gedruckt.

Quellen und weiterführende Infos

Schon in einem Blogpost von 2009 hat Google gesagt, dass die Meta-Beschreibung zwar in Snippets in den Suchergebnissen angezeigt werden kann, aber nicht zum Ranking benutzt wird:

Even though we sometimes use the description meta tag for the snippets we show, we still don’t use the description meta tag in our ranking.

Das scheint auch noch in 2020 zu stimmen, wie dieser Tweet von John Mueller bestätigt:

Meta descriptions can be used for the search result snippet, so if you don’t specify anything (on the mobile page, with mobile-first-indexing), we’ll have to figure it out ourselves. They’re not used for ranking though.

Keyword in den Meta-Keywords

Die Meta-Keywords gehören wie Meta-Beschreibung und -titel zu den Meta-Elementen, die im <head>-Bereich einer HTML-Seite platziert werden.

Sie sehen im Code so aus:

<meta name="keywords" content="keyword1, keyword2, keyword3">

Früher hat Google die dort eingetragenen Keywords zur Einschätzung der thematischen Relevanz einer Seite herangezogen.

Aufgrund des häufigen Missbrauchs des Elements (z. B. durch Einsetzen langer Keyword-Listen) sind Meta-Keywords jedoch schon länger für das Google-Ranking irrelevant.

Quellen und weiterführende Infos

Matt Cutts hat schon 2009 im Google Webmaster Blog verneint, dass Google Meta-Keywords als Ranking-Faktor verwendet:

In a word, no. Google does sell a Google Search Appliance, and that product has the ability to match meta tags, which could include the keywords meta tag. But that’s an enterprise search appliance that is completely separate from our main web search. Our web search (the well-known search at Google.com that hundreds of millions of people use each day) disregards keyword metatags completely. They simply don’t have any effect in our search ranking at present.

Als Begründung dafür wird häufiger Missbrauch durch Keyword-Stuffing angeführt:

About a decade ago, search engines judged pages only on the content of web pages, not any so-called “off-page” factors such as the links pointing to a web page. In those days, keyword meta tags quickly became an area where someone could stuff often-irrelevant keywords without typical visitors ever seeing those keywords. Because the keywords meta tag was so often abused, many years ago Google began disregarding the keywords meta tag.

Textlänge

Die Textlänge ist vielleicht ein direkter Ranking-Faktor für Google.

Allerdings ist es eher unwahrscheinlich, dass längere Texte automatisch besser bei Google abschneiden, denn:

  1. Je nach Suchintention könnte ein längerer oder kürzerer Text besser sein, um diese optimal zu bedienen
  2. Die Textlänge lässt keine Rückschlüsse auf die Qualität des Textes zu

Demnach ist es möglich, dass Google die Textlänge nicht direkt ins Ranking mit einbezieht oder die Bewertung der Textlänge je nach Keyword oder Nische verschieden ist.

Quellen und weiterführende Infos

Eine Studie von Backlinko zeigt eine fast gleichmäßige durchschnittliche Verteilung der Textlänge in den Top 10 bei Google, die sich um die 1.000 Wörter bewegt:

Verteilung der Textlänge in den Top 10

Eine Studie von MOZ aus dem Jahre 2015 zeigte auch ebenfalls keine nennenswerte Korrelation.

Es gibt allerdings auch Studien, bei denen längere Texte mit einer höheren Position in den Suchergebnissen korrelieren, wie z. B. bei diese älteren Studie von serpIQ.

Einen kausalen Zusammenhang zwischen Textlänge und Ranking zu behaupten oder allgemeine Empfehlungen á la “Texte müssen mindestens 1.000 Wörter haben” aus solchen Studien abzuleiten, halte ich jedoch für schwierig.

Erstens weil großangelegte Studien meist nicht die Suchintention der untersuchten Keywords nicht mit einbeziehen und zweitens weil es Wechselwirkungen zwischen einzelnen Faktoren geben könnte.

Zum Beispiel könnten Seiten mit längeren Texten besser ranken, weil sie laut einer anderen Studie von Backlinko auch im Durchschnitt mehr Backlinks bekommen:

Seiten mit längerem Content bekommen mehr Backlinks

John Mueller sagte Anfang 2020 auf Twitter, dass ein Artikel nicht automatisch auf den ersten Platz kommt, weil er die gleiche Wörteranzahl wie der aktuell bestplatzierte Artikel hat:

Offiziell ist die Content-Länge kein Ranking Faktor

Folgende Gegenfrage von John Mueller im August 2020 auf Twitter deutet ebenfalls darauf hin, dass die Textlänge kein Ranking-Faktor ist:

Why would a search engine use word count as a metric?

Inhaltsverzeichnis

Ein Inhaltsverzeichnis (auch TOC oder Table of Contents genannt) ist mindestens ein indirekter, wenn nicht sogar ein direkter Ranking-Faktor für Google.

Denn durch ein Inhaltsverzeichnis kann man die Nutzererfahrung einer Seite mitunter enorm verbessern.

Stell dir vor, du würdest auf eine 60.000+ Wörter lange Seite bei Google stoßen (wie diese hier). Würdest du diese ohne Inhaltsverzeichnis lesen wollen? Wahrscheinlich nicht…

Ein weiterer Vorteil:

Durch ein Inhaltsverzeichnis werden mitunter Sitelinks in deinem Snippets angezeigt:

Durch ein Inhaltsverzeichnis erhältst du unter Umständen Sitelinks in der Suche.

Oder Links zu einzelnen Abschnitten deiner Seite:

Snippet mit Link zu einer Zwischenüberschrift in der Meta-Beschreibung

Ein Inhaltsverzeichnis kann dir also dabei helfen, mit verschiedenen Unterthemen einer Seite bei Google zu ranken und/oder deine CTR (Klickrate) in den Suchergebnissen zu verbessern.

Quellen und weiterführende Infos

Sprungmarken-Links werden bereits seit September 2009 in den Google-Suchergebnissen angezeigt und komplett algorithmisch generiert:

We generate these deep links completely algorithmically, based on page structure, so they could be displayed for any site (and of course money isn’t involved in any way, so you can’t pay to get these links).

Als Vorraussetzung dafür nennt Google eine klare Aufteilung der Seite in Abschnitte, HTML-Anker in jedem Abschnitt sowie ein Inhaltsverzeichnis, das auf diese Anker verlinkt:

There are a few things you can do to increase the chances that they might appear on your pages. First, ensure that long, multi-topic pages on your site are well-structured and broken into distinct logical sections. Second, ensure that each section has an associated anchor with a descriptive name (i.e., not just “Section 2.1”), and that your page includes a “table of contents” which links to the individual anchors. The new in-snippet links only appear for relevant queries, so you won’t see it on the results all the time, only when we think that a link to a section would be highly useful for a particular query.

Häufigkeit des Keywords auf einer Seite

Wie häufig ein Keyword auf einer Seite vorkommt, ist sehr wahrscheinlich ein Ranking-Faktor für Google.

Allerdings ein auslaufender und zudem begrenzter.

Denn dank fortgeschrittener Technologien im Bereich des maschinellen Lernens, wie z. B. BERT, ist Google schon sehr gut darin (und wird in Zukunft immer besser darin werden) Texte und deren inhaltliche Zusammenhänge zu verstehen.

Und das ist eine Entwicklung, die sehr begrüßenswert ist!

Die Häufigkeit eines Keywords ist nämlich kein guter Prädiktor dafür, wie relevant ein Text wirklich zu einem Keyword ist. Schau dir zum Beispiel mal diesen Satz an:

Domestizierung ist ein Veränderungsprozess von Wildtieren, bei dem diese durch den Menschen über Generationen hinweg von ihrer Wildtier-Form genetisch isoliert werden. Wildtiere werden durch sie zu Haustieren umgewandelt.

Ginge man nach der Häufigkeit der Wörter in diesem Absatz, wäre das Hauptthema Wildtiere (das Wort oder eher dessen Wortstamm kommt dreimal im Text vor). In dem Absatz geht es jedoch um Domestizierung (das nur einmal im Text vorkommt).

Quellen und weiterführende Infos

Googles How Search Works bestätigt die Häufigkeit als Ranking-Faktor einmal im Tab “Abgleich des Suchbegriffs”:

Unsere Algorithmen durchsuchen dabei zuerst den Suchindex nach dem Begriff, um die passenden Seiten zu finden. Sie analysieren, wie häufig und wo die Keywords auf einer Seite vorkommen, ob sie zum Beispiel im Titel, in Überschriften oder im Haupttext stehen.

Und ein weiteres Mal im Tab “Ranking nützlicher Seiten”:

Diese Algorithmen analysieren Hunderte unterschiedlicher Faktoren, um die besten Informationen im Web zu finden – von der Aktualität des Inhalts über die Häufigkeit des Suchbegriffs auf der Seite bis zur Nutzerfreundlichkeit der jeweiligen Webseite.

Laut Matt Cutts nimmt die positive Wirkung von Keyword-Optimierung jedoch ab einer bestimmten Anzahl an Keywords ab:

So the first one or two times you mention a word, then that might help with your ranking absolutly. But just because you can say it seven or eight times that doesn’t necessarily help your rankings.

Laut einer SEMRush-Studie von 2017 mit 600.000+ Keywords enthalten zwar 82 % aller Seiten, die für ein Keyword mit hohem Suchvolumen ranken, das Keyword im <body>. Insgesamt werden Keywords an verschiedenen Stellen einer Seite als nicht so wichtige Ranking-Faktoren eingestuft:

Keyword-Vorkommen im Rahmen der SEMRush hat in seiner Ranking Factors Study 2.0

In Google-Patent US8554769B1 wird eine Technologie beschrieben, um automatisch generierte Nonsens-Texte zu erkennen. Dafür wird auch die Term Frequency (Häufigkeit eines Wortes auf einer Webseite) berechnet:

This specification describes technologies relating to providing search results. One aspect of the subject matter described in this specification can be embodied in methods that include the actions of receiving a network resource, the network resource including text content; generating a language model score for the resource including applying a language model to the text content of the resource; generating a query stuffing score for the reference, the query stuffing score being a function of term frequency in the resource content and a query index; calculating a gibberish score for the resource using the language model score and the query stuffing score; and using the calculated gibberish score to determine whether to modify a ranking score of the resource.

TF * IDF

TF * IDF steht für Term Frequency multipliziert mit Inverse Document Frequency.

Dabei handelt es sich, einfach gesagt, um eine Formel, die die Häufigkeit eines Keywords auf einer Seite mit der Häufigkeit des Keywords auf anderen Seiten in einem Dokumentenkorpus gegenüberstellt.

Es ist wahrscheinlich, dass Google TF * IDF oder ein ähnliche Formel wie BM25 nutzt oder in der Vergangenheit genutzt hat, um zu bestimmen, wie relevant eine Seite für ein bestimmtes Keyword ist.

TF * IDF ist also vielleicht ein Ranking-Faktor (wenn, dann allerdings gemessen am gesamten Textkorpus von Google und nicht an den Seiten in den Top 10 oder 20).

Quellen und weiterführende Infos

Ein Hinweis darauf, dass TF * IDF vielleicht im Google-Algorithmus verwendet wird oder wurde, findet sich z. B. in Patent US7996379B1:

In some implementations, the term identification module 210 calculates the term frequency—inverse document frequency (TFIDF) scores of the terms in the documents, with the document set for purposes of calculating the IDF being the documents indexed and/or stored in the document repository 222. Terms whose TFIDF scores are below a specified threshold are disregarded. By disregarding terms whose TFIDF scores are below the threshold, relatively common terms (e.g., prepositions, articles, etc.) can be eliminated from consideration. The result is that each document has a set of non-eliminated terms.

Auch Googles Patent US8984006B2, indem es um die Identifikation von Hierarchien bei Entitäten geht, erwähnt TF * IDF, allerdings nur im Zusammenhang mit dem Herausfiltern von Stop-Wörtern:

The seed keyword list for a given seed entity set may include some or all of the N-grams contained in all of the descriptors of the entities of the seed entity set. In some embodiments, certain words/phrases are filtered/removed from the seed-keyword-list. For example, common words and/or phrases, such as “a”, “and”, “the”, and so forth, may be excluded/removed from the seed keywords list using a stop-word list or tf-idf filtering technique.

In einem Webmaster-Hangout von 2019 sagt John Mueller jedoch, dass TF * IDF alte Technologie ist und man sich nicht darauf konzentrieren solle:

So tf-idf is essentially a metric that is used in information retrieval, so if you’re building a search engine, with regards to trying to understand which are the relevant words on a page. We use a ton of different techniques from information retrieval. And there are tons of these metrics that have come out over the years. […] My general recommendation here is not to focus on these kind of artificial metrics. Because it’s something where, on the one hand, you can’t reproduce this metric directly, because it’s based on the overall index of all of the content on the web. […] The other thing is, this is a fairly old metric. And things have evolved quite a bit over the years. And there are lots of other metrics as well. So just blindly focusing on one kind of theoretical metric and trying to squeeze those words into your pages, I don’t think that’s a useful thing.

Patent-Experte und SEO-Legende Bill Slawski äußert sich auf Twitter ähnlich wie John Müller:

[…] There is a reason why SEOs are not using TF*IDF:

1) It does not help with Semantics
2) You need access to Google’s corpus information for it to work.
3) It is old technology
4) This is #SEOMythology

WDF * IDF

WDF * IDF steht für Within Document Frequency multipliziert mit Inverse Document Frequency.

Dabei handelt es sich (vereinfacht, aber damit auch nicht 100 % korrekt gesagt) um eine Formel, um die Keyword-Dichte auf einer Seite mit der Keyword-Dichte auf anderen Seiten gegenüberzustellen.

Während es wahrscheinlich ist, dass Google IDF-Methoden, wie z. B. TF * IDF oder BM25 im Google-Algorithmus verwendet oder in der Vergangenheit verwendet hat (zumindest in der sog. top-k-Retrieval-Phase, siehe auch Learning to rank), gibt es keinerlei Hinweise darauf, dass WDF * IDF jemals Bestandteil des Algorithmus war.

Quellen und weiterführende Infos

WDF * IDF wurde von Donna Harman, einer Information-Retrieval-Forscherin am National Institute of Standards and Technology (NIST), als Methode zur dokumentspezifischen Wortgewichtung entwickelt und wird in Kapitel 14 des Buches Information Retrieval: Data Structures & Algorithms vorgestellt:

Early experiments (Salton and Lesk 1968; Salton 1971, p. 143) using the SMART system tested an overlap similarity function against the cosine correlation measure and tried simple term-weighting using the frequency of terms within the documents. These experiments showed that within-document frequency weighting improved performance over no term-weighting (in varying amounts depending on the test collection used).

Allerdings scheint WDF * IDF weder bei Google noch in der Information-Retrieval-Community eine Rolle zu spielen. WDF * IDF wird laut meinen Recherchen in keinem einzigen Patent oder Forschungspapier von Google erwähnt.

Selbst eine allgemeine Suche nach WDF (oder wahlweise within-document frequency) bei Google Patents bringt nur wenige Resultate:

WDF bei Google Patents

Auch bei arXiv.org, dem Archiv zur Veröffentlichung von Forschungsarbeiten rund um BERT und anderen NLP-Technologien, finden sich nur Erwähnungen von WDF im Zusammenhang mit einem Wavelet Detection Filter (der nichts mit Suchmaschinen oder Information Retrieval zu tun hat):

WDF bei arXiv.org

Auch habe ich keinerlei Verbindung zwischen Donna Harman und Google gefunden.

Keyword-Dichte

Als Keyword-Dichte (engl. keyword density) bezeichnet man die prozentuale Häufigkeit eines Keywords in Relation zur Textlänge.

Kurz ein Beispiel zur Erläuterung (anhand eines einzelnen Suchwortes, bei Suchphrasen mit 2 oder mehr Wörtern ist die Berechnung ein bisschen komplizierter):

Wenn ein Text 100 Wörter lang ist und das Suchwort einmal vorkommt, dann beträgt die Keyword-Dichte 1 %. Wenn es zweimal vorkommt, dann 2 % und so weiter.

Auch, wenn viele SEOs und SEO-Tools zu einer bestimmten Keyword-Dichte (z. B. von 1 bis 3 %) raten, ist es eher unwahrscheinlich, dass Google diese aktuell als Ranking-Faktor nutzt.

Es ist sogar sehr gut möglich, dass die Keyword-Dichte nie ein Ranking-Faktor gewesen ist und Google von Anfang auf IDF-Methoden, wie z. B. TF * IDF oder BM25, gesetzt hat (zumindest in der sog. top-k-Retrieval-Phase, siehe auch Learning to rank).

Quellen und weiterführende Infos

Die Keyword-Dichte wird laut meinen Recherchen in keinem einzigen Google-Patent erwähnt.

Es gibt zwar Patente in Google Patents, die die keyword density referenzieren. Aber keines davon stammt von Google, wie man auf der rechten Seite in der Suche sehen kann:

Keyword-Dichte bei Google Patents

In einem Webmaster-Hangout in 2014 sagte John Mueller:

Keyword density, in general, is something I wouldn’t focus on. Make sure your content is written in a natural way. Humans, when they view your website, they’re not going to count the number of occurrences of each individual word. And search engines have kind of moved on from there over the years as well.

Kritik an dem Konzept Keyword-Dichte gibt es auch in der SEO-Community schon seit Ewigkeiten. Rand Fishkin hat z. B. schon in 2005 auf dessen Unsinnigkeit hingewiesen:

For search engines, keyword density has long been held to be a reliable measure of the concentration of a particular keyword or phrase on a specific page. However, this method of mesurement has long been known in the scientific community to be a poor representation and poor methodology for discovering the ‘weight’ a particular page has for a term.

Synonyme des Keywords

Google verfügt über ein umfassendes System, um Synonyme zu erkennen.

Dadurch können Seiten für ein Keyword ranken, obwohl dieses selbst gar nicht (oder nicht an bestimmten Stellen) auf der Seite enthalten ist.

Laut Google-Entwickler Paul Haahr kann man sich das so vorstellen, dass Google für jedes Wort Synonyme speichert und diese dann bei der Suchanfrage mit dem Suchoperator OR hinzufügt werden:

So geht Google mit Synonymen um

Im Beispiel könnte für das Keyword cycling tours in italy auch eine Seite auftauchen, in die bicycle holidays in italy eingebunden ist.

Dass auf einer Seite Synonyme zum Keyword eingebunden sind, sorgt zudem vielleicht dafür, dass Google eine Seite als relevanter zum Keyword betrachtet. Das dahinter stehende Prinzip nennt sich Kookkurenz (auf Englisch co-ocurrence).

Quellen und weiterführende Infos

In einem Blogpost von 2010 erklärt Google-Entwickler Steven Baker, wie das Synonym-System funktioniert und wie sehr es die Google-Suche beeinflusst:

However, our measurements show that synonyms affect 70 percent of user searches across the more than 100 languages Google supports. We took a set of these queries and analyzed how precise the synonyms were, and were happy with the results: For every 50 queries where synonyms significantly improved the search results, we had only one truly bad synonym.

Synonyme sollten zudem im Text vorkommen, weil Google nicht immer alle Synoynme als solche erkennen kann, wie Matt Cutts in diesem Video von 2012 sagt:

We have an entire team at Google called the Synonyms team and their job is to sort of realize that car and automobile are the same thing. But I wouldn’t claim that they’re perfect all the time. And so rather than relying on the search engine to really be able to intuit that you’re not only about electronic health records, but also about electronic medical records, my advice would be to make sure that you mention in natural way that you are good at both of those.

Das Gleiche sagt Matt Cutts in einem Blogpost von 2010:

As far as concrete advice for webmasters, the same advice still holds that we’ve always said: think about the different words that searchers might use when looking for your content. Don’t just use technical terms–think about real-world terms and slang that users will type. For example, if you’re talking about a “usb drive,” some people might call it a flash drive or a thumb drive. Bear in mind the terms that people will type and think about synonyms that can fit naturally into your content. Don’t stuff an article with keywords or make it awkward, but if you can incorporate different ways of talking about a subject in a natural way, that can help users.

Hinweise auf die Nutzung von Kookkurenz zum Ranking finden sich in Patent US7996379B1:

A plurality of documents with an initial ordering is received. Local term relationships between terms in the plurality of documents are identified, each local term relationship being a relationship between a pair of terms in a respective document. Relationships among the documents in the plurality of documents are determined based on the local term relationships and on the initial order of the documents. A respective score is determined for each document in the plurality of documents based on the document relationships.

Sowie in dem etwas neueren Patent US8504562B1:

Co-occurrence frequencies can also be used to evaluate the usefulness of contexts associated with substitution rules. A search system can construct a first vector of co-occurrence frequencies of terms that co-occur with an original term and a second vector of co-occurrence frequencies of terms that co-occur with the original term in a particular query context. The search system can compute a difference between the vectors and evaluate the importance of co-occurring terms with the biggest co-occurrence frequency differences between the first and second vectors. Good contexts tend to have more meaningful words having the biggest co-occurrence frequency differences, and bad contexts tend to have less meaningful words with the biggest co-occurrence frequency differences.

Zum Keyword relevante Wörter oder Eigenschaften

Dass auf einer Seite relevante Wörter (bei einer Bankfiliale z. B. der Geldautomat) oder Eigenschaften (die Öffnungszeiten der Bankfiliale) eines Keywords eingebunden sind, sorgt wahrscheinlich dafür, dass Google eine Seite als relevanter zum Keyword betrachtet.

Die dahinter stehende Prinzip nennt sich Kookkurenz (auf Englisch co-ocurrence).

Quellen und weiterführende Infos

Googles How Search Works liefert einen Hinweis darauf, dass relevanter Content (der über das Keyword hinausgeht) das Ranking einer Seite positiv beeinflussen kann:

Zusätzlich zum Abgleich der Keywords suchen die Algorithmen nach Hinweisen, um festzustellen, wie relevant die Ergebnisse für die Suchanfrage sind. Wenn du den Suchbegriff “Hunde” eingibst, suchst du vermutlich nicht nach einer Seite, auf der das Wort “Hunde” etliche Male vorkommt. Wir versuchen daher herauszufinden, ob eine Seite eine Antwort auf deine Frage enthält oder nur den Suchbegriff wiederholt. Die Suchalgorithmen analysieren, ob Seiten relevante Inhalte enthalten – wie zum Beispiel Bilder oder Videos von Hunden oder auch eine Liste verschiedener Hunderassen.

In Googles Patent US9449105B1 geht es darum, den Kontext von einzelnen Wörten und zusammenhängenden Worten in Wissenssammlungen, wie z. B. Enzyklopädien, zu analysieren:

A method and apparatus for determining contexts of information analyzed. Contexts may be determined for words, expressions, and other combinations of words in bodies of knowledge such as encyclopedias. Analysis of use provides a division of the universe of communication or information into domains, and selects words or expressions unique to those domains of subject matter as an aid in classifying information.

Damit sollen auch die Suchergebnisse angezeigt werden, die relevant für ein Keyword sind, ohne dieses explizit zu enthalten:

For example, the list may contain a vast number of hits, few of which actually relate to the desired piece of data. Conventional keyword searching returns any instance of the word being sought, regardless of the way the word is used in the web site. Although a user may add additional key words to narrow the search, there often is no combination of words that must be found together to exclude all irrelevant pages while keeping all relevant ones.

Außerdem existiert ein Google Patent mit dem Titel “Query augmentation”:

When a user submits a search query to a search engine, the terms of the submitted query can be evaluated and matched to terms of the stored augmentation queries to select one or more similar augmentation queries.

Hinweise auf die Nutzung von Kookkurenz zum Ranking finden sich ebenso in Patent US7996379B1:

A plurality of documents with an initial ordering is received. Local term relationships between terms in the plurality of documents are identified, each local term relationship being a relationship between a pair of terms in a respective document. Relationships among the documents in the plurality of documents are determined based on the local term relationships and on the initial order of the documents. A respective score is determined for each document in the plurality of documents based on the document relationships.

Sowie in dem etwas neueren Patent US8504562B1:

Co-occurrence frequencies can also be used to evaluate the usefulness of contexts associated with substitution rules. A search system can construct a first vector of co-occurrence frequencies of terms that co-occur with an original term and a second vector of co-occurrence frequencies of terms that co-occur with the original term in a particular query context. The search system can compute a difference between the vectors and evaluate the importance of co-occurring terms with the biggest co-occurrence frequency differences between the first and second vectors. Good contexts tend to have more meaningful words having the biggest co-occurrence frequency differences, and bad contexts tend to have less meaningful words with the biggest co-occurrence frequency differences.

Technisch umgesetzt wurde die Berechnung von Kookkurenzen zunächst vielleicht mit Word2vec, einer Technologie des maschinellen Lernens, die ein neurales Netz nutzt, um Wortbeziehungen mittels eines großen Textkorpus zu lernen.

Laut Googles Blogpost dazu ist es damit beispielsweise möglich, das Konzept von Hauptstädten rein algorithmisch zu lernen:

Die Erkennung von Hauptstäden mit Word2vec

Mit BERT, einer bahnbrechenden Technologie im Bereich des Natural Language Processing, die seit Oktober 2019 im Google-Algorithmus eingesetzt wird, ist Google noch einen (großen) Schritt weiter gegangen:

BERT betrachtet laut dem offiziellen Blogpost auf dem Google AI Blog im Gegensatz zu Word2vec und anderen kontextlosen Modellen wie GloVe die Beziehung der Wörter in einem Satz oder Absatz zueinander. Dies geschieht durch Analyse der Wörter, die einem Wort vorangehen und folgen (das B in BERT steht für bidirectional):

Contextual models instead generate a representation of each word that is based on the other words in the sentence. For example, in the sentence “I accessed the bank account,” a unidirectional contextual model would represent “bank” based on “I accessed the” but not “account.” However, BERT represents “bank” using both its previous and next context — “I accessed the … account” — starting from the very bottom of a deep neural network, making it deeply bidirectional.

LSI-Keywords

Es gilt als sicher, dass Google Synonyme und relevante Wörter oder Wortgruppen nutzt, um die Relevanz einer Seite zu einem Keyword festzustellen.

Allerdings ist es ein Mythos, dass LSI (Latent Semantic Indexing) als Technologie dafür zum Einsatz kommt.

Quellen und weiterführende Infos

Dafür, Google Synonyme und relevante Wörter oder Wortgruppen nutzt, um die Relevanz einer Seite zu einem Keyword festzustellen, gibt es sehr viele Hinweise, wie z. B. diesen Abschnitt in Googles How Search Works:

Zusätzlich zum Abgleich der Keywords suchen die Algorithmen nach Hinweisen, um festzustellen, wie relevant die Ergebnisse für die Suchanfrage sind. Wenn du den Suchbegriff “Hunde” eingibst, suchst du vermutlich nicht nach einer Seite, auf der das Wort “Hunde” etliche Male vorkommt. Wir versuchen daher herauszufinden, ob eine Seite eine Antwort auf deine Frage enthält oder nur den Suchbegriff wiederholt. Die Suchalgorithmen analysieren, ob Seiten relevante Inhalte enthalten – wie zum Beispiel Bilder oder Videos von Hunden oder auch eine Liste verschiedener Hunderassen.

Oder das Google Patent mit dem Titel “Query augmentation”:

When a user submits a search query to a search engine, the terms of the submitted query can be evaluated and matched to terms of the stored augmentation queries to select one or more similar augmentation queries.

Es gibt allerdings einige Gründe, die dagegen sprechen, dass Google dafür LSI-Technologie nutzt:

Zum einen verneint John Mueller in diesem Tweet, dass LSI-Keywords für Google eine Rolle spielen:

John Mueller von Google streitet ab, dass es LSI Keywords überhaupt gibt

Zweitens handelt es sich bei LSI um Technologie, die nicht von Google, sondern laut Patent von Bell Communications Research, Inc. stammt.

Drittens wurde LSI in den 1980er Jahren entwickelt, lange bevor es Internet-Suchmaschinen gab. Dementsprechend ist es nicht für einen Dokumentenkorpus gemacht, der so riesig ist wie das Internet. Oder um es in den Worten von Bill Slawski auszudrücken:

LSI technology wasn’t created for anything the size of the Web […] Google has developed a word vector approach (used for Rankbrain) which is much more modern, scales much better, and works on the Web. Using LSI when you have Word2vec available would be like racing a Ferrari with a go-cart.

Weiterhin führt Bill Slawski aus:

Google does attempt to index synonyms and other meanings for words. But it isn’t using LSI technology to do that. Calling it LSI is misleading people. Google has been offering synonym substititions and query refinements based upon synonyms since at least 2003, but that doesn’t mean that they are using LSI. It would be like saying that you are using a smart telegraph device to connect to the mobile web.

Inhaltstiefe

Die Inhaltstiefe, also wie umfassend und tief sich eine Webseite mit einem Thema beschäftigt, könnte ein Ranking-Faktor für Google sein.

Die Tiefe definiert sich dabei nicht nur durch die Anzahl an Wörtern im Text, sondern auch durch Nicht-Text-Elemente auf einer Seite (Bilder, Animationen, Statistiken, Online-Tools, Infografiken, Videos, Audio-Dateien etc.) und den Informationsgehalt des Textes.

Vor allem bei Suchanfragen, die einen hohen Recherche-Aufwand implizieren (also z. B. nach einer Anleitung dazu, wie man ein iPhone-Display repariert), könnte die Inhaltstiefe eine Rolle spielen.

Bei anderen Suchintentionen, z. B. wenn jemand eine Definition zu einem bestimmten Wort sucht, wäre die Inhaltstiefe wahrscheinlich weniger von Bedeutung.

Quellen und weiterführende Infos

Es gibt keine offizielle Bestätigung seitens Google, dass die Inhaltstiefe ein Ranking-Faktor ist.

In Googles öffentlichen Dokumenten wird die Qualität eines Textes jedoch oft dadurch definiert, dass er umfassend oder in den englischsprachigen Dokumenten comprehensive (übersetzbar mit umfassend, reichhaltig oder ausführlich) ist.

Im Search Console Help Center empfiehlt Google zum Beispiel:

Um qualitativ hochwertige Inhalte zu erstellen, müssen Sie eine erhebliche Menge an Zeit, Aufwand, Expertise und/oder Talenten/Fähigkeiten einsetzen. Die Inhalte sollten sachlich richtig, klar formuliert und umfassend sein. Stellen wir uns Ihre Seite als Rezept vor: Sie sollten ein vollständiges Rezept angeben, das einfach nachzuvollziehen ist, und nicht nur eine Zutatenliste oder eine oberflächliche Beschreibung des Gerichts.

Ein ähnlicher Wortlaut ist in Google’s Quality Raters Guidelines auf Seite 21 zu finden:

High quality information pages should be factually accurate, clearly written, and comprehensive.

Weiterhin auf Seite 24:

A satisfying or comprehensive amount of very high quality MC

Oder auf Seite 26:

…all types of very high quality informational content share common attributes of accuracy, comprehensiveness, and clear communication…”

Das Wort comprehensive kommt insgesamt 31 Mal (!) in den Quality Rater Guidelines vor. Die Inhaltstiefe scheint also durchaus etwas zu sein, was für Google eine Rolle spielt.

AMP

Dass die Nutzung von AMP (früher kurz für Accelerated Mobile Pages) ein direkter Ranking-Faktor ist, ist eher unwahrscheinlich.

AMP kann sich jedoch indirekt positiv auf das Ranking einer Seite auswirken, denn es kann…

  • einer Seite dabei helfen, Googles Test auf Optimierung für Mobilgeräte zu bestehen
  • die absolute Ladezeit, den PageSpeed Score und die Core Web Vitals einer Seite verbessern
  • positive Nutzersignale durch schnellere Ladezeiten erzeugen
  • den eigenen Server entlasten, da AMP-Seiten direkt über Google-Server geladen werden

Quellen und weiterführende Infos

In einem Webmaster-Hangout im Februar 2016 bestätigt John Mueller, dass AMP kein Ranking-Faktor ist:
At the moment, it is not a ranking signal. […] It is obviously one way to make mobile friendly pages, so that might be an option where you do that.

Dieses Statement wiederholte er im Januar 2017 noch einmal auf Twitter:

AMP isn’t a ranking factor; if you decide to disable it, make sure to redirect appropriately.

Mit der Einführung der Core Web Vitals im Mai 2021 wird AMP weniger wichtig für News-Publisher werden, denn es ist keine Vorraussetzung mehr dafür, in den Schlagzeilen (engl. Top Stories) in der Google-Suche zu erscheinen:

As part of this update, we’ll also incorporate the page experience metrics into our ranking criteria for the Top Stories feature in Search on mobile, and remove the AMP requirement from Top Stories eligibility. Google continues to support AMP, and will continue to link to AMP pages when available. We’ve also updated our developer tools to help site owners optimize their page experience.

Nicht übereinstimmende AMP-Inhalte

Der Inhalt einer AMP-Seite sollte mit dem Inhalt der dazugehörigen kanonischen Seite (also der normalen Nicht-AMP-Version) übereinstimmen.

Ist das nicht der Fall, kann das eine manuelle Maßnahme seitens Google auslösen, die dazu führt, dass die AMP-Version deindexiert und stattdessen die kanonische Seite angezeigt wird.

Quellen und weiterführende Infos

Nicht übereinstimmende AMP-Inhalte werden als in der Liste der manuellen Maßnahmen in der Search Console-Hilfe aufgeführt. Laut Google muss der Inhalt jedoch nicht zu 100 % identisch sein, sondern nur im Wesentlichen übereinstimmen:

Die Inhalte der AMP-Seite sollten im Wesentlichen mit den Inhalten der kanonischen Version übereinstimmen. Der Text braucht nicht identisch zu sein, aber das Thema sollte übereinstimmen und Nutzer sollten auf der AMP-Seite und der kanonischen Seite jeweils dieselben Aufgaben erledigen können.

Zu den wesentlichen Inhalten einer Seite zählen Google laut dieser Auflistung zum Beispiel eingebettete Videos:

Auf der kanonischen Webseite ist ein eingebettetes Video vorhanden, das in der AMP-Version fehlt. Wir empfehlen, dieselben wichtigen Content-Ressourcen auf der AMP-Seite wie auf der kanonischen Version einzutragen. Beachten Sie, dass das Video anhand der URL erkannt wird. Wenn zwei unterschiedliche URLs auf das gleiche Video verweisen, sehen Sie diese Warnung auch.

Laut dem Hilfedokument zum Statusbericht zu AMP-Seiten werden diese jedoch nicht immer komplett deindexiert, wenn sie Probleme aufweisen. Es kann sein, dass sie lediglich in SERP-Features wie dem Schlagzeilen-Karussell nicht angezeigt werden:

AMP-Seiten mit Warnungen werden indexiert und können in den Google-Suchergebnissen angezeigt werden. Unter Umständen werden sie jedoch nicht mit allen verfügbaren AMP-Funktionen angezeigt, wie beispielsweise in einem Karussell “Schlagzeilen”. Diese Seiten werden also möglicherweise nur als einfache Suchergebnisse mit blauen Links angezeigt.

Kanonische Links

Kanonische Links, das heißt <link>-Tags mit dem Attribut "rel=canonical", sind ein Indexierungs-Faktor für Google.

Mit kanonischen Links sagst du Google, wo die eigentliche Seite zu finden ist, die indexiert werden soll. Die “bevorzugte URL” sozusagen.

Das ist vor allem dann wichtig, wenn es mehrere identische oder sehr ähnliche Versionen einer Seite gibt.

Sagen wir z. B. ich würde eine normale Version und eine Druckversion dieser Faktoren-Liste anbieten:

https://gradually.ai/google-ranking-faktoren/
https://gradually.ai/google-ranking-faktoren/print

Dann würde ich wollen, dass die normale Version der Liste indexiert wird, weil nur diese die Möglichkeit enthält die Faktoren zu filtern.

Überlasse ich diese Wahl jedoch Google, kann es sein, dass meine Druckversion statt der normalen Version indexiert wird. Durch Angabe eines kanonischen Links (oder wahlweise eines kanonischen HTTP-Headers) kann ich das jedoch verhindern und Google in die richtige Richtung weisen:

<link rel="canonical" href="https://gradually.ai/google-ranking-faktoren/" />

Quellen und weiterführende Infos

Hier die Aussage von Google in einem Hilfedokument der Search Console-Hilfe:

Wenn Sie Google nicht ausdrücklich mitteilen, welche URL kanonisch ist, trifft Google die Wahl für Sie oder betrachtet beide als gleichwertig, was zu unerwünschtem Verhalten führen kann […]

Zu “unerwünschtem Verhalten” zählt z. B. verlangsamtes Crawling der Website, Streuung von Linksignalen und die mögliche Indexierung der falschen URL:

Gründe für kanonische URLs

Aktualität

Es hat einen Grund dafür, dass Google das Datum der letzten Aktualisierung in den Snippets anzeigt:

Die Aktualität eines Beitrags ist ein wichtiger Ranking Faktor.

Aktualität ist ein direkter positiver Ranking-Faktor.

Je nach Suchintention ist dieser jedoch unterschiedlich wichtig:

Bei einem Tomatensuppen-Rezept kann ein 4 Jahre altes Rezept die Suchintention meist genau gut beantworten wie ein 2 Wochen altes. Bei einer aktuell laufenden Fussball-WM wäre es hingegen hinderlich, wenn 4 Jahre alte Ergebnisse angezeigt würden.

Die Aktualität einer Seite ist laut Google vor allem für folgende Themen wichtig:

  • Aktuelle Ereignisse oder Trendthemen (z. B. Krieg zwischen Armenien und Aserbaidschan)
  • Wiederkehrende Ereignisse (z. B. die Präsidentschaftswahlen in den USA oder die Fußball-WM)
  • Themen, bei denen es häufige Änderungen gibt (z. B. auf dem Auto-Markt, bei Smartphones oder Unterhaltungselektronik)

Quellen und weiterführende Infos

Die Aktualität ist für bestimmte Keywords schon länger ein Ranking-Faktor.

Intern bezeichnet Google solche Keywords als QDF (Query Deserves Freshness). Das Konzept tauchte zum ersten Mal in 2007 in einem Interview mit Google-Ingenieur Amit Singhal auf:

THE QDF solution revolves around determining whether a topic is “hot.” If news sites or blog posts are actively writing about a topic, the model figures that it is one for which users are more likely to want current information. The model also examines Google’s own stream of billions of search queries, which Mr. Singhal believes is an even better monitor of global enthusiasm about a particular subject.

Seit dem Freshness Update im November 2011, das durch die Einführung des neuen Suchindex Caffeine im Jahr 2010 möglich wurde und insgesamt 35 % (!) aller Suchanfragen betraf, kann Google noch besser erkennen, für welche Keywords Aktualität wichtig ist und welche nicht:

Different searches have different freshness needs. This algorithmic improvement is designed to better understand how to differentiate between these kinds of searches and the level of freshness you need, and make sure you get the most up to the minute answers.

In der Ankündigung dazu betont Google zusätzlich die generelle Wichtigkeit aktueller Inhalte:

Search results, like warm cookies right out of the oven or cool refreshing fruit on a hot summer’s day, are best when they’re fresh. Even if you don’t specify it in your search, you probably want search results that are relevant and recent.

Und hier ein aktuellerer Ausschnitt aus How Search Works:

Wenn du nach Trendwörtern suchst, interpretiert unser Aktualitätsalgorithmus dies als Signal dafür, dass aktuelle Informationen nützlicher sein könnten als ältere Seiten. Dies bedeutet, dass du die aktuellsten Informationen erhältst, wenn du nach den neuesten “Bundesliga-Ergebnissen”, “Let’s Dance” oder “VW-Einnahmen” suchst.

In Googles Patent US8521749B2 geht um die Berechnung und die Bewertung der Aktualität von Webseiten. Die im Patent vorgestellte Technologie soll das Problem lösen, dass für manche Suchanfragen ältere Webseiten angezeigt werden, obwohl aktuellere relevanter wären:

Also, “stale” documents (i.e., those documents that have not been updated for a period of time and, thus, contain stale data) may be ranked higher than “fresher” documents (i.e., those documents that have been more recently updated and, thus, contain more recent data). In some particular contexts, the higher ranking stale documents degrade the search results. Thus, there remains a need to improve the quality of results generated by search engines.
oogle-ranking-faktoren/aktualitaet/ zur Aktualität als Ranking-Faktor

Relevante Bilder auf der Seite

Das Einbinden relevanter Bilder auf einer Seite ist (je nach Suchanfrage) wahrscheinlich ein positiver Ranking-Faktor.

Um festzustellen, ob ein Bild relevant ist, könnte Google zum Beispiel:

  • Den Alternativ-Text des Bildes untersuchen
  • Den Dateinamen und den URL-Pfad untersuchen
  • Den Inhalt des Bildes selbst scannen (durch maschinelles Lernen wird Google immer besser darin, Objekte in Bildern zu erkennen)
  • Den umgebenden Text des Bildes untersuchen

Quellen und weiterführende Infos

In Googles How Search Works findet sich folgender Absatz:

Zusätzlich zum Abgleich der Keywords suchen die Algorithmen nach Hinweisen, um festzustellen, wie relevant die Ergebnisse für die Suchanfrage sind. Wenn du den Suchbegriff “Hunde” eingibst, suchst du vermutlich nicht nach einer Seite, auf der das Wort “Hunde” etliche Male vorkommt. Wir versuchen daher herauszufinden, ob eine Seite eine Antwort auf deine Frage enthält oder nur den Suchbegriff wiederholt. Die Suchalgorithmen analysieren, ob Seiten relevante Inhalte enthalten – wie zum Beispiel Bilder oder Videos von Hunden oder auch eine Liste verschiedener Hunderassen.

In Googles Die Suche für Entwickler gibt es eine Anleitung zur Bilder-Suche. Dort werden folgende Best Practices empfohlen, damit Google die Relevanz von Bildern verstehen kann:

Google-Bildersuche: Gutes Nutzererlebnis schaffen

Aktualisierungsfrequenz

Die Akualisierungsfrequenz ist ein Crawling-Faktor. Eine Seite, die häufiger upgedatet wird, wird in der Regel auch häufiger von Googlebot besucht.

Direkte Auswirkungen der Aktualisierungsfrequenz auf das Ranking sind ebenfalls denkbar:

Der Google-Algorithmus zieht möglicherweise nicht nur in Betracht, wann eine Seite zuletzt aktualisiert wurde, sondern auch wie häufig und in welchen Abständen in der Vergangenheit.

Quellen und weiterführende Infos

Das Hilfedokument zum Bericht “Crawling-Statistiken” in der Search Console-Hilfe bestätigt die Aktualisierungsfrequenz als Crawling-Faktor:

Wenn sich auf einer Seite Informationen befinden, die selten aktualisiert werden oder keine hohe Qualität haben, wird sie auch weniger oft gecrawlt.

In Googles Patent US8521749B2 ist von einem Content Update Score die Rede, der sich durch die Aktualisierungsfrequenz berechnet:

In one implementation, search engine 125 may generate a content update score (U) as follows: U=f(UF,UA), where f may refer to a function, such as a sum or weighted sum, UF may refer to an update frequency score that represents how often a document (or page) is updated, and UA may refer to an update amount score that represents how much the document (or page) has changed over time.

Wenn die Aktualisierungsfrequenz ein Faktor ist, schaut sich Google wahrscheinlich aber auch den Inhalt an und nicht nur das Aktualisierungsdatum an:

For example, a document whose content is edited often may be scored differently than a document whose content remains static over time. Also, a document having a relatively large amount of its content updated over time might be scored differently than a document having a relatively small amount of its content updated over time

Oder es in den Worten von John Mueller zu sagen:

As a user, recognizing that old content is just being relabeled as new completely kills any authority that I thought the author / site had. Good content is not lazy content. SEO hacks don’t make a site great. Give your content and users the respect they deserve.

Relevante ausgehende Links

Auf externe Seiten mit hoher Autorität und themenrelevanten Inhalten zu verlinken, bietet vielleicht Vorteile für das Google-Ranking einer Seite.

Aus Nutzerperspektive sind relevante ausgehende Links allemal sinnvoll, denn:

  • Nutzer können durch die Quellen einer Seite selbst überprüfen
  • Nutzer können sich weiterführende Informationen zu einem Thema anschauen
  • ausgehende Links können dabei helfen, den Inhalt einer Seite besser zu verstehen

Quellen und weiterführende Infos

In einem Artikel von Matt Cutts zu PageRank Sculpting findet sich folgender Absatz:

In the same way that Google trusts sites less when they link to spammy sites or bad neighborhoods, parts of our system encourage links to good sites.

In diesem Video betont John Mueller den Nutzen ausgehender Links für Nutzer:

Linking to other websites is a great way to provide value to your users. Often times, links help users to find out more, to check out your sources and to better understand how your content is relevant to the questions that they have.

Googles Qualitäts-Checkliste im Blogartikel zu Core Updates findet sich folgende Frage, die auf die Wichtigkeit von Quellenangaben hinweist:

Does the content present information in a way that makes you want to trust it, such as clear sourcing, evidence of the expertise involved, background about the author or the site that publishes it, such as through links to an author page or a site’s About page?

Folgender Absatz in den Googles Search Quality Evaluator Guidelines betont ebenfalls die Wichtigkeit von Quellenangaben (im Kontext von News-Artikeln):

Often very high quality news content will include a description of primary sources and other original reporting referenced during the content creation process.

Sowie diese Begründung zur Bewertung einer Seite als “Low Quality Page”:

The article fails to cite sources, and there is no evidence of E-A-T.

Eine Case Study von Reboot Online anhand 10 neuer Domains, zeigt die Wirksamkeit externer Links für das Ranking (die Case Study ist schon etwas älter, wurde aber im April 2020 wiederholt).

Rechtschreibung und Grammatik

Google hat schon öfter behauptet, dass Rechtschreibung und Grammatik kein direkter Ranking-Faktor sind.

Es spricht dennoch einiges dafür:

  • korrekte Rechtschreibung und Grammatik haben definitiv einen positiven Einfluss auf die Lesbarkeit und die Qualität einer Seite (sind also aus Nutzerperspektive sinnvoll)
  • Google hatte von Dezember 2010 bis Mai 2015 einen Filter in die Suche integriert, mit dem man die Suchergebnisse nach Lesbarkeit filtern konnte
  • Google selbst hat Korrelationen zwischen Reputation und korrekter Rechtschreibung festgestellt

Und selbst, wenn sie kein direkter Faktor sind, sind Rechtschreibung und Grammatik mindestens ein indirekter.

Quellen und weiterführende Infos

Matt Cutts verneint in einem Video von 2011, dass Grammatik und Rechtschreibung ein direktes Ranking-Signal ist:

At least the last time I checked, which was a while ago, it is not used as a direct signal within our ranking. So it’s not one of the over 200 different signals that we use to assess the quality of a page.But I think it would be fair to think about using it as a signal.

Gibt aber im selben Video zu, dass es als Ranking-Signal Sinn ergäbe:

So for example, we noticed a while ago that if you look at the page rank of a page–so how reputable we think a particular page or site is–the ability to spell correlates relatively well with that. So the reputable sites tend to spell better and the sites that are lower page rank or very low page rank tend not to spell as well.

In einem Google-Hangout von 2017 antwortet John Müller “Nicht wirklich.” auf die Frage, ob Grammatik einen Einfluss auf das Ranking hat. Er gibt aber später zu, dass er es nicht genau wisse und es möglich wäre:

Not really.So it is more a matter of how it is received from a user point of view. If you are a banking web site and you have terrible English on it, then I assume users will lose trust in your web site. But for other things, it is the way the web just comes. Espesially user generated content, you can’t fix their grammar, you probably could but it is impractical.I don’t know if any of our algorithms specifically look for the grammar and say this web site uses English in a bad way, we will demote it. I don’t know. It is possible but it feels really kind of niche. We can find better ways of finding lower quality content than just checking the grammar. Because something like grammar is really hard to do across the internet, where there is so many different languages and so many variations of languages. We can’t possibly check Swiss German websites for grammar.

Googles Qualitäts-Checkliste im Blogartikel zu Core Updates enthält folgende Frage:

Is the content free from spelling or stylistic issues?

In den Google Search Quality Evaluator Guidelines wird bei mehreren Beispielen zu Low und Lowest Quality Pages als Begründung für die negative Bewertung inkorrekte Rechtschreibung und/oder Grammatik angeben, wie z. B.:

This content has many problems:inaccurate/meaningless information and complete lack of editing with poor spelling and grammar—both of these characteristics in combination justify the Lowest+ to Low rating.

YouTube-Videos auf der Seite

Auf einer Seite eingebettete YouTube-Videos sind vielleicht ein Ranking-Faktor für Google.

Dafür spricht erst einmal, dass YouTube zu Google gehört. Und Google hat die Tendenz dazu, Klicks auf seine eigenen Dienste oder Websites zu fördern.

Zudem ergibt die Einbindung von YouTube-Videos auch aus Nutzerperspektive Sinn und ist damit mindestens ein indirekter Ranking-Faktor:

  • Videos können die Verweildauer auf der Seite verbessern
  • Videos bieten eine gute Alternative für Nutzer, die nicht so gerne Text lesen
  • Durch Videos lassen sich einige Dinge besser erklären oder veranschaulichen
  • Videos lockern den Text auf

Quellen und weiterführende Infos

Die Ranking Factors Study 2.0 von SEMRush sieht Videos im Allgemeinen als nicht wichtigen Ranking-Faktor an:

Die Ranking Factor Study 2.0 von SEMRush sieht Videos auf der Seite als nicht wichtigen Ranking-Faktor an

John Mueller empfiehlt auf Twitter Details zu einem Thema lieber auf einer Webseite zu lassen als in einem YouTube-Video zu präsentieren, da diese leichter aktualisiert werden können:

YouTube is great to reach a broad audience, I kinda feel a lot of the details should be on web-pages though, since it’s much easier to update the details there rather than to create a new video every time something changes. Alternately, shorter videos on specific topics.

Interne Verlinkung einer Seite

Eine Seite innerhalb einer Website oft und prominent zu verlinken, hilft ihr sehr wahrscheinlich beim Ranking.

Und das hat mehrere Gründe:

  1. Wenn eine Seite auf einer Website prominent verlinkt ist, zeigt das Google: “Hey, diese Seite ist wichtig.”
  2. PageRank: Je mehr Seiten innerhalb einer Website auf eine Seite verweisen (und je besser diese wiederum intern und extern verlinkt sind) desto höher ist ihr PageRank
  3. Interne Links helfen Google dabei, den Inhalt einer Seite besser zu verstehen (z. B. durch den umgebenden Inhalt und verweisenden Ankertext)

Eine neue Seite, die oft innerhalb einer Website verlinkt ist, wird zudem schneller von Googlebot gefunden. Interne Verlinkung ist also auch ein Crawling-Faktor.

Quellen und weiterführende Infos

In seinem SEO Starter Guide empfiehlt Google Folgendes zu internen Links:

Sorgen Sie dafür, dass Nutzer so einfach wie möglich vom allgemeinen Inhalt zu den spezifischeren Inhalten gelangen können, die sie auf Ihrer Website suchen. Fügen Sie Navigationsseiten hinzu, wenn dies sinnvoll ist, und arbeiten Sie diese effektiv in Ihre interne Linkstruktur ein. Achten Sie darauf, dass alle Seiten Ihrer Website über Links erreichbar sind und dass dazu keine interne Suchfunktion erforderlich ist. Erstellen Sie gegebenenfalls Links zu verwandten Seiten, damit Nutzer ähnliche Inhalte finden können.

John Mueller betont die Wichtigkeit interner Links in einem Webmaster-Hangout von Mai 2019:

So we do look at things with regards to where they’re linked within the website. For example, usually the home page is one of the pages that is most commonly linked from external sources. That means the home page is probably the page that has the most signals, the most page rank associated with it. And if you have pages that are linked from the home page, then those are really easy for us to find.

Interne Links sind auch wichtig für das Crawling, wie man in Googles How Search Works nachlesen kann:

Es gibt kein zentrales Verzeichnis aller Webseiten. Deshalb muss Google laufend nach neuen Seiten suchen und sie zu seiner Liste bekannter Seiten hinzufügen. Einige Seiten sind bekannt, da sie schon zuvor von Google aufgerufen wurden. Andere Seiten werden entdeckt, wenn Google einem Link von einer bekannten Seite folgt, der auf eine neue Seite verweist.

In einer früheren Version von diesem Hilfedokument zum Link-Report in der Google Search Console, stand folgender Satz:

The number of internal links pointing to a page is a signal to search engines about the relative importance of that page. If an important page does not appear in this list, or if a less important page has a relatively large number of internal links, you should consider reviewing your internal link structure.

Eine alte Version des Hilfedokument zum Internal Links Report in der Google Search Console

Verwaiste Seite (Orphan Page)

Eine Seite bezeichnet man als verwaiste Seite (engl. orphan page), wenn keinerlei interne Links auf sie zeigen.

Das ist schlecht für’s Ranking, denn so können sie nicht vom internen PageRank der Website profitieren.

Verwaiste Seiten werden zudem weniger häufig gecrawlt und von Google mitunter komplett deindexiert.

Im schlimmsten Fall können verwaiste Seiten von Google als Doorway Pages interpretiert werden (vor allem, wenn sie massenhaft und aus manipulativer Absicht erstellt werden), was zu einer manuellen Maßnahme gegen die gesamte Website führen kann.

Quellen und weiterführende Infos

Laut Google zeichnen sich Doorway Pages durch ihre schlechte Erreichbarkeit innerhalb einer Website aus:

Do these pages exist as an “island?” Are they difficult or impossible to navigate to from other parts of your site? Are links to such pages from other pages within the site or network of sites created just for search engines?

John Mueller sagt in einem Webmaster-Hangout von 2016, dass verwaiste Seiten möglicherweise nach einer Zeit nicht mehr indexiert werden:

But if we don’t find any links at all to those pages then we assume that probably they’re not that critical for your website. So it would be possible that at some point it will just be flushed up.

Dass eine Seite intern oder extern verlinkt ist, ist wichtig, damit Googles Crawler sie schneller oder überhaupt (wenn sie z. B. nicht in der XML-Sitemap enthalten ist) finden kann:

Es gibt kein zentrales Verzeichnis aller Webseiten. Deshalb muss Google laufend nach neuen Seiten suchen und sie zu seiner Liste bekannter Seiten hinzufügen. Einige Seiten sind bekannt, da sie schon zuvor von Google aufgerufen wurden. Andere Seiten werden entdeckt, wenn Google einem Link von einer bekannten Seite folgt, der auf eine neue Seite verweist.

In einer früheren Version von Googles Richtlinien für Webmaster, fand sich folgende Empfehlung:

Stellen Sie sicher, dass alle Seiten auf der Website über einen Link von einer anderen auffindbaren Seite erreicht werden können.

In einer früheren Version von diesem Hilfedokument zum Link-Report in der Google Search Console, stand folgender Satz:

The number of internal links pointing to a page is a signal to search engines about the relative importance of that page. If an important page does not appear in this list, or if a less important page has a relatively large number of internal links, you should consider reviewing your internal link structure.

Eine alte Version des Hilfedokument zum Internal Links Report in der Google Search Console

Dementsprechend wird eine Seite, die gar nicht intern verlinkt ist, von Google als unwichtig eingestuft.

Keyword im Ankertext interner Links

Der Ankertext interner Links spielt für Google eine Rolle, um die Relevanz einer Seite zu einem Keyword zu bestimmen.

Als Ankertext bezeichnet man den Text innerhalb zwischen dem sich schließenden und öffnenden <a>-Tag eines Links (also der “verlinkte Text”):

<a href="https://meinkochblog.de/tomatensuppe-ohne-sahne/">Tomatensuppe ohne Sahne</a>

Wenn du z. B. mit einer Seite für das Keyword “Tomatensuppe ohne Sahne” ranken möchtest, hilft es dir für dein Ranking, wenn diese Seite von andere Seiten auf deiner Website mit diesem oder einem relevanten Keyword im Ankertext verlinkt ist.

Quellen und weiterführende Infos

In Googles Startleitfaden zur Suchmaschinenoptimierung findet sich folgender Absatz:

Linktext ist der sichtbare Text innerhalb eines Links. Dieser Text informiert die Nutzer und Google über den Inhalt der Seite, auf die Sie verlinken. Sie können auf Ihrer Seite interne Links einfügen, die auf andere Seiten Ihrer Website verweisen, oder externe Links, die zu Inhalten auf anderen Websites führen. In beiden Fällen gilt: Je besser Ihr Ankertext ist, desto einfacher können Nutzer die verlinkte Seite aufrufen und desto besser erkennt Google den Inhalt dieser Seite. […] Mit einem geeigneten Ankertext ist der Inhalt der verlinkten Seiten für Nutzer und Suchmaschinen gut zu erkennen.

Sowie folgende Empfehlung:

Ankertext eventuell auch für interne Links verwenden: In der Regel können Sie sich Verknüpfungen als Verweise auf externe Websites vorstellen. Wenn Sie Ihr Augenmerk jedoch stärker auf den für interne Links verwendeten Ankertext legen, erleichtert dies Nutzern und Google die Navigation auf Ihrer Website.

Eine ähnliche Aussage gibt es auch von John Mueller:

Essentially, internal linking helps us on the one hand to find pages, so that’s really important. It also helps us to get a bit of context about that specific page.

Dass Google den Ankertext interner Links manchmal zur Erstellung von Site-Links oder zum Umschreiben von Meta-Titeln nutzt, ist ein weiterer Hinweis darauf, dass der Ankertext für das Ranking eine Rolle spielt:

Google nutzt interne Links zur Benennung von Site-Links einer Website

Ein weiterer Hinweis findet sich auch in Googles Patent US8738643B1, in dem eine Technologie beschrieben wird, bei der Ankertexte zum Herausfinden von Synonymen einer Entität genutzt werden:

A synonymous name of an object is determined by identifying a source document from which one or more facts of the entity represented by the object were derived, identifying a plurality of linking documents that link to the source document through hyperlinks, each hyperlink having an anchor text, processing the anchor texts in the plurality of linking documents to generate a collection of synonym candidates for the entity represented by the object, and selecting a synonymous name for the entity represented by the object from the collection of synonym candidates.

Lesbarkeit

Google hatte von Dezember 2010 bis Mai 2015 einen Filter in die Suche integriert, mit dem man die Suchergebnisse nach Lesbarkeit filtern konnte:

Lesbarkeit ist unter Umständen ein Google Ranking Faktor. Eine Bestätigung gibt es jedoch nicht.

Dabei konnte man drei Stufen der Lesbarkeit auswählen:

Reading Level in der englischen Google-Suche: Basic, Intermediate, Advanced

Daraus lässt sich schließen, dass Google die Lesbarkeit einer Seite einschätzen kann und vielleicht auch als Ranking-Signal verwendet.

Wenn die Lesbarkeit ein Ranking-Faktor sein sollte, orientiert sie sich wahrscheinlich stark am Keyword oder an gesammelten Daten zum Nutzers (manche Suchen können z. B. durch Fachartikel besser beantwort werden als durch Artikel, die auch für Laien verständlich sind).

Quellen und weiterführende Infos

Eine Studie von Searchmetrics aus 2015 zeigt, dass die Lesbarkeit nach dem Flesch-Reading-Ease-Score in den Top 10 sogar niedriger war als in den Top 30 (das heißt, dass Fachartikel in den Top 10 dominierten):

Korrelation von Rankings der Top 10 und Top 30 zum Flesch-Score

John Mueller verneint in einem Webmaster-Hangout von 2018 den Ranking-Faktor “Lesbarkeit”:

So from from an SEO point of view, it’s probably not something that you need to focus on, in the sense that, as far as I know, we don’t have kind of these basic algorithms that just count words and try to figure out what the reading level is based on these existing algorithms.

Seitenhierarchie in der URL

Dass die Seitenhierarchie in der URL abgebildet ist, macht es für Nutzer leichter, die Bedeutung einer Seite innerhalb einer Website besser verstehen.

Da das gut für die Nutzererfahrung ist, könnte das auch ein positiver Ranking-Faktor für Google sein.

Das heißt, es könnte Ranking-Vorteile bieten, wenn die URL für meine Ranking-Faktkoren-Liste das Oberthema (SEO) enthielte:

https://gradually.ai/seo/google-ranking-faktoren/

Anstatt so:

https://gradually.ai/google-ranking-faktoren/

Quellen und weiterführende Infos

Laut John Mueller schaut Google auf die Hierarchie in der URL, allerdings ist diese nicht allzu wichtig:

[…] URLs are primarily identifiers, hierarchy in URL elements isn’t that important for Google search.

Ein Hinweis darauf, dass URLs generell nicht sonderlich wichtig für’s Ranking sind, wenn überhaupt, zeigt sich in Googles Tendenz URLs in den Snippets mit den Jahren weniger prominent in den Suchergebnissen anzuzeigen. In 2012 waren URLs in Google z. B. noch grün und ein paar Pixel größer:

Google-Suchergebnisse 2012 vs. 2021

Google hat zudem schon öfter getestet, URLs komplett in der Suche zu verbergen.

Sehr lange Alternativtexte

Sehr lange Alternativtexte (auch Alt-Texte genannt) von Bildern wirken sich vielleicht negativ auf das Google-Ranking aus.

Alternativtexte sind zwar nicht direkt für Nutzer sichtbar, werden aber von Screenreadern vorgelesen oder angezeigt, wenn ein Bild nicht verfügbar ist.

Ein sehr langer Text, vor allem ein mit Keywords überladener, kann also unter Umständen für eine schlechte Nutzererfahrung sorgen.

Quellen und weiterführende Infos

In seinem Startleitfaden zur Suchmaschinenoptimierung (SEO) empfiehlt Google kurze, aber beschreibende Texte als Ankertext zu verwenden:

Auf Dateinamen und alternative Texte trifft dasselbe zu wie auf viele andere Seitenelemente, die auf eine Optimierung ausgerichtet sind: Am besten geeignet sind diejenigen, die kurz, aber beschreibend sind.

Zu vermeiden sind laut Startleitfaden:

Übermäßige Verwendung von Keywords in alternativem Text oder Kopieren und Einfügen ganzer Sätze

Und für den Fall, dass Bilder als Links verwendet werden:

Verfassen von übermäßig langem alternativem Text, der als Spam betrachtet werden würde

In den Best Practices für Bilder in der Google Search Central geht Google zwar nicht auf die Länge von Alternativtexten ein, rät aber von überflüssigen Keywords im Alternativtext ab:

Überladen Sie ALT-Attribute nicht mit überflüssigen Keywords, da dies nicht nutzerfreundlich ist und Ihre Website leicht als Spam eingestuft werden kann.

In einem Video von 2007 nennt Matt Cutts genauere Zahlen zu der idealen Wörteranzahl in Alternativtexten:

Now if you’ve got 200 words in your Alt text, or, really, you don’t need a ton of words. Because seven is enough to describe a scene pretty well. So if you’ve got 20 or 25, that’s even getting a little bit out there.

Sehr lange Ankertexte

Sehr lange Ankertexte sind schlecht für die Nutzererfahrung:

Wenn sich ein Link über mehrere Sätze oder Absätze erstreckt, verschlechtert das die Lesbarkeit des Textes und verringert vielleicht auch die Klickwahrscheinlichkeit auf den Link (Ankertexte sind Teaser für die verlinkten Seiten).

Hier ein Beispiel von zu langem Ankertext:

Link mit sehr langem Ankertext

Zudem könnten sehr lange Ankertexte, vor allem, wenn er sie mit Keywords vollgestopft sind, als Spam-Versuch von Google gewertet werden.

Dementsprechend sind übermäßig lange Ankertexte vielleicht ein negativer Ranking-Faktor.

Quellen und weiterführende Infos

In seinem Startleitfaden zur Suchmaschinenoptimierung (SEO) empfiehlt Google kurze, aber aussagekräfte Texte als Ankertext zu verwenden:

Bemühen Sie sich um kurze, aber aussagekräftige Texte – normalerweise genügen wenige Wörter oder ein kurzer Ausdruck. Zu vermeiden: Verfassen eines langen Ankertexts, z. B. eines langen Satzes oder eines kurzen Textabsatzes

Dies wiederholt Google im Guide noch einmal für die Verwendung von internem Ankertext (mit dem Zusatz, dass man Keyword-Stuffing im Ankertext vermeiden sollte):

Verwenden von Ankertext mit übermäßig vielen Keywords oder zu langem Ankertext nur für Suchmaschinen

In einem Webmaster-Hangout von November 2020 sagt John Mueller wiederum, dass Google die Länge des Ankertextes nicht für das Ranking in Betracht zieht (und, dass längerer Text Google sogar mehr Kontext darüber geben kann, worum es auf einer verlinkten Seite geht):

I don’t think we do anything special to the length of words in the anchor text. But rather, we use this anchor text as a way to provide extra context for the individual pages. Sometimes if you have a longer anchor text that gives us a little bit more information. Sometimes it’s kind of like just a collection of different keywords. So, from that point of view, I wouldn’t see any of these as being better or worse. And it’s something where, especially for internal linking, you want to probably focus more on things like how can you make it clearer for your users that if they click on this like this is what they’ll find? So that’s kind of the way that I would look at it here. I wouldn’t say that shorter anchor text is better or shorter anchor text is worse, it’s just different context.

Er geht allerdings nicht darauf ein, wie es sich mit Ankertext verhält, der sehr lang ist (in der Frage, die ihm gestellt wurde, ging es um den Vergleich von Ankertext mit zwei Wörtern gegenüber sieben bis acht).

Sehr langer Titel

Idealerweise sollte der (Meta-)Titel einer Seite 60 bis 70 Zeichen haben.

Ein Titel, der diese Länge überschreitet, wird im Snippet entweder gekürzt, gar nicht angezeigt (Google zeigt dann z. B. einen Titel basierend auf dem Ankertext interner Links oder Backlinks an) oder Google zeigt einen algorithmisch gewählten Ausschnitt davon an.

Das kann sich negativ auf die Klickrate in den Suchergebnissen auswirken.

Dass zu lange Titel sich auch direkt auf das Google-Ranking einer Seite auswirken, halte ich ebenfalls für möglich, aber eher unwahrscheinlich.

Quellen und weiterführende Infos

In seinem Startleitfaden zur Suchmachinenoptimierung empfiehlt Google kurze und aussagekräftige Titel zu schreiben:

Wenn der Titel zu lang ist oder aus anderen Gründen als weniger relevant eingestuft wird, zeigt Google eventuell nur einen Teil davon oder einen automatisch generierten Titel im Suchergebnis an.

Und weiterhin als Best Practice für den Titel:

Zu vermeiden: Verwenden von extrem langen Titeln, die für Nutzer nicht hilfreich sind

In seinem Hilfedokument zu aussagekräftigen Titeln und Snippets schreibt Google:

Seitentitel sollten aussagekräftig und prägnant sein. Vermeide ungenaue Beschreibungen wie “Home” für deine Startseite oder “Profile” für das Profil einer bestimmten Person. Ebenfalls vermieden werden sollten allzu lange oder ausführliche Titel, da diese in den Suchergebnissen wahrscheinlich gekürzt werden.

Sehr lange URL

Kürzere URLs sind nutzerfreundlicher, da sie leichter zu merken sind und das Thema schneller erkennen lassen.

Dementsprechend könnten zu lange URLs ein negativer Ranking-Faktor sein.

Wenn das der Fall ist, handelt es sich aber wahrscheinlich um keinen besonders wichtigen Faktor.

Quellen und weiterführende Infos

Eine umfangreiche Studie von Backlinko hat gezeigt, dass URLs auf Platz 1 im Durchschnitt ein paar Zeichen kürzer sind als auf Platz 2 – 9:

Kürzere URLs ranken laut Backlinko tendenziell besser als lange URLs

Ein ähnliches Bild zeichnet eine Studie von Ahrefs (der Unterschied zwischen Platz 1 und dem Rest würde allerdings nicht so groß erscheinen, wenn die X-Achse in der Grafik bei 0 starten würde):

Eine Studie von Ahrefs besagt: Je kürzer eine URL, desto besser

Auch eine Aussage von Matt Cutts deutet daraufhin, dass Google kurze URLs bevorzugt oder zumindest den ersten Wörtern in der URL ein höheres Gewicht verleiht:

If you can make your title four- or five-words long – than it is pretty natural. If you have got a three, four or five words in your URL, that can be perfectly normal. As it gets a little longer, then it starts to look a little worse. Now, our algorithms typically will just weight those words less and just not give you as much credit.

Ein Hinweis darauf, dass URLs generell nicht sonderlich wichtig für’s Ranking sind, wenn überhaupt, zeigt sich in Googles Tendenz URLs in den Snippets mit den Jahren weniger prominent in den Suchergebnissen anzuzeigen. In 2012 waren URLs in Google z. B. noch grün und ein paar Pixel größer:

Google-Suchergebnisse 2012 vs. 2021

Google hat zudem schon öfter getestet, URLs komplett in der Suche zu verbergen.

In diesem Webmaster-Hangout von 2019 empfiehlt John Mueller, die Länge einer URL auf 1.000 Zeichen zu beschränken:

The only thing I would watch out for is it should be, I think, less than 1,000 characters, which you probably have to work really hard to make URLs that long.

Die selbe Zahl erwähnte er schon in 2009 im Forum der Google Webmaster Central.

Klicktiefe

Die Klicktiefe einer Seite bestimmt sich dadurch, wie viele Linkklicks es braucht, um diese von der Startseite zu erreichen.

Sie ist ein Crawling-Faktor und vielleicht auch ein Ranking-Faktor für Google.

Die Logik dahinter ist:

Wenn eine Seite innerhalb einer Website schlecht auffindbar ist, könnte das von Google als das Signal dafür gesehen werden, dass diese Seite innerhalb der Website nicht wichtig ist.

Quellen und weiterführende Infos

Ob eine Seite auf einer Website von der Startseite erreichbar ist, hat auf jeden Fall Auswirkungen auf das Crawling. Google empfiehlt dazu in der Search Console-Hilfe:

Provide comprehensive link navigation within your site. Be sure that you can reach any page on your site by following a chain of one or more links from your homepage. Avoid using links that require user interaction to appear, or non-standard linking technology, or links embedded in media files or other complex technologies.

In einem Google-Hangout sagt John Mueller folgendes zur Klicktiefe:

What does matter for us a little bit is how easy it is to actually find the content. So especially if your homepage is generally the strongest page on your website, and from the homepage it takes multiple clicks to actually get to one of these stores, then that makes it a lot harder for us to understand that these stores are actually pretty important.

HTML-Listen auf der Seite

HTML-Listen (geordnete und ungeordnete Listen mit den Elemenen <ol> und <ul>) sind vielleicht ein Ranking-Faktor für Google.

Sie können Texte auflockern und die Lesbarkeit längerer Aufzählungen verbessern, wodurch sie (je nach Suchintention) zu einer besseren Nutzererfahrung beitragen können.

Sie stellen zudem Daten in strukturierter Form dar und sind somit für Google einfach verarbeitbar (Listen deuten darauf hin, dass die darin enthaltenen Daten oder Texte semantisch zusammenhängen).

Quellen und weiterführende Infos

Searchmetrics hat HTML-Listen im Rahmen seiner Nischen-Ranking-Faktoren-Studie 2018 näher untersucht. Dabei ist herausgekommen, dass die Seiten in den Top 10 bei Google in 8 verschiedenen Nischen im Durchschnitt 1,4 HTML-Listen enthalten und in manchen Nischen Listen häufiger verwendet werden:

Anzahl von Listen in den Top 10 bei Google in 8 verschiedenen Nischen

HTML-Listen können zudem in Featured Snippets angezeigt werden:

HTML-Liste als Featured Snippet

HTML-Tabellen auf der Seite

Mit HTML-Tabellen kann man Texte auflockern und größere Datensätze übersichtlich darstellen.

Dadurch können sie (je nach Suchintention) zu einer besseren Nutzererfahrung beitragen und sind vielleicht ein Ranking-Faktor.

Quellen und weiterführende Infos

Vor ein paar Jahren hatte Google noch einen separaten Index für Tabellen. Man konnte diesen über https://research.google.com/tables abrufen:

Google Tables war ein separater Index für Tabellen

Searchmetrics hat Tabellen im Rahmen seiner Nischen-Ranking-Faktoren-Studie 2018 näher untersucht und festgestellt, dass diese in den Top 10 in manchen Nischen deutlich häufiger vorkommen als in anderen:

Anzahl von Tabellen in den Top 10 bei Google in 8 verschiedenen Nischen

Tabellen können zudem in Featured Snippets angezeigt werden:

Tabelle als Featured Snippet

Duplicate Content (innerhalb einer Website)

Als Duplicate Content (auch Double Content oder DC genannt) bezeichnet man Inhalte innerhalb einer Website, die unter mehr als einer URL oder Seite zu finden sind.

Solche “doppelten Inhalte” entstehen meist durch schlecht optimierte CMS, Shop-Systeme oder Forensoftware. Zum Beispiel, wenn eine Produkt-Seite in einem Online-Shop über zwei verschiedene URLs aufrufbar ist oder es eine normale und eine Druck-Version eines Blogartikels gibt.

Google wird zwar immer besser darin zu erkennen, welche URL oder Version einer Seite für Nutzer die relevantere ist. Duplicate Content kann sich dennoch negativ auf das Crawling, die Indexierung und indirekt negativ auf das Ranking auswirken:

  • Duplicate Content kann das Crawl-Budget verringern (neue Inhalte auf deiner Website werden langsamer von Google erkannt)
  • Google indexiert bei zwei gleichen Seiten die bevorzugte Version einer Seite nicht (sondern z. B. eine Druck-Version, die nicht für Suchmaschinen-Nutzer optimiert ist und keine Bilder enthält)
  • Positive Ranking-Signale, wie z. B. der PageRank von Backlinks zu einer Seite, werden bei Duplicate Content auf mehrere URLs verteilt

Dazu kommt:

Duplicate Content kann in Extremfällen auch eine manuelle Maßnahme auslösen und damit ein direkter negativer Ranking-Faktor sein. Zum Beispiel dann, wenn Google feststellt, dass Duplicate Content erstellt wurde, um Nutzer zu täuschen oder das Google-Ranking zu manipulieren.

Quellen und weiterführende Infos

Dass man Maßnahmen gegen Duplicate Content, z. B. in Form von Weiterleitungen und kanonische Links, ergreifen sollte, zeigt das Hilfedokument “Doppelte URLs zusammenfassen”:

Wenn Sie Google nicht ausdrücklich mitteilen, welche URL kanonisch ist, trifft Google die Wahl für Sie oder betrachtet beide als gleichwertig, was zu unerwünschtem Verhalten führen kann

Sowie das Hilfedokument “Duplizierte Inhalte vermeiden”:

Falls Ihre Website duplizierte Inhalte enthält und Sie den oben beschriebenen Hinweisen nicht folgen, tun wir trotzdem unser Bestes, nur eine Version der Inhalte in unseren Suchergebnissen anzuzeigen.

“Wir tun unser Bestes” klingt nicht danach, dass es immer gelingt…

In letzterem Hilfedokument erwähnt Google auch, dass manipulativer interner Duplicate Content zu einer Herabstufung im Ranking oder zur Deindexierung der gesamten Website führen kann:

In den seltenen Fällen, in denen wir annehmen müssen, dass duplizierte Inhalte das Ranking manipulieren oder unsere Nutzer täuschen sollen, nehmen wir außerdem entsprechenden Korrekturen an Index und Ranking der betreffenden Websites vor. Infolgedessen werden diese Websites unter Umständen in den Suchergebnissen niedriger eingestuft oder sogar aus dem Google-Index entfernt und damit nicht mehr in den Suchergebnissen angezeigt.

Dies kann z. B. im Rahmen einer manuellen Maßnahme erfolgen:

Wenn unsere Nachforschungen jedoch ergaben, dass ein Täuschungsversuch vorliegt, und Ihre Website aus unseren Suchergebnissen entfernt wurde, sollten Sie Ihre Website sorgfältig überprüfen. Falls Ihre Website aus unseren Suchergebnissen entfernt wurde, erhalten Sie in unseren Richtlinien für Webmaster ausführlichere Informationen zu diesem Thema. Sobald Sie Ihre Website überarbeitet und somit sichergestellt haben, dass sie unseren Richtlinien entspricht, senden Sie uns bitte einen Antrag auf erneute Überprüfung Ihrer Website.

Duplicate Content (zwischen verschiedenen Websites)

Wenn du Inhalte auf deiner Seite von einer anderen Website kopiert hast, kann das zu einem schlechterem Ranking oder zu einer Deindexierung deiner Seite führen.

Duplicate Content zwischen deiner Website und einer anderen ist insbesondere dann ein negatives Ranking-Signal, wenn du:

  • Inhalte von anderen Websites kopierst, ohne Mehrwert zu schaffen oder durch eigenen Inhalte zu ergänzen
  • Inhalte von anderen Websites kopierst und nur leicht veränderst (z. B. durch Text-Spinning)
  • Inhalte massenhaft automatisch erzeugen lässt (z. B. durch einen Auto-Posting-Tool)

Zitate oder kürzere Textabschnitte sind davon jedoch nicht betroffen.

Quellen und weiterführende Infos

Matt Cutts sagt in diesem Video von 2013 jedoch, dass das Web zu einem großen Teil aus Duplicate Content, z. B. in Form von Zitaten, besteht und von Google nicht automatisch als Spam betrachtet wird:

It’s important to realize that if you look at content on the web, something like 25% or 30% of all the web’s content is duplicate content. […] So duplicate content does happen. People will quote a paragraph of a blog and then link to the blog, that sort of thing. So it’s not the case that every single time there’s duplicate content, it’s spam. And if we made that assumption, the changes that happened as a result would end up probably hurting our search quality rather than helping our search quality.

Websites, die Inhalte von anderen kopieren, können jedoch in manchen Fällen manuell von Google bestraft werden:

Kopierte Inhalte verstoßen gegen Googles Richtlinien für Webmaster und können die manuelle Maßnahme “Minderwertige Inhalte mit geringem oder gar keinem Mehrwert” auslösen. In der Beschreibung dazu findet sich folgender Absatz:

Inhalte aus anderen Quellen, etwa kopierte Inhalte oder Gastbeiträge von geringer Qualität auf Blogs

Hinweise darauf finden sich zudem in den Qualitätsrichtlinien beim Punkt Automatisch generierte Inhalte:

Automatisch generierte Inhalte sind Inhalte, die durch ein Programm erstellt wurden. Wenn Suchrankings manipuliert werden sollen und nicht dazu gedacht sind, Nutzern zu helfen, kann Google entsprechende Maßnahmen bezüglich dieser Inhalte ergreifen

So wie beim Punkt Kopierte Inhalte:

Websites, die nur aus kopierten Inhalten bestehen, selbst wenn diese qualitativ hochwertigen Ursprungs sind, sind ohne weitere nützliche Dienste oder von Ihrer Website bereitgestellte Inhalte für Nutzer wertlos.

Kopierte Inhalte lösen laut diesem Hilfedokument in der Google Search Central jedoch nur dann eine manuelle Maßnahme aus, wenn dies in manipulativer Absicht geschieht:

Gelegentlich werden Inhalte jedoch bewusst in verschiedenen Domains dupliziert, mit der Absicht, das Ranking bei Suchmaschinen zu beeinflussen oder mehr Zugriffe zu generieren. Solche betrügerischen Methoden können die Benutzerfreundlichkeit beeinträchtigen, z. B. weil Besuchern in den Suchergebnissen mehrere Male die gleichen Inhalte angezeigt werden.

In dem Fall kann ein Seite im Ranking herabgestuft oder komplett deindexiert werden:

In den seltenen Fällen, in denen wir annehmen müssen, dass duplizierte Inhalte das Ranking manipulieren oder unsere Nutzer täuschen sollen, nehmen wir außerdem entsprechenden Korrekturen an Index und Ranking der betreffenden Websites vor. Infolgedessen werden diese Websites unter Umständen in den Suchergebnissen niedriger eingestuft oder sogar aus dem Google-Index entfernt und damit nicht mehr in den Suchergebnissen angezeigt.

Interessant ist auch, dass Google zwar meistens Duplicate Content automatisch erkennt und aus den Suchergebnissen filtert, aber manchmal dabei die falsche URL auswählt (das könnte z. B. passieren, wenn eine bekannte News-Seite einen Artikel von einem kleinen Blog kopiert):

In seltenen Fällen kann es passieren, dass unser Algorithmus die URL einer externen Website auswählt, auf der Ihre Inhalte ohne Ihre Zustimmung gehostet werden. Wenn Sie davon ausgehen, dass eine andere Website Ihre Inhalte kopiert und dabei gegen das Urheberrechtsgesetz verstößt, können Sie vom Host der Website verlangen, dass Ihre Inhalte entfernt werden. Stellen Sie außerdem einen Antrag auf Entfernung der rechtsverletzenden Seite aus den Suchergebnissen in Google, indem Sie eine Benachrichtigung registrieren, die dem US-amerikanischen Urheberrechtsgesetz (Digital Millennium Copyright Act) entspricht.

Per CSS versteckte Inhalte

Per CSS verstecke Inhalte, die erst nach einer Handlung des Nutzers sichtbar werden, hatten in der Vergangenheit wahrscheinlich etwas weniger Gewicht für Google.

Da Akkordions, Tabs, Slider und Co. in den letzten Jahren immer häufiger verwendet werden, um eine bessere Nutzererfahrung auf Mobilgeräten zu ermöglichen, ist es unwahrscheinlich, dass das immer noch noch so ist.

Quellen und weiterführende Infos

John Mueller hat in einem Google-Hangout von November 2014 bestätigt, dass versteckte Inhalte etwas weniger Gewicht haben:

But I think we’ve been doing something similar for quite awhile now, where if we can recognize that the content is actually hidden, then we’ll just try to discount it in a little bit.

Im November 2016 behauptet Gary Illyes auf Twitter jedoch, dass versteckte Inhalte (wieder?) voll gewichtet werden:

no, in the mobile-first world content hidden for ux should have full weight

In einem Hangout von Juni 2019 sagt John Mueller, dass es darauf ankommt, wie die Inhalte versteckt werden. Wenn sie nur per CSS versteckt werden, wird der Content ganz normal ins Ranking mit einbezogen (nur vielleicht nicht im Snippet angezeigt). Wenn sie allerdings serverseitig nachgeladen werden, dann nicht:

So there are different ways that you can implement these kind of accordions on a site. If it’s done in a way that you’re using just CSS to hide something that’s already loaded, then we would be able to index that because we crawl and render the page and then the content is there. It’s just not visible. Then we would be able to index that. That would rank essentially the same as normal visible content. What might happen there is that we wouldn’t show it in the snippet directly. But it would still rank. On the other hand, if it’s an accordion where you click on the top level and then it does a quick server side request and pulls in the content and then shows that, that’s not something that we would know about at all. Because Googlebot wouldn’t click on different elements to see what else gets loaded on the page.

In einem Webmaster-Hangout von März 2020 sagt John Mueller, dass der gesamte Content mit ins Ranking einbezogen wird, der im HTML zu finden ist:

No, specifically, when it comes to content on mobile pages, we do take into account anything that’s in the HTML. So if there is something there that might be visible to users at some point, we will include that in the indexing.

Faktische Richtigkeit der Inhalte

In Zeiten von Fake News und “alternativen Fakten” wird es immer wichtiger für Google faktisch richtige Informationen anzuzeigen.

Es gibt einige Hinweise darauf, dass die Richtigkeit von Inhalten aktuell ein Ranking-Faktor ist oder in Zukunft einer werden könnte (obwohl ersteres eher unwahrscheinlich ist).

Quellen und weiterführende Infos

In der Theorie sollte es für Google möglich sein, die Fakten eines Textes zu überprüfen. Nicht alle, aber sehr sehr viele. Laut Googles eigenen Angaben von Mai 2020 sind in der Datenbank des Google Knowledge Graph über 500 Milliarden (!) Fakten über 5 Milliarden Entitäten enthalten.

Zudem gibt es schon seit 2017 gibt es ein Faktencheck-Label, das mit entsprechendem Schema.org-Markup in den Suchergebnissen angezeigt werden kann:

Faktencheck-Labels in den SERPs

Seiten, die das Factcheck-Markup verwenden, kann man sogar über eine eigene Suchmaschine, den Google Fact Check Explorer finden.

In einem Hilfedokument zu Faktenchecks behauptet Google jedoch, selbst keine Faktenchecks durchzuführen:

Google selbst führt keine Faktenchecks durch. Wenn Sie mit dem Ergebnis eines Faktenchecks nicht einverstanden sind, wenden Sie sich an den Inhaber der Website, auf der die Prüfung veröffentlicht wurde.

Auch Danny Sallivan hat im September 2019 auf Twitter behauptet, dass Google die Richtigkeit von Texten nicht direkt überprüfen kann. Google verlässt sich stattdessen auf andere Signale, um möglichst akkurate und vertrauenswürdige Informationen anzuzeigen:

Machines can’t tell the “accuracy” of content. Our systems rely instead on signals we find align with relevancy of topic and authority.

Einen Monat später hat Gary Illyes auf der Pubcon das Gegenteil behauptet (meinte aber vielleicht das gleiche wie Danny).

Q: Is content accuracy a ranking factor?
A: “YMYL so yes. We go to great lengths to surface reputable and trustworthy sources, so yes.”

Laut den Search Quality Evaluator Guidelines erhält eine Seite die Bewertung Fails to Meet (trifft nicht die Suchintention), wenn diese inkorrekte Informationen enthält, die Nutzern schaden können:

Pages or websites with factually inaccurate content that can cause harm to users, regardless of their purpose or intent (e.g., inaccurate medical information; inaccurate information about how to vote, obtain a visa or green card, pay government taxes, etc.).

Oder, wenn sie gesicherte historische Fakten hinterfragt (z. B. Leugnung des Holocaust):

Pages that directly contradict well-established historical facts (e.g., unsubstantiated conspiracy theories), unless the query clearly indicates the user is seeking an alternative viewpoint.

Broken Links

Nicht funktionierende Links (engl. broken links) auf einer Seite sind schlecht für die Nutzererfahrung und erschweren das Crawling.

Zeigen viele interne oder externe Links auf einer Seite auf nicht gefundene Ziele, wird das von Google deshalb vielleicht als negatives Signal gewertet.

Quellen und weiterführende Infos

In den Richtlinien für Webmaster findet sich folgender Satz:

Achten Sie darauf, dass alle Links auf Live-Webseiten verweisen. Verwenden Sie gültigen HTML-Code.

Laut SERoundTable war vorher an der selben Stelle folgenden Satz zu finden:

Check for broken links and correct HTML.

In seinem Startleitfaden für Suchmaschinenoptimierung findet die Best Practice, dass man auf einer Navigationsseite (Sitemap) fehlerhafte Links vermeiden sollte:

Zu vermeiden: Veraltete Navigationsseite mit fehlerhaften Links

John Mueller sagt jedoch, dass kaputte Links keine so große Rolle für Google spielen und dass man sie hauptsächlich für Nutzer reparieren sollte:

The web changes, sometimes old links break. Googlebot isn’t going to lose sleep over broken links :). If you find things like this, I’d fix it primarily for your users, so that they’re able to use your site completely. I wouldn’t treat this as something that you’d need to do for SEO purposes on your site, it’s really more like other regular maintenance that you might do for your users.

Zu viele Affiliate-Links

Das Verhältnis zwischen Google und Affiliates ist traditionell angespannt.

Was auch zum Teil verständlich ist, denn Affiliates sind wahrscheinlich für einen nicht geringen Teil des Suchmaschinen-Spams verantwortlich.

Dabei hat Google höchstwahrscheinlich nichts gegen Affiliate-Marketing als Geschäftsmodell und die Verwendung von Affiliate-Links im Allgemeinen. Auch wenn manche Google-Updates, wie z. B. das Google Core Update von Mai 2020 diesen Eindruck vermitteln.

Was Google eher nicht leider kann, sind Affiliate-Websites, die schlechte Inhalte oder eine schlechte Nutzererfahrung bieten. Zu viele oder zu prominente Affiliate-Links auf einer Seite oder Website sind deshalb wahrscheinlich ein negativer Ranking-Faktor.

Quellen und weiterführende Infos

Dass Google ein Auge auf Affiliate-Websites hat, kann man in Qualitätsrichtlinien für Webmaster finden:

In unseren Richtlinien für Webmaster empfehlen wir, Websites mit Originalinhalten zu entwickeln, die Mehrwert für die Nutzer schaffen. Dies gilt in besonderem Maße für Websites, die an Affiliate-Programmen teilnehmen.

Affiliate-Website werden jedoch nicht automatisch gebrandmarkt:

Nicht bei jeder Website, die an einem Affiliate-Programm teilnimmt, handelt es sich um ein Affiliate ohne Mehrwert. Gute Affiliate-Websites schaffen Mehrwert, indem sie beispielsweise Rezensionen, Bewertungen, eine Übersicht zu Produkten oder Kategorien und Produktvergleiche anbieten.

Auch die Search Quality Evaluator Guidelines weisen darauf hin, dass Werbung auf einer Seite (wozu auch Affiliate-Links zählen) an sich kein Grund für eine schlechte Qualitätsbewertung ist und sogar gut für die Nutzererfahrung sein können:

Ads may contribute to a good user experience. Advertisements/Monetization (Ads) is content and/or links that are displayed for the purpose of monetizing (making money from) the page. The presence or absence of Ads is not by itself a reason for a High or Low quality rating. Without advertising and monetization, some webpages could not exist because itcosts money to maintain a website and create high quality content.

Problematisch wird es laut Qualitätsrichtlinien z. B. dann, wenn die Affiliate-Inhalte auf einer Seite oder Website überwiegen:

Beispiele für Affiliates ohne Mehrwert: […] Affiliate-Seiten, bei denen der größte Teil für ein Affiliate-Programm vorgesehen ist und nur wenige Originalinhalte enthält oder einen geringen Mehrwert für Nutzer bietet.Die Inhalte aus dem Affiliate-Programm sollten nur einen kleinen Teil des gesamten Inhalts auf Ihrer Website ausmachen, wenn keine zusätzlichen Elemente enthalten sind.

In einem Google-Hangout von Juli 2015 wird dies von John Mueller noch einmal bestätigt:

Of course affiliate sites can be really useful, they can have a lot of great information on them and we like showing them in search. […] So it’s not something where we per se say that an affiliate sites are bad, we just see a lot of bad affiliate sites because they are people who try to find the fast way to publish content on their web, which sometimes being fast is good is also good, but you really also need to make sure you have a really great website where people want to go to your website to get the information that they can’t find anything else. […] And if you have affiliate links on a website, that is great, that is not going to be something we would count against a website.

Dass Google Affiliates-Links auf einer Seite erkennen kann, zeigt dieses Interview mit Matt Cutts auf der SMX 2012.

Google Penalty durch weitergeleitete Domain

Ein Google Penalty, also eine manuelle Maßnahme oder algorithmische Abstrafung, kann sich wahrscheinlich durch eine Weiterleitung von einer Domain auf eine andere übertragen (zumindest ein durch Backlinks ausgelöster).

Du kannst diesen also nicht dadurch ungeschehen machen, dass du dir einfach eine neue Domain zulegst.

Quellen und weiterführende Infos

In diesem Webmaster-Hangout von 2014 sagt John Mueller, während er Feedback zu einer Website gibt:

The bigger problem here is that the issues with the links they will follow to the new website because essentially you’re redirecting those problematic links. That means that PageRank is moving to your new domain so that problem will continue to exist. So just moving to a different domain name doesn’t fix this problem.

Im selben Video sagt er weiterhin, dass Google in manchen Fällen selbst dann einen Domain-Umzug erkennen kann, wenn keine Redirects gesetzt wurden:

If you don’t do a redirect then it kind of depends on how we find the website. But if it’s essentially the same website just on a different domain then we’ll see that still as a kind of a site move and forward those links as well.

In einem Reddit-Thread antwortet John Mueller auf die Frage, ob man qualitativ minderwertige Links für eine Domain aufbauen und dann auf eine andere Domain weiterleiten sollte:

The 301 basically makes the main site canonical, meaning the links go directly there. You might as well skip the detour, it’s just as obvious to the algorithms & spam team.

Nutzergenerierter Spam

Nutzergenerierter Spam ist sehr wahrscheinlich ein negativer Ranking-Faktor für Google.

Und das nicht ohne Grund:

Nutzergenerierter Spam auf einer Seite, wie z. B. Spam-Beiträge in einem Foren-Thread oder Spam-Kommentare unter einem Blogartikel, ist schlecht für die Nutzererfahrung. Auch kann er ein Sicherheitsriksiko für Nutzer darstellen, denn er enthält oft Links zu dubiosen Seiten.

Quellen und weiterführende Infos

In den Qualitätsrichtlinien von Google gibt es eine gesonderte Seite zu nutzergeneriertem Spam. Dort schreibt Google:

Da von Nutzern erstellter Spam die Google-Suchergebnisse beeinträchtigen kann, empfehlen wir, die Website gezielt darauf zu prüfen und solche Inhalte gegebenenfalls zu entfernen.

In diesem Hilfedokument in der Google Search Central hat Google eine Liste mit mögliche negative Folgen von nutzergeneriertem Spam zusammengestellt, die auch die Entfernung oder Abwertung einzelner Seiten enthält:

Diese Art von Spam kann Ihre Website in vielerlei Hinsicht schädigen, darunter:

  • Inhalte geringer Qualität in einigen Bereichen wirken sich auf die Rankings der gesamten Website aus.
  • Spam lenkt Ihre Nutzer unter Umständen ab und verärgert sie, was dem Ruf Ihrer Website schaden kann.
  • Unbeabsichtigte Zugriffe auf Inhalte ohne Bezug können Ihre Website verlangsamen und die Kosten für die Bandbreite erhöhen.
  • Eventuell werden Seiten mit nutzergeneriertem Spam von Google entfernt oder abgewertet, um die Qualität unserer Suchergebnisse zu schützen.
  • Spamkommentare können mit bösartigen Websites verknüpft sein, die sich möglicherweise negativ auf Ihre Nutzer auswirken.

Weitere Infos zu manuellen Maßnahmen bei nutzergeneriertem Spam findest du auf dieser Hilfeseite und in diesem Video von Matt Cutts.

Thin Content

Thin Content, also eine Seite, die leer ist oder nur wenig Inhalte enhält (wie z. B. nur ein einziges Bild oder einen Satz), bietet für Suchmaschinen-Nutzer wenig Wert.

Deshalb werden solche Seiten entweder nicht indexiert oder ranken nur sehr schlecht.

Quellen und weiterführende Infos

Leere oder Seiten mit nur wenig Inhalten können von Google als Soft 404-Fehler interpretiert (und werden deshalb aus dem Index entfernt oder gar nicht erst hinzugefügt):

Ein Soft 404-Fehler ist eine URL, die eine Seite mit dem Hinweis zurückgibt, dass die Seite nicht existiert. Zusätzlich wird ein 200er Code (Erfolg) gesendet. In einigen Fällen wird eine Seite angezeigt, die wenig oder keinen Inhalt aufweist, etwa eine fast leere oder komplett leere Seite.

Wenn sie indexiert werden, ranken sie wahrscheinlich schlecht:

Im Februar 2011 veröffentlichte Google das berühmt berüchtigte Panda-Update. Ziel davon war es, Websites mit gar keinem oder nur wenigen Inhalten (in SEO-Sprech auch “Thin Content” genannt) zu identifizieren und entsprechend im Ranking abzustufen:

This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful.

Websites mit vielen Seiten, die nur einen geringen oder gar keinem Mehrwert aufweisen, können auch manuell von Google abgestraft werden (in Googles Liste der manuellen Maßnahmen aufgeführt unter “Minderwertige Inhalte mit geringem oder gar keinem Mehrwert”).

In einem Video aus dem Jahr 2014 empfiehlt John Müller Seiten mit “Thin Content” auf noindex zu setzen:

Overall the quality of the site should be significantly improved so we can trust the content. Sometimes what we see with a site will have a lot of thin content, maybe there’s content you are aggregating from other sources, maybe there’s user-generated content where people are submitting articles that are kind of low quality, and those are all the things you might want to look at and say what can I do; on the one hand, hand if I want to keep these articles, maybe prevent these from appearing in search. Maybe use a noindex tag for these things.

Ausgehende Links zu fragwürdigen Seiten

Wenn sich auf einer Seite ausgehende Links zu fragwürdigen Seiten befinden, schneidet diese Seite wahrscheinlich selbst schlechter im Ranking ab.

Seiten können z. B. fragwürdig sein, wenn Sie…

  • Malware, Trojanern, Spyware oder Viren verbreiten
  • Nutzer täuschen
  • Spam enthalten (auch nutzergenerierten)
  • einen Google-Penalty erhalten haben
  • auf andere Weise gegen Googles Richtlinien für Webmaster verstoßen

Dieses Phänomen wird im SEO-Jargon auch als “Bad Neighborhood” (schlechte Nachbarschaft auf Deutsch) bezeichnet und trifft ebenso auf eingehende Links von fragwürdigen Seiten zu.

Quellen und weiterführende Infos

In einem Artikel von Matt Cutts zu PageRank Sculpting findet sich folgender Absatz:

In the same way that Google trusts sites less when they link to spammy sites or bad neighborhoods, parts of our system encourage links to good sites.

Das in 2005 eingeführte Link-Attribut rel="nofollow" und die im September 2019 eingeführten Attribute rel="sponsored" und rel="ugc", mit deren Hilfe man als Webmaster “nicht vertrauenswürdige Inhalte” markieren kann, sprechen Bände und stellen eine indirekte Bestätigung dieses Ranking-Faktors da.

Laut Search Console-Hilfe dienen die Attribute dazu, Google zu zeigen, dass man die eigene Website nicht mit einer Seite verknüpfen möchte:

Verwenden Sie den nofollow-Wert, falls andere Werte nicht zutreffen und Google Ihre Website nicht mit der verlinkten Seite verknüpfen oder diese nicht crawlen soll.

In der Search Console-Hilfe findet sich folgender Absatz zu nutzergeneriertem Spam, der auch auf dadurch verlinkte Websites eingeht:

Spamkommentare können mit bösartigen Websites verknüpft sein, die sich möglicherweise negativ auf Ihre Nutzer auswirken.

Im weiteren Verlauf des Dokuments empfiehlt ebenfalls Google das Attribut rel="nofollow" oder rel="sponsored", um den Einfluss schädlicher Links zu mindern (was impliziert, dass es einen schädlichen Einfluss gibt):

Links mit rel=”nofollow” oder spezifischeren Attributen wie rel=”sponsored” werden nicht zum Berechnen eines PageRanks oder Ermitteln der Relevanz Ihrer Seiten für eine Nutzersuche verwendet.

Hohe Anzeigendichte

Ein zu hoher Anteil an Anzeigen auf der Seite ist schlecht für die Nutzererfahrung und vielleicht ein negativer Ranking-Faktor für Google.

Das gilt vor allem (oder vielleicht sogar ausschließlich) für die mobile Suche.

Quellen und weiterführende Infos

Google ist Mitglied der Coalition for Better Ads. Die dort festgelegten Standards umfassen den Punkt Ad Density Higher Than 30%:

Ads that take up more than 30% of the vertical height of a page. Ad density is determined by summing the heights of all ads within the main content portion of a mobile page, then dividing by the total height of the main content portion of the page.

Eine Anzeigendichte von 30 % zählt zu den 8 störendsten Faktoren, die die Better Ads Coalition für mobile Nutzer ermittelt hat.

Ob die eigene Website nutzerunfreundliche Anzeigen enthält kann man mit Googles Bericht zur Nutzerfreundlichkeit von Anzeigen testen. Zum Sinn und Zweck des Reports schreibt Google:

Im Bericht zur Nutzerfreundlichkeit sind die Anzeigen Ihrer Website aufgeführt, die gegen die Better Ads Standards verstoßen. Diese Anzeigen wurden von der Coalition for Better Ads als sehr störend für Nutzer eingestuft. Wenn Sie diese Anzeigen korrigieren, haben Besucher mehr Freude an Ihrer Website und es ist wahrscheinlicher, dass sie wiederkommen. Gleichzeitig verbessern Sie damit auch die Qualität des gesamten Online-Ökosystems.

Der Bericht enhält laut Dokumentation auch den Punkt Anzeigendichte höher als 30 %.

Anzeigen “above the fold”

Zu viele oder zu große Anzeigen above the fold, das heißt in dem Bereich, den Nutzer bei Aufruf einer Seite sehen ohne zu scrollen, sind ein negativer Ranking-Faktor für Google.

Und das nicht ohne Grund:

Denn dadurch müssen Nutzer herunterscrollen oder die Anzeigen wegklicken, um den eigentlichen Inhalt zu finden.

Quellen und weiterführende Infos

Anzeigen above the fold wurden mit dem Page Layout Update von 2012 als negativer Ranking-Faktor in der Google-Suche eingeführt:

If you click on a website and the part of the website you see first either doesn’t have a lot of visible content above-the-fold or dedicates a large fraction of the site’s initial screen real estate to ads, that’s not a very good user experience. Such sites may not rank as highly going forward.

Aufdringliche Interstitials

Als Interstitials bezeichnet man Werbebanner, die den Besuch eines Nutzers auf einer Seite unterbrechen. Dazu zählen z. B. Pop-ups oder Benachrichtigungsleisten.

Interstials können dabei helfen, deine Conversion-Rate zu verbessern oder deine Werbeeinnahmen zu steigern.

Allerdings:

Wenn jemand etwas bei Google sucht, möchte er so schnell wie möglich eine Antwort bekommen.

Aufdringliche Interstitials (z. B. Layer Ads oder Pop-ups, die den kompletten Inhalt verdecken oder abdunkeln) stehen dem im Wege und sind für Google ein negativer Ranking-Faktor.

Quellen und weiterführende Infos

Webseiten bestehen seit November 2015 nicht mehr den Test auf Optimierung für Mobilgeräte, wenn sie Interstitials anzeigen, die zum Download einer App auffordern:

After November 1, mobile web pages that show an app install interstitial that hides a significant amount of content on the transition from the search result page will no longer be considered mobile-friendly. This does not affect other types of interstitials. As an alternative to app install interstitials, browsers provide ways to promote an app that are more user-friendly.

Seit Januar 2017 werden alle Seiten mit Interstitials im mobilen Ranking heruntergestuft:

Pages that show intrusive interstitials provide a poorer experience to users than other pages where content is immediately accessible. This can be problematic on mobile devices where screens are often smaller. To improve the mobile search experience, after January 10, 2017, pages where content is not easily accessible to a user on the transition from the mobile search results may not rank as highly.

John Mueller äußert sich in einem Video aus 2016 ähnlich. Er sieht jedoch kein Problem darin, ein Pop-Up in einer zielführenden Weise einzusetzen, beispielsweise nach einer gewissen Lesedauer:

If you put that in front of a user, before they’re even able to see what you offer, it’s probably counterproductive…

Dass Interstitials auch in 2020 und 2021 für Google noch ein Ranking-Faktor sind, zeigt folgende Grafik zur Einführung der Core Web Vitals:

Automatisch generierte Inhalte

Automatisch generierte Inhalte, also Inhalte die durch ein Programm und nicht durch einen menschlichen Autor erstellt wurden, sind für Google ein negativer Ranking-Faktor.

Google behält sich sogar vor, Seiten mit automatisch generierten Inhalten komplett aus den Suchergebnissen zu entfernen.

Das Problem daran ist:

Google muss automatisiert erstellten Content erst einmal als solchen erkennen, was durch immer besser werdende Übersetzungs-Tools und KI-Anwendungen wie GPT-3 zunehmend erschwert (werden) wird.

Quellen und weiterführende Infos

Automatisch generierte Inhalte verstoßen gegen Google Qualitätsrichtlinien:

Automatisch generierte Inhalte sind Inhalte, die durch ein Programm erstellt wurden. Wenn Suchrankings manipuliert werden sollen und nicht dazu gedacht sind, Nutzern zu helfen, kann Google entsprechende Maßnahmen bezüglich dieser Inhalte ergreifen.

Dazu zählt laut der Richtlinien:

  • Text, der für den Leser keinen Sinn hat, aber Suchbegriffe enthalten kann
  • Von einem automatisierten Tool übersetzte Texte, die vor der Veröffentlichung nicht geprüft oder bearbeitet werden
  • Texte, die mit automatisierten Techniken zur Synonymisierung oder Verschleierung generiert werden
  • Texte, die durch Kopieren von Atom-/RSS-Feeds oder Suchergebnissen generiert werden
  • Zusammenfügen oder Kombinieren von Inhalten aus verschiedenen Webseiten, ohne Mehrwert hinzuzufügen

In Google-Patent US8554769B1 wird eine Technologie beschrieben, um automatisch generierte Nonsens-Texte zu erkennen. Dafür wird ein sogenannter Gibberish Score berechnet:

[…] calculating a gibberish score for the resource using the language model score and the query stuffing score; and using the calculated gibberish score to determine whether to modify a ranking score of the resource.

Dies soll laut Patent vor allem Spammer und gehackte Websites aus den Suchergebnissen fernhalten:

Spammers typically generate gibberish content such that the search engine returns an identification of resources associated with the gibberish content as relevant to the submitted query. Gibberish content refers to resource content that is likely to represent spam content.

Keyword-Stuffing

Sogenanntes Keyword-Stuffing, das heißt die übertriebene Verwendung eines oder mehrerer Keywords auf einer Seite, ist ein negativer Ranking-Faktor für Google.

Und das nicht ohne Grund:

Die übertriebene Verwendung von Keywords, vor allem in der exakten Schreibweise, kann die Lesbarkeit eines Textes stark negativ beeinflussen.

Quellen und weiterführende Infos

Schon in 2009 nimmt Matt Cutts in einem Video Stellung zur Frage, ob Überoptimierung schlecht für das Ranking ist und beantwortet diese mit einem ganz klaren “Ja”:

There is nothing in Google that we have like a over optimization penalty for, but a lot of the times over optimization is a kind of euphemism for al little bit spammy, you know. Oh my keyword density is a little high, im am over optimized for keyword density offen means: I repeat my keywords so many times that regular useres get annoyed…offen you end up a site, people do not like. It looks junkie or scuzzy.

Laut einem Video von Matt Cutts in 2011 nimmt die positive Wirkung von Keyword-Optimierung ab einer bestimmten Anzahl an Keywords ab:

So the first one or two times you mention a word, then that might help with your ranking absolutly. But just because you can say it seven or eight times that doesn’t necessarily help your rankings.

Zu Keyword-Stuffing findet sich in Googles Qualitätsrichtlinien folgendes:

Werden Seiten mit unzähligen Keywords oder Zahlen gefüllt, beeinträchtigt dies die Nutzererfahrung und kann zu einem schlechteren Ranking Ihrer Website führen. Füllen Sie Ihre Website stattdessen mit nützlichen und informativen Inhalten und verwenden Sie adäquate, zum Kontext passende Keywords.

John Mueller betont in einem Webmaster-Hangout von 2017 jedoch, dass eine Seite trotz Keyword-Stuffing noch ranken kann, wenn sie ansonsten nützliche Informationen liefert:

So for example, with keyword stuffing, if we can recognize that a page is doing keyword stuffing and we can just ignore the keyword stuff part and focus on rest, then that for us is also kind of a reasonable approach. Because we can’t fix all pages. We can inform the webmasters and say hey you’re doing this wrong, we can send them notifications from the web spam team but sometimes there are still useful information on those pages and we want to rank those pages for the useful part not for the kind of keyword stuffing bad part.

Ein ähnliches Statement von John Mueller ist in einem Tweet von 2018 zu finden:

Yeah, but if we can ignore boring keyword stuffing (this was popular in the 90’s; search engines have a lot of practice here), there’s sometimes still enough value to be found elsewhere. I don’t know the page, but IMO keyword stuffing shouldn’t result in removal from the index.

TTFB

Die TTFB, kurz für Time to First Byte, ist eine Kennzahl zur Messung der Ladegeschwindigkeit einer Seite.

Sie gibt den Zeitraum an, wann der Browser den ersten Byte von einer Seite empfängt, was sich z. B. durch Caching oder einen näheren Serverstandort verbessern lässt.

Sie wird von Google wahrscheinlich nicht als separater Ranking-Faktor genutzt. Die TTFB ist allerdings ein indirekter Ranking-Faktor im Rahmen der Core Web Vitals. Eine hohe TTFB sorgt für einen besseren Largest Contentful Paint (LCP).

Quellen und weiterführende Infos

John Mueller sagt in diesem Tweet von 2017:

AFAIK we currently don’t use TTFB for anything in search/ranking. It can be a good proxy for user-facing speed, but like other metrics, don’t blindly focus on it.

Langsame Ladegeschwindigkeit

Wenn eine Webseite langsam lädt, ist das ein negativer Ranking-Faktor für Google. Dies gilt als sicher und wurde von Google mehrfach offiziell bestätigt.

Die Ladegeschwindigkeit ist jedoch kein besonders starker Faktor und zählt vor allem oder vielleicht sogar ausschließlich für die mobile Suche.

Betroffen sind zudem wahrscheinlich nur Seiten, die sehr langsam laden.

Allerdings:

Die Ladegeschwindkeit kann auch ein indirekter Ranking-Faktor sein, da sie sich auf andere Ranking-Faktoren (z. B. Nutzersignale) auswirken kann, was ihr zusätzliches Gewicht verleiht.

Eine langsame Ladezeit kann zudem dafür sorgen, dass eine Website oder Seite weniger häufig gecrawlt wird.

Quellen und weiterführende Infos

Google hat schon in 2010 die Ladegeschwindigkeit als Ranking-Faktor offiziell bestätigt. Laut Googles eigenen Angaben fällt dieser jedoch nicht besonders stark ins Gewicht:

While site speed is a new signal, it doesn’t carry as much weight as the relevance of a page.

In 2018 hat Google dann im Rahmen des sogenannten “Speed Updates” angekündigt, die Ladegeschwindigkeit auch als Ranking-Faktor für die mobile Suche zu verwenden.

Although speed has been used in ranking for some time, that signal was focused on desktop searches. Today we’re announcing that starting in July 2018, page speed will be a ranking factor for mobile searches.

Negative Auswirkungen hat das “Speed Update” laut Googles Angaben vor allem für das Ranking sehr langsamer Webseiten:

The “Speed Update,” as we’re calling it, will only affect pages that deliver the slowest experience to users and will only affect a small percentage of queries.

In einem deutschen Webmaster-Hangout im Oktober 2020 sagt John Mueller, dass die Ladegeschwindigkeit ausschließlich für die mobile Suche wichtig ist:

Im Moment, bezüglich Speed, ist es so, dass wir das nur in den mobilen Suchergebnissen berücksichtigen.

Dass sich eine langsame Ladegeschwindigkeit negativ auf die Crawl-Rate auswirken kann, findet sich im Hilfedokument “Crawling-Statistiken” in der Search Console-Hilfe:

Wenn Ihre Website auf Anfragen nur langsam reagiert, verringert der Googlebot seine Anfragen, um Ihren Server nicht zu überlasten. Sehen Sie im Bericht „Crawling-Statistiken“ nach, ob Ihre Website langsamer reagiert.

Core Web Vitals

Die sogenannten Core Web Vitals sind ein in 2020 vorgestellter Ranking-Faktor, der dazu dienen soll, die Nutzererfahrung einer Webseite besser einzuschätzen:

Googles Übersicht über Ranking-Signale, die für die Seitenerfahrung wichtig sind

Sie sind noch nicht in den Google-Algorithmus integriert, werden es aber ab Mai 2020 sein.

Sie bestehen aus folgenden Unterpunkten:

  • Largest Contentful Paint (LCP): Die Zeit vom Aufrufen der URL durch den Nutzer bis zur vollständigen Anzeige des größten sichtbaren Inhaltselements im Darstellungsbereich. Das größte Element ist meist ein Bild, ein Video oder ein großes Textelement. Soll die Ladezeit des Hauptinhalts messen.
  • First Input Delay (FID): Die Zeit von der ersten Interaktion des Nutzers mit einer Seite bis zum Reagieren des Browsers auf diese Interaktion. Soll die Interaktvitität einer Webseite messen.
  • Cumulative Layout Shift (CLS): Gibt an, wie sehr sich das Seitenlayout während der Ladephase verschiebt und soll die visuelle Stabilität einer Webseite messen.

Die Core Web Vitals lassen sich mit PageSpeed Insights, Lighthouse oder dem Core Web Vitals-Bericht der Google Search Console testen.

Es ist noch unklar, welche Gewichtung die Core Web Vitals als Ranking-Faktor haben werden. Es ist jedoch davon auszugehen, dass schlechte Werte bei den Core Web Vitals nicht so schwer wiegen, wie mangelnde inhaltliche Relevanz und E-A-T einer Seite.

noindex

Enthält eine Seite eine noindex-Anweisung, dann wird diese von Google nicht indexiert.

Eine noindex-Anweisung lässt sich auf zwei Arten implementieren. Erstens durch ein Meta-Tag:

<meta name="robots" content="noindex">

Und zweitens durch einen HTTP-Antwort-Header:

HTTP/1.1 200 OK
(…)
X-Robots-Tag: noindex
(…)

In der Vergangenheit bestand noch zusätzlich die Möglichkeit, eine noindex-Anweisung über die robots.txt einzubinden. Die Unterstützung dafür wurde jedoch im September 2019 eingestellt.

Quellen und weiterführende Infos

Eine Seite mit noindex im Header oder im Meta-Tag wird laut diesem Hilfedokument in der Google Search Central von Google vollständig aus den Suchergebnissen entfernt. Und das unabhängig davon, ob diese Backlinks hat oder nicht:

Du kannst verhindern, dass eine Seite in der Google Suche erscheint, indem du das Meta-Tag noindex in den HTML-Code der Seite aufnimmst oder auf eine HTTP-Anfrage einen noindex-Header zurückgibst. Wenn der Googlebot das nächste Mal diese Seite crawlt und das Tag oder den Header erkennt, entfernt er diese Seite vollständig aus den Google-Suchergebnissen, unabhängig davon, ob andere Websites auf diese Seite verweisen.

Dabei weist Google darauf hin, dass eine Seite, die mit noindex aus den Suchergebnissen ausgeschlossen werden soll, nicht durch eine robots.txt blockiert sein darf:

Damit die Anweisung noindex wirksam wird, darf die Seite nicht durch eine robots.txt-Datei blockiert werden. Wenn sie das doch wird, sieht der Crawler die Anweisung noindex nicht und die Seite kann weiterhin in den Suchergebnissen erscheinen, beispielsweise wenn andere Seiten auf sie verweisen.

Website oder Seite wird in der robots.txt blockiert

Wenn eine Website oder Seite in der robots.txt-Datei blockiert wird, dann wird sie von Google nicht gecrawlt.

Das ist aus zwei Gründen nützlich:

  1. um Crawl-Budget zu sparen
  2. um zu verhindern, dass ein Server mit Googlebot-Besuchen überlastet wird

Wichtig dabei zu verstehen ist:

Die robots.txt hat hauptsächlich Einfluss auf das Crawling, nicht in die Indexierung. Eine durch die robots.txt blockierte Seite kann trotzdem indexiert werden, wenn sie von einer anderen Seite verlinkt wird.

Quellen und weiterführende Infos

Google empfiehlt in seiner Einführung zu robots.txt-Dateien das Robots-Meta-Tag noindex anstatt die robots.txt zu verwenden, um eine Website oder Seite aus dem Index auszuschließen:

Eine robots.txt-Datei teilt Suchmaschinen-Crawlern mit, welche Seiten oder Dateien sie von deiner Website anfordern können und welche nicht. Dies dient hauptsächlich dazu, eine Überlastung deiner Website mit Anfragen zu vermeiden. Die robots.txt-Datei stellt jedoch keinen Mechanismus dar, um eine Website aus der Google-Suche auszuschließen. Dafür solltest du noindex-Anweisungen verwenden oder deine Seite mit einem Passwort schützen.

Und zwar aus folgendem Grund:

[…] es ist dennoch möglich, dass nicht zugelassene URLs gefunden und indexiert werden, wenn von anderen Orten im Internet auf sie verwiesen wird. Aus diesem Grund können die URL und eventuell andere öffentlich verfügbare Daten, wie der Ankertext im Link zu einer Webseite, weiterhin in den Google-Suchergebnissen erscheinen.

Allerdings plant Google laut einem Blogpost von Juli 2019, die Sichtbarkeit von Seiten, die in der robots.txt blockiert sind, weniger sichtbar in der Suche zu machen (weshalb dieser Faktor auch ein Indexierungs-Faktor ist):

Disallow in robots.txt: Search engines can only index pages that they know about, so blocking the page from being crawled usually means its content won’t be indexed. While the search engine may also index a URL based on links from other pages, without seeing the content itself, we aim to make such pages less visible in the future.

Darüber hinaus werden blockierte Seiten laut Googles Einführung zu robots.txt-Dateien in den Suchergebnissen ohne Meta-Beschreibung angezeigt:

Wenn deine Seite über eine robots.txt-Datei blockiert ist, kann sie zwar weiterhin in den Suchergebnissen erscheinen, aber das betreffende Suchergebnis enthält keine Beschreibung […]

Keine robots.txt

Es ist ein Mythos, dass es sich negativ auf das Crawling einer Website auswirkt, keine robots.txt zu haben.

Da die Datei dazu dient, Crawler von einer Website (oder einem Teil davon) auszuschließen, sagt deren Nichtvorhandensein Googlebot: “Du darfst auf dieser Website alles crawlen.”

Allerdings kann das Fehlen einer robots.txt 404-Fehler auslösen, was wiederum bei manchen Hostern oder Websites zu Problemen führen kann. Deshalb sollte man, sofern das eigene CMS das nicht automatisch macht, auf Nummer sicher gehen und eine anlegen (auch, wenn darin nichts für Crawler blockiert wird).

Quellen und weiterführende Infos

In seinem Robots FAQ in der Google Search Central findet sich folgender Absatz:

Wenn der Googlebot eine Website besucht, wird zuerst um eine Erlaubnis zum Crawlen gebeten, indem versucht wird, die robots.txt-Datei abzurufen. Websites ohne robots.txt-Datei, Robots-Meta-Tags oder X-Robots-Tag-HTTP-Header werden im Allgemeinen ganz normal gecrawlt und indexiert.

In einem Video von 2011 gibt Matt Cutts den Rat, eine robots.txt zu verwenden, um 404-Fehler zu vermeiden, die durch das Fehlen der Datei entstehen können:

So not having a robots.txt file is a little bit risky. Not very risky at all, but a little bit risky. Because sometimes when you don’t have a file, your webhost will fill in the 404 page, and that could have various weird behaviors. And luckily, we are able to detect that really, really well, so even that is only a 1% risk. But if possible, I would have a robots.txt file.

Brückenseiten (Doorway Pages)

Als Brückenseite (auch Doorway Page, Jump Page oder Satellitenseite genannt) bezeichnet man eine Seite, die selbst keinen Nutzen bietet, sondern lediglich als Zwischenseite dient.

Solche Seiten zeichnen sich meist durch folgende Eigenschaften aus:

  • Qualitativ minderwertiger Inhalt (z. B. automatisch generierter Nonsens-Text oder vielfach verwendeter Text auf der Website mit minimaler Anpassung)
  • Stark keywordoptimiert
  • Funktioniert nur als Zwischenseite und soll Besucher zu einer Hauptseite weiterleiten (oft gibt es keinen anderen Navigationsweg als zur Hauptseite)
  • Auf der eigentlichen Website gar nicht oder nur sehr schwer auffindbar

Ein klassisches Beispiel dafür ist die Erstellung von hunderten Unterseiten, die jeweils auf eine andere Stadt oder Region optimiert sind (anwalt münchen, anwalt berlin, anwalt köln etc.), aber sich inhaltlich kaum unterscheiden.

Quellen und weiterführende Infos

In einem Blogpost von 2015 hat Google angekündigt, noch stärker gegen Brückenseiten vorzugehen:

Um die Qualität der Suchergebnisse für unsere Nutzer zu verbessern, werden wir in Kürze eine Rankinganpassung im Hinblick auf Seiten dieser Art vornehmen. Für Websites mit einem groß angelegten und etablierten Einsatz von Brückenseiten könnte diese Änderung weitreichende Folgen haben.

Brückenseiten verstoßen gegen die Qualitätsrichtlinien von Google. Sie können auch zu einer manuellen Maßnahme führen.

Infinite Space

Als Infinite Space zeichnet man eine Seite oder einen Bereich auf einer Website, durch den Googlebot mit einer sehr großen oder sogar unendlichen Anzahl neuer Domains konfrontiert wird, die keinen oder kaum neuen Content liefern.

Ein Beispiel dafür sind Filterfunktionen in einem Online-Shop:

Durch Kombinieren von Filtern (z. B. Herrenjeans, die blau sind, von der Marke Jack & Jones, in der Größe W32 L32 und unter 100 € kosten) kann eine sehr große Anzahl an URLs entstehen.

Ein weiteres Beispiel wäre ein Veranstaltungskalender, der für jeden Monat eine eigene URL erzeugt, wenn man auf den Link “Nächsten Monat” klickt. Diesen Links könnte Googlebot sogar unendlich folgen!

Googlebot ist zwar mittlerweile sehr gut darin, Infinite Spaces von selbst zu erkennen. Manchmal können diese jedoch trotzdem Probleme machen.

Quellen und weiterführende Infos

Laut einem Blogpost in der Google Search Central von 2017, sind Infinite Spaces einer von 6 möglichen Faktoren(-gruppen), die sich negativ auf das Crawl-Budget auswirken:

According to our analysis, having many low-value-add URLs can negatively affect a site’s crawling and indexing. We found that the low-value-add URLs fall into these categories, in order of significance:

Faceted navigation and session identifiers
On-site duplicate content
Soft error pages
Hacked pages
Infinite spaces and proxies
Low quality and spam content

Wasting server resources on pages like these will drain crawl activity from pages that do actually have value, which may cause a significant delay in discovering great content on a site.

Seit 2008 informiert Google Webmaster in der Search Console (damals noch die Webmaster Tools) darüber, wenn der Googlebot einen Infinite Space gefunden hat.

Du erhältst dann die Mitteilung “Der Googlebot hat auf Ihrer Website eine extrem hohe Anzahl von URLs entdeckt.”

Mögliche Lösungsansätze dafür findest du im passenden Hilfedokument in der Search Console-Hilfe.

Alle externen Links auf nofollow

Es ist möglich, dass es positiv oder negativ auf das Google-Ranking einer Website auswirken kann, wenn alle externen Links mit rel="nofollow" gekennzeichnet sind.

Positiv vielleicht, wenn es sich um eine Website mit viel nutzergeneriertem Content handelt und dadurch Links zu fragwürdigen Seiten entwertet werden.

Negativ vielleicht, wenn es sich um eine Website mit redaktionellem Content handelt (wie z. B. ein Blog oder eine News-Website). Denn das könnte die Botschaft senden, dass die Website ihren eigenen Redakteuren und/oder Empfehlungen nicht traut. Zudem gehen Google dadurch Ranking-Informationen verloren.

Gegen die Annahme, dass es sich negativ auswirkt, spricht, dass Wikipedia, die Website mit der höchsten Sichtbarkeit auf der Welt, seit 2007 ausschließlich externe nofollow-Links verwendet.

Mittlerweile ist es auch möglich, dass es gar keinen Unterschied mehr macht. Denn seit März 2020 werden Links mit rel="nofollow" nicht mehr kategorisch vom Ranking ausgeschlossen, sondern lediglich als Hinweis betrachtet (was insbesondere dann der Fall sein könnte, wenn eine Website alle externen Links mit rel="nofollow" kennzeichnet).

Quellen und weiterführende Infos

Auf die Frage, ob manche große News-Publisher schlechter ranken würden, wenn sie normal verlinken und alle ausgehenden Links nicht mit rel="nofollow" kennzeichnen würden, antwort John Mueller in diesem Webmaster Hangout von Juli 2019:

It’s definitely not the case that if you use normal links on your website that you would rank any worse than if you put nofollow on all outgoing links. I suspect it’s even, on the contrary, that if you have normal linking on your page then you would probably rank a little bit better over time – essentially because we can see that you’re part of the normal web ecosystem. So it’s definitely not the case that you have any kind of ranking advantage by marking all outgoing links as nofollow.

Er führt weiter aus, dass man als (News-)Publisher hinter dem stehen sollte, was man schreibt und deshalb normal verlinken sollte:

I understand not knowing which links you can trust. But essentially, if you’re a news publisher, you should trust what you’re writing about. Or you should be able to understand which part of the content that you write about is actual content that you want to have indexed – that you want to stand for. If these are things that you want to stand for then make sure you have normal links on there.

In einem Video von 2011 antwortet Matt Cutts auf die Frage, wie Google Websites behandelt, die alle externen Links mit rel="nofollow" kennzeichnen, dass er sich wünschen würde, dass Wikipedia zumindest teilweise normal verlinkt (er geht im Video nicht richtig auf die Frage ein und antwortet schwammig):

But sites could still be a little more nuanced. I think it would be great, for example, if Wikipedia wanted to explore whether it’s possible to find some links that they trust a little bit more, and maybe some links that are still in a probationary period or that they don’t completely trust.

Die Aussagen von Matt Cutts und John Mueller beziehen jedoch wahrscheinlich Googles Ankündigung von September 2019, nofollow-Links lediglich als Hinweis zu betrachten, noch nicht mit ein, da sie vorher geäußert wurden.

Datenschutzerklärung

Eine Datenschutzerklärung ist gem. Art. 13 und Art. 14 DSGVO für die meisten Website-Betreiber in Deutschland gesetzlich vorgeschrieben.

Darüber hinaus ist es ein Vertrauenssignal, wenn eine Website Besucher über die Verwendung ihrer personenbezogenen Daten transparent informiert.

Dementsprechend könnte das Vorhandensein einer Datenschutzerklärung auch ein Ranking-Faktor für Google sein.

Quellen und weiterführende Infos

Google schreibt in den Nutzungsbestimmungen bestimmter Dienste, wie z. B. Google Analytics oder Google Ads, eine Datenschutzerklärung für Website-Betreiber vor. So findet sich in den Nutzungsbedingungen für Google Analytics folgender Satz:

Sie sind ferner verpflichtet, an prominenten Stellen eine sachgerechte Datenschutzerklärung vorzuhalten (und sich an diese zu halten).

Das muss allerdings nicht unbedingt etwas mit der Google-Suche zu tun haben.

In Googles Search Quality Evaluator Guidelines wird häufiger betont, dass es für (manche) Arten von Websites wichtig ist, Kontaktinformationen oder Geschäftsbedingungen bereitszustellen:

Contact information and customer service information are extremely important for websites that handle money, such as stores, banks, credit card companies, etc. Users need a way to ask questions or get help when a problem occurs. For shopping websites, we’ll ask you to do some special checks. Look for contact information—including the store’s policies on payment, exchanges, and returns. Sometimes this information is listed under “customer service.”

Und dazu könnte auch eine Datenschutzerklärung zählen (obwohl dies nicht explizit in den Guidelines erwähnt wird).

Über-uns-Seite

Das Vorhandensein einer Über-uns-Seite ist vielleicht ein Ranking-Faktor für Google. Denn erstens ist diese ein Vertrauenssignal für Nutzer (Stichwort: Transparenz) und zweitens könnte sie Google weitere Informationen über die Expertise der Website und ihrer Autoren liefern.

Vor allem im YMYL-Bereich könnte eine Seite wichtig sein, auf der man mehr über die Personen oder das Unternehmen erfährt, das hinter einer Website steht.

Quellen und weiterführende Infos

Auf der Pubcon 2019 wurde Gary Illyes gefragt, ob Google darauf achtet, dass eine Website eine Über-uns- oder Kontaktseite hat. Seine Antwort:

The Knowledge Graph is most likely looking for those, especially with larger entities.

In den Search Quality Evaluator Guidelines wird mehrmals darauf hingewiesen, dass Websites offen kommunzieren sollten, wer dafür verantwortlich ist:

Every page belongs to a website, and it should be clear who […] is responsible for the website.

Dies wird insbesondere für Seiten aus dem YMYL-Bereich hervorgehoben. Fehlen auf einer solchen Seite Informationen darüber, wer den Inhalt verfasst hat oder wer für die dazugehörige Website verantwortlich ist, sind Googles menschliche Evaluatoren dazu angehalten, der Seite ein schlechte Qualitätsbewertung zu geben:

For YMYL pages and other pages that require a high level of user trust, an unsatisfying amount of any of the following is a reason to give a page a Low quality rating: customer service information, contact information, information about who is responsible for the website or information about who created the content. For other types of websites, use your judgment.

Zu YMYL-Websites zählt Google z. B. Online-Shops, Banken, Kreditkarten-Anbieter oder andere Websites, bei denen es um Geld geht:

Contact information and customer service information are extremely important for websites that handle money, such as stores, banks, credit card companies, etc. Users need a way to ask questions or get help when a problem occurs. For shopping websites, we’ll ask you to do some special checks. Look for contact information—including the store’s policies on payment, exchanges, and returns. Sometimes this information is listed under “customer service.”

In den Guidelines wird jedoch auch eingeräumt ein, dass es berechtigte Gründe für Website-Betreiber geben kann, anonym zu bleiben:

Occasionally, you may encounter a website with a legitimate reason for anonymity. For example, personal websites may not include personal contact information such as an individual’s home address or phone number. Similarly, websites with user-generated content may allow the author to identify him/herself with an alias or username only.

Viele interne Redirects

Ein Übermaß an internen Redirects auf einer Website kann zum Beispiel entstehen, wenn:

  • Die Permalink-Struktur einer Website umgestellt wird (z. B. von Blogartikel-Links mit Datum zu ohne Datum)
  • Wenn eine Umstellung der Website von HTTP auf HTTPS erfolgt
  • Eine Website zu einer neuen Domain wechselt

Und das ist nicht gut für die Nutzererfahrung. Denn Redirects sorgen dafür, dass sich die Navigation innerhalb einer Website verlangsamt (in der Regel aber nur leicht).

Schwerer wiegt, dass es Probleme mit Duplicate Content innerhalb der Website geben kann und möglicherweise PageRank durch interne Weiterleitungen verloren geht.

Lange Redirect-Ketten können zudem das Crawling behindern.

Quellen und weiterführende Infos

Google empfiehlt in diesem Hilfedokument zum Domainumzug alle internen Links anzupassen:

Passen Sie die internen Links auf der neuen Website an, sodass anstatt der alten URLs die neuen URLs verwendet werden. Anhand der zuvor erstellten Zuordnungsliste können Sie die Links leichter finden und bei Bedarf ändern.

Und dabei insbesondere Redirect-Ketten zu vermeiden:

Obwohl der Googlebot und Browser einer “Kette” mehrerer Weiterleitungen (z. B. Seite 1 > Seite 2 > Seite 3) folgen können, empfehlen wir eine Weiterleitung zum endgültigen Ziel. Sollte das nicht möglich sein, verketten Sie nur wenige Weiterleitungen, möglichst nur drei, maximal vier. Durch die Verkettung von Weiterleitungen entstehen für den Nutzer Verzögerungen. Außerdem unterstützen nicht alle Browser lange Verkettungen.

John Mueller sagte 2020 auf Reddit, dass sich Redirect-Ketten mit über 5 Redirects auch negativ auf das Crawling auswirken können:

It doesn’t matter. The only thing I’d watch out for is that you have less than 5 hops for URLs that are frequently crawled. With multiple hops, the main effect is that it’s a bit slower for users. Search engines just follow the redirect chain (for Google: up to 5 hops in the chain per crawl attempt).

Bei der Berechnung des PageRanks gibt es bei Links einen Dämpfungsfaktor von 15 %. In einem Video von 2013 sagt Matt Cutts, dass der Dämpfungsfaktor bei Redirect genauso hoch ist wie Links:

The amount of page rank that dissipates through a 301 is currently identical to the amount of page rank that dissipates through a link.

In einem Tweet von 2016 sagt Gary Illyes allerdings, dass kein PageRank mehr bei 301, 302 oder 307-Redirects verloren geht:

30x redirects don’t lose PageRank anymore.

503-Fehler für längere Zeit

Wenn eine Seite vorrübergehend nicht erreichbar ist (z. B. aufgrund von Wartungsarbeiten oder einem technischen Fehler) sollte diese einen Status 503 zurückgeben.

Das informiert Google darüber, dass diese lediglich temporär nicht verfügbar ist und bald wieder online geht.

Ein länger als eine Woche andauernder Status 503 kann allerdings dazu führen, dass eine Seite aus dem Google-Index entfernt wird.

Quellen und weiterführende Infos

Google schreibt in einem Blogpost von 2011 dazu:

We encounter a lot of problems with sites that return 200 (OK) result codes for server errors, downtime, bandwidth-overruns or for temporary placeholder pages (“Under Construction”). The 503 HTTP result code is the webmaster’s solution of choice for all these situations.

Und weiterhin:

It is important, however, to not treat 503 as a permanent solution: lasting 503s can eventually be seen as a sign that the server is now permanently unavailable and can result in us removing URLs from Google’s index.

John Mueller sagt in einem Tweet von 2017, dass eine Error-Seite nicht mehrere Wochen in Googles Index bleiben würde:

If it’s not accessible for weeks, it would be misleading to include it in search, imo. It’s an error page, essentially.

In einem Blogpost von 2017 sagt Google, dass Seiten mit einem Status 503 nach etwa einer Woche aus dem Index entfernt werden:

Googlebot will retry pages that return 503 for up to about a week, before treating it as a permanent error that can result in those pages being dropped from the search results.

Viele 404-Fehler auf der Website

Dass viele Seiten auf einer Website einen 404-Fehler wiedergeben, ist kein direkter Ranking-Faktor für Google.

Denn ein 404-Fehler sagt Google lediglich: “Diese Seite gibt es nicht mehr.”

404-Fehler können jedoch ein indirekter Ranking-Faktor sein, wenn:

  • noch interne Links auf deiner Website zu den 404-Seiten bestehen (schlecht für die Nutzererfahrung)
  • Backlinks auf die 404-Seiten zeigen, denn dann geht der PageRank durch diese Backlinks verloren (in dem Fall kann es Sinn ergeben, diese Seiten wiederzubeleben oder wahlweise auf die neue URL, wenn vorhanden, oder eine thematisch sehr ähnliche Seite weiterzuleiten)

Quellen und weiterführende Infos

Laut einem Hilfedokument in der Search Console-Hilfe haben 404-Fehler keine direkten Auswirkungen auf das Ranking einer Website:

Prinzipiell haben 404-Fehler keinerlei Auswirkungen auf das Abschneiden Ihrer Website in den Suchergebnissen. Sie können sie also getrost ignorieren, wenn Sie sicher sind, dass die URLs nicht auf Ihrer Website existieren. Wichtig ist jedoch, dass diese und andere ungültige URLs einen korrekten 404-HTTP-Antwortcode zurückgeben und nicht von der robots.txt-Datei der Website blockiert werden.

Auch haben 404-Fehler, die als Crawling-Fehler in der Google Search Console angezeigt werden, keinen negativen Einfluss auf das Crawling einer Website:

In diesem Fall kann der Link im Bericht Crawling-Fehler als ein 404-Fehler (Nicht gefunden) angezeigt werden. Google arbeitet daran, solche Crawling-Fehler zu vermeiden. Dieser Fehler hat keinen Einfluss auf das Crawling oder Ranking Ihrer Website.

John Mueller widmet der Frage, wie man mit 404-Fehlern umgehen soll, ein ganzes Hilfe-Video. Darin findet sich folgende Aussage:

Crawl errors for 404s that you don’t want to have indexed don’t negatively effect the rest of your site in search.

Laut Mueller ist auch kein Problem, eine 404-Seite “wiederzubeleben”. Google verhängt keinen Penalty für eine Seite, die in der Vergangenheit einen 404-Fehler angezeigt hat:

So from kind of the early questions there, if you have a 404 page and you make it 200 and there is content there, then when we reprocess that page, we will take that into account. There is no penalty at all for that page being a 404 in the past.

Shared Hosting

Bei Shared Hosting teilst du dir mit 10, 20, 50 oder sogar 100 anderen Kunden denselben Server und dieselbe IP-Adresse.

Außer in Extremfällen (wie z. B. wenn bei einem kostenlosen Hoster massenhaft Spam-Websites erstellt werden) hat es jedoch sehr wahrscheinlich keine negativen Auswirkungen auf dein Google-Ranking, wenn eine oder mehrere andere Domains von anderen Kunden auf deinem Server von Google als Spam eingestuft werden.

Shared Hosting könnte allerdings ein indirekter Ranking-Faktor sein, wenn es dafür sorgt, dass deine Website lange zum Laden braucht oder hohe Ausfallzeiten hat (dann ergibt ein Wechsel von Hosting-Art oder -Anbieter Sinn).

Quellen und weiterführende Infos

Wie Matt Cutts in diesem Video erklärt, ist Google sich bewusst, dass viele Websites Shared Hosting verwenden, und verneint, dass dies generell dem Ranking einer Website schadet:

Google understands that shared web hosting happens. You can’t really control or help who else is on that IP address or class-C subnet.

Allerdings kann es vorkommen, dass Google manche Hoster (z. B. kostenlose) im Rahmen einer manuellen Maßnahme komplett sperrt, wenn ein Großteil der dort gehosteten Websites Spam verbreiten:

Ein erheblicher Teil der Websites, die bei Ihrem kostenlosen Webhostanbieter gehostet werden, ist Spam. Google versucht, bei manuellen Spammaßnahmen gezielt vorzugehen. Wenn wir jedoch feststellen, dass ein großer Teil der über einen Dienst gehosteten Webseiten Spam enthält, sehen wir uns unter Umständen gezwungen, manuelle Maßnahmen gegen den gesamten Dienst durchzuführen.

Google Sandbox

Google könnte neue Websites zur Spam-Bekämpfung bewusst in den Suchergebnissen zurückhalten.

Dieses Phänomen wird von SEOs auch als “Sandbox” (engl. für Sandkasten) bezeichnet.

Es ist jedoch eher unwahrscheinlich, dass es soetwas wie eine Sandbox gibt. Wahrscheinlicher ist, dass neue Websites nicht so gut in den Suchergebnissen abschneiden, weil andere Vertrauenssignale (wie z. B. PageRank oder TrustRank) noch fehlen.

Quellen und weiterführende Infos

Im Rahmen eines Interviews in 2005 hat Matt Cutts gesagt, dass man manche Bestandteile des Algorithmus als Sandbox interpretieren könnte. Er bestätigt allerdings nicht die Existenz einer generellen Google Sandbox:

How many feel there is no such thing as a sandbox? SEOs normally split down the line. There are some things in the algorithm that may be perceived as a sandbox that doesn’t apply to all industries.

In einem Tweet von August 2016 verneint Google-Mitarbeiter Gary Illyes die Existenz einer Sandbox:

we don’t have a Google sandbox.

Genauso wie John Mueller im August 2019 auf Twitter:

There is no sandbox.

Viele DMCA-Requests für eine Website

Mit einem DMCA-Request (beruhend auf dem Digital Millenium Copyright Act) kannst du Google darum bitten, eine Seite aus den Suchergebnissen zu löschen, die gegen das Urheberrecht verstößt.

Das Einreichen einer Entfernungsanfrage ist mit diesem Tool möglich.

Laut Google Transparency Report wurden mittlerweile fast 5 Milliarden URLs zur Entfernung aus den Suchergebnissen an Google übermittelt.

Wurden Seiten aus den Suchergebnissen entfernt, kannst du das an folgendem Hinweis in der Google-Suche erkennen (hast du bestimmt schon einmal gesehen):

DMCA-Request in der Google-Suche

Wenn eine Website viele berechtigte DMCA-Requests erhält, behält sich Google vor, die Sichtbarkeit dieser Website in den Suchergebnissen einzuschränken.

Quellen und weiterführende Infos

DMCA-Requests wurden in einem Blogpost von August 2012 offiziell als Ranking-Faktor bestätigt:

Starting next week, we will begin taking into account a new signal in our rankings: the number of valid copyright removal notices we receive for any given site. Sites with high numbers of removal notices may appear lower in our results.

Google AdSense

Zur Steigerung der eigenen Werbeeinahmen ergäbe es für Google durchaus Sinn, einzelne Seiten oder ganze Websites in den Suchergebnissen zu bevorzugen, die Anzeigen des eigenen Werbenetzwerks Google AdSense eingebunden haben.

Es gibt jedoch keine Beweise dafür, dass das der Fall ist. Auch Google selbst hat immer wieder bestritten, dass ein solcher Zusammenhang besteht.

Es ist im Gegenteil sogar möglich, dass sich die Nutzung von Google AdSense negativ auf das Ranking auswirkt.

Zwar nicht direkt, aber indirekt durch eine schlechtere Nutzererfahrung und eine langsamere Ladegeschwindigkeit (vor allem auf Mobilgeräten).

Quellen und weiterführende Infos

In der Google AdSense-Hilfe streitet Google einen Zusammenhang zwischen der Nutzung von Google AdSense und der Google-Suche ab (und bestätigt im letzten Satz nebenbei die Bedeutung des PageRanks für das Ranking):

Die Teilnahme an Google AdSense hat keine Auswirkungen auf das Ranking Ihrer Website in den Google-Suchergebnissen und beeinflusst die von uns gelieferten Suchergebnisse in keiner Weise. Google ist der Meinungsfreiheit verpflichtet und bietet daher einen umfassenden Zugang zu Webinhalten an. Unsere Suchergebnisse sind neutral und stehen nicht in Zusammenhang mit zahlenden Werbetreibenden und Publishern. Die Suchergebnisse werden nach wie vor entsprechend unserer PageRank-Technologie dargestellt.

Ein Zusammenhang zwischen dem Crawling durch Googlebot und der Einbindung von AdSense besteht laut Google ebenfalls nicht:

Wenn Sie Google AdSense- oder AdSense für Suchergebnisseiten-Code zu Ihrer Website hinzufügen, werden Ihre Seiten nicht automatisch von unseren Hauptindex-Bots indexiert. Obwohl unser Bot (der mit “Mediapartners-Google” beginnt) Content-Seiten zum Zweck der Anzeigenausrichtung crawlt, steht dieses Crawling nicht in Zusammenhang mit dem Crawling für unseren Hauptindex.

Matt Cutts streitet einen Zusammenhang zwischen AdSense und der Google-Suche in diesem Video ebenfalls vehement ab:

Google does not, not, repeat NOT give a higher ranking to websites which run AdSense. They’re completely independent. It’s not the case that if you run AdSense you get any kind of boost in a ranking or anything like that.

Eine ältere Studie von MOZ in 2011 deutet darauf hin, dass sich die Verwendung von Google AdSense sogar negativ auf das Ranking auswirken könnte:

Google AdSense slots correlated with lower rankings, 0.06. So website A here, if it has all these AdSense, and you’ve seen these pages – you click on them and they are filled with AdSense – they tend to not rank as well as pages with fewer AdSense slots.

Eine Studie von MOZ in 2015 zeigt ebenfalls eine leicht negative Korrelation zwischen Ranking und der Anzahl an eingebunden Adsense-Werbeanzeigen auf einer Seite:

Korrelation zwischen Ranking und Anzahl an AdSense-Slots laut MOZ

Google Ads

Seit Jahren hält sich die Theorie, dass eine Website oder Seite die Werbung über Google Ads (früher AdWords) schaltet, auch besser in der organischen Suche bewertet wird.

Das ist allerdings unwahrscheinlich.

Das Schalten von Google Ads könnte höchstens ein indirekter positiver Ranking-Faktor sein, z. B. wenn die Anzeigen und der dadurch entstehende Website-Traffic dafür sorgt, dass eine Website mehr als Marke wahrgenommen wird oder häufiger verlinkt wird.

Quellen und weiterführende Infos

Auf der englischen Website von Google Ads gibt es eine Gegenüberstellung zwischen SEO & PPC, in der Google mehrfach betont, dass Google Ads keinen direkten Einfluss auf die organische Suche haben:

Running a Google Ads campaign does not help your SEO rankings, despite some myths and claims.

Sowie:

A PPC ad solution like Google Ads doesn’t have the same results as SEO, and won’t improve your organic search rankings.

Als Begründung dafür wird angegeben:

Google’s first responsibility is to provide Search users with the most relevant possible results. If businesses were able to pay for higher rankings in the search results, users wouldn’t be getting the information they’re looking for.

Auch Matt Cutts streitet in diesem Video sowohl den positiven als auch negativen Einfluss von Googls Ads auf die organische Suche ab:

If you buy ads, it’s not going to algorithmically help your ranking in any way. And likewise, it’s not going to hurt your ranking if you buy ads.

In Googles How Search Works wird die Unabhängigkeit von Google-Suche und den Geschäftsbeziehungen zu Werbekunden ebenfalls betont:

Die Geschäftsbeziehungen von Google haben keinerlei Einfluss auf Änderungen an den Algorithmen der Google-Suche und Werbetreibende haben keine Vorteile in Bezug auf die Ergebnisse der organischen Suche. Diese werden entsprechend ihrer Priorität und Relevanz für die Nutzer verarbeitet und nicht auf der Grundlage einer finanziellen Beziehung zu Google.

Laut Ryan Moulton, der seit über 15 Jahren als Entwickler bei Google arbeitet, hat das Google Search Team sogar mehrfach in der Vergangenheit Änderungen an der Suche eingeführt, die zu einer negativen Umsatzentwicklung geführt haben:

I’ve personally been involved in launching ranking changes that negatively impacted revenue substantially. I didn’t find out until months later through the grapevine, and only in vague terms like “ads had to scramble.” Versions of them remain in production today. Revenue projections were never considered as part of the launch decision, nor have they they been consulted as part of evaluating subsequent versions.

Allerdings:

Es scheint manchmal schwarze Schafe im Sales Team von Google Ads zu geben, die fälschlicherweise behaupten, dass Anzeigen auch bei der organischen Suche helfen. Wenn man Danny Sullivans Statements dazu auf Twitter glauben kann, wurde der Mitarbeiter jedoch dafür zurechtgewiesen.

Google Analytics

Seit vielen Jahren halten sich unter SEOs hartnäckig die Thesen, dass die Verwendung von Google Analytics einen positiven Effekt auf das Ranking einer Website hat oder dass Daten aus dem Analyse-Tool (z. B. die Bounce Rate) für das Ranking verwendet werden.

Beides ist jedoch unwahrscheinlich.

Quellen und weiterführende Infos

Google bestreitet mittlerweile seit über einem Jahrzehnt, dass es einen Zusammenhang zwischen der Google-Suche und Google Analytics gibt.

Laut einer Aussage von John Mueller von 2020 werden die Daten aus Google Analytics nicht dafür genutzt, um die Suchergebnisse zu verbessern:

We don’t use Google Analytics in Search, and Google Analytics & Search Console track data quite differently. SC tracks what’s shown in Search, GA tracks what happens when a user goes to a site. There’s overlap, but it’s not exact.

Und laut diesem Tweet aus demselben Jahr auch nicht zur Indexierung:

Correct. We definintely don’t use GA for indexing.

Die Nutzung oder Nicht-Nutzung von Google Analytics löst laut diesem Tweet von John Mueller in 2018 auch keinen Penalty aus:

Just to be clear: there’s no penalty for using or not using GA with regards to search.

Und ist laut diesem Tweet ist Google Analytics auch nicht erforderlich, um in der Google-Suche aufzutauchen:

GA can give you lots of insights about your site & how users enjoy it, but it’s not required for search.

2017 äußerte sich Gary Illyes auf Twitter ähnlich wie John:

We don’t use *anything* from Google analytics in the “algo”.

Schon in einem Video on 2010 verweist Matt Cutts verweist diese Behautung in das Reich der Märchen:

When I saw that question, I went ahead and I emailed the most senior, most knowledgeable person who would know about this…and the one word reply was: No!

Selbst ein Mitarbeiter von Google Analytics hat in 2015 bestätigt, dass Daten von Analytics nicht für die Google-Suche verwendet werden.

Website wurde gehackt

Wenn eine Website gehackt wurde, kann das sehr schlecht für Nutzer sein.

Denn diese leiten oft zu betrügerischen Websites um, zeigen aggressive Werbung an oder verbreiten Malware.

Dementsprechend ist es ein stark negativer Ranking-Faktor, wenn eine Website gehackt wurde:

Google behält sich vor, die Sichtbarkeit gehackter Websites einzuschränken, sie komplett aus den Suchergebnissen zu entfernen oder einen Warnhinweis im Snippet oder zwischengeschaltet im Browser anzuzeigen.

Quellen und weiterführende Infos

Safe Browsing, Googles Sicherheitsmechanismus zur Erkennung von Malware und gehackten Websites, ist laut folgender Grafik zur Einführung der Core Web Vitals ein Ranking-Faktor:

Safe Browsing ist ein Ranking-Faktor für die Page Experience

Dass Google gehackte Websites komplett oder teilweise aus den Suchergebnissen entfernt, findet sich in diesem Hilfedokument:

Zum Schutz unserer Nutzer und zur Wahrung der Integrität unserer Suchergebnisse versuchen wir, gehackte Inhalte so umfassend wie möglich aus unseren Suchergebnissen zu entfernen.

Zusätzlich werden bei gehackten Websites laut der Search Console-Hilfe mitunter Warnhinweise angezeigt:

Seiten oder Websites, die von einem Sicherheitsproblem betroffen sind, werden in den Suchergebnissen eventuell mit einem Warnhinweis angezeigt. In einem Browser erscheint möglicherweise eine zwischengeschaltete Warnseite, wenn ein Nutzer versucht, auf eine solche Seite zuzugreifen.

Mögliche Hinweise umfassen “Diese Website wurde möglicherweise gehackt.” oder “Diese Website kann ihren Computer beschädigen.”.

Nutzerfreundlichkeit auf Mobilgeräten

Wie nutzerfreundlich eine Seite auf Mobilgeräten ist, ist schon seit 2015 ein Ranking-Faktor in der mobilen Google-Suche.

Und das nicht ohne Grund:

Der Traffic von Mobilgeräten ist seit 2010 stark angestiegen und macht laut Statista mittlerweile über die Hälfte des weltweiten Traffic-Aufkommens aus.

Quellen und weiterführende Infos

Die Nutzerfreundlichkeit auf Mobilgeräten wurde mit dem Mobile Friendly-Update in 2015 ein offizieller Ranking-Faktor:

We’re boosting the ranking of mobile-friendly pages on mobile search results. Now searchers can more easily find high-quality and relevant results where text is readable without tapping or zooming, tap targets are spaced appropriately, and the page avoids unplayable content or horizontal scrolling.

Sie ist allerdings nicht der einzige und wichtigste Ranking-Faktor für die mobile Suche:

While the mobile-friendly change is important, we still use a variety of signals to rank search results. The intent of the search query is still a very strong signal. So even if a page with high quality content is not mobile-friendly, it could still rank high if it has great content for the query.

Ob eine Seite in Googles Augen für Mobilgeräte optimiert ist, kannst du mit dem Test auf Optimierung für Mobilgeräte überprüfen.

Dass die Nutzerfreundlichkeit auf Mobilgeräten für Google wichtig ist, zeigt auch die 2018 angekündigte Umstellung der Google-Suche auf die sogenannte Mobile-First Indexierung:

Bei der Mobile First-Indexierung nutzt Google vor allem die mobile Version der Inhalte für die Indexierung und das Ranking. In der Vergangenheit wurde für den Index hauptsächlich die Desktopversion des Seiteninhalts herangezogen.

Dass sie auch in 2021 für Google noch ein Ranking-Faktor ist, zeigt folgende Grafik zur Einführung der Core Web Vitals:

Die Nutzerfreundlichkeit auf Mobilgeräten ist ein Ranking-Faktor für die Page Experience

Kontakt-Seite oder Impressum

Dass auf einer Website die Kontaktdaten des Website-Betreibers zu finden sind, ist ein Signal für Legitimität und Vertrauen.

Dementsprechend könnte das Vorhandensein einer Kontakt-Seite oder eines Impressums vielleicht ein positiver Ranking-Faktor für Google sein.

Quellen und weiterführende Infos

Auf der Pubcon 2019 wurde Gary Illyes gefragt, ob Google darauf achtet, dass eine Website eine Über-uns-Seite oder Kontaktseite hat. Seine Antwort:

The Knowledge Graph is most likely looking for those, especially with larger entities.

Es finden sich auch diverse Erwähnungen in den Google Search Quality Rater Guidelines dafür, dass Google erwartet, die Verantwortlichen einer Website offenzulegen:

Every page belongs to a website, and it should be clear who […] is responsible for the website.

Google hebt dies insbesondere für sogenannte YMYL-Websites hervor:

For YMYL pages and other pages that require a high level of user trust, an unsatisfying amount of any of the following is a reason to give a page a Low quality rating: customer service information, contact information, information about who is responsible for the website or information about who created the content. For other types of websites, use your judgment.

Zu YMYL-Websites zählt Google z. B. Online-Shops, Banken, Kreditkarten-Anbieter oder andere Websites, bei denen es um Geld geht:

Contact information and customer service information are extremely important for websites that handle money, such as stores, banks, credit card companies, etc. Users need a way to ask questions or get help when a problem occurs. For shopping websites, we’ll ask you to do some special checks. Look for contact information—including the store’s policies on payment, exchanges, and returns. Sometimes this information is listed under “customer service.”

In den Guidelines wird jedoch auch eingeräumt ein, dass es berechtigte Gründe dafür geben kann, keine persönlichen Kontaktdaten auf der Website anzugeben:

Occasionally, you may encounter a website with a legitimate reason for anonymity. For example, personal websites may not include personal contact information such as an individual’s home address or phone number. Similarly, websites with user-generated content may allow the author to identify him/herself with an alias or username only.

Hierarchische Website-Struktur

Eine hierarchische und klar gestaltete Website-Struktur trägt zur Nutzerfreundlichkeit einer Website bei und könnte Google zudem dabei helfen, die Beziehung der Seiten untereinander besser zu verstehen (z. B. Ober- und Unterthema).

Dementsprechend könnte dies ein positiver Ranking-Faktor für Google sein.

Es existieren verschiedene Variationen, die bei der Suchmaschinenoptimierung als optimal gelten, wie z. B. die Silo-Struktur oder Topic-Cluster mit Pillar Pages.

Durch beide genannten Strategien werden die Seiten auf einer Website in verschiedene untereinander verlinkte Themenbereiche aufgeteilt.

Quellen und weiterführende Infos

Google gibt folgenden Rat in seinen Richtlinien für Webmaster:

Gestalten Sie Ihre Website mit einer klar strukturierten Seitenhierarchie.

Im Hilfedokument Benötigen Sie einen Suchmaschinenoptimierer (SEO)? findet sich unter den möglichen Diensten, die ein SEO übernehmen kann:

Überprüfung des Inhalts oder der Struktur Ihrer Website

John Muellers Ratschlag in einem Webmaster Hangout in 2019 spricht ebenfalls dafür, dass eine hierarchische Website-Struktur eine Rolle beim Ranking spielt:

In general I’d be careful to avoid setting up a situation where normal website navigation doesn’t work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that’s not possible then we lose a lot of context. So if we’re only seeing these URLs through your sitemap file then we don’t really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website.

In Googles Patent US7716225B1 wird eine Technologie vorgestellt, bei der die “Topical Cluster” einer Seite zur Relevanzbewertung hinzugezogen werden:

Examples of features associated with a source document might include the URL of the source document (or a portion of the URL of the source document); a web site associated with the source document; a number of links in the source document; the presence of other words in the source document; the presence of other words in a heading of the source document; a topical cluster with which the source document is associated; and/or a degree to which a topical cluster associated with the source document matches a topical cluster associated with anchor text of a link. This list is not exhaustive and may include more, less, or different features associated with a source document.

Häufigkeit neuer Inhalte auf der Website

Aktualität ist ein positiver Ranking-Faktor auf Seitenebene.

Daraus könnte man schließen, dass auch gesamte Websites von Google besser bewertet werden könnte, wenn dort regelmäßig viele neue Inhalte veröffentlicht werden.

Das ist allerdings unwahrscheinlich. Schließlich sagt die Veröffentlichungsfrequenz einer Website nichts über die Qualität und Relevanz der einzelnen Seiten aus, aus der die Website besteht.

Die Veröffentlichungsfrequenz kann sich allerdings auf das Crawl-Verhalten von Googlebot auswirken. Ein Blog, auf dem täglich neue Artikel erschienen, wird wahrscheinlich häufiger gecrawlt als ein Blog, auf dem nur alle 6 Monate gepostet wird.

Quellen und weiterführende Infos

Googles Patent US8140449B1 enhält Hinweise darauf, dass Google die Aktualität einer Website messen könnte:

A system determines an ordered sequence of documents and determines an amount of novel content contained in each document of the ordered sequence of documents.

In einem Tweet sagt John Mueller, dass sich eine Änderung der Veröffentlichungsfrequenz nicht negativ auf das Google-Ranking auswirkt (sowohl die Frage als auch die Antwort sind etwas schwammig):

Wie häufig neue Inhalte veröffentlicht werden, ist laut John Mueller kein Ranking Faktor.

Das Hilfedokument zum Bericht “Crawl-Statistiken” listet sich selten verändernde Inhalte als Grund dafür, dass eine Website weniger gecrawlt wird:

If a site has information that changes less frequently, or isn’t very high quality, we might not crawl it as frequently. Take an honest look at your site, get neutral feedback from people not associated with your site, and think about how or where your site could be improved overall.

HTML-Sitemap

Eine HTML-Sitemap ist eine öffentlich einsehbare Liste, auf der alle Seiten einer Website gelistet sind.

Sie soll Nutzern dabei helfen, sich auf einer Website zurechtzufinden, und dafür sorgen, dass Google die Website besser crawlen kann.

Der positive Nutzen einer HTML-Sitemap hält sich heutzutage allerdings in Grenzen.

Quellen und weiterführende Infos

Matt Cutts erklärt in einem Video im Jahre 2010, dass HTML-Sitemaps eine Hilfe beim Crawling sein können:

HTML sitemaps can definitely help us. So you have a link to your root page and then if you have an HTML sitemap, we can, by crawling those links, find the rest of the pages on your site.

John Mueller merkt in einem Reddit-Threat von 2019 jedoch an, dass HTML-Sitemaps heutzutage weder einen Gewinn für Nutzer bringen noch die Crawlbarkeit einer Website sonderlich verbessern:

Glaubt man John Mueller, spielen HTML-Sitemaps keine Rolle für SEO

XML-Sitemap

Eine XML-Sitemap zu haben oder an Google zu übermitteln, ist kein Ranking-Faktor.

Sie ist allerdings ein Crawling-Faktor, denn sie kann Google dabei helfen, neue Seiten oder Änderungen an bestehenden Seiten auf einer Website schneller zu finden.

Quellen und weiterführende Infos

Google bestätigt in diesem FAQ klar, dass Sitemaps kein Ranking-Faktor sind:

A Sitemap does not affect the actual ranking of your pages. However, if it helps get more of your site crawled (by notifying us of URLs we didn’t previously didn’t know about, and/or by helping us prioritize the URLs on your site), that can lead to increased presence and visibility of your site in our index.

Ein XML-Sitemap garantiert laut Search Console-Hilfe übrigens auch nicht, dass alle enthaltenen URLs gecrawlt und indexiert werden, eine zu haben ist jedoch definitiv kein Nachteil:

Die Verwendung einer Sitemap garantiert nicht, dass alle in Ihrer Sitemap aufgeführten Inhalte gecrawlt und indexiert werden, da die Prozesse von Google auf komplexen Algorithmen zur Planung des Crawling-Vorgangs basieren. In den meisten Fällen ist eine Sitemap für Ihre Website jedoch von Vorteil – ein Nachteil ist sie in keinem Fall.

Priorität innerhalb der XML-Sitemap

In einer XML-Sitemap kann man zu jeder URL eine relative Priorität (mit dem Tag <priority>) angeben.

Sie reicht von 0.1 bis 1.0 und soll die Wichtigkeit einer URL im Vergleich zu anderen URLs für Crawler hervorheben.

Diese Priorität wird jedoch von Google ignoriert und wirkt sich somit weder auf das Crawl-Verhalten noch das Ranking aus.

Quellen und weiterführende Infos

Auf eine Frage an Gary Illyes, ob die Sitemap-Prioritäten sich auf das Crawl-Verhalten von Googlebot auswirkt, antwortet er in einem Tweet:

we ignore those. It’s essentially a bag of noise

Von John Mueller gibt es eine ähnliches Statement auf Twitter:

We ignore priority in sitemaps.

Serverstandort

Der Serverstandort ist vielleicht (noch) ein direkter Ranking-Faktor, wenn dann aber ein sehr unbedeutender.

Er ist allerdings ein indirekter Ranking-Faktor, da er sich auf die Ladegeschwindigkeit auswirken kann.

Dabei gilt:

Je näher der Serverstandort am Standort deiner Nutzer liegt, desto besser (z. B. idealerweise im selben Land oder zumindest einem Nachbarland).

Quellen und weiterführende Infos

Matt Cutts bestätigt den Serverstandort als Ranking-Faktor in diesem Video von 2009:

Google functions differently on many local queries, supplementing traditional results with Google Maps results, and potentially altered organic listings as well. The same is true for national and international searches. By hosting your site at least loosely near to your users, such as within the same country, you are likely to enjoy better rankings.

Und in diesem Video von 2009:

But where your server is located, whether it’s in the US or France, Germany or Britain or Canada or anywhere else can determine our rankings – so for example if you go to google.com and you type in “bank” you get different results than if you go to google.com.au and you type in “bank” or google.co.uk and you type in “bank”. So, we do absolutely try to return the most relevant results to each user in each country and server-location in terms of ip-adress is a factor in that.

In einem Thread in der Search Console Hilfe von Ende 2009 sagt John Mueller, dass der Serverstandort nur dann eine Rolle spielt, um die geografische Ausrichtung einer Website zu bestimmen, wenn die Domain der Website keine ccTLD ist:

Yes, we do try to find context from these two factors (I think this article is being updated to be a bit more clear though. However, if your site has a geographic TLD/ccTLD (like .co.nz) then we will not use the location of the server as well. Doing that would be a bit confusing, we can’t really “average” between New Zealand and the USA… At any rate, if you are using a ccTLD like .co.nz you really don’t have to worry about where you’re hosting your website, the ccTLD is generally a much stronger signal than the server’s location could ever be.

Ein Blogpost von Google in 2010 listet den Serverstandort als Faktor für die geografische Ausrichtung einer Website auf:

Geotargeting-Faktoren laut Google Blogpost aus 2010

In 2013 sagte John Mueller jedoch, dass der Serverstandort nur eine sehr kleine Rolle für das Geotargeting spielt und in den meisten Fällen irrelevant ist:

For search, specifically for geotargeting, the server’s location plays a very small role, in many cases it’s irrelevant. If you use a ccTLD or a gTLD together with Webmaster Tools, then we’ll mainly use the geotargeting from there, regardless of where your server is located. You definitely don’t need to host your website in any specific geographic location. Use what works best for you, and give us that information via a ccTLD or Webmaster Tools.

HSTS

HTTP Strict Transport Security (HSTS) ist ein Sicherheitsmechanismus für HTTPS-Verbindungen. Er sagt Browsern, dass eine Website ausschließlich über HTTPS geladen werden darf.

Das soll vor Man-in-the-middle-Angriffen, wie z. B. Session-Hijacking oder Downgrade-Angriffen schützen.

Die Nutzung von HSTS ist durch Aufnahme in der HSTS Preload List möglich, die vom Chromium-Projekt betreut wird, das wiederum von Google gegründet wurde und gesponsort wird.

Dass HSTS aktuell ein Ranking-Faktor ist, ist zwar möglich, aber eher unwahrscheinlich.

Quellen und weiterführende Infos

Argumente für HSTS als Ranking-Faktor sind, dass es von Google selbst gefördert und genutzt wird:

Seit Juli 2016 ist google.com z. B. über HSTS abgesichert:

To further protect users, we’ve taken another step to strengthen how we use encryption for data in transit by implementing HTTP Strict Transport Security—HSTS for short—on the www.google.com domain.

Laut einem Blogpost von September 2017 hat Google auch seine eigenen Top-Level-Domains, wie z. B. .dev . google und .foo zur HSTS Preload List hinzugefügt:

Google operates 45 TLDs, including .google, .how, and .soy. In 2015 we created the first secure TLD when we added .google to the HSTS preload list, and we are now rolling out HSTS for a larger number of our TLDs, starting with .foo and .dev.

In einem Blogpost von 2019 empfiehlt Google entweder eine Top-Level-Domain zu nutzen, die schon auf der HSTS-Preload-List steht oder die eigene Domain selbst hinzuzufügen, um die Sicherheit für Website-Nutzer zu steigern:

Use a top-level domain that is HSTS preloaded. […] Add your website to the HSTS preload list yourself. […]

Gegen HSTS als Ranking-Faktor spricht, dass Google diesen nie öffentlich bestätigt hat (und HSTS wäre die Art von Ranking-Faktor, die Google öffentlich kommuniziert).

Mixed Content

Mixed Content tritt dann auf, wenn das HTML einer Seite verschlüsselt über HTTPS geladen wird, aber manche Ressourcen (wie z. B. ein Bild, ein Font oder ein externes Script) unverschlüsselt über HTTP.

Das ist nicht nur problematisch, weil Mixed Content von manchen Browsern, wie z. B. Google Chrome ab Version 79, blockiert wird, sondern auch weil Googlebot mitunter nicht die ganze Seite crawlen kann.

Mixed Content ist entsprechend ein Indexierungs-Faktor und könnte vielleicht sogar ein direkter Ranking-Faktor sein.

Quellen und weiterführende Infos

Laut diesem Blogpost auf dem Google Security Blog wird Google Chrome ab Version 79 nach und nach Mixed Content blockieren:

In a series of steps starting in Chrome 79, Chrome will gradually move to blocking all mixed content by default.

Aufpassen musst du, wenn in Chrome kein graues Schloss angezeigt wird, wie Google in diesem Tweet von November 2019 sagt. Denn dann kann es sein, dass Google Chrome eine Seite nicht richtig anzeigt und sie von Googlebot mitunter nicht komplett gecrawlt werden kann:

If you moved to HTTPS and Chrome doesn’t show a gray lock icon, there’s mixed content. Mixed content is when a HTTPS page includes HTTP content, like an image or a video loading from HTTP. Upcoming changes may break the page for users & Googlebot.

Wenn die Website und deren Dateien generell über HTTPS geladen werden, versucht Google Chrome jedoch Dateien, die nicht über HTTPS geladen werden, automatisch upzugraden:

If you host images or videos that other sites use, make sure to host them on HTTPS, ideally 301 redirecting from HTTP to HTTPS. This enables Chrome to auto-upgrade them when they’re embedded, and keeps your great content visible everywhere, including on HTTPS pages.

Mixed Content kann man z. B. mit den Chrome DevTools ausfindig machen. Dort wird er geloggt und mit kleinen gelben Warnzeichen versehen:

Mixed Content in den Chrome Developer Tools

Wichtig ist es laut diesem Blogpost vor allem aktiven Mixed Content zu beseitigen:

Active mixed content poses a greater threat than passive mixed content. An attacker can intercept and rewrite active content, thereby taking full control of your page or even your entire website. This allows the attacker to change anything about the page, including displaying entirely different content, stealing user passwords or other login credentials, stealing user session cookies, or redirecting the user to a different site entirely.

Auf die Frage, ob sich Mixed Content auf Google-Rankings auswirkt, antwortet John Mueller auf Reddit:

Yeah, for the most part, it doesn’t change anything. That said, if your pages no longer render completely in a browser, we probably won’t be able to render those parts either. If your pages stop working in a browser, then you need to fix that.

HTTPS

Dass eine Website verschlüsselt über HTTPS geladen wird, ist ein positiver Ranking-Faktor für Google.

Zwar ist er kein besonders starker, er kann allerdings bei zwei ansonsten gleichwertigen Seiten das Zünglein an der Waage sein.

Dazu kommt:

  • Ein SSL-Zertifikat ermöglicht die Nutzung von HTTP/2, was die Ladegeschwindigkeit verbessert (welche wiederum ein Ranking-Faktor ist)
  • Unverschlüsselte Verbindungen werden in diversen Browsers in der Adresszeile als “nicht sicher” angezeigt. In Google Chrome schon seit Juli 2018.
  • Die Nutzung von HTTPS kann datenschutzrechtlich erforderlich sein (z. B. bei Zahlungsvorgängen oder bei Kontaktformularen)

Du solltest also unbedingt deine Website auf HTTPS umstellen, falls du das noch nicht getan hast.

Quellen und weiterführende Infos

In einem Blogpost auf dem Google Webmaster Central Blog von 2014 wurde HTTPS offiziell als Ranking-Faktor angekündigt:

We’ve seen positive results, so we’re starting to use HTTPS as a ranking signal. For now it’s only a very lightweight signal — affecting fewer than 1% of global queries, and carrying less weight than other signals such as high-quality content — while we give webmasters time to switch to HTTPS. But over time, we may decide to strengthen it, because we’d like to encourage all website owners to switch from HTTP to HTTPS to keep everyone safe on the web.

In einem Webmaster Hangout von 2019 bestätigt John Mueller HTTPS noch einmal als Ranking-Faktor. Allerdings als sehr unbedeutenden:

HTTPS is a ranking factor for us. But it’s really kind of a soft ranking factor. A really small ranking factor.

Laut einem Tweet von John Mueller in 2019 spielt es keine Rolle, ob es sich um ein kostenloses SSL-Zertifikat (z. B. von Let’s Encrypt) oder ein Premium-Zertifikat handelt:

It’s all the same for search, as long as it’s a valid certificate. Free certificates are just as good as paid ones.

Gary Illyes sagt in einem Tweet von 2019, dass selbst ein kaputtes SSL-Zertifikat den Ranking-Boost geben würde:

A broken cert will affect other things though. For reasons, i know for certain that the ranking signal itself would be unaffected: you have https in the result, you get the (tiebreaker) boost.

Dass HTTPS auch in 2021 für Google noch ein Ranking-Faktor sein wird, zeigt folgende Grafik zur Einführung der Core Web Vitals:

HTTPS ist ein Ranking-Faktor für die Page Experience

Breadcrumbs

Breadcrumbs sind hierarchisch angeordnete Links, die als Navigationshilfe dienen und in der Regel in der oberen Hälfte einer Website (zwischen Navigation und Hauptinhalt) angezeigt werden:

Breadcrumbs in einem Online-Shop

Sie können Google dabei helfen, den Inhalt einer Seite und die Beziehungen von Seiten innerhalb einer Website besser zu verstehen, und sind somit vielleicht ein direkter positiver Ranking-Faktor.

Auch können Breadcrumbs beim Crawling und indirekt beim Ranking helfen, weil sie für eine bessere interne Verlinkung sorgen.

Sie werden zudem im Snippet in der Google-Suche angezeigt, was die CTR verbessern kann:

Breadcrumbs eines Online-Shops im Snippet

Quellen und weiterführende Infos

In diesem Hilfedokument zu Breadcrumbs schreibt Google:

Die Google-Suche verwendet ein Markup für Navigationspfade im Textteil einer Webseite, um die Informationen dieser Seite in den Suchergebnissen zu kategorisieren.

Breadcrumbs werden in diesem Hilfedokument als Beispiel für strukturierte Daten genannt, von denen alle Websites profitieren können:

Bei der Google-Suche finden komplexe Operationen ausgeführt, um die Inhalte einer Seite zu erkennen. Du kannst uns helfen, indem du strukturierte Daten in eine Seite aufnimmst und Google so explizite Hinweise zur Bedeutung der Seite gibst. […] Im Folgenden sind einige der Funktionen strukturierter Daten aufgeführt, von denen alle Websites profitieren können: […] Navigationspfade: In den Navigationspfaden von Seiten wird die Position der jeweiligen Seite in der Hierarchie der Website angegeben.

Für Breadcrumbs (als strukturierte Daten) gibt es sogar einen eigenen Report in der Google Search Console, was deren Nutzen für die Suchmaschinenoptimierung unterstreicht:

Breadcrumbs in der Google Search Console

Hohe Ausfallzeiten

Dass eine Website mal für ein paar Minuten, eine Stunde oder selten auch einen ganzen Tag offline ist, ist normal und kommt selbst bei den besten Hostern und Webmastern vor.

Ungewöhnlich hohe Ausfallzeiten (auch Downtime genannt) können jedoch dafür sorgen, dass die Seiten einer Website deindexiert werden.

Was auch logisch ist, denn eine Seite, die dauerhaft oder immer wieder einen Serverfehler anzeigt, ist nicht gerade nutzerfreundlich.

Zudem sind hohe Ausfallzeiten vielleicht ein direkter Ranking-Faktor und könnten auch ein indirekter sein (eine Seite, die offline ist, sorgt für schlechte Nutzersignale, wie z. B. eine kurze Verweildauer und eine hohe Back-to-SERP-Rate, was sich wiederum negativ auf das Ranking auswirkt).

Quellen und weiterführende Infos

In einem Video von 2010 sagt Matt Cutts, dass ein kürzere Downtime keine Probleme machen sollte:

If your website is down for a relativly small amount of time – a day or two – then just bring it back up should mean that it pops right back in the search results or it won’t disappear at all.

Häufige Server-Ausfälle können laut Cutts jedoch zu einer Deindexierung der einzelnen Seiten einer Website führen. Zusätzlich kann es länger dauern, bis diese ihre Rankings zurückgewinnen, wenn die Website wieder online ist. Schließlich kann Google nicht wissen, ob eine Seite nur temporär oder dauerhaft down ist:

Step into our shoes and try to figure out what to do: It’s impossible to know when a given page disappears, whether it’s gone for god or it’s gone for 20 seconds…if we try to crawl it again and again and again an we finally find it the third time…then you probably wanna drop it and it’ll take a little bit of more time for it to rank.

Interessant ist in dem Zusammenhang auch die Aussage von John Mueller in einem Webmaster Hangout von 2015, dass eine Downtime von einem Tag dafür sorgen kann, dass die Rankings einer Website bis zu 3 Wochen fluktuieren können:

My guess is something like this where if you have to take the server down for a day, you might see maybe a week, two weeks’, at the most maybe three weeks’ time where things are kind of in flux and settling down again, but it shouldn’t take much longer than that.

Cloaking

Cloaking bezeichnet die Praxis, Suchmaschinen zu täuschen, indem Googlebot andere Inhalte oder URLs angezeigt werden als Nutzern.

Dies verstößt gegen Googles Richtlinien für Webmaster und ist sehr wahrscheinlich ein negativer Ranking-Faktor.

Quellen und weiterführende Infos

In Googles Qualitätsrichtlinien findet sich folgende Aussage zu Cloaking:

Mit Cloaking bezeichnet man ein Verfahren, bei dem für menschliche Nutzer andere Inhalte oder URLs als für Suchmaschinen bereitgestellt werden. Cloaking wird als Verstoß gegen die Google-Richtlinien für Webmaster betrachtet, da es den Nutzern andere Ergebnisse als erwartet liefert.

Als Begründung wird angeführt, dass Cloaking eine Strategie sein kann, um gehackte Seiten vor Website-Inhabern zu verbergen:

Auch bei Hacking-Angriffen verwenden Hacker häufig Cloaking, damit der Angriff für den Website-Inhaber schwieriger zu entdecken ist.

Cloaking von Bildern oder des gesamten Seiteninhalts können auch zu einer manuellen Maßnahme führen.

Google geht aber nur gegen Cloaking vor, wenn das aus manipulativer Absicht geschieht. Das Verstecken von Inhalten mittels CSS zur Verbesserung der Nutzererfahrung oder Barrierefreiheit, zählt laut John Mueller zum Beispiel nicht dazu:

Usually cloaking is more of an issue in search when it’s about pure spam (totally misleading content). Applying CSS visibility rules to existing, normal content on a page (eg for responsive design, accesibility, speed, etc) is fine.

Eine ähnliche Aussage findet sich auch in den Qualitätsrichtlinien:

Nicht alle verborgenen Texte gelten als Täuschungsversuche. Falls du auf deiner Website beispielsweise Technologien nutzt, auf die Suchmaschinen nur schwer zugreifen können, wie JavaScript, Bilder oder Flash-Dateien, kannst du mithilfe von beschreibendem Text für diese Elemente die Zugänglichkeit der Website verbessern.

In HTML5 formatiert

Die Nutzung von HTML5 könnte Suchmaschinen dabei helfen, eine Seite und ganze Websites besser zu verstehen, und ist somit vielleicht ein Ranking-Faktor.

Denn HTML5 enthält diverse Elemente zur semantischen Strukturierung einer Seite, wie z. B.:

  • <header> für die Kopfzeile
  • <nav> für das Navigationsmenü
  • <main> für den Hauptinhalt der Seite
  • <article> für einen Artikel (z. B. Blogartikel)
  • <aside> für Sidebars
  • <section> Zur Unterteilung der Sidebar oder des Artikels in einzelne Kapitel oder Abschnitte
  • <footer> für die Fußzeile

Quellen und weiterführende Infos

In 2014 antworte John Mueller auf die Frage, ob HTML5 einen positiven SEO-Effekt habe:

No. HTML5 can be really useful for making a modern website, but it’s not something that we use on its own as a ranking factor.

Googles Leitfaden für Webentwickler empfiehlt die Verwendung von semantischem HTML:

Der Googlebot indexiert zwar HTML, PDF-Inhalte, Bilder und Videos, aber keine Inhalte, für die Plug-ins erforderlich sind (wie Flash, Java oder Silverlight) oder die in einem Canvas-Element gerendert werden. Verwende deshalb für deine Inhalte anstelle eines Plug-ins nach Möglichkeit semantisches HTML-Markup.

Dieser Guide in Googles Web Fundamentals empfiehlt semantisches HTML zu Verbesserung der Barrierefreiheit:

You’ve learned about affordances, semantics, and how assistive technologies use the accessibility tree to create an alternative user experience for their users. You can see that writing expressive, semantic HTML gives you a lot of accessibility with very little effort, as many standard elements have both the semantics and supporting behavior built in.

Ungültiges HTML

Gültiges/valides HTML (gemäß den Empfehlungen des W3C) ist ein Qualitätskriterium für eine Webseite:

Es ist ein Hinweis darauf, dass diese Webseite in möglichst vielen Browsern fehlerfrei angezeigt wird.

Besteht eine Webseite den Test auf gültiges HTML nicht, ist das aber wahrscheinlich kein negativer Ranking-Faktor für Google (und selbst wenn, kein besonders ausschlaggebender).

Quellen und weiterführende Infos

In diesem Video von 2009 verneint Matt Cutts, dass valides HTML einen Ranking-Boost gibt, weil die meisten Webseiten kein valides HTML hätten:

But it’s important to realize that the vast majority of pages on the web don’t validate. And while it’s great to make valid code, and it can be easier to maintain if you know that all your nesting is in good shape and everything validates, we have to crawl and index and return results on the web even if pages don’t validate. And so we don’t give any sort of boost to pages if they validate. It may be a nice thing to do for your own internal purposes, but it doesn’t get any sort of Google boosting in your rank or anything like that.

In diesem Video von 2013 bestätigt Matt Cutts zudem, dass nicht valides HTML keine Abstrafung seitens Google auslöst:

Google does not penalize you if you have invalid HTML, because there would be a huge number of web pages like that.

In den Richtlinien für Webmaster findet sich jedoch seit Anfang 2016 folgender Satz (wobei der Teil “gültigen HTML-Code” einen Link zum W3C-Validator enthält):

Achten Sie darauf, dass alle Links auf Live-Webseiten verweisen. Verwenden Sie gültigen HTML-Code.

In einem Tweet von 2016 gibt John Mueller zudem an, dass nicht gültiges HTML mehr Probleme macht als noch vor einigen Jahren:

Invalid HTML causes more problems now than years ago: structured data & mobile come to mind.

In einem Google-Hangout führt John Müller weiter aus:

It is not directly a ranking factor. It is not the sense that if your site is not using valid HTML we will remove it from the index. Because I think we will have a pretty empty search results.But there are a few aspects there that do come into play. On the one hand, a site with really broken HTML, something that we see really rarely, then it is really hard for us to crawl it and index the content because we can’t pick it up.The other two aspects which are kind more in regards to structured data. Sometimes it is really hard to pick up the structured data when the HTML is broken completely. So you can’t easily use a validator for the structured data.The other thing is in regards to mobile devices and cross browser support is if you have broken HTML then that sometimes really hard to render on newer devices.

Doppelte Meta-Beschreibungen

Doppelte Meta-Beschreibungen sind wahrscheinlich kein negativer Ranking-Faktor für Google, da Meta-Beschreibungen generell nicht für’s Ranking herangezogen werden.

Jedoch können doppelte Beschreibungen die Wahrscheinlichkeit verringern, dass diese als Snippets in den Suchergebnissen angezeigt werden.

Quellen und weiterführende Infos

Google empfiehlt in der Search Console-Hilfe einzigartige Beschreibungen für jede Seite:

Verwenden Sie für jede Seite eine andere Beschreibung. Identische oder ähnliche Beschreibungen für jede Seite sind nicht sehr nützlich, wenn einzelne Seiten in den Suchergebnissen angezeigt werden. In diesen Fällen ist es weniger wahrscheinlich, dass wir den Standardtext darstellen.

Matt Cutts sagt in einem Video von 2013 sogar, dass es besser ist keine Meta-Beschreibung anzugeben, als eine doppelte:

The way I think of it is, you can either have a unique metatag description or you can choose to have no metatag description. But I wouldn’t have duplicate metatag description.

Gesamtanzahl an Seiten

Die Gesamtanzahl an Seiten, aus der eine Website besteht, kann das Crawling beeinflussen.

Sie ist aber sehr wahrscheinlich kein direkter Ranking-Faktor, denn die Größe einer Website sagt schließlich nichts über dessen Qualität aus.

Quellen und weiterführende Infos

Matt Cutts Antwort in einem Video von 2013 zur Frage, ob eine Website mit vielen indexierten Seiten besser rankt:

I wouldn’t assume that just because you have a large number of indexed pages that you automatically get a high ranking.

Allerdings kann es sein, dass eine Website mit vielen Seiten, die einen geringen PageRank haben, nicht so oft gecrawlt wird, wie Matt Cutts in einem Interview von 2010 verriet:

There is also not a hard limit on our crawl. The best way to think about it is that the number of pages that we crawl is roughly proportional to your PageRank. So if you have a lot of incoming links on your root page, we’ll definitely crawl that. Then your root page may link to other pages, and those will get PageRank and we’ll crawl those as well. As you get deeper and deeper in your site, however, PageRank tends to decline.Another way to think about it is that the low PageRank pages on your site are competing against a much larger pool of pages with the same or higher PageRank. There are a large number of pages on the web that have very little or close to zero PageRank. The pages that get linked to a lot tend to get discovered and crawled quite quickly. The lower PageRank pages are likely to be crawled not quite as often.

Eine Indexierungsobergrenze gibt es laut Cutts jedoch nicht:

The first thing is that there isn’t really such thing as an indexation cap. A lot of people were thinking that a domain would only get a certain number of pages indexed, and that’s not really the way that it works.

Viele Seiten geringer Qualität

Wenn eine Website eine höhere Anzahl an Seiten geringer Qualität aufweist, wirkt sich das sehr wahrscheinlich negativ auf das Google-Ranking der gesamten Website aus.

Zudem kann es sein, dass Seiten mit geringer Qualität nicht indexiert werden und sich negativ auf das Crawl-Budget der gesamten Website auswirken (fast leere oder komplett leere Seiten werden mitunter von Google als Soft 404-Fehler interpretiert).

Quellen und weiterführende Infos

Im Februar 2011 veröffentlichte Google das berüchtigte Panda-Update. Ziel davon war es, Websites mit minderwertigen Inhalten (in SEO-Sprech auch “Thin Content” genannt) zu identifizieren und entsprechend im Ranking abzustufen:

This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful.

In einem Blogpost von Mai 2011 erklärt Google noch einmal genauer, welche Maßnahmen Webmaster gegen das Panda-Update treffen können. Google betont dabei, dass die gesamte Website abgestraft werden kann, auch wenn nur ein Teil der Website von niedriger Qualität ist:

One other specific piece of guidance we’ve offered is that low-quality content on some parts of a website can impact the whole site’s rankings, and thus removing low quality pages, merging or improving the content of individual shallow pages into more useful pages, or moving low quality pages to a different domain could eventually help the rankings of your higher-quality content.

Websites mit vielen Seiten, die nur einen geringen oder gar keinem Mehrwert bieten, können auch manuell von Google abgestraft werden (in Googles Liste der manuellen Maßnahmen aufgeführt unter “Minderwertige Inhalte mit geringem oder gar keinem Mehrwert”).

Leere oder Seiten mit nur wenig Inhalten können auch von Google als Soft 404-Fehler interpretiert werden (und werden deshalb aus dem Index entfernt oder gar nicht erst hinzugefügt):

Ein Soft 404-Fehler ist eine URL, die eine Seite mit dem Hinweis zurückgibt, dass die Seite nicht existiert. Zusätzlich wird ein 200er Code (Erfolg) gesendet. In einigen Fällen wird eine Seite angezeigt, die wenig oder keinen Inhalt aufweist, etwa eine fast leere oder komplett leere Seite.

Laut einem Blogpost in der Google Search Central von 2017, sind Soft 404-Fehler einer von 6 möglichen Faktoren(-gruppen), die sich negativ auf das Crawl-Budget auswirken:

According to our analysis, having many low-value-add URLs can negatively affect a site’s crawling and indexing. We found that the low-value-add URLs fall into these categories, in order of significance:Faceted navigation and session identifiers
On-site duplicate content
Soft error pages
Hacked pages
Infinite spaces and proxies
Low quality and spam contentWasting server resources on pages like these will drain crawl activity from pages that do actually have value, which may cause a significant delay in discovering great content on a site.

Cloaking von Affiliate-Links

Beim Cloaking von Affiliate-Links werden lang und kyptisch aussehende Affiliate-Links durch kürzere interne Links “verschönert”.

Aus diesem Affiliate-Link:

https://1.envato.market/c/1289112/275988/4415?u=https%3A%2F%2Fthemeforest.net%2Fitem%2Favada-responsive-multipurpose-theme%2F2833226

Wird so dieser deutliche kürzere “gecloakte” Link, der per 302- oder 307-Weiterleitung dann an den eigentlichen Affiliate-Link weiterleitet:

https://gradually.ai/empfiehlt/avada/

Dass sich das Cloaking von Affiliate-Links negativ auf das Ranking auswirkt, ist eher unwahrscheinlich.

Quellen und weiterführende Infos

Die Frage, ob die Umleitung von Affiliate-Links mit einem 302-Redirect das Ranking negativ beeinflussen würde, beantwortet John Mueller in einem Webmaster-Hangout von Juli 2019 wie folgt:

From our point of view that’s perfectly fine, there’s nothing that we would consider bad there.

John Mueller empfiehlt jedoch in einem Tweet, Affiliate-Links mit dem Attribut rel="sponsored" zu kennzeichnen:

Yep. And definitely use rel=sponsored for affiliate links, if you can. And to be more complete: affiliate links are not bad. It’s fine to monetize your site. Google’s OK with that. There’s no need to hide them, just use the right kind of link if you can.

Zu viele ausgehende Footer-Links

Footer-Links wurden lange Jahre von SEOs dazu missbraucht, um Google-Rankings zu manipulieren.

Zum Beispiel über Linktausch, -kauf und -miete oder in kostenlosen Website-Templates.

Deshalb sieht Google ausgehende Footer-Links kritisch:

Zu viele solcher Links führen vielleicht dazu, dass eine Website schlechter im Ranking abschneidet oder können ggf. auch eine manuelle Maßnahme auslösen. Im besten Fall haben ausgehende Footer-Links nicht die gleiche Gewichtung wie Links aus dem Fließtext.

Quellen und weiterführende Infos

Auf der Seite zu Linktauschprogrammen in Googles Qualitätsrichtlinien, werden Footer-Links als Beispiel für unnatürliche Links aufgeführt:

Weit verbreitete Links in den Fußzeilen oder Vorlagen verschiedener Websites

Matt Cutts äußerte sich in 2008 zu dieser Problematik:

We do reserve the right to treat links in footers a little bit differently. For example, if something’s in a footer, it might not carry the same editorial weight, because someone might have set up a single link and it might be something that’s across the entire site. So we do reserve the right to treat those links differently in terms of how much we trust them.

John Mueller wurde in einem Webmaster-Hangout von August 2020 die Frage gestellt, ob es okay sei, alle Websites eines News-Publishers untereinander im Footer zu verlinken. Er antwortete darauf, dass es auf die Anzahl ankomme. Bei einer Handvoll an Websites sei das okay (auch ohne nofollow):

It kind of depends on how much we’re talking about here. If this is like a handful of different web sites that you’re running at the same time, then that’s I think, totally non-issue in any way.

Bei hunderten Links könne das allerdings das Webspam-Team auf den Plan rufen:

On the other hand, if you’re talking about hundreds of websites and you’re all cross-linking these in the footer across all of your websites, then that’s something that starts to look a lot more tricky, I guess. And that might be something where the web spam team might want to take a more detailed look at what is actually happening here.

PageRank einer Seite

Der PageRank wurde von Google-Gründer Larry Page entwickelt und im Jahre 1997 patentiert.

Es handelt sich dabei um eine Kennzahl, um die Wichtigkeit einer Seite im Internet zu bestimmen. Der PageRank einer Seite ergibt sich aus der Anzahl der verlinkenden Seiten (und deren Anzahl an verlinkenden Seiten).

Vielleicht erinnerst du dich noch an die Google Toolbar, die es für Firefox und den Internet-Explorer gab:

Google Toolbar

Dort wurde ein Button mit einem grünen Balken für jede Website angezeigt:

Erklärung des PageRank-Buttons in der Dokumentation zur Google Toolbar

Mit der Zeit hat Google jedoch aufgehört, den PageRank in der Toolbar anzuzeigen und zu aktualisieren. Die letzte dokumentierte Aktualisierung des öffentlich angezeigten PageRanks war im Dezember 2013.

Obwohl der PageRank nicht mehr öffentlich einsehbar ist, ist es sehr wahrscheinlich, dass Google den PageRank (oder eher eine Weiterentwicklung davon, z. B. ergänzt um den TrustRank) weiterhin für das Ranking nutzt.

Dabei gilt: Je höher der PageRank einer Seite, desto positiver der Einfluss auf das Google-Ranking.

Quellen und weiterführende Infos

In 2017 sagt Gary Illyes in einem Tweet, dass der PageRank nach wie vor in der Google-Suche verwendet wird und verweist dabei auf das ursprüngliche Forschungspapier:

DYK that after 18 years we’re still using PageRank (and 100s of other signals) in ranking? Wanna know how it works? http://infolab.stanford.edu/~backrub/google.html

In Webmaster Guidelines wird zwar nicht direkt der PageRank erwähnt, aber eine Beschreibung von dessen Funktionsweise:

Ein Link von Seite A zu Seite B wird von Google als ein Votum von Seite A für Seite B angesehen. Voten von Seiten, die selbst “wichtig” sind, haben mehr Gewicht und tragen dazu bei, andere Webseiten “wichtig” zu machen.

Googles How Search Works referenziert den PageRank direkt:

Es gibt leider viele Spamwebsites im Web, die versuchen, sich mithilfe von Techniken wie der Wiederholung von Keywords oder dem Kauf von Links, die PageRanks weitergeben, den Weg an die Spitze der Suchergebnisse zu erschleichen

Der Webspam-Report 2019 auf dem Google Webmaster Blog bestätigt den PageRank sogar direkt als Ranking-Faktor:

As many of you know, relevant, quality inbound links can affect your PageRank (one of many factors in our ranking algorithm).

Das 2019 veröffentlichte Whitepaper How Google Fights Desinformation bestätigt den PageRank als einen der Faktoren, die für E-A-T wichtig sind:

Google’s algorithms identify signals about pages that correlate with trustworthiness and authoritativeness. The best known of these signals is PageRank, which uses links on the web to understand authoritativeness.

Wie Matt Cutts in einem Interview von 2010 verriet, kann der PageRank sich auch auf das Crawling auswirken:

There is also not a hard limit on our crawl. The best way to think about it is that the number of pages that we crawl is roughly proportional to your PageRank. So if you have a lot of incoming links on your root page, we’ll definitely crawl that. Then your root page may link to other pages, and those will get PageRank and we’ll crawl those as well. As you get deeper and deeper in your site, however, PageRank tends to decline. Another way to think about it is that the low PageRank pages on your site are competing against a much larger pool of pages with the same or higher PageRank. There are a large number of pages on the web that have very little or close to zero PageRank. The pages that get linked to a lot tend to get discovered and crawled quite quickly. The lower PageRank pages are likely to be crawled not quite as often.

Eine Hinweis darauf findet sich im Hilfedokument zum Bericht “Crawling-Statistiken”:

Wenn sich auf einer Seite Informationen befinden, die selten aktualisiert werden oder keine hohe Qualität haben, wird sie auch weniger oft gecrawlt.

Backlinks mit nofollow-, UGC- oder sponsored-Attribut

In der Vergangenheit wurden Links mit dem Attribut rel="nofollow" kategorisch von Google ausgeschlossen und nicht zum Ranking verwendet.

Im September 2019 hat Google die Karten jedoch neu gemischt:

Zusammen mit den zusätzlichen Link-Attributen rel="sponsored" (für Werbe-Links) oder rel="ugc" (für nutzergenerierten Content) hat Google angekündigt, Backlinks mit den Attributen rel="nofollow" (und den beiden neuen Link-Attributen) ab März 2020 lediglich als Hinweis zu betrachten, also sich vorzubehalten, solche Links in manchen Fällen zu zählen.

Kurzum:

Es kann sich nun (manchmal) positiv auf das Ranking auswirken, Backlinks mit nofollow-, UGC- oder sponsored-Attribut zu bekommen.

Quellen und weiterführende Infos

In der Ankündigung im Googles Webmaster Blog von September 2019 steht:

When nofollow was introduced, Google would not count any link marked this way as a signal to use within oursearch algorithms. This has now changed. All the link attributes sponsored, UGC and nofollow are treated as hints about which links to consider or exclude within Search. We’ll use these hints, along with other signals, as a way to better understand how to appropriately analyze and use links within our systems. […] For crawling and indexing purposes, nofollow will become a hint as of March 1, 2020.

Im FAQ-Bereich der Ankündigung betont Google jedoch, dass sich durch die Neubehandlung von nofollow-Links in den meisten Fällen nichts ändert:

In most cases, the move to a hint model won’t change the nature of how we treat such links. We’ll generally treat them as we did with nofollow before and not consider them for ranking purposes.

Autoren-Rang

Es ist Google ein sehr wichtiges Anliegen, Seiten in den Suchergebnissen anzuzeigen, die von Experten geschrieben wurden.

Das zeigt sich z. B. in Googles Search Quality Evaluator Guidelines. Googles Konzept von E-A-T (Expertise, Authoritativeness, Trustworthiness) umfasst nicht nur die Website und den Content, sondern auch den Autoren oder Verfasser des Contents:

Hinweise auf E-A-T von Autoren

In Kombination mit anderen Hinweisen, wie z. B. dem mittlerweile eingestellen Google Authorship, lässt dies die Vermutung zu, dass Google soetwas wie einen Autoren-Rang (auch Author Rank oder auch Author E-A-T genannt) mit in den Google-Algorithmus einfließen lässt.

Quellen und weiterführende Infos

Erste Hinweise auf einen Autoren-Rang finden sich im 2007 veröffentlichten Patent US20070033168A1, in dem es um den sogenannten Agent Rank geht. Dort wird unter anderem vorgeschlagen, den Agents (also Autoren) Punktzahlen je nach Branche, einzelnen Suchbegriffen oder Suchbegriff-Kategorien zuzuteilen:

Particular embodiments implement techniques for computing agent ranks on the basis of a corpus of content signed by those agents, where the corpus optionally contains explicit links among documents and signed content. The agent ranks can optionally also be calculated relative to search terms or categories of search terms. For example, search terms (or structured collections of search terms, i.e., queries) can be classified into topics, e.g., sports or medical specialties, and an agent can have a different rank with respect to each topic.

Einer der prominentesten Hinweise auf die Existenz eines Autoren-Rangs war das sogenannte Google Authorship, im Zuge dessen Autoren mit Namen und Bild in den Google-Suchergebnissen angezeigt wurden:

Beispiel für Authorship-Markup

Dafür waren ein Profil bei Google+ und das Authorship-Markup nötig. Google Authorship wurde jedoch in 2014 eingestellt.

Auch eine Aussage von Googles ehemaligen CEO Eric Schmidt in 2013, dass in den Suchergebnissen Inhalte von “verifizierten Online-Profilen” besser ranken als solche ohne Verifikation, weist auf die Existenz eines Autoren-Ranges hin:

Within search results, information tied to verified online profiles will be ranked higher than content without such verification, which will result in most users naturally clicking on the top (verified) results.

Das Patent US9183251B1 liefert ebenfalls Hinweise auf einen Autoren-Rang. Dort wird ein Konzept vorgestellt, in dem neben den Suchergebnissen relevante Experten (im Patent authoritative users genannt) angezeigt werden. Diese Profile können z. B. auf die Social-Media-Profile der Experten verweisen (oder aus diesen generiert werden):

If the search query matches a trigger query, a set of authoritative users and data associated with the authoritative users can be provided for display to the searching user that submitted the search query. In some examples, an authoritative user is a user of one or more computer-implemented services (e.g., a social networking service) that has been determined to be authoritative (e.g., an expert) on one or more topics that can be associated with one or more queries.

Googles Qualitäts-Checkliste im Blogartikel zu Core Updates enthält folgende Frage:

Is this content written by an expert or enthusiast who demonstrably knows the topic well?

In den Search Quality Evaluator Guidelines finden sich zahlreiche Hinweise darauf, dass E-A-T für Autoren wichtig ist, wie z. B. diese Begründung dafür, dass ein Blogpost als High Quality Page eingestuft wurde:

This is a blog post on a newspaper that has won a variety of awards, such as the Pulitzer Prize, George Polk Award, Peabody Award, etc. The author of this blog post has become known as an expert on parenting issues. She is a regular contributor to this and other media websites.

Branded Searches

Bei Branded Searches handelt es sich um Keywords, die einen Marken-, Domain- oder Website-Namen enthalten. Bei mir z. B.:

blogmojo
blogmojo seo
blogmojo dsgvo
blogmojo blog erstellen

Wenn ein Marken-, Domain- oder Website-Name häufig gesucht wird, wirkt sich dies vielleicht positiv auf die dazugehörige Website aus (als Vertrauenssignal für Google).

Wenn eine einzelne Seite häufig gesucht wird, könnte sich das auch positiv auf das allgemeine Ranking dieser Seite auswirken.

Quellen und weiterführende Infos

Im Google Patent US9031929B1, in dem es um die Berechnung eines “Quality Scores” für eine Website geht, heißt es:

The score is determined from quantities indicating user actions of seeking out and preferring particular sites and the resources found in particular sites. A site quality score for a particular site can be determined by computing a ratio of a numerator that represents user interest in the site as reflected in user queries directed to the site and a denominator that represents user interest in the resources found in the site as responses to queries of all kinds.

Markenerwähnungen ohne Links

Nicht nur Backlinks, sondern auch einfache Erwähnungen des Marken-, Website- oder Domain-Namens ohne Verlinkung zur dazugehörigen Website können ein Signal für die Bekanntheit oder Vertrauenswürdigkeit einer Website sein.

Dementsprechend könnten diese Erwähnungen auch für das Google-Ranking genutzt werden (z. B. dadurch, dass sie als Backlinks gezählt werden).

Quellen und weiterführende Infos

Dass solche Brand Mentions (auch linkless mentions, implied links oder citations genannt) ein Ranking-Faktor sind, hat Google-Mitarbeiter Gary Illyes auf der Brighton SEO im Herbst 2017 angedeutet:

Basically, if you publish high quality content that is highly cited on the internet – and I’m not talking about just links, but also mentions on social networks and people talking about your branding […] Then you are doing great..

In Google-Patent US8682892B1 werden implizite Links (engl. implied links) als zusätzliche Möglichkeit zu normalen Links (im Dokument explicit links genannt) aufgezählt, um Suchergebnisse zu ranken:

An implied link is a reference to a target resource, e.g., a citation to the target resource, which is included in a source resource but is not an express link to the target resource. Thus, a resource in the group can be the target of an implied link without a user being able to navigate to the resource by following the implied link.

In einem Webmaster Hangout von 2015 äußerte sich John Mueller zu diesem Punkt allerdings zweideutig. Zunächst gab er an:

We don’t pass any kind of a page rank just because someone mentions your brand. If you have a URL of course, that is something people can link to if they want to do that. But if someone is just mentioning your brand, that is not something we’d pick up as a link.

Später antwortete er jedoch auf eine Frage, ob Brand Mentions theoretisch erkannt werden könnten, folgendermaßen:

I could imagine that maybe there’s some algorithms that do something exotic like that but I don’t think that’s anything where you’d see any kind of visible change in the search results from that. It might help us to understand things a little bit more, but you are talking about the tiny little thing where we can’t really say this is like a primary ranking factor.

Social Signals

Google nutzt vielleicht Social Signals, um die Vertrauenswürdigkeit einer Seite oder Website einzuschätzen.

Zu den Social Signals zählen zum Beispiel:

  • Anzahl Tweets für eine bestimmte Seite
  • Anzahl an Facebook-Likes und Shares für eine bestimmte Seite
  • Anzahl an Fans auf der Facebook-Seite
  • Anzahl an Twitter-Followern
  • Anzahl an Instagram-Followern

Dagegen spricht allerdings, dass Social Signals leicht manipulierbar sind (Likes und Follower kann man für verschiedene soziale Netzwerke kaufen) und dass es sich um Kennzahlen handelt, die nicht von Google selbst stammen, die sich schnell ändern können und auf die Google (zum Teil) keinen Zugriff hat.

Sicher ist, dass Social Signals ein indirekter Ranking-Faktor sein können. Dass ein Blogartikel häufiger auf Social Media geteilt wird, kann z. B. dazu führen, dass er auch häufiger verlinkt wird.

Quellen und weiterführende Infos

Auf die Frage von SearchEngine Land in 2010, ob nützlich für das Ranking eines Artikels sei, viele Retweets und Erwähnungen bei Twitter zu haben, antwortete Google:
Yes, we do use it as a signal. It is used as a signal in our organic and news rankings. We also use it to enhance our news universal by marking how many people shared an article.

Spätere Behauptungen von Google-Vetretern verneinen die Nutzung von Social Signals als Ranking-Faktor jedoch:

In einem Video von 2014 sagt Matt Cutts, dass seines Wissens Follower- oder Like-Zahlen von Facebook oder Twitter nicht im Google-Algorithmus verwendet werden:

But as far as doing special, specific work to sort of say, oh, you have this many followers on Twitter or this many likes on Facebook, to the best of my knowledge, we don’t currently have any signals like that in our web search ranking algorithms.

Als Gründe nennt er in dem Video, dass es gar nicht so leicht für Google ist, an Like- oder Tweet-Daten zu kommen und Googles Crawler sogar schon einmal von einem sozialen Netzwerk blockiert wurde:

We have to crawl the web in order to find pages on those two web properties. And we’ve had at least one experience where we were blocked from crawling for about a month and a half.

In einem Webmaster-Hangout von 2015 verneint auch John Mueller, dass Social Signals für das Ranking eine Rolle spielen:

So it is not that there is any kind of ranking affect there. To a large part, social networks also have a nofollow on the links that they kind of provide when they post. So it is not the case that that would give you any kind of ranking boost there.

Ranking-Faktoren-Studien von Searchmetrics in 2013, in 2014, in 2015 und in 2016 zeigten mitunter hohe Korrelationen zwischen Ranking und der Anzahl an Tweets, Facebook Likes oder Google+ Shares einer Seite (zum Teil höhere Korrelationen als untersuchte Backlink-Faktoren):

Social Signals in einer Studie von Searchmetrics Korrelation ist aber nunmal nicht Kausalität…

Traffic einer Website oder Seite

Eine Website oder Seite, die viele Besucher (außerhalb der Google-Suche, z. B. direkter Traffic durch Eingabe der Website in die Addressleiste im Browser) bekommt, ist möglicherweise vertrauenswürdiger oder für Nutzer hilfreicher als eine Website, die nur wenige Besucher bekommt.

Dementsprechend könnte dies ein Ranking-Signal für Google sein.

Quellen und weiterführende Infos

Google dürfte durchaus dazu in der Lage sein, den direkten Traffic zu einer Website zu messen oder zumindest zu schätzen. Zum Beispiel über die Web- und App-Aktivitäten eines Google-Accounts, über Google Chrome oder über die Google Toolbar (in älteren Browsern).

In den Datenschutzhinweisen zu Google Chrome steht folgendes:

Wenn Sie sich mit Ihrem Google-Konto in Ihrem Chrome-Browser oder auf einem Chromebook anmelden und die Synchronisierung aktivieren, werden Ihre personenbezogenen Daten in Ihrem Google-Konto auf den Servern von Google gespeichert. […] Die personenbezogenen Daten […] können Folgendes beinhalten: Browserverlauf, Lesezeichen, Tabs, Passwörter und AutoFill-Informationen, Sonstige Browsereinstellungen, wie z. B. installierte Erweiterungen

Und der Browserverlauf und alle weitere Daten werden dafür genutzt, um die Nutzung von Chrome (also auch die Google-Suche?) zu verbessern und zu personalisieren:

Wenn Sie die Synchronisierung mit Ihrem Google-Konto aktivieren, verwenden wir Ihre Browserdaten, um Ihre Nutzung von Chrome zu verbessern und zu personalisieren.

Auf Google Public Policy Blog heißt es in einem älteren Beitrag zur Google-Toolbar zum Beispiel:

To put it simply, we aggregate the URLs visited by our users who opt-in to enhanced features and analyze the resulting data to help us improve our products.

In Googles Patent US8316029B2 geht es um die Bewertung einer Webseite anhand ihres Traffics (obwohl das Patent auch auf Suchmaschinen-Ranking eingeht, geht es darin jedoch hauptsächlich um ein Ranking zur Ausspielung von Anzeigen):

According to an implementation consistent with the principles of the invention, information relating to traffic associated with a document over time may be used to generate (or alter) a score associated with the document. For example, search engine 125 may monitor the time-varying characteristics of traffic to, or other “use” of, a document by one or more users. A large reduction in traffic may indicate that a document may be stale (e.g., no longer be updated or may be superseded by another document).

Laut der SEMRush-Studie Ranking Factors 2.0 im Juni 2017 ist direkter Website-Traffic der wichtigste Ranking-Faktor:

Direkter Traffic in der Ranking Factor Study 2.0 von SEMRush

In einem Tweet von 2019 bestreitet Google jedoch einen Zusammenhang zwischen Website-Traffic und Ranking:

No, traffic to a website isn’t a ranking factor. If you’re starting to get relevant traffic & users love your site, that’s a good start though!

QP Wiederkehrende Besucher

Eine hohe Anzahl an wiederkehrenden Besuchern kann für die Qualität einer Seite oder Website sprechen. Dementsprechend könnte diese auch ein positiver Ranking-Faktor für Google sein.

Wenn ein Nutzer immer wieder zur einer Seite oder Website zurückkehrt, könnte

Da der Google-Suchverlauf und der Browser-Verlauf von Chrome in den Web- & App-Aktivitäten von Google-Accounts gespeichert wird, könnte Google die Anzahl wiederkehrender Besucher theoretisch auch messen oder zumindest schätzen.

Quellen und weiterführende Infos

Ich habe keine Studien, Patente oder eine direkte Bestätigung seitens Google zu diesem Ranking-Faktor gefunden.

John Mueller gibt lediglich in einem Tweet den Rat, hochwertigen Content zu kreieren, der Besucher zum Wiederkehren animiert, was man vielleicht als indirekte Bestätigung zählen könnte:

A good rule of thumb is what content would you create that would encourage people to come back, even without a search engine?

Als Lesezeichen in Google Chrome gespeichert

Google nutzt seinen hauseigenen Browser Chrome vielleicht dazu, um Nutzerdaten zu sammeln und diese zur Verbesserung der persönlichen oder allgemeinen Google-Suchergebnisse zu verwenden.

Dabei könnten Lesezeichen eine Rolle spielen:

Je öfter eine Seite als Lesezeichen gespeichert wird, desto vertrauenswürdiger könnte sie in Googles Augen sein.

Quellen und weiterführende Infos

Matt Cutts hat in 2013 auf der SES San Franciso in einem privaten Gespräch gesagt, dass Daten aus Chrome generell nicht als Ranking-Signale für den Google-Algorithmus herangezogen werden.

Allerdings gibt es von Google ein Patent mit dem Namen Document scoring based on traffic associated with a document, das dafür spricht oder zumindest Googles Interesse an einer Nutzung zeigt:

Search engine may then analyze over time a number of bookmarks/favorites to which a document is associated to determine the importance of the document.

Lesezeichen werden bei angeschalteter Synchronisierung zudem in Google-Konten gespeichert, wie man den Datenschutzhinweisen zu Google Chrome entnehmen kann:

Wenn Sie sich mit Ihrem Google-Konto in Ihrem Chrome-Browser oder auf einem Chromebook anmelden und die Synchronisierung aktivieren, werden Ihre personenbezogenen Daten in Ihrem Google-Konto auf den Servern von Google gespeichert. […] Die personenbezogenen Daten […] können Folgendes beinhalten: Browserverlauf, Lesezeichen, Tabs, Passwörter und AutoFill-Informationen, Sonstige Browsereinstellungen, wie z. B. installierte Erweiterungen.

Und diese Daten können wiederum dafür genutzt werden, um die Nutzung von Chrome (also auch die Google-Suche?) zu verbessern und zu personalisieren:

Wenn Sie die Synchronisierung mit Ihrem Google-Konto aktivieren, verwenden wir Ihre Browserdaten, um Ihre Nutzung von Chrome zu verbessern und zu personalisieren.

In 2018 hat John Mueller gegenüber Moz weiterhin bestätigt, dass Google Daten aus Chrome nutzt, um die Ladezeit von Webseiten zu messen. Und wenn die Ladezeit in Chrome gemessen wird, könnten auch Nutzersignale gemessen werden.

Nutzerbewertungen auf der Seite

Selbst gehostete Nutzerbewertungen auf einer Seite, z. B. in Form von Produktrezensionen oder Zufriedenheitsumfragen a lá “Fandest du diese Informationen hilfreich?” sind wahrscheinlich kein Ranking-Faktor für Google.

Als Ranking-Faktor würden solche Bewertungen auch wenig Sinn ergeben, denn:

  1. Sie können vom Website-Betreiber manipuliert werden
  2. Es schwierig für Google zu erkennen, was genau bewertet wird (z. B. die Qualität des Produkts, die Qualität der Inhalte, das Thema der Seite etc.)

Nutzerbewertungen mit strukturierten Daten können jedoch dafür sorgen, dass ein Rich Snippet mit Sterne-Bewertungen in der Google-Suche angezeigt wird. Und das kann wiederum die CTR erhöhen:

Rich Snippets eines Rezepts dank WP Recipe Maker

Quellen und weiterführende Infos

John Mueller sagt in einem Webmaster Hangout von Juni 2018 dazu:

[…] we don’t use the content that we see in surveys as as a ranking factor. So if you have a survey on your site and currently it says you have like two stars, we’re not going to rank your site lower because you have like something that says two stars on there. Because we also don’t know what these two stars mean. It might be that one star is like the best and fewer star and more stars is something different. It’s like it’s really hard to tell. We don’t know offhand there.

Sentiment der Kommentare auf der Seite

Das Sentiment, also die emotionale Färbung, von Kommentaren auf einer Seite kann auf die Qualität der Seite hinweisen.

Wenn sich z. B. viele Leser sich für einen Artikel bedanken und begeistert darüber sind, spricht das eher dafür, dass dieser eine hohe inhaltliche Qualität hat.

Dass das Sentiment von Kommentaren ein Ranking-Faktor für Google ist, halte ich allerdings für eher unwahrscheinlich. Denn Kommentare können sehr leicht von Website-Betreibern selbst erstellt oder verändert werden.

Quellen und weiterführende Infos

Google verfügt über die notwendige Technologie, um sogenannte Sentiment-Analysen von Textblöcken (also möglicherweise auch von Kommentaren) durchzuführen.

Im Rahmen der Produkte AutoML Natural Language und Natural Language API bietet Google dies sogar für Kunden an:

Googles Natural-Language-Produkte implizieren Sentiment-Analyse

2018 sagte Danny Sullivan auf Twitter, dass Sentiment-Analyse nicht für die Google-Suche verwendet wird (also wahrscheinlich auch nicht für Kommentare).

Gary Illyes hat auf Twitter folgendes auf die Frage geantwortet, ob Kommentare Ranking-Vorteile bieten:

In general if we see that there’s a healthy, thriving community on a site, that can help a lot […] it feeds into general quality. Say, there’s good content, 5 points, great links from great pages, 2 points, thriving community, 1pt […] that wasn’t a stack rank. The points I gave are random.

Anzahl der Kommentare auf der Seite

Dass viele Kommentare auf einer Seite dafür sorgen, dass diese besser rankt, halte ich für möglich, aber eher unwahrscheinlich.

Dafür spricht, dass Kommentare ein Hinweis auf die Qualität einer Seite oder die Community der Website sein können.

Wie ich schon öfter beobachtet habe, können neue Kommentare zudem das in den Suchergebnissen angezeigte Datum verändern (nach einem neuen Kommentar wird manchmal für einige Tage das Datum des Kommentars angezeigt), was dafür spricht, dass Google Kommentare zumindest registriert.

Dagegen spricht allerdings, dass Kommentare sehr leicht von Website-Betreibern selbst erstellt oder verändert werden können.

Quellen und weiterführende Infos

Gary Illyes hat auf Twitter folgendes auf die Frage geantwortet, ob Kommentare Ranking-Vorteile bieten:

In general if we see that there’s a healthy, thriving community on a site, that can help a lot […] it feeds into general quality. Say, there’s good content, 5 points, great links from great pages, 2 points, thriving community, 1pt […] that wasn’t a stack rank. The points I gave are random.

Back-to-SERP-Rate

Die Back-to-SERP-Rate ist vielleicht ein Ranking-Faktor für Google.

Sie bezeichnet den Anteil an Nutzern, die nach dem Klicken auf eine Seite in den Suchergebnissen wieder zurück zur Google-Suche springen (und dort auf ein anderes Suchergebnis klicken oder einen anderes Keyword eingeben).

Wenn ein hoher Anteil an Nutzern weitersucht, ist das ein Hinweis darauf, dass die Seite die Ziele und die Erwartungen der Nutzer für ein bestimmtes Keyword nicht ausreichend erfüllt. Dementsprechend könnte sich das negativ auf das Ranking der Seite für dieses Keyword auswirken.

Wenn hingegen die meisten Nutzer auf der Seite verweilen und nicht zurück zur Google-Suche springen, könnte sich das positiv auf das Ranking auswirken.

Quellen und weiterführende Infos

In der Google-Suche wird seit einiger Zeit ein kleiner Kasten mit der Überschrift Andere suchten auch nach unter einzelnen Suchergebnissen angezeigt:

Andere suchten auch nach

Der Kasten erscheint nur dann, wenn man auf eine Seite in den Suchergebnissen klickt und danach per Zurück-Taste im Browser zurück zur Suchergebnis-Seite (auch SERP, kurz für search engine results page, genannt) springt.

Das ist natürlich kein Beweis dafür, dass die Back-to-SERP-Rate (auch Return-to-SERP-Rate genannt) ein Ranking-Faktor ist, zeigt aber, dass Google das Zurückspringen eines Nutzers registriert und auch die danach eingegebenen Suchanfragen aufzeichnet.

Ein Feature von Google, das 2011 eingeführt wurde und für einige Jahre genutzt wurde, ist ebenfalls ein Hinweis darauf, das die Back-to-SERP-Rate für Google eine Rolle spielt:

You’ve probably had the experience where you’ve clicked a result and it wasn’t quite what you were looking for. Many times you’ll head right back to Google. Perhaps the result just wasn’t quite right, but sometimes you may dislike the site in general, whether it’s offensive, pornographic or of generally low quality. For times like these, you’ll start seeing a new option to block particular domains from your future search results.

Man konnte dadurch alle Resultate von einer Domain blockieren, nachdem man eine Seite dieser Domain in den Suchergebnissen besucht hat und wieder zurück zur Google-Suche gesprungen ist:

Blockieren-Option-in-der-Google-Suche

In Googles Patent US8661029B1, das zuerst in 2006 eingereicht und zuletzt 2017 erneuert wurde, geht es darum, die Relevanz einer Seite anhand von Nutzer-Feedback zu messen.

Darin werden neben kurzen, mittleren oder langen Verweildauern (engl. short click, medium click und long click) auch die Back-to-SERP-Rate (im Patent als last click bezeichnet) als Möglichkeiten genannt, um die Qualität einer Seite zu bestimmen:

For example, a short click can be considered indicative of a poor page and thus given a low weight (e.g., −0.1 per click), a medium click can be considered indicative of a potentially good page and thus given a slightly higher weight (e.g., 0.5 per click), a long click can be considered indicative of a good page and thus given a much higher weight (e.g., 1.0 per click), and a last click (where the user doesn’t return to the main page) can be considered as likely indicative of a good page and thus given a fairly high weight (e.g., 0.9). Note that the click weighting can also be adjusted based on previous click information. For example, if another click preceded the last click, the last click can be considered as less indicative of a good page and given only a moderate weight (e.g., 0.3 per click).

Auch in Googles Patent US9916366B1 werden short clicks (im Dokument auch click-through reversion genannt) als Signal dafür angegeben, dass ein Nutzer die Informationen auf einer Seite nicht hilfreich fand:

A click-through reversion (also known as a “short click”) occurs when a user, after clicking on a search result and being provided the referenced document, quickly returns to the search results page from the referenced document. A click-through reversion can be interpreted as a signal that the query did not identify information that the user deemed to be interesting, as the user quickly returned to the search results page.

Laut einer Aussage von Nick Frost, dem Head of Google Brain in Toronto/Kanada, schaut sich Google zumindest beim Trainieren von Machine-Learning-Modellen an, ob Nutzer auf der Seite bleiben oder zurück zu Google springen:

So when search was invented, like when Google was invented many years ago, they wrote heuristics that had figure out what the relationship between a search and the best page for that search was. And those heuristics worked pretty well and continue to work pretty well. But Google is now integrating machine learning into that process. So then training models on when someone clicks on a page and stays on that page, when they go back or when they and trying to figure out exactly on that relationship.

Verweildauer

Die Verweildauer eines Besuchers auf einer Seite (im Englischen dwell time genannt), wird von Google vielleicht als Ranking-Faktor verwendet.

Die Logik dahinter ist Folgende:

Wenn ein Besucher ein bestimmtes Keyword bei Google eingibt, eine Seite in den Suchergebnissen anklickt und sich diese Seite lange ansieht, könnte das ein Hinweis darauf sein, dass die Seite qualititativ hochwertig und hilfreich zur Erfüllung der Suchintention des Keywords ist.

Wenn derjenige hingegen nur für ein paar Sekunden auf der Seite bleibt, könnte das heißen, dass die Seite ist thematisch unpassend ist oder eine schlechte Qualität hat.

Quellen und weiterführende Infos

Viele SEOs sind sich uneinig darüber, ob die Verweildauer tatsächlich ein Ranking-Signal ist. Dagegen spricht zum Beispiel, dass eine genaue Messung der Verweildauer schwierig ist.

Ein Beispiel:

Ein Nutzer klickt auf ein Suchergebnis, hält sich für 5 Minuten auf der Seite auf und kehrt dann zur Google-Suche zurück. Hier würde sich die Verweildauer leicht durch Google messen lassen. Was aber, wenn der Besucher nach den 5 Minuten seinen PC herunterfährt? Oder, wenn der Besucher auf einer anderen Seite weitersurft, ohne zu Google zurückzukehren?

Gary Illyes wird fast wütend bei dem Thema:

Dwell time, CTR… those are generally made up crap. Search is much more simple than people think.

Auf der anderen Seite besagt ein Google Patent, dass die Verweildauer durchaus als Ranking-Signal gewertet werden könnte:

Depending on the configuration of the system, one or more of a mouse rollover, a click, a click of at least a certain duration, or a click of at least a certain duration relative to a resource length, for example, may be treated by the system as being a user selection.

In Googles Patent US8661029B1 geht es darum, die Qualität einer Seite anhand von Nutzer-Feedback zu messen.

Dabei wird zwischen short clicks (kurze Verweildauer), medium clicks (mittlere Verweildauer) und long clicks (lange Verweildauer) unterschieden und diesen verschiedene Punktzahlen zugeordnet, wobei eine lange Verweildauer laut Patent auf eine qualitativ hochwertige Seite schließen lässt:

For example, a short click can be considered indicative of a poor page and thus given a low weight (e.g., −0.1 per click), a medium click can be considered indicative of a potentially good page and thus given a slightly higher weight (e.g., 0.5 per click), a long click can be considered indicative of a good page and thus given a much higher weight (e.g., 1.0 per click), and a last click (where the user doesn’t return to the main page) can be considered as likely indicative of a good page and thus given a fairly high weight (e.g., 0.9). Note that the click weighting can also be adjusted based on previous click information. For example, if another click preceded the last click, the last click can be considered as less indicative of a good page and given only a moderate weight (e.g., 0.3 per click).

Interessant ist hier übrigens die Erwähnung von last clicks. Das heißt, dass die Verweildauer möglicherweise in Kombination mit der Back-to-SERP-Rate verwendet wird.

Ein weitere Erwähnung des Konzepts short, medium und long clicks findet sich in Patent US8838587, in dem es um die eindeutige Identifizierung von Entitäten in Suchanfragen geht:

A quality of result statistic for a document is derived from user behavior data associated with the document. One example of user behavior data is “click data.” Click data refers to how long a user views or “dwells” on a query result document after selecting it (e.g., clicking on the query result, selecting the result by a voice command, touching an icon associated with the query result, etc.) in a document results list a query. For example, a longer time spent dwelling on a document, termed a “long click”, can indicate that a user found the document to be relevant for their query. A brief period viewing a document, termed a “short click”, can be interpreted as a lack of document relevance.

Laut einer Aussage von Nick Frost, dem Head of Google Brain in Toronto/Kanada, schaut sich Google mithilfe von Machine Learning zumindest an, ob Nutzer auf der Seite bleiben oder zurück zu Google springen:

So when search was invented, like when Google was invented many years ago, they wrote heuristics that had figure out what the relationship between a search and the best page for that search was. And those heuristics worked pretty well and continue to work pretty well. But Google is now integrating machine learning into that process. So then training models on when someone clicks on a page and stays on that page, when they go back or when they and trying to figure out exactly on that relationship.

Auch die Ranking Factors Study von SEMRush in 2017 fand einen Zusammenhang zwischen Time on Site und Ranking:

SEMRush Ranking Factors Study 2.0: Time on Site

In der Studie ist die Verweildauer sogar der zweitwichtigste von den 17 untersuchten Faktoren:

Verweildauer in der Ranking Factors Study 2.0 von SEMRush

Auch eine kleinere Korrelations-Studie von WordStream zeigt einen möglichen Zusammenhang zwischen Ranking und Verweildauer.

Bewertung durch menschliche Evaluatoren

Google arbeitet mit externen menschlichen Evaluatoren zusammen, um die Qualität der Suchergebnisse zu verbessern.

Diese bewerten die Qualität von Seiten z. B. anhand…

  • der Absicht einer Seite
  • E-A-T, kurz für Expertise (Fachkenntnis), Authoritativeness (Autorität) und Trustworthiness (Vertrauenswürdigkeit)
  • der Qualität und Länge des Hauptinhalts (bei einem Blogartikel z. B. der Artikel selbst und nicht Sidebar, Footer oder Header).
  • des Rufes einer Website und desjenigen, der für den Hauptinhalt verantwortlich ist

Die Bewertungsskala der Page Quality (PQ) reicht dabei von Lowest bis zu Highest:

Page Quality Sliding Scale

Zusätzlich bewerten menschlichen Evaluatoren, in wie weit eine Seite die Suchintention von mobilen Nutzern für ein bestimmtes Keyword erfüllt:

Needs Met Rating

Wie und nach welchen Kriterien Seiten im Detail bewertet werden, kann man in den (mittlerweile) öffentlichen Search Quality Evaluator Guidelines nachlesen.

Es ist jedoch sehr unwahrscheinlich, dass sich die Bewertungen direkt auf das Ranking einer Seite auswirken.

Sie werden von Google lediglich dafür genutzt, den Algorithmus zu verbessern, weshalb ich sie als indirekten Ranking-Faktor eingeordnet habe.

Quellen und weiterführende Infos

Dass sich die Bewertungen von Webseiten durch menschliche Evaluatoren nicht unmittelbar auf deren Ranking auswirken, sondern lediglich dafür genutzt werden, den Google-Algorithmus zu verbessern, findet sich z. B. in diesem Absatz in How Search Works:

Diese Bewertungen wirken sich nicht unmittelbar auf das Ranking aus, aber sie helfen uns dabei, Benchmarks für die Qualität unserer Suchergebnisse festzulegen, damit diese die hohen Anforderungen unserer Nutzer weltweit erfüllen.

Oder in der Google-Suche-Hilfe:

Wir verwenden das Feedback der Evaluatoren, um Änderungen zu bewerten. Diese haben jedoch keinen direkten Einfluss auf die Rangfolge der Suchergebnisse.

Oder auch in Search Quality Evaluator Guidelines selbst:

Your ratings will not directly affect how a particular webpage, website, or result appears in Google Search, nor will they cause specific webpages, websites, or results to move up or down on the search results page. Instead, your ratings will be used to measure how well search engine algorithms are performing for a broad range of searches.

CTR der Seite in den Suchergebnissen

Wenn eine Seite häufiger als andere in den Suchergebnissen angeklickt wird, beeinflusst das vielleicht das Ranking dieser Seite.

In welchem Ausmaß und ob die CTR (kurz für click-trough rate = Klickrate) direkt oder nur indirekt für das Ranking eine Rolle spielt, ist jedoch ungewiss.

Gegen die Verwendung der CTR als Ranking-Faktor spricht zum Beispiel, dass…

  • CTR-Daten wahrscheinlich verschiedenen Verzerrungen unterliegen
  • sie sich mit einer Software oder incentivierten Klicks manipulieren lassen
  • sie nichts über die Qualität und Relevanz einer Seite aussagt, sondern nur über die Relevanz des bei Google angezeigten Suchergebnisses (Titel, URL und Snippet)

Deshalb könnte es sein, dass die CTR nur für die Personalisierung der Suche oder zur allgemeinen Verbesserung des Google-Algorithmus eingesetzt wird.

Quellen und weiterführende Infos

Google-Mitarbeiter streiten immer wieder ab, dass die CTR ein direkter Ranking-Faktor ist, wie z. B. Gary Illyes in 2019 auf Reddit oder auf der PubCon in 2017.

Es gibt jedoch viele Hinweise, die dafür sprechen:

In einer Anhörung der Federal Trade Commission hat Googles ehemaliger Chief of Search Quality Udi Manber ausgesagt:

The ranking itself is affected by the click data. If we discover that, for a particular query, hypothetically, 80 percent of people click on Result No. 2 and only 10 percent click on Result No. 1, after a while we figure out, well, probably Result 2 is the one people want. So we’ll switch it.

Aussagen von Sergey Brin und Eric Schmidt bestätigen laut dem Protokoll der Anhörung zudem, dass Klickdaten dafür genutzt werden, um die Qualität von Googles Suchergebnissen zu überprüfen:

Testimony from Sergey Brin and Eric Schmidt confirms that click data is important for many purposes, including, most importantly, providing “feedback” on whether Google’s search algorithms are offering its users high quality results.

In einem Hilfedokument für die Google Cloud fand sich folgender Satz, der mittlerweile entfernt wurde (ein Screenshot davon ist noch hier zu finden):

Google works continuously to improve its products, including the use of customer data from Google consumer data to refine those products. For example, when you click a link in Google Search, Google considers your click when ranking that search result in future queries.

In Googles Patent US8938463 geht es um die Verbesserung von Suchergebnissen mittels Nutzer-Feedback. Darin findet sich folgender Absatz:

For example, user reactions to particular search results or search result lists may be gauged, so that results on which users often click will receive a higher ranking. The general assumption under such an approach is that searching users are often the best judges of relevance, so that if they select a particular search result, it is likely to be relevant, or at least more relevant than the presented alternatives.

In einem Research Paper von Google findet sich die Aussage, dass CTR-Daten eine als wichtige Quelle zur Verbesserung der Suchergebnisse sind, aber dass es durch Verzerrung schwierig ist, diese Daten komplett zu nutzen:

Click-through data has proven to be a critical resource for improving search ranking quality. Though a large amount of click data can be easily collected by search engines, various biases make it difficult to fully leverage this type ofdata.

Es gibt immer mal Studien und Experimente zur CTR, die tendenziell dafür sprechen, dass die CTR ein Ranking-Faktor ist (oder zumindest in der Vergangenheit war):

CTR der Website in den Suchergebnissen

Wenn die CTR ein Ranking-Faktor ist (was alles anders als sicher ist), ist sie vielleicht nicht nur seitenspezifisch.

Die kombinierte CTR aller oder einiger Seiten auf einer Website, könnte sich direkt oder indirekt auf das Ranking der gesamten Website auswirken.

Quellen und weiterführende Infos

Im Google Patent US9031929B1 heißt es:

The system determines a site quality score for the particular site (306). The site quality score for the particular site can be determined by using the ratios described in reference to FIG. 2, where the numerator is a function of the count of user selections of search results that were presented in response to queries that are categorized as referring to a particular site, and where the denominator is a function of the count of user selections of search results that identify resources in the particular site.

Absprungrate (aus Google Analytics)

Als Absprungrate (engl. bounce rate) bezeichnet man den prozentualen Anteil der Besucher, die nur eine Seite auf der Website anschauen und diese dann verlassen.

Die Absprungrate einer Seite, wie sie von Analyse-Tools wie Matomo oder Google Analytics erhoben wird, ist allerdings sehr wahrscheinlich kein Ranking-Faktor für Google:

Erstens sagt sie nichts darüber aus, ob eine Seite die Suchintention eines Nutzers erfüllt hat oder nicht (solange die Seite zu der Nutzer springen, nicht die Google-Suche ist).

Zweitens ist eine hohe Absprungrate für manche Seitenarten (z. B. für Blogartikel) normal und nicht per se etwas Schlechtes.

Drittens ist es wahrscheinlich schwierig, rauschfreie und verlässliche Daten zur Absprungrate zu bekommen (die Absprungrate ist manipulierbar, nicht jede Website nutzt Google Analytics, zudem wird Google Analytics laut Googles eigenen Angaben auch nicht für’s Ranking genutzt etc.).

Quellen und weiterführende Infos

Google sagt seit mehr als einem Jahrzehnt, dass die Absprungrate (und andere Daten von Google Analytics) nicht für die Google-Suche verwendet werden:

Schon in 2008 hat Matt Cutts gesagt, dass die Bounce-Rate ein rauschanfälliges und manipulierbares Signal wäre:

Without reading the article, I’ll just say that bounce rates would be not only spammable but noisy.

In einem Google Webmaster-Hangout von Oktober 2012 sagt John Mueller folgendes (in der Frage ging es allerdings um die Verweildauer, nicht um die Absprungrate):

A far as I know we don’t use anything like the bounce rate for the search results. So that’s not something that we would use in in web search.

Auf der SMX Advanced in 2013 gibt Matt Cutts im Jahr 2013 auf eine Frage zur Bounce-Rate folgende Antwort:

Last year I said it was not used. The answer is the same: to the best of my knowledge we don’t use bounce rate to affect rankings. I’m skeptical of using user behavior. We tried out having some feedback buttons on search results. My wife made the happy/frowny buttons for that! They found that people were getting others to click each other’s happy buttons. People tend to skew user data if they think it affects ranking.

In einem Tweet von 2017 sagt Gary Illyes, dass die Bounce-Rate kein gutes Signal sei.

Im Juni 2020 sagt John Mueller in einem Webmaster-Hangout:

I think there’s a bit of misconception here that we’re looking at things like the analytics bounce rate when it comes to ranking websites, and that’s definitely not the case.

Google gibt in der Google-Analytics-Hilfe selbst an, dass eine hohe Absprungrate für manche Seitenarten normal ist:

Wenn der Erfolg Ihrer Website darauf beruht, dass Nutzer mehrere Seiten aufrufen, dann ja. Ist die Startseite der Ausgangspunkt für den Rest Ihrer Website (z. B. Nachrichtenartikel, Produktseiten, Ihr Bezahlvorgang) und ein Großteil der Nutzer sieht sich nur die Startseite an, ist eine hohe Absprungrate wirklich ungünstig. Wenn Ihre Website jedoch nur eine Seite (etwa ein Blog) enthält oder Sie andere Arten von Inhalten bereitstellen, für die Besuche einer einzigen Seite zu erwarten sind, ist eine hohe Absprungrate völlig normal.

Pogo Sticking

Pogo Sticking (ein Pogo-Stick ist ein Springstock für Kinder) beschreibt das Verhalten von Nutzern, auf eine Seite in den Suchergebnissen zu klicken, diese sofort wieder zu verlassen und danach auf eine andere Seite in den Suchergebnissen zu klicken.

Dieses Verhalten ist (ähnlich wie eine hohe Back-to-SERP-Rate und eine kurze Verweildauer, dessen Kombination es darstellt) vielleicht ein negatives Ranking-Signal für Google, denn es könnte darauf hinweisen, dass eine Seite…

  • nicht die Suchintention des Nutzers erfüllt
  • eine schlechte Nutzererfahrung bietet (z. B. langsam lädt oder nicht lesbar ist)
  • zu spam- oder werbelastig ist
  • nicht die Inhalte bietet, die in Meta-Title und -Beschreibung versprochen werden

Gegen eine Verwendung im Google-Algorithmus spricht, dass Pogo Sticking (ähnlich wie viele andere Nutzersignale) manipulierbar ist und möglicherweise zu rauschanfällig ist, um als Ranking-Faktor nützlich zu sein.

Quellen und weiterführende Infos

In der Google-Suche wird seit einiger Zeit ein kleiner Kasten mit der Überschrift Andere suchten auch nach unter einzelnen Suchergebnissen angezeigt:

Andere suchten auch nach

Der Kasten erscheint nur dann, wenn man auf eine Seite in den Suchergebnissen klickt und danach per Zurück-Taste im Browser zurück zur Suchergebnis-Seite springt.

Das ist natürlich kein Beweis dafür, dass Pogo-Sticking ein Ranking-Faktor ist, zeigt aber, dass Google das Zurückspringen eines Nutzers registriert und auch die danach eingegebenen Suchanfragen aufzeichnet.

Auch in Googles Patent US9916366B1 werden short clicks (im Dokument auch click-through reversion genannt) als Signal dafür angegeben, dass ein Nutzer die Informationen auf einer Seite nicht hilfreich fand:

A click-through reversion (also known as a “short click”) occurs when a user, after clicking on a search result and being provided the referenced document, quickly returns to the search results page from the referenced document. A click-through reversion can be interpreted as a signal that the query did not identify information that the user deemed to be interesting, as the user quickly returned to the search results page.

In einem Webmaster Hangout stellt John Mueller klar, dass Pogo-Sticking keinen negativen Einfluss auf das Ranking einer Seite hat:

We try not to use signals like that when it comes to search. So that’s something where there are lots of reasons why users might go back and forth, or look at different things in the search results, or stay just briefly on a page and move back again. I think that’s really hard to refine and say “well, we could turn this into a ranking factor.

In seinem Buch In The Plex, das auf Basis von mehr 200 Interviews mit Google-Mitarbeitern entstanden ist, schreibt Journalist Stephen Levy:

On the most basic level, Google could see how satisfied users were. To paraphrase Tolstoy, happy users were all the same. The best sign of their happiness was the “long click”. this occurred when someone went to a search result, ideally the top one, and did not return. That meant Google has successfully fulfilled the query. But unhappy users were unhappy in their own ways, most telling were the “short clicks” where a user followed a link and immediately returned to try again. “If people type something and then go and change their query, you could tell they aren’t happy,” says (Amit) Patel. “If they go to the next page of results, it’s a sign they’re not happy. You can use those signs that someone’s not happy with what we gave them to go back and study those cases and find places to improve search.”

Suchverlauf

Jeder Google-Nutzer erhält auf ihn zugeschnitte Suchergebnisse, die zu großen Teilen auf dem individuellen historischen Suchverlauf (der Gesamtheit bisheriger Suchanfragen) beruhen.

Dieser Suchverlauf wird in den Web- und App-Aktivitäten eines jeden Google-Accounts gespeichert (solange der Nutzer eingeloggt ist).

Für nicht eingeloggte Nutzer wird der Suchverlauf seit Dezember 2009 für 180 Tage in einem Cookie gespeichert (das jedoch vom Google-Konto und dem darin gespeicherten Suchverlauf getrennt ist).

Quellen und weiterführende Infos

Im offiziellen Google Blog wird die personalisierte Suche bestätigt:

Today we’re helping people get better search results by extending Personalized Search to signed-out users worldwide, and in more than forty languages. Now when you search using Google, we will be able to better provide you with the most relevant results possible.

In einem frühere Beitrag von 2005 heißt es:

You probably won’t notice much difference at first, but as your search history grows, your personalized results will gradually improve.

Seit Dezember 2009 wird der Suchverlauf auch für nicht-eingeloggte Nutzer zur Personalisierung der Suchergebnisse verwendet:

Previously, we only offered Personalized Search for signed-in users, and only when they had Web History enabled on their Google Accounts. What we’re doing today is expanding Personalized Search so that we can provide it to signed-out users as well. This addition enables us to customize search results for you based upon 180 days of search activity linked to an anonymous cookie in your browser. It’s completely separate from your Google Account and Web History (which are only available to signed-in users).

In den Sucheinstellungen der Google-Suche findet sich folgender Erkärung zum Suchverlauf:

Der Suchverlauf sorgt dafür, dass du bei der Websuche relevantere Ergebnisse und Empfehlungen erhältst. Dazu werden unter anderem deine bisherigen Suchanfragen und die von dir angeklickten Ergebnisse ausgewertet.

Auch in Gary Illyes Erklärung zu RankBrain finden sich Hinweise darauf, dass der Suchverlauf eines Nutzers dafür verwendet werden könnte, Suchergebnisse für bisher unbekannte Suchanfragen anzuzeigen:

RankBrain is a PR-sexy machine learning ranking component that uses historical search data to predict what would a user most likely click on for a previously unseen query. It is a really cool piece of engineering that saved our butts countless times whenever traditional algos were like, e.g. “oh look a “not” in the query string! let’s ignore the hell out of it!”, but it’s generally just relying on (sometimes) months old data about what happened on the results page itself, not on the landing page. Dwell time, CTR, whatever Fishkin’s new theory is, those are generally made up crap. Search is much more simple than people think.

Gerät des Suchenden

Das Gerät des Suchenden ist ein wahrscheinlich kein direkter Ranking-Faktor.

Es ist jedoch indirekter Ranking-Faktor, da es sich auf die Gewichtung anderer Ranking-Faktoren auswirken kann.

Surft ein Nutzer zum Beispiel auf einem Smartphone oder anderem Mobilgerät, haben die Ranking-Faktoren Ladegeschwindigkeit, Nutzerfreundlichkeit auf Mobilgeräten und demnächst die Core Web Vitals eine höhere Bedeutung (oder überhaupt Bedeutung).

Zudem ist im Browser des Geräts der Suchverlauf eines Nutzers gespeichert und der Standort des Geräts wird bei der Suche beachtet, wodurch sich das verwendete Gerät ebenfalls indirekt auf die Suchergebnisse auswirkt.

Quellen und weiterführende Infos

Trotz Mobile-First-Indexierung gibt es laut Google keine separaten Indizes für Mobil- und Desktop-Geräte, was man als Indikator zählen kann, dass das Gerät des Suchenden kein direkter Ranking-Faktor ist:

Beachte, dass es keinen separaten Mobile First-Index gibt. Die Google-Suche verwendet weiterhin nur einen einzigen Index. Außerdem zeigt sie in den Suchergebnissen weiterhin die URL an, die für Nutzer am besten geeignet ist. Das kann jeweils entweder eine URL für Computer oder eine URL für Mobilgeräte sein.

Einen Hinweis auf den Einfluss des verwendeten Gerätes auf die Suchintention, findet sich in Patent US8868548B2:

For example, knowledge that a user is making a request from a mobile device, and knowledge of the location of the device, can result in much better search results for such a user.

Weitere Infos zum indirekten Einfluss des Geräts findest du unter den oben verlinkten Ranking-Faktoren.

Browser-Verlauf

Der Browser-Verlauf von Google Chrome kann, wenn man in seinem Google-Konto eingeloggt ist, dafür verwendet werden, die Google-Suchergebnisse zu personalisieren.

Der Browser-Verlauf wird in den Web- und App-Aktivitäten Google-Accounts gespeichert (wenn bei Auch den Chrome-Verlauf… ein Häkchen gesetzt ist):

Chrome-Verlauf in Web- & App-Aktivitäten

Quellen und weiterführende Infos

In der Google-Suche-Hilfe findet sich folgender Absatz:

Auf der Seite Aktivitätseinstellungen können Sie auch das Kästchen “Auch den Chrome-Verlauf sowie Aktivitäten auf Websites, in Apps und auf Geräten berücksichtigen, die Google-Dienste nutzen” anklicken. Dadurch legen Sie fest, ob Aktivitäten von Ihrem Gerät gespeichert werden.

Und weiterhin:

Ihr Chrome-Verlauf wird nur gespeichert, wenn Sie in Ihrem Google-Konto angemeldet sind und die Chrome-Synchronisierung aktiviert ist.

In der Google-Chrome-Hilfe wird die Verwendung der Daten noch einmal genauer erklärt:

Standardmäßig wird der in Ihrem Google-Konto gespeicherte Chrome-Verlauf auch den Web- & App-Aktivitäten hinzugefügt. Über diese Aktivitäten können Sie die Nutzung anderer Google-Produkte, z. B. die Suche oder Anzeigen, personalisieren. Auf der Grundlage Ihres Chrome-Verlaufs kann Ihnen dann beispielsweise eine in Ihrem Feed empfohlene Nachrichtenmeldung angezeigt werden.

Externe Bewertungen

Wie gut Nutzer eine Website (oder dessen Produkte und Dienstleistungen) auf externen Websites bewerten, ist vielleicht ein Ranking-Faktor für Google.

Quellen und weiterführende Infos

Menschliche Evaluatoren, die zur Verbesserung des Google-Algorithmus eingesetzt werden, sollen laut den Search Quality Evaluator Guidelines Reputations-Recherche zu den von Ihnen bewerteten Seiten in den Suchergebnissen und den dazugehörigen Websites durchführen.

Die Guidelines fordern sie dabei explizit dazu auf, externen Quellen bei der Reputations-Recherche eher zu trauen als eigenen Angaben auf der Website:

Many websites are eager to tell users how great they are. Some webmasters have read these rating guidelines and write“reviews” on various review websites. But for Page Quality rating, you must also look for outside, independent reputation information about the website. When the website says one thing about itself, but reputable external sources disagree with what the website says, trust the external sources.

Als Quellen zur Reputations-Recherche nennt Google z. B. Foren-Posts, Testberichte, Yelp, Google Shopping oder Amazon:

Look for articles, reviews, forum posts, discussions, etc. written by people about the website. For businesses, there are many sources of reputation information and reviews. Here are some examples: Yelp, Better Business Bureau (a nonprofit organization that focuses on the trustworthiness of businesses and charities), Amazon, and Google Shopping.

Laut diesem Hilfedokument in der Google My Business-Hilfe können positive Rezensionen die Sichtbarkeit (zumindest in der lokalen Suche) verbessern:

Durch qualitativ hochwertige, positive Kundenrezensionen kann die Sichtbarkeit Ihres Unternehmens verbessert und die Wahrscheinlichkeit erhöht werden, dass potenzielle Kunden Ihr Geschäft besuchen.

Das gilt auch und wahrscheinlich insbesondere für Google-Rezensionen:

Auch Google-Rezensionen fließen in das Ranking in lokalen Suchergebnissen ein: Je mehr Rezensionen und positive Bewertungen ein Unternehmen erhält, desto besser kann sein Ranking ausfallen.

Zur Einschätzung von externen Bewertungen könnte Google das Sentiment (die emotionale Färbung) von Bewertungen analysieren.

Google verfügt zumindest über das technische Know-How, um Sentiment-Analysen zu einer Entität (also z. B. Unternehmen, Produkte, Personen oder auch Websites) durchzuführen, wie die Features der Natural Language API zeigen:

Googles Natural-Language-Produkte implizieren Sentiment-Analyse

Als Anwendungsbeispiel zur Sentiment-Analyse nennt Google in der Dokumentation der API Filmrezensionen von IMDB:

Wenn Sie die Sentimentanalyse mit einer größeren Datenmenge ausführen möchten, können Sie das von Stanford bereitgestellte Dataset mit IMDB-Filmrezensionen nutzen.

Das Patent US7987188B2 gibt Hinweise darauf, dass eine Sentiment-Analyse von Seiten, die auf eine Entität verweisen, für das Suchmaschinen-Ranking genutzt werden könnten:

A domain-specific sentiment classifier that can be used to score the polarity and magnitude of sentiment expressed by domain-specific documents is created. […] The report can be used to track the sentiment of an entity within the specific domain, to influence rankings of search results, and/or for other purposes.

In diesem Blogpost von 2010 hat sich Google allerdings noch gegen eine Sentiment-Analyse der Kommentaren und Bewertungen von Webseiten ausgesprochen:

As it turns out, Google has a world-class sentiment analysis system (Large-Scale Sentiment Analysis for News and Blogs). But if we demoted web pages that have negative comments against them, you might not be able to find information about many elected officials, not to mention a lot of important but controversial concepts. So far we have not found an effective way to significantly improve search using sentiment analysis. Of course, we will continue trying.

Nutzerstandort

Der Nutzerstandort wirkt sich auf die Google-Suchergebnisse aus.

Bei lokalen Suchanfragen werden z. B. bevorzugt Orte oder Unternehmen angezeigt, die sich in der Nähe des Suchenden befinden.

Quellen und weiterführende Infos

In Googles How Search Works findet sich folgender Absatz:

Was dabei als “beste” Ergebnisse angesehen wird, hängt von vielen Faktoren ab, etwa vom Standort des Nutzers, von der Sprache, vom verwendeten Gerät (Computer oder Smartphone) und von früheren Suchanfragen. Beispielsweise erhält ein Nutzer in Paris, der nach “Fahrradreparatur” sucht, andere Antworten als ein Nutzer in Hongkong. Google akzeptiert keine Zahlungen, um eine Website höher einzureihen. Das Ranking erfolgt mithilfe von Algorithmen.

Für die lokale Suche ist laut der Google My Business-Hilfe die Distanz eines Unternehmes oder Orts zum Suchenden ein Ranking-Faktor:

Distance considers how far each potential search result is from the location term used in a search. If a user doesn’t specify a location in their search, we’ll calculate distance based on what we do know about their location.

In diesem Blogpost teilt Google weitere Beispiele für Suchanfragen, deren Ergebnisse durch den Nutzerstandort beeinflusst werden können:

Location is another important factor to provide relevant Search results. It helps you find the nearest coffee shop when you need a pick-me-up, traffic predictions along your route, and even important emergency information for your area.
Google hat auch ein YouTube-Video auf dem eigenen Kanal veröffentlicht, das die Bedeutung des Nutzerstandorts für die Suche, genauer erklärt und einige Beispiele zeigt.

Bevorzugte Sprache des Suchenden

In den Sucheinstellungen der Google-Suche, kann man festlegen, in welcher Sprache die Suchergebnisse angezeigt werden sollen.

Steht die Suche z. B. auf Deutsch werden bevorzugt deutschsprachige Suchergebnisse angezeigt:

Die Sprache der Suchergebnisse in den Google-Suchergebnissen einstellen

Quellen und weiterführende Infos

Diesen Ranking-Faktor kann man ganz leicht durch Ausprobieren verifizieren.

In Googles How Search Works findet sich noch folgender Absatz, der weitere Einblicke darüber liefert, wie Google die Spracheinstellungen der Nutzers und die Sprache der Suchanfragen im Ranking berücksichtigt:

Zum Schluss überprüfen wir, ob die Seite in der gleichen Sprache wie deine Suchanfrage geschrieben wurde. Die Ergebnisse in deiner bevorzugten Sprache werden dann weiter oben in der Liste der Suchergebnisse angezeigt.

SafeSearch

SafeSearch ist ein Suchfilter von Google, durch den anstößige Seiten, Bilder und Videos aus den Suchergebnissen entfernt werden. Das impliziert z. B. pornograpfische Inhalte, Nacktheit oder Gewalt.

Er lässt sich in den Sucheinstellungen bei Google aktivieren:

SafeSearch-Filter in den Google-Sucheinstellungen

Für deutsche Google-Nutzer unter 16 Jahren, deren Konten über Family Link verwaltet werden, ist SafeSearch standardmäßig aktiviert.

Warum dich das interessieren sollte:

Da der SafeSearch-Filter nicht perfekt ist, kann es sein, dass Webseiten manchmal inkorrekterweise herausgefiltert werden. Für diesen Fall gibt es bislang leider keine Nachricht durch Google, z. B. in Form eines gesonderten Berichts in der Google Search Console. Was man dann tun kann und wie man testet, ob eigene Webseiten betroffen sind, beschreibt Glenn Gabe in diesem Guide.

Quellen und weiterführende Infos

In der Google-Suche-Hilfe steht zu SafeSearch:

Wenn SafeSearch aktiviert ist, werden bei allen Suchanfragen nach Bildern, Videos und Websites anstößige Inhalte aus den Google-Suchergebnissen herausgefiltert. SafeSearch ist zwar nicht zu 100 % treffsicher, aber die meisten anstößigen Inhalte, beispielsweise Pornografie, werden damit herausgefiltert.

Falls deine eigene Seiten oder deine gesamte Website inkorrekterweise gefiltert werden, kannst und solltest du das Google melden. Laut diesem Hilfedokument soll das über die Hilfe-Community der Google Search Central geschehen (es gibt leider kein gesondertes Formular dafür).

Sprache des Keywords

Welche Sprache eine Suchanfrage hat, wirkt sich auf die angezeigten Suchergebnisse aus.

Wenn die Suchanfrage z. B. auf Englisch formuliert ist, werden englischsprachige Seiten weiter oben in den Suchergebnissen angezeigt.

Quellen und weiterführende Infos

Ein Google-Patent von 2006 beschreibt einen Prozess zur Anpassung der Suchergebnissen anhand der Sprache der Suchanfrage:

Search results of a search query on a network are ranked according to an additional ranking function for the prior probability of relevance of a document based on document property. The ranking function can be adjusted based on a comparison of the language that a document is written in and the language that is associated with a search query. Both query-independent values and query-dependent values can be used to rank the document.

In Googles How Search Works findet sich noch folgender Absatz, der weitere Einblicke darüber liefert, wie Google die Spracheinstellungen der Nutzers und die Sprache der Suchanfragen im Ranking berücksichtigt:

Zum Schluss überprüfen wir, ob die Seite in der gleichen Sprache wie deine Suchanfrage geschrieben wurde. Die Ergebnisse in deiner bevorzugten Sprache werden dann weiter oben in der Liste der Suchergebnisse angezeigt.

Keyword hat eine kommerzielle Suchintention

Für Keywords, die eine kommerzielle Suchintention haben, werden verstärkt Seiten angezeigt, die diese auch erfüllen können.

Dazu zählen:

  • Preisvergleich-Seiten
  • Produktkategorien von Online-Shops
  • Einzelne Produkte aus Online-Shops
  • Seiten von Produktherstellern oder Dienstleistern

Gut erkennbar ist eine kommerzielle Suchintention am Vorhandensein von Google-Shopping in den Suchergebnissen:

Kommerzieller Suchbegriff mit Google-Shopping

Keywords mit kommerzieller Suchintention gehören laut Search Quality Evaluator Guidelines zu YMYL. Das heißt Google legt bei diesen Seiten ein besonderes Augenmerk auf das Vorhandensein von E-A-T (Expertise, Authority und Trustworthiness):

YMYL und Online-Shopping

Quellen und weiterführende Infos

Google hat sich schon sehr früh mit Erkennung kommerzieller Suchintention auseinandergesetzt. Das zeigt z. B. Google-Patent US8046350B1 aus 2003.

Im Patent geht es darum, die kommerzielle Intention eines Suchbegriffs durch Ablgeich mit einer Liste an kommerziellen Suchbegriffen, -wörtern oder -phrasen zu erkennen:

In another implementation consistent with the principles of the invention, a method for creating a list of commercial query patterns is provided. The method may include obtaining a group of commercial data, where the group of commercial data includes at least one of a list of user queries, words or phrases targeted by advertisers or webmasters, domain names, and host names. The method may further include creating the list of commercial query patterns based at least in part on the group of commercial data.

Keyword ist aus dem YMYL-Bereich

YMYL steht für Your Money, Your Life und ist ein Konzept, das durch die Search Quality Evaluator Guidelines bekannt geworden ist.

Als YMYL bezeichnet Google alle Themen oder -Seiten, die potenziell negative Auswirkungen auf die Zufriedenheit, Gesundheit, finanzielle Situation oder Sicherheit eines Menschen haben können.

Dazu zählen Themen wie zum Beispiel:

  • Online-Shopping (umfasst alle Seiten, auf denen man online bezahlen kann)
  • Gesundheitsinformationen (Medikamente, Krankheiten und gesundheitliche Probleme etc.)
  • Finanzen (Steuern, Rente, Kredite etc.)
  • Rechtsfragen (Scheidung, Testament, Adoption etc.)
  • News (wichtige aktuelle Geschehnisse in Polititk, Wissenschaft, Technik etc.)
  • Aussagen über bestimmte Menschengruppen (z. B. Ethnie, Nationalität, sexuelle Orientierung, Geschlecht oder Geschlechtsidentität)

Bei Keywords in diesem Bereich ist es für Seiten besonders wichtig, eine hohe Seitenqualität zu haben, welche sich vor allem durch das Vorhandensein von E-A-T auszeichnet:

E-A-T steht für Expertise, Authority und Trustworthiness. Übersetzen kann man das etwa mit Fachwissen, Autorität und Vertrauenswürdigkeit/Sicherheit.

Das umfasst zum Beispiel, dass Inhalte nur von Personen geschrieben werden, die als Experten auf ihrem Gebiet zählen und auf Websites veröffentlicht werden, die als Autorität für ein bestimmtes Thema gelten.

Dies geht mitunter auf Kosten der Relevanz:

Für ein YMYL-Keyword zu ranken, können ein hoher TrustRank oder PageRank wichtiger sein als die Häufigkeit des Keywords auf einer Seite.

Quellen und weiterführende Infos

Im YouTube-Video Trillions of Questions, No Easy Answers erklärt Google das Thema YMYL recht ausführlich anhand der Suchanfrage “Did the Holocaust happen?”.

Die Suchergebnisse dazu hatten vor einigen Jahren eine Kontroverse ausgelöst:

Google hatte für das Keyword Seiten von Holocaust-Leugnern angezeigt (weil diese Seiten durch Keyword-Optimierung eine hohe inhaltliche Relevanz hatten).

Im Video erklärt Pandu Nayak, der Vice President of Search bei Google:

We have long recognized that there’s a certain class of queries, like medical queries, like finance queries, in all of these cases, authoritative sources are incredibly important. And so we emphasize expertise over relevance in those cases. So we try to get you results from authoritative sources in a more significant way.

In den Search Quality Evaluator Guidelines steht zu YMYL-Seiten:

We have very high Page Quality rating standards for YMYL pages because low quality YMYL pages could potentially negatively impact a person’s happiness, health, financial stability, or safety.

Und der Hauptfaktor für die Seitenqualität (Page Quality) ist wiederum E-A-T, wie man z. B. an diesem Zitat aus den Guidelines erkennen kann:

High quality pages and websites need enough expertise to be authoritative and trustworthy on their topic.

Und an diesem hier:

A High quality page should have a beneficial purpose and achieve that purpose well. In addition, High quality pages have the following characteristics: High level of Expertise, Authoritativeness, and Trustworthiness (E-A-T).

Google könnte in Zukunft noch mehr Themen als YMYL klassifizieren und/oder noch stärker innerhalb bestimmter Themen differenzieren. Im September 2019 wurden die Themenbereiche, die laut den Search Quality Evaluator Guidlines als YMYL gelten, z. B. um einige Themen und Beispiele erweitert.

Keyword hat eine Do-Suchintention

Bei Keywords mit einer sogenannten Do-Suchintention (auch transactional keywords genannt) möchten Suchende etwas tun, z. B. etwas herunterladen, etwas kaufen, sich für etwas registrieren, etwas reservieren, etwas hören, etwas berechnen oder ein Video schauen.

Beispiele:

  • meditation guide download
  • knete selber machen video
  • persönlichkeitstest online
  • bmi berechnen
  • dsl speedtest

Im Zuge der Entwicklung von Google von einer Suchmaschine zu einer “Antwortmaschine”, werden viele Do-Keywords mittlerweile auch in der Google-Suche beantwortet. Hier zum Beispiel mit einem kleinen DSL-Speedtest über den Suchergebnissen:

Do-Keyword direkt in den SERPs beantwortet

Quellen und weiterführende Infos

Do ist einer der vier Suchintentionen, die in den Search Quality Evaluator Guidelines aufgeführt werden:

Definition von Suchintentionen in den Google Search Quality Evaluator Guidelines

Diese wird darin wie folgt definiert:

The intent of a Do query is to accomplish a goal or engage in an activity on a phone. The goal or activity may be to download, to buy, to obtain, to be entertained by, or to interact with a website or app. Users want to Do something.

Eine Unterkategorie davon stellen sogenannte Device Action-Suchanfragen dar, bei denen Nutzer ihr Smartphone bieten, eine Handlung durchzuführen:

Device Action queries are a special kind of Do query. Users are asking their phone to do something for them. Users giving Device Action queries may be using phones in the hands-free mode, for example, while in a car. It’s very important for mobile phones to accommodate Device Action queries, and we have a high standard for rating these results.

Keyword hat eine Know-Suchintention

Nutzer, die Know-Keywords (auch informational keywords genannt) bei Google eingeben, suchen nach einer bestimmten Information oder Lösung zu einem Problem.

Charakteristische SERP Features für Know-Keywords sind Featured Snippets, Videos, Bilder oder der Google Knowledge Graph (z. B. bei der Suche nach bestimmten Personen, Orten oder Unternehmen):

Featured Snippet und Knowledge Panel bei Know-Keyword

Quellen und weiterführende Infos

Know ist eine der vier Suchintentionen, die in den Search Quality Evaluator Guidelines aufgeführt werden:

Definition von Suchintentionen in den Google Search Quality Evaluator Guidelines

Diese wird darin wie folgt definiert:

The intent of a Know query is to find information on a topic. Users want to Know more about something.

Eine Unterkategorie von Know stellt Know Simple dar. Dabei handelt es sich um Suchanfragen, die direkt von Google in den Suchergebnissen beantwortet werden, wie z. B. wie groß ist angela merkel oder wetter hamburg:

Know Simple queries are a special type of Know query. Know Simple queries seek a very specific answer, like a fact, diagram, etc. This answer has to be correct and complete, and can be displayed in a relatively small amount of space: the size of a mobile phone screen. As a rule of thumb, if most people would agree on a correct answer, and it would fit in 1-2 sentences or a short list of items, the query can be called a Know Simple query.

Keyword hat eine Visit-in-person-Suchintention

Bei sogenannten Visit-in-person-Keywords (auch lokale Keywords genannt) suchen Nutzer gezielt nach lokalen Orten, wie z. B. Restaurants, Cafés, Tankstellen oder Geldautomaten in der Nähe, um diesen einen persönlichen Besuch abzustatten.

Beispiele dafür sind:

  • restaurant hamburg
  • tankstelle in der nähe
  • commerzbank geldautomat
  • meditationslehrer hamburg
  • café berlin

Bei solchen Suchbegriffen ranken entsprechend vor allem lokal ausgerichtete Websites oder lokale Unternehmen in der Nähe.

Charakteristisch für Visit-in-person-Keywords ist das sogenannte Local Pack, eine Box am Anfang der Suchergebnisse mit 3 oder 4 lokalen Anbietern und einem Ausschnitt aus Google Maps:

Visit-in-person-Keyword mit Local Pack

Quellen und weiterführende Infos

Visit-in-person ist eine der vier Suchintentionen, die in den Search Quality Evaluator Guidelines aufgeführt werden:

Definition von Suchintentionen in den Google Search Quality Evaluator Guidelines

Ein besonderes Augenmerk legt Google dabei auf mobile Nutzer, da lokalebezogene Suchanfragen oft von Smartphones durchgeführt werden:

Users carry mobile phones with them throughout the day, for example, at work, to school, to restaurants, or running errands. One reason to carry a mobile phone is to have help with Visit-in-Person queries, such as finding coffee shops, gas stations, ATMs, restaurants, etc. Because mobile phones are often used for Visit-in-Person queries, make sure to consider visit-in-person intent as a possibility for mobile phone users.

Keyword hat eine Website-Suchintention

Manche Suchanfragen zielen darauf ab, eine bestimmte Website oder eine bestimmte Seite auf einer Website aufzurufen.

Dazu gehören Suchen, die den Markennamen, die Domain oder die ganzen URL enthalten, wie z. B.:

  • toys r us
  • google
  • www.ebay.de
  • facebook
  • twitter login
  • https://gradually.ai
  • amazon nackenkissen
  • facebook login
  • philips support

Bei solchen Keywords (die auch branded keywords oder navigational keywords genannt werden) verschiebt sich die Gewichtung der Ranking-Faktoren in der Gestalt, dass die angeforderte Seite oder Website ganz vorne in den Suchergebnissen rankt.

Charakteristisch dafür sind z. B. Sitelinks der betreffenden Website oder Marke und ggf. das dazugehörige Knowledge Panel rechts neben den Suchergebnissen:

Beispiel eines Website-Keywords

Quellen und weiterführende Infos

Website ist eine der vier Suchintentionen, die in den Search Quality Evaluator Guidelines definiert sind:

Definition von Suchintentionen in den Google Search Quality Evaluator Guidelines

Diese wird darin wie folgt definiert:

The intent of a Website query is to locate a specific website or webpage that users have requested. This single webpage is called the target of the query.

Seite bietet Informationen zum Autor

Wie viele Informationen sich auf einer Seite über dessen Autor finden lassen, ist vielleicht ein Ranking-Faktor für Google.

Google könnte es also möglicherweise positiv bewerten, wenn auf einer Seite eine Autorenbox (“Über den Autor”) zu finden ist, die dessen Namen und Beweise dafür enthalten, dass der Autor ein Experte ist (z. B. durch Nennung von Ausbildung, Berufserfahrung, Erwähnungen in der Presse oder Auszeichnungen).

Quellen und weiterführende Infos

Googles Qualitäts-Checkliste im Blogartikel zu Core Updates enthält folgende Frage:

Does the content present information in a way that makes you want to trust it, such as clear sourcing, evidence of the expertise involved, background about the author or the site that publishes it, such as through links to an author page or a site’s About page?

In den Search Quality Evaluator Guidelines finden sich zahlreiche Beispiele dafür, welche Seiten Google als qualitativ hochwertig und minderwertig erachtet. Bei vielen Beispielen, die als Low Quality oder Lowest Quality eingestuft werden, wird das Rating dadurch begründet, dass Informationen zum Autor fehlen, z. B.:

The level of expertise of the author of this content is not clearly communicated.

Oder, wie bei dieser Lowest Quality Page, dass der Autor unbekannt ist:

Miley Cyrus was alive at the time this example was written. This LP is an article written by an unknown author that was designed to look like a news story and falsely states that she died.

Und wie bei einer weiteren:

An unsatisfying amount of information about the website and author.

Dies ist laut Guidelines insbesondere bei medizinischen, finanziellen und anderen YMYL-Themen wichtig:

The level of expertise of the author of this content is not clearly communicated. Providing this background information is particularly important for medical, financial, or other YMYL topics for which expertise is needed.

Und noch einmal expliziter:

There is no evidence that the author has financial expertise. Because this is a YMYL financial article, lacking expertise is a reason for a Low rating.

Dass eine Seite nicht unbedingt Informationen zum Autor braucht, sondern dass eine gute generelle Reputation der Website ausreichen kann, zeigt folgender Absatz:

There are many encyclopedia-type websites. Some are highly-respected publications that are standard references, while some are websites with content created and edited by anonymous users, with no editorial oversight or fact checking. We may not always know the author of the specific encyclopedia article, and therefore must rely on website reputation research to determine the E-A-T of the article. High and Highest quality ratings should only be used for encyclopedias with very good reputations for accuracy and expertise, where the article itself is well-researched with appropriate references cited.

Seite enthält Autoren-Schema

Durch Schema.org-Markup kann man Google viele Informationen über den Autor einer Seite und dessen Hintergrund mitteilen.

Dies könnte nicht nur für den Knowledge Graphs eines Autors, sondern auch für das Ranking der Seiten relevant sein, die dieser Autor verfasst hat.

Zu den dafür genutzten Schemata könnte das Person-Schema zählen, das zahlreiche Eigenschaften enthält, die auf die Vertrauenswürdigkeit und Expertise eines Autors hinweisen:

  • affiliation (die Organisation oder das Unternehmen, zu dem ein Autor gehört)
  • alumniOf (Universitäten, die der Autor besucht hat)
  • award (Auszeichnungen des Autors)
  • brand (Marke, um die es im Artikel geht oder zu der ein Autor gehört)
  • hasCredential (Abschlüsse des Autors, z. B. ein Diplom oder Zertifikat)
  • hasOccupation (Beruf des Autors)
  • honorificPrefix (vorangestellter Titel des Autors, z. B. Dr. oder Prof.)
  • honorificSuffix (angehängter Titel des Autors, z. B. BA oder M.D.)
  • jobTitle (genaue Berufsbezeichnung, z. B. Online-Marketing-Manager)
  • sameAs (Link zu einem Profil des Autors, z. B. einer Wikipedia-Seite)

Auch das author-, citation- und reviewedBy-Schema könnten zur Einschätzung der E-A-T einer Autors beitragen.

Gegen eine Verwendung als Ranking-Faktor spräche, dass sich solche Informationen (vor allem auf der eigenen Website) leicht fälschen oder erfinden lassen.

Quellen und weiterführende Infos

In den Search Quality Evaluator Guidelines wird im Zusammenhang mit der Reputations-Recherche (Stichwort: E-A-T) nicht nur die Website, sondern auch der Autor oder Verfasser des Contents (“Creator of the Main Content”) genannt:

Creator of the Main Content in den Search Quality Evaluator Guidelines

Wenn das Markup zum Ranking beiträgt, reicht es jedoch wahrscheinlich nicht, es nur auf der eigenen Website eingebunden zu haben, denn in den Guidelines wird mehrmals empfohlen, zur Reputations-Recherche externe Quellen heranzuziehen:

Your job is to truly evaluate the Page Quality of the site, not just blindly accept information on one or two pages of the website. Be skeptical of claims that websites make about themselves.

Sowie:

Many websites are eager to tell users how great they are. Some webmasters have read these rating guidelines and write “reviews” on various review websites. But for Page Quality rating, you must also look for outside, independent reputation information about the website. When the website says one thing about itself, but reputable external sources disagree with what the website says, trust the external sources.

Autor hat eine eigene Wikipedia-Seite

Dass ein Autor eine eigene Wikipedia-Seite hat, ist ein Zeichen für dessen Bekanntheit. Denn um eine solche zu bekommen, muss es laut der Relevanzkriterien von Wikipedia triftige Gründe geben. Im Falle von Schriftstellern ist das z. B. der Gewinn eines renommierten Literaturpreis oder das Verfassen eines anerkannten Standardwerks.

Dementsprechend könnte es ein positiver Ranking-Faktor für eine Seite sein, wenn eine eigene Wikipedia-Seite zu dessen Autor besteht.

Quellen und weiterführende Infos

In den Search Quality Evaluator Guidelines werden Evaluatoren dazu angehalten, Reputations-Recherche zu den von Ihnen bewerteten Seiten zu machen. Das beinhaltet die Reputation der Website, des Autors und/oder der dahinter stehenden Organisation.

Wikipedia wird als Quelle zur Reputations-Recherche gleich mehrfach im Abschnitt 2.6 Reputation of the Website or Creator of the Main Content genannt, z. B. in dieser Auflistung:

Look for information written by a person, not statistics or other machine-compiled information. News articles, Wikipedia articles, blog posts, magazine articles, forum discussions, and ratings from independent organizations can all be sources of reputation information. Look for independent, credible sources of information.

Und in diesem Absatz, in dem Wikipedia als gute Informationsquelle bezeichnet wird:

See if there is a Wikipedia article or news article from a well-known news site. Wikipedia can be a good source of information about companies, organizations, and content creators. […] News articles and Wikipedia articles can help you learn about a company and may include information specific to reputation, such as awards and other forms of recognition, or also controversies and issues.

Autor ist eine relevante Entität im Google Knowledge Graph

Entitäten und ihre Beziehungen untereinander könnten nicht nur wichtig für Googles Verständnis von Texten sein. Sie werden möglicherweise auch zur Bewertung der Expertise und Bekanntheit eines Autors auf einem bestimmten Themengebiet herangezogen (und damit zur Bewertung der Seiten, die der Autor verfasst hat).

Die thematische Relevanz eines Autors könnte sich erstens durch die Menge an verknüpften Entitäten ergeben, die dieser Autor innerhalb eines Themengebiets hat. Zweitens könnten die mit der Autoren-Entität verknüpften Eigenschaften (Publikationen, Doktortitel, Studium, Auszeichnungen etc.) eine Rolle für die Bewertung spielen.

Die Vertrauenswürdigkeit eines Autors könnte auch dadurch positiv beinflusst werden, dass er überhaupt eine Entität im Knowledge Graph ist, da dies einen gewissen Bekanntheitsgrad erfordert.

Quellen und weiterführende Infos

Gary Illyes; sagte auf der Pubcon 2019, dass sehr bekannte Autoren wahrscheinlich Entitäten im Google Knowledge Graph haben:

We have entities for very popular authors, like if you were an executive for the Washington Post, then you probably have an entity. It’s not about the author, it’s about the entity.

Wie genau Google die Bekanntheit oder Relevanz eines Autors zu einem Thema bestimmt, könnte das Patent US20180046717A1 zeigen. Eine Möglichkeit ist z. B. die Untersuchung von Kookurrenzen (gemeinsames Auftreten) zweier Entitäten:

The ranking score for a particular entity of the second entity type can be based at least in part on how frequently a recognized reference to the particular entity co-occurs with a recognized reference to the first entity in resources indexed by an indexing engine.

Oder, wie häufig eine Entität gesucht wird, nachdem eine andere gesucht wurde:

The ranking score for a particular entity of the second entity type can be based at least in part on how frequently the particular entity is searched for by users after submitting a search query directed to the first entity.

Zuverlässigkeit der Quellen

1. Aussagen von Google selbst

Google Search Central als Quelle für Google-Ranking-Faktoren

Google hat seine Öffentlichkeitsarbeit in puncto Google-Suche in den letzten Jahren massiv ausgebaut.

Ich vermute, dass das zum Teil an den kartellrechtliche Ermittlungen gegen Google in der EU und in den USA sein oder den immer mal wieder aufflammenden Rufe aus der Politik, dass Google seinen Algorithmus offenlegen solle, liegt. Aber das sei mal dahingestellt.

Google-Mitarbeiter beantworten z. B. regelmäßig Fragen zu Ranking, Crawling oder Indexierung auf diversen Kanälen, z. B.:

Zudem kommuniziert Google öffentlich über die Weiterentwicklung des Google-Algorithmus und Suchtechnologie auf diversen Blogs, wie z. B:

Zudem bietet Google diverse Dokumentationen für SEO-Anfänger und -Fortgeschrittene, wie z. B. die Google-Suche-Hilfe, die Search Console-Hilfe oder die kürzlich neu gestaltete Google Search Central.

Und ja, Google selbst ist sicherlich keine schlechte Quelle, um mehr über den Google-Algorithmus zu erfahren.

Wer sollte auch mehr über den Algorithmus wissen als Google selbst bzw. dessen Mitarbeiter?

Dennoch sind Googles Aussagen zum Algorithmus oder SEO-Tipps aus einem wichtigen Grund mit Skepsis zu betrachten:

Google möchte seinen Algorithmus aus (berechtigter) Angst vor Manipulation nicht komplett offenbaren.

Ich glaube zwar nicht, dass Google bewusst falsche Angaben über den Algorithmus verbreitet (auch wenn ich da mir nicht zu 100 % sicher bin). Zumindest aber bleiben viele Angaben darüber bewusst schwammig oder unvollständig.

2. Die Search Quality Evaluator Guidelines

Search Quality Evaluator Guidelines als Quelle für Google-Ranking-Faktoren

Die Search Quality Evaluator Guidelines sind Googles Handbuch für externe menschliche Evaluatoren, deren Ratings zur Verbesserung des Google-Algorithmus genutzt werden (z. B. um die Suchergebnisse vor und nach einem Google-Update zu vergleichen).

Nachdem diese in der Vergangenheit immer mal wieder geleakt sind, hat sich Google in 2015 dazu entschlossen, sie komplett öffentlich zu machen.

Die Guidelines sind mit der Zeit zu so etwas wie einer SEO-Bibel geworden und haben die SEO-Szene mit Konzepten wie YMYL und E-A-T nachhaltig geprägt und verändert.

Und das nicht ohne Grund:

Sie zeigen sehr ausführlich auf, was Qualität und Relevanz für Google bedeuten und welche Art von Ergebnissen Google gerne in der Suche sehen möchte.

Allerdings zeigen sie nicht, wie der Google-Algorithmus funktioniert und welche Ranking-Faktoren zu dem gewünschten Ideal-Suchergebnissen der Guidelines führen.

Oder wie es Ben Gomes, der ehemalige Vice President of Search, in einem Interview mit CNBC ausdrückte:

You can view the raters’ guidelines as where we want the search algorithm to go. They don’t tell you how the algorithm is ranking results, but they fundamentally show what the algorithm should do.

3. Ranking-Faktor-Studien

Beispielstudie von Backlinko

Groß angelegte Studien zu Ranking-Faktoren mit hunderttausenden oder sogar mehreren Millionen Keywords, wie sie z. B. von Searchmetrics, Backlinko oder MOZ durchgeführt wurden, werden in der SEO-Community geradezu gehypt.

Und sie haben durchaus ihre Daseinsberechtigung, denn sie können Tendenzen und generelle Zusammenhänge aufzeigen. Der heilige Gral sind sie jedoch nicht und sollten immer mit einem gesunden Maß an Skepsis betrachtet werden.

Typische Fehlerquellen von Ranking-Faktor-Studien sind zum Beispiel:

1. Die Verwechselung von Korrelation mit Kausalität

Dass Seiten auf dem ersten Platz im Durchschnitt mehr Facebook-Shares als die Top 2 – 9 haben, heißt nicht automatisch, dass Facebook-Shares ein Ranking-Faktor sind.

Und das liegt unter anderem an Wechselwirkungen:

2. Wechselwirkungen werden ignoriert

Es gibt zum einen Wechselwirkungen zwischen Ranking-Faktoren untereinander und zum anderen zwischen dem Google-Ranking und Ranking-Faktoren. Das macht es schwer, die Wirkungsrichtung von Zusammenhängen zu bestimmen:

Sind es die Facebook-Shares, die dafür gesorgt haben, dass eine Seite auf Platz 1 rankt? Oder ist die Seite auf Platz 1, weil sie oft geteilt und deshalb viele Backlinks bekommen hat? Oder war die Seite auch ohne Backlinks und Facebook-Shares schon auf Platz 1 und wurde oft geteilt und verlinkt, weil sie auf Platz 1 gelandet ist?

Heißt:

Studien zu Ranking-Faktoren dürfen keine Momentaufnahmen sein und Ranking-Faktoren können schwer isoliert voneinander untersucht werden. Eine multivariante Betrachtung der Rankings über einen längeren Zeitraum ist ein Muss, um kausale Zusammenhänge zu bestätigen.

3. Die Suchintention der untersuchten Keywords wird missachtet

Je nach Suchintention, Branche oder Nische kann die Gewichtung von Ranking-Faktoren anders sein. Studien müssten z. B. Keywords mit Markennamen ausschließen, da dort die Ranking-Faktoren so gewichtet sind, dass die Marke selbst dafür rankt.

Searchmetrics hat dieses Problem erkannt und in 2018 und 2017 damit angefangen seine Ranking-Faktoren-Studien auf Nischen und auf Branchen zu beschränken.

4. SERP-Features werden missachtet

Die Suchergebnisse bestehen schon seit Längerem aus mehr als nur “10 blauen Links”, wie z. B. Featured Snippets oder der Nutzer-fragen-auch-Box.

Aus Studien geht oft nicht genau hervor, wie solche Features miteinbezogen wurden und ob überhaupt.

5. Kognitive Verzerrungen

Kognitive Verzerrungen sind ein klassisches Problem bei Studien, nicht nur im SEO-Bereich.

Ein Beispiel dafür sind Bestätigungsfehler:

In einer Studie wird die Domain-Autorität ein Ranking-Faktor als Hypothese angenommen und die Ergebnisse der Studie so präsentiert oder verzerrt, dass sich die Domain-Autorität auch als Ranking-Faktor bestätigt.

Als Mittel dazu kann man z. B. die y-Achse in einem Balkendiagramm nicht bei 0, sondern bei 15 starten lassen, um den Zusammenhang stärker wirken zu lassen als er eigentlich ist:

Studie zur URL-Länge

Aber wer möchte schon eine Studie veröffentlichen, die keine oder nur geringe Zusammenhänge zeigt?

6. Google präsentiert in den Suchergebnissen nur die Reihenfolge der Ergebnisse

…nicht aber den tatsächlichen Ranking-Score einer Seite.

Mal angenommen, Google bewertet Seiten auf einer Skala von 1 bis 100:

Dann wäre unklar, ob das erste Suchergebnis 100 Punkte hat und das zweite nur 10 und damit der Qualitätsunterschied sehr groß, oder ob das erste und zweite Suchergebnis mit 11 zu 10 Punkten qualitativ gar nicht so weit auseinander liegen.

4. Google-Patente und Forschungspapiere

Google hat mit den Jahren viele Patente und Forschungspapiere zu Suchmaschinen-Technologien veröffentlicht.

Mit Google Research gibt es sogar eine eigene Plattform, auf der Forschungspapiere von Google-Forschern veröffentlicht werden:

Forschungspapier zu SMITH bei Google Research

Forschungspapiere und Patente bieten mitunter sehr tiefe Einblicke darin, wie der Google-Algorithmus funktionieren könnte und was in den Bereichen Suchmachinen-Technologie, NLP und Information Retrieval möglich ist.

Als Quelle für Ranking-Faktoren sind diese jedoch in folgender Hinsicht fehlerbehaftet:

  1. Dass Google eine Technologie patentiert oder ein Forschungspapier dazu veröffentlicht hat, heißt nicht, dass sie auch im Google-Algorithmus verwendet wird
  2. Die Details der Verwendung sind unklar (Patente und Forschungspapiere sind meist allgemein gehalten und enthalten keine expliziten Nennungen von Google-Produkten. Deshalb ist z. B. unklar, ob eine Technologie nur für Google News eingesetzt oder auch für die allgemeine Google-Suche. Auch ist unklar, wie genau die Technologie im Algorithmus implementiert wird, z. B. ob es Modifikationen dazu gibt oder ob Signale genauso gewichtet werden wie im Patent angegeben.)
  3. Der zeitliche Rahmen der Verwendung ist unklar (Eine Technologie, die in 2012 patentiert wurde, könnte bereits seit 2009 im Einsatz sein oder schon in 2011 durch eine neue Technologie ersetzt worden sein)
  4. Forschungspapiere (und damit wahrscheinlich auch Google Patente) werden laut einem Bericht des Guardians vor ihrer Veröffentlichung von Google daraufhin überprüft, ob diese Geschäftsgeheimnisse offenbaren

5. Anekdoten, Case Studys und Erfahrungen von SEOs

Anekdoten, Case Studys und Erfahrungen von SEOs sind mit Abstand die rauschanfälligste Quelle für Ranking-Faktoren.

Und das aus einem einfachen Grund:

Wunschdenken.

SEOs neigen schnell dazu zu sagen “XYZ ist ein Ranking-Faktor.”, obwohl es dazu wenige oder gar keine Beweise gibt.

Der Google-Algorithmus ist eine Gleichung mit hunderten Variablen, die sich selbst direkt und indirekt beeinflussen können. Das macht es schwierig, einzelne Faktoren und deren Gewichtungen bei Ranking-Veränderungen zu isolieren.

Und durch die zunehmende Nutzung von maschinellem Lernen im Google-Algorithmus, wird ein Reverse Enginineering von Ranking-Faktoren noch einmal zusätzlich erschwert.

Randnotiz: Ich möchte mich da gar nicht herausnehmen. Auch ich lasse mich manchmal mehr von meinem Wunschdenken beeinflussen als mir lieb ist. Ist wahrscheinlich eine Berufskrankheit…

Changelog

Hier findest du eine Übersicht über alle Änderungen, die ich an der Liste vorgenommen habe:

22.04.2022

  • FAQ-Bereich ergänzt
  • Filter-Icons von Fontawesome 5 auf 6 umgestellt
  • kleinere Aktualisierungen bei der Einleitung und den Hinweisen zur Liste
  • Faktoren-Trends für 2021 entfernt

27.07.2021

  • Alle Unterseiten für Ranking-Faktoren vorerst wieder in den Haupt-Artikel integriert (aufgrund von Qualitätsproblemen). Wiederveröffentlichung nach Überarbeitung ist geplant.
  • kleinere Aktualisierungen

21.06.2021

  • Performance-Updates und Bereinigung des Quellcodes
  • kleinere inhaltliche Korrekturen

16.01 bis 21.06.2021 (fortlaufend)

  • Erstellung von 50+ Unterseiten für diverse Ranking-Faktoren, wie z. B. für Keyword-Dichte, Verweildauer und Back-to-SERP-Rate.

15.01.2021

  • Erstveröffentlichung

FAQ

Hier habe ich dir die Antworten auf die häufigsten Fragen rund um Googles Ranking Faktoren zusammengestellt:

Es wird häufig angenommen, dass es 200 oder über 200 (also 200 bis 300) Google-Ranking-Faktoren gibt.

Die Zahl 200 wurde wahrscheinlich erstmals von Matt Cutts, dem damaligen Leiter des Webspam-Teams bei Google, auf der Pubcon 2009 verbreitet. Auf der Pubcon 2010 wiederholte er diese Zahl, ergänzte jedoch, dass einzelne Faktoren jedoch zum Teil 50 oder mehr Variationen aufweisen können.

Laut meinen Recherchen wurde die Zahl 200 zuletzt offiziell von Google in einem Blogartikel von 2016 erwähnt, in dem angekündigt wurde, dass Penguin ein Teil des Core-Algorithmus geworden sei.

Mittlerweile veröffentlicht Google keine genauen Zahlen zu den Ranking-Faktoren mehr, sondern spricht entweder davon, dass es “hunderte” oder, noch unspezifischer “viele” Faktoren gäbe, wie z. B. in diesem Absatz von How Search Works:

To give you the most useful information, Search algorithms look at many factors and signals, including the words of your query, relevance and usability of pages, expertise of sources, and your location and settings.

Ranking-Faktoren und Ranking-Signale werden unter SEOs und Marketing-Experten oft als Synonyme verwendet.

Wenn man es genau nimmt, handelt es sich jedoch um Ober- und Unterbegriff. Ein Ranking-Faktor besteht aus einem oder mehreren Ranking-Signalen.

Ein Beispiel dafür:

Die Core Web Vitals sind ein Ranking-Faktor. Ein negatives Ranking-Signal ist ein hoher LCP und ein positives ein niedriger LCP.

Nein, es ist nicht möglich, sich in den organischen Suchergebnissen eine bestimmte Platzierung zu sichern, indem man Google dafür Geld bezahlt.

Google bietet zwar bezahlte Platzierungen in der Google-Suche an, aber nur innerhalb der als Werbung gekennzeichneten Anzeigen-Slots, die z. B. über oder unter den organischen Suchergebnissen ausgespielt werden.

Finn Hillebrandt

Über den Autor

Finn Hillebrandt ist der Gründer von Blogmojo und Blogmojo.ai, SEO-Experte mit 13+ Jahren Erfahrung und KI-Nerd.

Er hilft Online-Unternehmern mehr Kunden über Google zu bekommen und ihre Prozesse mit KI-Tools zu vereinfachen und zu automatisieren.

Finn teilt sein Wissen hier auf dem Blog in 170+ Fachartikeln zu KI-Tools, WordPress und SEO sowie über seinen ChatGPT-Kurs und den SEO-Kurs New Level SEO mit zusammengenommen 600+ Teilnehmern.

Erfahre mehr über Finn und das Team, folge Blogmojo auf Instagram, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business

🤩 Noch mehr genialer Content? Unsere Angebote für 0 €!

Gesetze erfolgreicher Blogartikel

14 Gesetze unglaublich erfolgreicher Blogartikel

Lerne, wie du Blogartikel schreibst, die tausende Besucher im Monat bekommen und tausendfach geteilt werden.

SEO-Fehler

10 SEO-Fehler, die dich in 2023 deine Rankings kosten

Du willst in 2023 mehr Kunden und Leser über Google bekommen? Dann solltest du diese 10 Fehler vermeiden.

Instagram Case Study

Case Study: Von 2K auf 100K Instagram-Follower in nur 3 Monaten

Wir zeigen dir, wie wir es geschafft haben, in nur 3 Monaten von 2K auf 100K Instagram-Follower zu kommen.

Online-Business Case Study

Case Study: 250.000 € Umsatz mit Online-Kursen

Wir zeigen dir, wie wir über 250.000 € Umsatz mit Online-Kursen gemacht haben. Ohne Ads, ohne Social Media und ohne Kaltakquise.

Bessere Texte mit ChatGPT

14 simple Tipps, mit denen ChatGPT dramatisch bessere Texte schreibt

ChatGPTs Schreibstil ist von Haus aus eher mittelmäßig. Texte enthalten z. B. Wiederholungen oder klingen monoton.

In unserem E-Book zeigen wir dir, wie das Tool mit kleineren Änderungen deutlich bessere Texte schreibt. 💪

👉 Ja, zeig mir das E-Book!