Sitemap

Die Ursprünge von E-A-T: Seiteninhalte, Hyperlinkanalyse und Nutzungsdaten

Die Vorhersage der Zukunft auf der Grundlage des Wissens über die Vergangenheit ist von grundlegender Bedeutung.Ich habe den technologischen Fortschritt immer im Auge, verliere aber nie die Vergangenheit aus den Augen.

Frühere Errungenschaften und Durchbrüche auf dem Gebiet des Informationsabrufs (IR) beschwören die Möglichkeiten des „Wohin als nächstes“ in der Suchtechnologie herauf.

Das führt mich dann zu den Auswirkungen, die es auf die Techniken und Methoden der Suchmaschinenoptimierung (SEO) in der Zukunft haben wird.

In der vorherigen Folge meiner SEO-Serie „Zurück in die Zukunft“ wurden Indizierungs- und Keyword-Ranking-Techniken erneut aufgegriffen: 20 Jahre später habe ich mit einer Grafik abgeschlossen, die etwas erklärt, das als „Überflussproblem“ bekannt ist.Dies verhindert häufig, dass reine Keyword-Ranking-Techniken (On-Page) die maßgeblicheren Seiten an der Spitze der Ergebnisse platzieren.Relevant – ja.Aber autoritativ?

Für die Qualitätsbewerter von Google gibt es E-A-T vielleicht erst seit ein paar Jahren.Aber im IR-Bereich war es schon immer der Kern dessen, wie und was Suchmaschinen tun.

In diesem Artikel werde ich untersuchen, wie weit Expertise, Autorität und Vertrauenswürdigkeit (E-A-T) zurückreichen und worauf sie eigentlich basieren.

„E-A-T“ vor 20 Jahren

In der Branche herrscht noch immer Unklarheit darüber, was „Autorität“ im SEO-Sinne eigentlich bedeutet.Wie wird eine Website/Seite autoritativ?

Vielleicht kann Ihnen ein Blick darauf, wie „Autorität“ – sowie die Begriffe „Experte“ und „Vertrauen“ – in das IR- und SEO-Lexikon gelangt sind, mehr Aufschluss geben.

Hier ist eine Grafik, die ich im Jahr 2002 erstellt habe, aber diese Version hat eine relevante Verbesserung, um all dies miteinander zu verbinden.

Ich werde diese klassische Web-Data-Mining-Grafik verwenden, die jetzt die drei Buchstaben E-A-T enthält, um zu einem besseren Verständnis ihrer Ursprünge beizutragen.

E-A-T an sich ist kein Algorithmus, aber:

  • Fachwissen knüpft direkt an den Seiteninhalt an.
  • Authority verbindet sich direkt mit der Hyperlink-Analyse.
  • Vertrauen ergibt sich aus einer Kombination aus Seiteninhalts- und Hyperlinkanalyse sowie Endbenutzer-Zugriffsdaten.

Alle drei Data-Mining-Aspekte müssen in Form einer Metasuche (oder föderierten Suche) kombiniert werden, um die zuverlässigsten Seiten bereitzustellen, die den Informationsbedarf des Endbenutzers decken.Tatsächlich handelt es sich um eine sich gegenseitig verstärkende Reihe konvergenter algorithmischer Ranking-Mechanismen.

Als langjähriges professionelles Mitglied der Association for Computing Machinery, der weltweit größten Computergesellschaft, bin ich stolz darauf, der Special Interest Group for Information Retrieval (SIGIR) anzugehören. Mein Hauptaugenmerk innerhalb dieser Gruppe liegt auf der Analyse von Hyperlinks und der Wissenschaft von Suchmaschinen-Rankings.

Für mich ist dies der faszinierendste Bereich von IR und SEO.Wie ich im Laufe der Jahre auf vielen Konferenzen sagen hörte: „Nicht alle Verbindungen sind gleich. Manche sind unendlich gleicher als andere.“

Und das ist ein guter Ausgangspunkt für diese nächste epische Lektüre für andere SEO-Bravehearts.

Die Entwicklung von textbasierten Ranking-Techniken zu hyperlinkbasierten Ranking-Algorithmen

Lassen Sie uns kurz auf den grundlegenden Grund eingehen, warum Links für alle Suchmaschinen unerlässlich sind, nicht nur für Google.

Erstens hat die Analyse sozialer Netzwerke eine bemerkenswerte Geschichte.In den letzten zwei Jahrzehnten hat sich das Interesse und die Faszination der wissenschaftlichen Gemeinschaft für die Idee von Netzwerken und die Netzwerktheorie enorm entwickelt.Als grundlegende Übersicht bedeutet dies einfach ein Muster von Verbindungen zwischen einer Reihe von Dingen.

Soziale Netzwerke sind kein neues Phänomen von Unternehmen wie Meta.Soziale Bindungen unter Freunden werden seit vielen Jahren umfassend untersucht.Wirtschaftsnetzwerke, Produktionsnetzwerke, Mediennetzwerke und so viele weitere Netzwerke existieren.

Ein Experiment auf diesem Gebiet, das außerhalb der wissenschaftlichen Gemeinschaft sehr berühmt wurde, ist als „Six Degrees of Separation“ bekannt, das Ihnen vielleicht bekannt ist.

Das Web ist ein Netzwerk von Netzwerken.Und 1998 wurde die Hyperlink-Struktur des Webs für einen jungen Wissenschaftler namens Jon Kleinberg (der heute als einer der weltweit führenden Informatiker anerkannt ist) und für ein paar Studenten der Stanford University, darunter Google Larry Page und Sergey Brin, von großem Interesse .In diesem Jahr produzierten die drei zwei der einflussreichsten Ranking-Algorithmen für Hyperlink-Analysen – HITS (oder „Hyperlink-Induced Topic Search“) und PageRank.

Um es klar zu sagen, das Web hat keine Präferenz gegenüber dem einen oder anderen Link.Ein Link ist ein Link.

Aber für diejenigen in der aufstrebenden SEO-Branche im Jahr 1998 änderte sich diese Perspektive vollständig, als Page und Brin in einem Papier, das sie auf einer Konferenz in Australien präsentierten, diese Aussage machten:

„Intuitiv lohnt es sich, Seiten anzuschauen, die an vielen Stellen im Internet gut zitiert werden.“

Und dann gaben sie einen frühen Hinweis darauf, dass ich die Tatsache bestätigte, dass „nicht alle Links gleich sind“, indem sie dies weiterverfolgten:

„Auch Seiten, die vielleicht nur ein Zitat von so etwas wie der Yahoo-Homepage haben, sind im Allgemeinen auch einen Blick wert.“

Diese letzte Aussage hat mich sehr berührt und mich als Praktizierende im Laufe der Jahre darauf konzentriert, einen eleganteren Ansatz zu entwickeln, um Anziehungstechniken und -praktiken zu verbinden.

Zum Abschluss dieser Ausgabe werde ich etwas über meinen Ansatz (der äußerst erfolgreich war) erklären, von dem ich glaube, dass er konzeptionell die Art und Weise ändern wird, wie Sie über das, was als „Linkaufbau“ bezeichnet wird, denken, und das ändern in „ Reputationsaufbau.“

Die Ursprünge der „Autorität“ bei der Suche

In der SEO-Community wird häufig das Wort „Autorität“ verwendet, wenn über Google gesprochen wird.Aber das ist nicht der Ursprung des Begriffs (dazu später mehr).

In dem Papier, das die Google-Gründer auf der Konferenz in Australien präsentierten, fällt auf, dass sie zwar über einen Hyperlink-Analysealgorithmus sprachen, aber nicht das Wort „Link“, sondern das Wort „Zitat“ verwendeten.Dies liegt daran, dass der PageRank auf einer Zitationsanalyse basiert.

Grob erklärt ist das die Analyse der Häufigkeit, Muster und Diagramme von Zitaten in Dokumenten (auch bekannt als Links von einem Dokument zum anderen). Ein typisches Ziel wäre es, die wichtigsten Dokumente in einer Sammlung zu identifizieren.

Das früheste Beispiel für die Zitationsanalyse war die Untersuchung von Netzwerken wissenschaftlicher Arbeiten, um die maßgeblichsten Quellen zu entdecken.Ihre übergreifende Wissenschaft ist als „Bibliometrie“ bekannt – was, wie ich bereits erwähnt habe, in die Kategorie der Analyse sozialer Netzwerke und der Netzwerktheorie passt.

Hier ist, wie ich das vor 20 Jahren auf die absolut einfachste Weise umgesetzt habe, um zu zeigen, wie Google Daten zu Webverknüpfungen betrachtet.

„Einige Links auf Webseiten sind lediglich Navigationshilfen zum ‚Durchsuchen‘ einer Website. Andere Links können Zugang zu anderen Seiten bieten, die den Inhalt der Seite, die sie enthält, erweitern. Andrei Broder [Chief Scientist Alta Vista] wies darauf hin, dass ein Webseitenautor aufgrund seiner Relevanz oder Wichtigkeit wahrscheinlich einen Link von einer Seite zur anderen erstellt: „Wissen Sie, was am Web sehr interessant ist, ist die Hyperlink-Umgebung, die es enthält viel Information. Es sagt Ihnen: „Ich finde diese Seite gut“ – weil die meisten Leute normalerweise gute Ressourcen auflisten. Die wenigsten Leute würden sagen: „Das sind die schlimmsten Seiten, die ich je gesehen habe“ und auf ihren eigenen Seiten darauf verlinken!

Hochwertige Seiten mit guten, klaren und prägnanten Informationen haben eher viele Links, die auf sie verweisen.Während Seiten mit geringer Qualität weniger oder gar keine Links haben.Die Hyperlink-Analyse kann die Relevanz von Suchergebnissen deutlich verbessern.Alle großen Suchmaschinen verwenden jetzt irgendeine Art von Algorithmen zur Linkanalyse.“

„Unter Verwendung des Citation/Co-Citation-Prinzips, wie es in der konventionellen Bibliometrie verwendet wird, können Hyperlink-Analysealgorithmen entweder eine oder beide dieser Grundannahmen treffen:
• Ein Hyperlink von Seite „a“ zu Seite „b“ ist eine Empfehlung von Seite „b“ durch den Autor von Seite „a“.
• Wenn Seite „a“ und Seite „b“ durch einen Hyperlink verbunden sind, können sie zum selben Thema gehören.

Auf Hyperlinks basierende Algorithmen verwenden auch einen ungerichteten Co-Citation-Graphen.A und B sind genau dann durch eine ungerichtete Kante verbunden, wenn es eine dritte Seite C gibt, die sowohl mit A als auch mit B verknüpft ist.“

Dieser zweite Teil hatte eine viel längere Erklärung dazu in dem Buch.Aber da es ein wenig verwirrend ist, werde ich hier ein wirklich vereinfachtes geben.

Es ist wichtig, die Stärken sowohl des Zitierens als auch des Kozitierens zu verstehen.

In der ersten Abbildung gibt es direkte Links – eine Seite verwendet einen Hyperlink, um eine Verbindung zu einer anderen herzustellen.Aber wenn Seite 'c' auf 'a' und 'b' verlinkt und dann Seite 'd' auf 'a' und 'b' und dann Seite 'e' und so weiter und so weiter, dann können Sie davon ausgehen, dass Obwohl Seite 'a' und Seite 'b' nicht direkt miteinander verlinkt sind, weil sie so oft gemeinsam zitiert werden, muss es eine Verbindung zwischen ihnen geben.

Was wäre ein reales Beispiel dafür?

Nun, Listen zu Beginn.Seiten mit den „Top Ten“ der meistverkauften Laptops, den „Top Ten“ der Sportpersönlichkeiten oder Rockstars, Sie können sehen, wie Co-Citation ein großer Faktor bei diesen Arten von Seiten ist.

Wo kommt also dieser HITS-Algorithmus ins Spiel, von dem Sie vielleicht noch nie gehört haben?

Es gibt eine Geschichte, dass Kleinberg zur gleichen Zeit, als Page und Brin an ihrem PageRank-Algorithmus arbeiteten, die Ergebnisse der Top-Suchmaschinen des Tages analysierte, einschließlich der am schnellsten wachsenden unter ihnen, Alta Vista.Er dachte, dass sie alle ziemlich schlecht waren und sehr magere Ergebnisse in Bezug auf ihre Relevanz für die Abfrage lieferten.

Er suchte nach dem Begriff „japanischer Automobilhersteller“ und stellte sehr unbeeindruckt fest, dass keiner der großen Namen wie Toyota und Nissan irgendwo in den Ergebnissen auftauchte, geschweige denn dort, wo sie an der Spitze stehen sollten.

Nachdem er die Websites der großen Hersteller besucht hatte, bemerkte er eines, das sie alle gemeinsam hatten: Keiner von ihnen hatte auf irgendeiner Website-Seite das Wort „japanischer Automobilhersteller“ im Text.

Tatsächlich suchte er nach dem Begriff „Suchmaschine“, und selbst Alta Vista tauchte aus demselben Grund nicht in seinen eigenen Ergebnissen auf.Dies veranlasste ihn, sich auf die Konnektivität von Webseiten zu konzentrieren, um einen Hinweis darauf zu geben, wie relevant (und wichtig) sie für eine bestimmte Suchanfrage waren.

Also entwickelte er den HITS-Algorithmus, der die obersten tausend oder mehr Seiten nach einer Schlüsselwortsuche bei Alta Vista nahm und sie dann nach ihrer Interkonnektivität ordnete.

Tatsächlich nutzte er die Linkstruktur, um ein Netzwerk oder eine „Community“ rund um das Keyword-Thema zu bilden und innerhalb dieses Netzwerks zu identifizieren, was er „Hubs and Authorities“ nannte.

Hier kam das Wort „Autorität“ in das SEO-Lexikon.Der Titel von Kleinbergs Dissertation lautete „Authoritative Sources in a Hyperlinked Environment“.

„Hub“-Seiten sind Seiten mit vielen Links zu „Autoritäten“ zu einem bestimmten Thema.Je mehr Hubs mit einer bestimmten Autorität verbunden sind, desto mehr Autorität erhält sie.Auch das verstärkt sich gegenseitig.Ein guter Hub kann auch eine gute Autorität sein und umgekehrt.

Wie immer keine Preise für meine grafischen Fähigkeiten vor all den Jahren, aber so habe ich es mir 2002 vorgestellt.Hubs (rot) sind diejenigen, die mit vielen „Autoritäten“ (blau) innerhalb von Web-Communities verbunden sind.

Was ist dann eine „Web-Community“?

Eine Webseiten-Datengemeinschaft bezieht sich auf eine Reihe von Webseiten, die ihre eigenen logischen und semantischen Strukturen haben.

Die Webseiten-Gemeinschaft betrachtet jede Webseite als ein ganzes Objekt, anstatt die Webseite in Informationsstücke zu zerlegen, und offenbart gegenseitige Beziehungen zwischen den betroffenen Webdaten.

Es ist flexibel darin, die Natur der Webdaten wie Dynamik und Heterogenität widerzuspiegeln.In der folgenden Grafik steht jede Farbe für eine andere Community im Web.

Ich habe immer behauptet, dass Links, die von innerhalb Ihrer eigenen Web-Community angezogen werden, mehr Prestige haben als Links von außerhalb Ihrer Community.

Ich habe vor 20 Jahren mehr darüber erklärt, wie wichtig es ist, Gemeinschaften auf diese Weise zu identifizieren:

„Und was die Verknüpfungsdaten betrifft: Seiten, die auf andere Seiten verweisen (verlinken), können eine riesige Menge an Informationen über Struktur, Gemeinschaften und Hierarchie (weitgehend als „Topologie“ des Webs bezeichnet) liefern.Durch die Verwendung dieser Methodik können Suchmaschinen versuchen, die intellektuelle Struktur (Topologie) und soziale Netzwerke (Communities) des Webs zu identifizieren.Es gibt jedoch viele Probleme bei der Skalierung mit Methoden der Zitations- und Kozitationsanalyse, um mit Hunderten und Abermillionen von Dokumenten mit Milliarden von Zitaten (Hyperlinks) umzugehen.
„Cyberspace“ (wie im Web) hat bereits seine Communities und Nachbarschaften.OK – weniger real in dem Sinne, wo du lebst und mit wem du rumhängst.Aber das Web hat eine „Soziologie“.Musikliebhaber aus verschiedenen Kulturen und unterschiedlichen Hintergründen (und Zeitzonen) leben nicht in der gleichen geografischen Nachbarschaft – aber wenn sie im Internet miteinander verbunden sind, sind sie eine große Gemeinschaft.Genauso wie Kunstliebhaber und Menschen aus allen Lebensbereichen, die ihre Informationen ins Internet stellen und diese Gemeinschaften bilden oder „Nachbarschaften verbinden“ im „Cyberspace“.

Holen Sie sich den täglichen Newsletter, auf den sich Suchmaschinenvermarkter verlassen.

PageRank vs.HITS: Was ist der Unterschied?

Sowohl der PageRank- als auch der HITS-Algorithmus weisen viele Ähnlichkeiten in der Art und Weise auf, wie sie die Interkonnektivität von Webseiten analysieren, um einen Ranking-Mechanismus zu erstellen.

Aber es gibt auch einen signifikanten Unterschied.

PageRank ist ein schlüsselwortunabhängiger Ranking-Algorithmus, während HITS schlüsselwortabhängig ist.

Mit PageRank erhalten Sie Ihre Autoritätsbewertung unabhängig von der Community, da es sich ursprünglich um eine statische globale Bewertung handelte.

Wohingegen HITS schlüsselwortabhängig ist, was bedeutet, dass der Autoritätswert um das Schlüsselwort/die Phrase herum aufgebaut ist, die die Community zusammenbringt.Es dauert zu lange und würde den Rahmen dieses Teils sprengen, um ins Detail zu gehen, also werde ich hier nicht zu tief gehen.

Der Algorithmus, der den Begriff „Experte“ eingeführt hat

Dieser Hilltop-Algorithmus ist enorm wichtig, wird aber am wenigsten beachtet.Und das liegt daran, dass in Fachkreisen die Überzeugung besteht, dass es 2003 mit dem berüchtigten Florida-Update in die algorithmischen Prozesse von Google integriert wurde.

Der Hilltop-Algorithmus, ein echter Game-Changer, ist eine viel engere Ableitung von HITS und wurde 1999 (ja, ungefähr zur gleichen Zeit) von Krishna Bharat entwickelt.

Zu dieser Zeit arbeitete er für das DEC Systems Research Center, das Eigentümer der Suchmaschine AltaVista war.Seine Forschungsarbeit trug den Titel „When Experts Agree: Using Non-Affiliated Experts to Rank Popular Topics“.Und so beschrieb er Hilltop.

„Wir schlagen ein neuartiges Ranking-Schema für beliebte Themen vor, das die maßgeblichsten Seiten zum gesuchten Thema an die Spitze des Rankings platziert. Unser Algorithmus arbeitet mit einem speziellen Index von „Expertendokumenten“. Dies sind eine Teilmenge der Seiten im WWW gekennzeichnet als Verzeichnisse mit Links zu nicht angeschlossenen Quellen zu bestimmten Themen.Die Ergebnisse werden basierend auf der Übereinstimmung zwischen der Suchanfrage und dem relevanten beschreibenden Text für Hyperlinks auf Expertenseiten, die auf eine bestimmte Ergebnisseite verweisen, geordnet."

Ja, hier kam der Begriff „Experte“ ins SEO-Lexikon.Beachten Sie sowohl im Titel des Papiers als auch in der Beschreibung des Prozesses, dass Ihre Seite als Expertenseite gilt, wenn andere darauf verlinken.Daher können die Begriffe „Experte“ und „Autorität“ synonym verwendet werden.

Eine andere Sache, die sorgfältig beachtet werden sollte – und das ist die Verwendung des Begriffs „nicht verbunden“ in der Beschreibung des Algorithmus.Das könnte einen Hinweis darauf geben, warum viele Affiliate-Vermarkter vom Florida-Update so schwer getroffen wurden.

Ein weiterer wichtiger Hinweis ist, dass sich die Leute in der SEO-Community häufig auf „Autoritätsseiten“ beziehen (oder manchmal auf „Domänenautorität“, was nicht einmal eine Sache ist). Tatsache ist jedoch, dass Suchmaschinen nach einer Abfrage Webseiten in ihren Ergebnissen zurückgeben, keine Websites.

Je mehr Links Sie von anderen "Experten"-Seiten anziehen, desto mehr Autorität gewinnen Sie und desto mehr "Prestige" können Sie einer anderen Expertenseite hinzufügen, indem Sie darauf verlinken.Das ist das Schöne daran, sich einen „Ruf“ innerhalb der Community aufzubauen – nicht einfach nur ein Link-Sammler zu sein.

Wann immer ich erkläre, wie wichtig es ist, innerhalb einer Web-Community als Experte anerkannt zu werden, wie ich es in den letzten zwei Jahrzehnten getan habe, weiß ich, dass die Leute manchmal Schwierigkeiten haben, sich vorzustellen, wie das aussehen würde.

Glücklicherweise bin ich bei meiner Forschungsarbeit vor all den Jahren auf einen anderen Algorithmus gestoßen, der von zwei japanischen Wissenschaftlern, Masashi Toyoda und Kentarou Fukuchi, entwickelt wurde.Ihr Ansatz war auch die Web-Community, aber sie konnten ihre Ergebnisse visuell ausgeben.

Das Beispiel, das ich von ihnen genommen habe, war eines, das sie verwendeten, als sie eine Web-Community rund um Computerhersteller aufbauten.Hier ist ein kleiner Teil der Ergebnisse, die ich herausgegriffen habe, um sie bei Konferenzsitzungen zu verwenden, damit jeder eine greifbarere Vorstellung von dem Begriff bekommt.

Beachten Sie, dass die Web-Community nicht nur Computerhersteller, sondern auch Gerätehersteller, Kabelhersteller, Softwarehersteller usw. umfasst.Dies zeigt an, wie breit und tief eine Web-Community sein kann (sowie eng und flach).

Wie „Vertrauen“ entstanden ist

Es gibt viel, was zu „Expertise“ und „Autorität“ gehört, und nicht weniger, was zu „Vertrauen“ gehört.

Auch „Vertrauen“ fällt in den Bereich der Hyperlink-Analyse und der Struktur des Webs.Es wurde viel Arbeit in die Nutzung des Inhalts und der Konnektivität von "Expertenseiten" investiert, denen man vertraut, dass sie Spam entdecken und aussortieren.Mit KI- und ML-Techniken lassen sich diese Konnektivitätsmuster viel einfacher erkennen und beseitigen.

Damals wurde ein Algorithmus entwickelt, der als „TrustRank“ bekannt war und darauf basierte.Die Feuerprobe für „Vertrauen“ findet natürlich beim Endverbraucher statt.

Suchmaschinen sind bestrebt, Spam auszusortieren und Ergebnisse zu liefern, die die Informationsbedürfnisse der Benutzer wirklich befriedigen.Benutzerzugriffsmuster auf Seiten liefern also eine riesige Datenmenge darüber, welche Seiten den Web-Community-Test (Konnektivität) bestehen und welche dann den Endbenutzertest bestehen (Benutzerzugriffsdaten).

Wie ich bereits erwähnt habe, können Links von anderen Webseiten zu Ihren Seiten als „Stimme“ für Ihren Inhalt angesehen werden.Aber was ist mit den Millionen und Abermillionen von Endbenutzern, die keine Webseiten haben, um Ihnen einen Link zu geben – wie können sie abstimmen?

Sie tun es mit ihrem „Vertrauen“, indem sie bestimmte Ergebnisse anklicken – oder andere nicht anklicken.

Es geht darum, ob Endbenutzer Ihre Inhalte konsumieren – denn wenn sie es nicht tun – welchen Sinn hat Google, sie nach einer Suchanfrage in den Ergebnissen zurückzugeben?

Was "Experte", "Autorität" und "Vertrauen" bei der Suche bedeuten

Zusammenfassend kann man sich auf den eigenen Seiten nicht zum Experten erklären.

Sie können "behaupten", ein Experte oder eine Autorität auf einem bestimmten Gebiet zu sein oder die Weltspitze in diesem oder jenem zu sein.

Aber philosophisch sagen Google und andere Suchmaschinen: "Wer denkt sonst so?"

Es ist nicht das, was du über dich sagst.Das sagen andere über Sie (Link-Ankertext). So bauen Sie sich einen "Ruf" in Ihrer Community auf.

Darüber hinaus bestimmen die Qualitätsbewerter von Google nicht selbst, ob Ihre Inhalte „Experte“ sind oder ob Sie eine „Autorität“ sind oder nicht.Ihre Aufgabe ist es, zu untersuchen und festzustellen, ob die Algorithmen von Google ihre Aufgabe erfüllen.

Dies ist ein so faszinierendes Thema und es gibt noch so viel mehr zu behandeln.Aber wir haben vorerst keine Zeit und keinen Platz mehr.

Beim nächsten Mal erkläre ich, wie wichtig strukturierte Daten sind und wie wichtig es ist, innerhalb Ihrer Web-Community „semantisch“ verbunden zu sein.

Genießen Sie bis dahin die goldenen Farben des Herbstes, während wir voller Vorfreude auf die nächste epische Lektüre über das Innenleben von Suchmaschinen in eine andere Jahreszeit gleiten.

Die in diesem Artikel geäußerten Meinungen sind die des Gastautors und nicht unbedingt Search Engine Land.Mitarbeiter Autoren sind hier aufgelistet.