Sitemap

Fouten in het herontwerp van websites die SEO vernietigen

Het herontwerpen van een website, of deze nu van uzelf is of van een klant, is tegenwoordig een essentieel onderdeel van marketing.Het is essentieel omdat technologie, trends en de verwachtingen van gebruikers in de loop van de tijd veranderen, en als we concurrerend willen blijven, moeten we gelijke tred houden met deze veranderingen.

Maar deze taak, hoewel essentieel, brengt ook bepaalde risico's met zich mee vanuit een SEO-perspectief.Tijdens het proces kunnen er een aantal dingen mis gaan.Deze problemen kunnen er mogelijk toe leiden dat zoekmachines die website niet langer zien als het gezaghebbende antwoord op relevante vragen.In sommige gevallen kunnen bepaalde fouten zelfs leiden tot boetes.

Dat wil niemand.

Dus in dit artikel gaan we enkele veelvoorkomende fouten in webontwerp onderzoeken die SEO kunnen vernietigen.Als u de potentiële risico's kent, kunt u voorkomen dat u fouten maakt die uw organische zoekverkeer belemmeren.

De ontwikkelomgeving crawlbaar/indexeerbaar laten

Mensen gaan op veel verschillende manieren om met ontwikkelomgevingen.De meesten stellen eenvoudig een submap in onder hun domein.Sommigen kunnen een domein creëren dat uitsluitend bedoeld is voor ontwikkeling.Dan zijn er mensen die het soort voorzorgsmaatregelen nemen om hun ontwikkelomgeving te verbergen die een CIA-agent een warm donzig gevoel zouden geven op die lege plek waar hun hart zou moeten zijn.

Ik val meestal in de laatste categorie.

Zoekmachines gaan over het algemeen links volgen en de inhoud die ze onderweg vinden indexeren - soms zelfs als je ze expliciet zegt dat niet te doen.Dat levert problemen op omdat ze twee versies van dezelfde website kunnen indexeren, wat mogelijk problemen veroorzaakt met zowel inhoud als links.

Daarom plaats ik zoveel mogelijk wegversperringen in de weg van zoekmachines die toegang proberen te krijgen tot mijn ontwikkelomgeving.

Dit is wat ik doe.De eerste stap is om een ​​schone URL te gebruiken die nog nooit eerder voor een live website is gebruikt.Dit zorgt ervoor dat er geen links naar verwijzen.Verbied vervolgens alle bots die robots.txt gebruiken en stel een lege indexpagina in zodat andere mappen niet zichtbaar zijn.In het verleden ben ik zelfs zo ver gegaan als het instellen van wachtwoordbeveiliging, maar in de meeste gevallen is dat misschien overdreven.U kunt die oproep doen.

Van daaruit zal ik een aparte map instellen voor elke website in ontwikkeling.Meestal is de mapnaam een ​​combinatie van onvolledige woorden, zodat het onwaarschijnlijk is dat deze willekeurig wordt gevonden.WordPress wordt dan in deze mappen geïnstalleerd en geconfigureerd om ook bots op dit niveau te blokkeren.

Willekeurig veranderende afbeeldingsnamen op pagina's die goed scoren

Dit is niet altijd een probleem, maar als een webpagina goed scoort, kan het wijzigen van de naam van een afbeelding op die pagina leiden tot een verlies aan positie.Vooral als de webdesigner niet weet wat hij doet.

Ik heb dit meer dan een paar keer zien gebeuren, waarbij een klant een webdesigner inhuurt die SEO niet begrijpt om een ​​website opnieuw te ontwerpen die al goed scoort.Als onderdeel van het herontwerpproces vervangen ze oude afbeeldingen door nieuwe, grotere afbeeldingen, maar bij gebrek aan de juiste ervaring gebruiken ze domme afbeeldingsnamen die geen SEO-waarde bieden, zoals image1.jpg.

Dit neemt een essentieel stuk context weg dat zoekmachines gebruiken om te bepalen waar een bepaalde webpagina moet worden gerangschikt.

Pagina's verwijderen of pagina-URL's wijzigen zonder ze om te leiden

Tijdens een herontwerp zullen sommige pagina's vrijwel zeker niet meer nodig zijn.Minder ervaren webdesigners zullen ze vaak gewoon verwijderen.Andere pagina's kunnen worden verplaatst en/of hernoemd, wat in de meeste gevallen de URL verandert.In deze gevallen veranderen onervaren webontwerpers deze URL's vaak en beschouwen ze de taak als voltooid.

Dit is een grote fout omdat sommige van die pagina's mogelijk al goed scoren.Ze hebben mogelijk inkomende links die naar hen verwijzen of zijn door bezoekers als bladwijzer gemarkeerd.

Wanneer u pagina's verwijdert die al inkomende links hebben, verliest u alle SEO-waarde van die links.In sommige gevallen kan dit resulteren in een drastisch verlies van ranking.

Het probleem gaat echter nog dieper.Iedereen die op die links of bladwijzers klikt, wordt begroet door een 404-pagina.Dat heeft voor niemand waarde, en nog belangrijker, het creëert een negatieve gebruikerservaring.Dit is belangrijk omdat Google heeft bevestigd dat gebruikerservaring een rankingfactor is.

De juiste manier om pagina's te verwijderen is om ze om te leiden naar de meest relevante pagina die momenteel bestaat.Wat betreft het verplaatsen van pagina's, waaronder alles wat de URL van die pagina op enigerlei wijze verandert, is het net zo belangrijk om de oude URL om te leiden naar de nieuwe.

In beide scenario's moet over het algemeen een 301-omleiding worden gebruikt.Dit vertelt zoekmachines dat de oude pagina permanent is verplaatst naar de nieuwe locatie.Voor de meeste hostingplatforms kan dit het beste worden bereikt door de juiste vermelding toe te voegen aan uw .htaccess-bestand.

Als u geen .htaccess-bestand op uw server kunt zien, moet u mogelijk de instellingen van uw FTP-programma aanpassen om verborgen bestanden te kunnen zien.

Sommige gespecialiseerde hostingplatforms gebruiken mogelijk een andere methode, dus u moet mogelijk contact opnemen met hun ondersteuningsteam om te bepalen hoe u dit kunt bereiken.

Geen volledige crawl uitvoeren na migratie van en naar de ontwikkelomgeving

Ongeacht de methode die u voor migratie gebruikt, u zult ongetwijfeld enkele fouten tegenkomen.Meestal migreert u eerst de live website naar uw ontwikkelomgeving en stuurt u deze later terug naar de live server nadat u wijzigingen heeft aangebracht en getest.

Een die ik vaak tegenkom, zijn links binnen inhoud die naar de verkeerde plaats verwijzen.Binnen een pagina of post op de live website kan je bijvoorbeeld een link hebben die verwijst naar:

domein.com/services/

Eenmaal gemigreerd naar de ontwikkelomgeving, kan het zijn:

devdomain.com/client123/services/

Tot nu toe is alles goed en wel, toch?

Maar soms, terwijl de voltooide website terug naar de live server wordt gemigreerd, kan de inhoud in pagina's en berichten nog steeds links bevatten die verwijzen naar de pagina's in de ontwikkelomgeving.

Dit is slechts één voorbeeld.Er zijn talloze links naar inhoud binnen een website - inclusief links naar de essentiële afbeeldings-, JavaScript- en CSS-bestanden.

Gelukkig is de oplossing simpel.Een tool als Screaming Frog, die vanaf je desktop wordt uitgevoerd, of een cloudgebaseerde tool zoals SEMrush, kan worden gebruikt om elke afzonderlijke link binnen je website te crawlen.Dit omvat de tekstlinks die zichtbaar zijn aan de voorkant, evenals alle links naar afbeeldings-, JavaScript- en CSS-bestanden die zijn weggestopt in de HTML van een website.

Zorg ervoor dat u alle links naar externe bronnen bekijkt zodra de nieuwe website naar de live server is gemigreerd, want alle links die naar uw ontwikkelomgeving verwijzen, worden weergegeven als externe links. de nodige correcties aanbrengen.

Deze stap is essentieel na migratie in beide richtingen om potentieel catastrofale fouten te voorkomen.

Er niet in slagen om een ​​volledige functiecontrole op alles uit te voeren

Zodra een opnieuw ontworpen website is gemigreerd naar de live server, moet u meer doen dan snel een paar pagina's bekijken om er zeker van te zijn dat alles er goed uitziet.In plaats daarvan is het essentieel om alles fysiek te testen om er zeker van te zijn dat het er niet alleen goed uitziet, maar ook goed functioneert.

Dit bevat:

  • Contact formulieren.
  • E-commerce functionaliteit.
  • Zoekmogelijkheden.
  • Interactieve hulpmiddelen.
  • Multimediaspelers.
  • Analyseren.
  • Google Search Console / Bing Webmaster Tools-verificatie.
  • Volgpixels.
  • Dynamische advertenties.

Kan WordPress en plug-ins niet opnieuw configureren na migratie naar de live server

Weet je nog hoe we het hadden over het belang van het plaatsen van een muur tussen je ontwikkelomgeving en de crawlers van de zoekmachines?Welnu, het is nog belangrijker om die muur af te breken nadat de website naar de live server is gemigreerd.

Dit niet doen is eenvoudig.Het is ook verwoestend.In feite is het een fout die ik enkele jaren geleden heb gemaakt.

Nadat ik de website van een klant naar hun live server had gemigreerd, vergat ik het selectievakje in Yoast SEO uit te schakelen dat zoekmachines vertelde om deze niet te crawlen of te indexeren.Helaas merkte niemand het een paar dagen op, op dat moment was de website bijna volledig uit de index van Google verwijderd.Gelukkig vertrouwden ze niet op organisch verkeer, en toen ik dat vakje eenmaal uitschakelde, werd de website snel opnieuw geïndexeerd.

Vanwege de impact die fouten als deze kunnen hebben, is het van cruciaal belang dat u na de migratie naar de live server onmiddellijk de configuratie van WordPress controleert, evenals eventuele plug-ins die van invloed kunnen zijn op hoe zoekmachines uw website behandelen.

Dit omvat plug-ins voor:

  • SEO.
  • omleiding.
  • Sitemaps.
  • Schema.
  • cachen.

Verwaarlozen om aandacht te besteden aan details

Geen van deze fouten is bijzonder ingewikkeld of moeilijk te vermijden.U hoeft ze alleen maar te kennen, een plan te implementeren om ze te vermijden en goed op details te letten.

De meningen in dit artikel zijn die van de gastauteur en niet noodzakelijkerwijs Search Engine Land.De auteurs van het personeel worden hier vermeld.