SEO voor gevorderden | Ralf van Veen

Vanuit een resource perspectief, adviseer ik meestal alleen een omleiding van 301 beelden die goed rangschikken en het zoekverkeer naar trefwoorden die zijn afgestemd op de zakelijke doelstellingen, niet generieke afbeeldingen, afstandhouders, achtergronden en dergelijke.

Google crawlt niet zo vaak als pagina’s, dus het kan een lange tijd duren voor Google om te bepalen of afbeeldingen zijn verplaatst zonder omleidingen. Googlebot ontdekt beelden tijdens het reguliere crawlproces en wijst ze toe voor later kruipen door Googlebot-Image. Wanneer een afbeelding wordt geïndexeerd in een URL die langer bestaat, moet Google extra middelen gebruiken om te bepalen wat er is gebeurd. Het omleiden van oude beeld-URL’s geeft een sterk signaal dat een afbeelding is verplaatst. Omdat Google geen gebruik maakt van signalen zoals rel=canonical voor afbeeldingen, is 301 redirecting echt de enige optie in dit scenario.

Vergeet niet om ervoor te zorgen dat de beelden visueel identiek zijn, of om nieuwe beelden te optimaliseren voor de snelheid. Bijvoorbeeld het verwijderen van onnodige afbeeldingen van nieuwe pagina’s, het gebruik van optimale opmaak, compressie en het controleren van zaken als bitdiepte en het verkleinen van de paletgrootte indien mogelijk.

Vraag: Wat/waar zijn de belangrijkste plaatsen die u in de eerste dagen/weken van een migratie in de gaten houdt om een vlotte overgang te garanderen?

Brian: Na een migratie volg ik handmatig zoveel mogelijk pagina’s op desktop en mobiel, en analyseer ik gegevens van tools als Screaming Frog, zoekconsole, PageSpeed inzichten, Google’s mobiel-vriendelijke tool en analytics. Het is belangrijk om te onthouden dat analytics alleen vertelt wat gebruikers hebben gedaan, niet wat ze van plan zijn te doen.

Vergeet niet om de resultatenpagina’s van de zoekmachines te controleren en te monitoren. Upload gecategoriseerde XML-sitemaps en stuur ze naar Bing en Google naast het toevoegen van de URL naar robots.txt. Haal nieuwe pagina’s en hun directe links op via Google Search Console.

Voor e-commerce sites, kijk uit voor HTTP naar HTTPS mismatch browser fouten en zorg ervoor dat gebruikers kunnen daadwerkelijk dingen toe te voegen aan de winkelwagen en de kassa.

Zodra de nieuwe site is bevestigd operationeel, ik controleer oude site URL’s om ervoor te zorgen dat ze goed worden omgeleid en voor dingen zoals redirect ketens of zachte 404s.

Vraag: Moet ik na een migratie (URL, niet domein), als ik nog steeds in de herstelperiode zit (acht tot 10 weken), andere wijzigingen aan de site vermijden? Of kan ik de A/B-tests en content updates hervatten?

Brian: Na een sitemigratie, en afhankelijk van de grootte van de site, zou ik het niet aanraden om enkele maanden lang onnodige extra wijzigingen aan te brengen als dat al mogelijk is.

Vraag: Ik heb gemerkt dat je het upgraden naar HTTP2 niet als een van je 10 suggesties hebt genoemd. Was dit omdat het een hoger niveau van inspanning is dan de dingen die je nu kunt doen? Of was het omdat je niet ziet dat HTTP2 zoveel impact heeft?

Brian: HTTP2 is een geweldige manier om de prestaties te verbeteren, maar wordt momenteel slechts door ongeveer 30 procent van de websites gebruikt. Ik heb HTTP2 niet specifiek genoemd omdat het meer inspanning vergt en het ook aan belanghebbenden op bedrijfsniveau verkocht moet worden. Soms is het makkelijker om een case te bouwen voor de C-suite als je kunt zeggen dat we alles hebben gedaan wat we kunnen doen behalve HTTP2.

Vraag: Ervan uitgaande dat men zich niet bekommert om prestatievermindering, is het kruipen van het budget dan een punt van zorg?

Brian: Crawl budget is een zorg als het gaat om crawl efficiency, dekking, nieuwe pagina’s, frisheid en andere factoren. Motoren kunnen slechts zoveel tijd besteden aan het kruipen op uw site. U wilt niet dat motoren al die tijd doorbrengen met het kruipen van URL’s die een 404 terugsturen. U wilt een efficiënte, gelijkmatige dekking om frisheid te garanderen en voor motoren om nieuwe pagina’s te vinden.

Vraag: Na een migratie: wanneer u de “Fetch”-tool in GSC gebruikt om primaire pagina’s in te dienen, hoe diep kruipt Google dan van die ingediende pagina? Crawlen ze alleen alle links op die ingezonden pagina? Of zullen ze nog dieper kruipen?

Brian: Wanneer u als Googlebot ophaalt en “deze URL en de directe koppelingen ervan terughaalt” selecteert, dient u in principe de gevraagde URL in, evenals alle pagina’s waarnaar de pagina direct verwijst.

U kunt maximaal twee recrawl-verzoeken per dag indienen.

Geschreven door Ralf van Veen, freelance SEO specialist bij ralfvanveen.com.

https://ralfvanveen.com