Zoekmachine optimalisatie is naast linkbuilding de belangrijkste factor om te scoren in Google. Zonder SEO en backlinks zal de concurrentie steeds boven jou staan in Google.
Wat is Zoekmachine optimalisatie of SEO?
SEO staat voor ‘Zoekmachine optimalisatie’. In eenvoudige bewoordingen betekent het het proces van het verbeteren van uw site om de zichtbaarheid ervan te vergroten wanneer mensen zoeken naar producten of services die verband houden met uw bedrijf in Google, Bing en andere zoekmachines . Hoe beter uw pagina’s zichtbaar zijn in de zoekresultaten, hoe groter de kans dat u de aandacht trekt en potentiële en bestaande klanten naar uw bedrijf trekt.
Hoe werkt SEO?
Zoekmachines zoals Google en Bing gebruiken bots om pagina’s op internet te crawlen, van site naar site te gaan, informatie over die pagina’s te verzamelen en in een index te plaatsen. Zie de index als een gigantische bibliotheek waar een bibliothecaris een boek (of een webpagina) kan openen om u te helpen precies te vinden waarnaar u op dat moment op zoek bent.
Vervolgens analyseren algoritmen pagina’s in de index, rekening houdend met honderden rankingfactoren of signalen, om te bepalen in welke volgorde pagina’s in de zoekresultaten voor een bepaalde zoekopdracht moeten verschijnen. In onze bibliotheekanalogie heeft de bibliothecaris elk boek in de bibliotheek gelezen en kan hij u precies vertellen welk boek de antwoorden op uw vragen zal hebben.
Onze SEO Zoekmachine optimalisatie -succesfactoren kunnen worden beschouwd als proxy’s voor aspecten van de gebruikerservaring . Het is hoe zoekbots precies inschatten hoe goed een website of webpagina de zoeker kan geven waarnaar ze zoeken.
In tegenstelling tot betaalde zoekadvertenties , kunt u zoekmachines niet betalen om hogere organische zoekresultaten te krijgen, wat betekent dat SEO-experts het werk moeten doen. Dat is waar we binnenkomen.
Ons periodiek systeem van SEO Zoekmachine optimalisatie -factoren organiseert de factoren in zes hoofdcategorieën en gewichten, elk op basis van het algehele belang ervan voor SEO. Inhoudskwaliteit en zoekwoordonderzoek zijn bijvoorbeeld sleutelfactoren voor inhoudsoptimalisatie, en crawlbaarheid en snelheid zijn belangrijke factoren voor de architectuur van de site.
Het onlangs bijgewerkte SEO Zoekmachine optimalisatie periodiek systeem bevat ook een lijst met giftige stoffen die afbreuk doen aan best practices voor SEO. Dit zijn snelkoppelingen of trucs die misschien voldoende waren om een hoge ranking te garanderen in de tijd dat de methoden van de engine veel minder geavanceerd waren. En misschien werken ze nu zelfs voor een korte tijd – tenminste totdat je gepakt wordt.
We hebben ook een gloednieuw Niches-gedeelte dat dieper ingaat op de SEO-succesfactoren achter drie belangrijke niches: Lokale Zoekmachine optimalisatie, Nieuws/Publicatie en E-commerce SEO. Hoewel ons algehele Zoekmachine optimalisatie -periodieke systeem u zal helpen met de best practices, kan het kennen van de nuances van SEO voor elk van deze niches u helpen om zoekresultaten voor uw kleine bedrijf, receptenblog en/of online winkel te behalen.
De zoekalgoritmen zijn ontworpen om relevante, gezaghebbende pagina’s naar boven te halen en gebruikers een efficiënte zoekervaring te bieden. Door uw site en inhoud te optimaliseren met deze factoren in gedachten, kunnen uw pagina’s hoger in de zoekresultaten komen te staan.
Backlinks pakketten
Backlinks verzamelen is net zoals SEO een lange termijnstrategie. Het is niet zo als je vandaag 50 backlinks krijgt dat je volgende week 5 plaatsen zal gestegen zijn in de ranking van Google. Wij bevelen onze klanten aan om het resultaat van linkbuilden pas na 6 maand te evalueren. Het beste rendement van uw campagne merk je maar pas op na een half jaar. Wij werken met pakketten per maand, die maandelijks opgezegd kunnen worden.
Onze maandelijkse pakketten
Handmatige Linkbuilding uitbesteden is net zoals SEO een lange termijnstrategie. Het is niet zo als je vandaag 50 backlinks krijgt dat je volgende week 5 plaatsen zal gestegen zijn in de ranking van Google. Wij bevelen onze klanten aan om het resultaat van linkbuilden pas na 6 maand te evalueren. Het beste rendement van uw campagne merk je maar pas op na een half jaar. Wij werken met pakketten per jaar, die maandelijks, per kwartaal of jaarlijks kunnen betaald worden.
Link building extra woord = 35 €
Omdat wij onze backlinks volledig manueel behandelen werken wij met een contract van 1 jaar. Als u kiest voor een éémalige betaling krijgt u 15% korting.
(alle prijzen excl. 21% BTW)
Waarom is SEO belangrijk voor marketing?
SEO is een fundamenteel onderdeel van digitale marketing omdat mensen elk jaar biljoenen zoekopdrachten uitvoeren , vaak met commerciële bedoelingen om informatie over producten en diensten te vinden. Zoeken is vaak de primaire bron van digitaal verkeer voor merken en vormt een aanvulling op andere marketingkanalen. Een grotere zichtbaarheid en een hogere positie in de zoekresultaten dan uw concurrentie kan een materiële impact hebben op uw bedrijfsresultaten.
De zoekresultaten zijn de afgelopen jaren echter geëvolueerd om gebruikers meer directe antwoorden en informatie te geven waardoor de kans groter is dat gebruikers op de resultatenpagina blijven in plaats van ze naar andere websites te leiden.
Houd er ook rekening mee dat functies zoals uitgebreide resultaten en kennisvensters in de zoekresultaten de zichtbaarheid kunnen vergroten en gebruikers rechtstreeks in de resultaten meer informatie over uw bedrijf kunnen bieden.
Kortom, SEO is de basis van een holistisch marketingecosysteem. Wanneer u begrijpt wat uw websitegebruikers willen, kunt u die kennis vervolgens implementeren in uw campagnes (betaald en organisch), op uw website, op uw socialemedia-eigenschappen en meer.
Het proces is mensentaal
Zoekmachineoptimalisatie ( SEO ) is het proces van het verbeteren van de kwaliteit en kwantiteit van websiteverkeer van zoekmachines naar een website of een webpagina . SEO richt zich op onbetaald verkeer (bekend als “natuurlijke” of ” organische ” resultaten) in plaats van direct verkeer of betaald verkeer . Onbetaald verkeer kan afkomstig zijn van verschillende soorten zoekopdrachten, waaronder zoeken naar afbeeldingen , video zoeken , academisch zoeken , zoeken naar nieuws en branchespecifieke verticale zoekmachines.
Algemene white-hat-methoden voor zoekmachineoptimalisatie
Als een internetmarketingstrategie houdt SEO rekening met hoe zoekmachines werken, de computergeprogrammeerde algoritmen die het gedrag van zoekmachines dicteren, waar mensen naar zoeken, de eigenlijke zoektermen of trefwoorden die in zoekmachines worden getypt en welke zoekmachines de voorkeur hebben van hun doelgroep . Zoekmachine optimalisatie wordt uitgevoerd omdat een website meer bezoekers van een zoekmachine krijgt wanneer websites hoger scoren op de resultatenpagina van de zoekmachine (SERP). Deze bezoekers kunnen dan potentieel worden omgezet in klanten.
De geschiedenis van SEO
Webmasters en contentproviders begonnen halverwege de jaren negentig met het optimaliseren van websites voor zoekmachines, toen de eerste zoekmachines het vroege web catalogiseerden . Aanvankelijk hoefden alle webmasters alleen het adres van een pagina, of URL , aan de verschillende engines door te geven, die een webcrawler zouden sturen om die pagina te crawlen , er links naar andere pagina’s uit te halen en informatie terug te sturen die op de te lezen pagina was gevonden. geïndexeerd . Bij dit proces downloadt een spider van een zoekmachine een pagina en slaat deze op de eigen server van de zoekmachine op. Een tweede programma, bekend als een indexer, extraheert informatie over de pagina, zoals de woorden die het bevat, waar ze zich bevinden, en elk gewicht voor specifieke woorden, evenals alle links die de pagina bevat. Al deze informatie wordt vervolgens in een planner geplaatst om op een later tijdstip te worden gecrawld.
Website-eigenaren erkenden de waarde van een hoge ranking en zichtbaarheid in de resultaten van zoekmachines, wat een kans creëerde voor zowel white hat als black hat Zoekmachine optimalisatie beoefenaars. Volgens industrieanalist Danny Sullivan is de uitdrukking “zoekmachineoptimalisatie” waarschijnlijk in 1997 in gebruik genomen. Sullivan noemt Bruce Clay een van de eersten die de term populair maakte.
Vroege versies van zoekalgoritmen vertrouwden op door de webmaster verstrekte informatie, zoals de metatag van het zoekwoord of indexbestanden in zoekmachines zoals ALIWEB . Metatags bieden een leidraad voor de inhoud van elke pagina. Het gebruik van metadata om pagina’s te indexeren bleek echter niet erg betrouwbaar, omdat de keuze van de webmaster van trefwoorden in de metatag mogelijk een onnauwkeurige weergave van de daadwerkelijke inhoud van de site zou kunnen zijn. Gebrekkige gegevens in metatags, zoals gegevens die niet nauwkeurig, volledig of onjuist waren, creëerden de mogelijkheid dat pagina’s verkeerd werden gekarakteriseerd in irrelevante zoekopdrachten.
Webcontentproviders manipuleerden ook enkele attributen binnen deHTML -bron van een pagina in een poging om goed te scoren in zoekmachines. In 1997 erkenden ontwerpers van zoekmachines dat webmasters hun best deden om goed te scoren in hun zoekmachine en dat sommige webmasters zelfs hun positie in de zoekresultaten manipuleerden door pagina’s vol te proppen met buitensporige of irrelevante zoekwoorden. Vroege zoekmachines, zoals Altavista en Infoseek , pasten hun algoritmen aan om te voorkomen dat webmasters rankings manipuleren.
Door sterk te vertrouwen op factoren zoals zoekwoorddichtheid , die uitsluitend onder de controle van een webmaster vielen, leden vroege zoekmachines onder misbruik en manipulatie van ranglijsten. Om betere resultaten aan hun gebruikers te bieden, moesten zoekmachines zich aanpassen om ervoor te zorgen dat hun resultatenpagina’s de meest relevante zoekresultaten lieten zien, in plaats van niet-gerelateerde pagina’s gevuld met talloze zoekwoorden door gewetenloze webmasters.
Dit betekende dat we moesten afstappen van een sterke afhankelijkheid van termdichtheid naar een meer holistisch proces voor het scoren van semantische signalen. Aangezien het succes en de populariteit van een zoekmachine worden bepaald door het vermogen om de meest relevante resultaten voor een bepaalde zoekopdracht te produceren, kunnen zoekresultaten van slechte kwaliteit of irrelevante zoekresultaten ertoe leiden dat gebruikers andere zoekbronnen vinden. Zoekmachines reageerden door complexere rangschikkingsalgoritmen te ontwikkelen, rekening houdend met aanvullende factoren die voor webmasters moeilijker te manipuleren waren.
Bedrijven die overdreven agressieve technieken gebruiken, kunnen ervoor zorgen dat de websites van hun klanten uit de zoekresultaten worden geweerd. In 2005 berichtte de Wall Street Journal over een bedrijf, Traffic Power , dat naar verluidt risicovolle technieken gebruikte en deze risico’s niet bekendmaakte aan zijn klanten. Het tijdschrift Wired meldde dat hetzelfde bedrijf blogger en Zoekmachine optimalisatie Aaron Wall had aangeklaagd wegens het schrijven over het verbod. Matt Cutts van Google bevestigde later dat Google Traffic Power en enkele van zijn klanten inderdaad heeft verboden.
Sommige zoekmachines hebben ook contact gezocht met de Zoekmachine optimalisatie industrie en zijn frequente sponsors en gasten van Zoekmachine optimalisatie conferenties, webchats en seminars. Grote zoekmachines bieden informatie en richtlijnen om te helpen bij website-optimalisatie. Google heeft een Sitemaps -programma om webmasters te helpen erachter te komen of Google problemen heeft met het indexeren van hun website en biedt ook gegevens over het Google-verkeer naar de website. Bing Webmaster Tools biedt webmasters een manier om een sitemap en webfeeds in te dienen, stelt gebruikers in staat om de “crawlsnelheid” te bepalen en de indexstatus van webpagina’s bij te houden.
In 2015 werd gemeld dat Google mobiel zoeken aan het ontwikkelen en promoten was als een belangrijk kenmerk van toekomstige producten. Als reactie hierop begonnen veel merken hun internetmarketingstrategieën anders te benaderen.
Relatie met Google
In 1998 ontwikkelden twee afgestudeerde studenten aan Stanford University , Larry Page en Sergey Brin , “Backrub”, een zoekmachine die vertrouwde op een wiskundig algoritme om de bekendheid van webpagina’s te beoordelen. Het aantal dat wordt berekend door het algoritme, PageRank , is een functie van de hoeveelheid en sterkte van inkomende links . PageRank schat de kans dat een bepaalde pagina wordt bereikt door een webgebruiker die willekeurig op internet surft en links van de ene pagina naar de andere volgt. Dit betekent in feite dat sommige links sterker zijn dan andere, omdat een pagina met een hogere PageRank eerder wordt bereikt door de willekeurige websurfer.
Page en Brin richtten Google op in 1998. Google trok een trouwe aanhang onder het groeiende aantal internetgebruikers , dat hield van het eenvoudige ontwerp. Er werd rekening gehouden met factoren buiten de pagina (zoals PageRank en analyse van hyperlinks) en factoren op de pagina (zoals frequentie van zoekwoorden, metatags , koppen, links en sitestructuur) om Google in staat te stellen het soort manipulatie te vermijden dat wordt gezien in zoekmachines die alleen rekening hielden met on-page factoren voor hun ranking. Hoewel PageRank moeilijker te gamen was, hadden webmasters al tools en schema’s voor linkbuilding ontwikkeld om de Inktomi te beïnvloeden en deze methoden bleken op dezelfde manier van toepassing op PageRank voor games. Veel sites richten zich op het uitwisselen, kopen en verkopen van links, vaak op grote schaal. Bij sommige van deze schema’s, of linkfarms , werden duizenden sites gemaakt met als enig doel het spammen van links .
In 2004 hadden zoekmachines een breed scala aan geheime factoren in hun rangschikkingsalgoritmen opgenomen om de impact van linkmanipulatie te verminderen. In juni 2007 verklaarde Saul Hansell van The New York Times dat Google sites rangschikt met behulp van meer dan 200 verschillende signalen. De toonaangevende zoekmachines, Google, Bing en Yahoo , maken de algoritmen die ze gebruiken om pagina’s te rangschikken niet bekend. Sommige Zoekmachine optimalisatie beoefenaars hebben verschillende benaderingen van zoekmachineoptimalisatie bestudeerd en hebben hun persoonlijke mening gedeeld. Octrooien met betrekking tot zoekmachines kunnen informatie verschaffen om zoekmachines beter te begrijpen. In 2005 begon Google met het personaliseren van zoekresultaten voor elke gebruiker. Afhankelijk van hun geschiedenis van eerdere zoekopdrachten, heeft Google resultaten gemaakt voor ingelogde gebruikers.
In 2007 kondigde Google een campagne aan tegen betaalde links die PageRank overdragen. Op 15 juni 2009 maakte Google bekend dat ze maatregelen hadden genomen om de effecten van PageRank-sculpting te verzachten door het nofollow- attribuut op links te gebruiken. Matt Cutts , een bekende software-engineer bij Google, kondigde aan dat Google Bot geen no-follow-links meer op dezelfde manier zou behandelen, om te voorkomen dat Zoekmachine optimalisatie serviceproviders nofollow gebruiken voor PageRank-sculpting.
Als gevolg van deze wijziging leidde het gebruik van nofollow tot verdamping van PageRank. Om het bovenstaande te voorkomen, hebben Zoekmachine optimalisatie ingenieurs alternatieve technieken ontwikkeld die nofollow-tags vervangen door versluierde JavaScripten zo PageRank beeldhouwen mogelijk te maken. Bovendien zijn er verschillende oplossingen voorgesteld, waaronder het gebruik van iframes , Flash en JavaScript.
In december 2009 kondigde Google aan dat het de zoekgeschiedenis van al zijn gebruikers zou gebruiken om zoekresultaten te vullen. Op 8 juni 2010 werd een nieuw webindexeringssysteem genaamd Google Caffeine aangekondigd. Ontworpen om gebruikers in staat te stellen nieuwsresultaten, forumberichten en andere inhoud veel sneller na publicatie te vinden dan voorheen, was Google Caffeine een verandering in de manier waarop Google zijn index bijwerkte om ervoor te zorgen dat dingen sneller op Google verschijnen dan voorheen.
Volgens Carrie Grimes, de software-engineer die Caffeine voor Google aankondigde, “biedt Caffeine 50 procent frissere resultaten voor zoekopdrachten op het web dan onze laatste index…” Google Instant, real-time zoeken, werd eind 2010 geïntroduceerd in een poging om zoekresultaten actueler en relevanter te maken. Historisch gezien hebben sitebeheerders maanden of zelfs jaren besteed aan het optimaliseren van een website om de zoekresultaten te verbeteren. Met de groeiende populariteit van sociale-mediasites en blogs, hebben de leidende zoekmachines wijzigingen aangebracht in hun algoritmen om nieuwe inhoud snel in de zoekresultaten te laten scoren.
In februari 2011 kondigde Google de Panda -update aan, die websites straft die inhoud bevatten die is gedupliceerd van andere websites en bronnen. Historisch gezien hebben websites inhoud van elkaar gekopieerd en geprofiteerd van de positie van zoekmachines door zich met deze praktijk bezig te houden. Google heeft echter een nieuw systeem geïmplementeerd dat sites straft waarvan de inhoud niet uniek is. De Google Penguin uit 2012 probeerde websites te bestraffen die manipulatieve technieken gebruikten om hun positie in de zoekmachine te verbeteren. Hoewel Google Penguin is gepresenteerd als een algoritme dat is gericht op het bestrijden van webspam, richt het zich echt op spamachtige links door de kwaliteit te meten van de sites waar de links vandaan komen.
De 2013Google Hummingbird -update bevatte een algoritmewijziging die was ontworpen om de natuurlijke taalverwerking van Google en het semantische begrip van webpagina’s te verbeteren. Het taalverwerkingssysteem van Hummingbird valt onder de nieuw erkende term ‘ conversatie zoeken ‘, waarbij het systeem meer aandacht besteedt aan elk woord in de zoekopdracht om de pagina’s beter af te stemmen op de betekenis van de zoekopdracht in plaats van aan een paar woorden. Met betrekking tot de wijzigingen die zijn aangebracht in de zoekmachineoptimalisatie, is Hummingbird bedoeld voor uitgevers en schrijvers van inhoud om problemen op te lossen door irrelevante inhoud en spam te verwijderen, waardoor Google inhoud van hoge kwaliteit kan produceren en erop kan vertrouwen dat ze ‘ vertrouwde’ auteurs.
In oktober 2019 kondigde Google aan dat ze BERT -modellen zouden gaan toepassen voor Engelstalige zoekopdrachten in de VS. Bidirectional Encoder Representations from Transformers (BERT) was een andere poging van Google om hun natuurlijke taalverwerking te verbeteren, maar deze keer om de zoekopdrachten van hun gebruikers beter te begrijpen. In termen van zoekmachineoptimalisatie was BERT bedoeld om gebruikers gemakkelijker met relevante inhoud te verbinden en de kwaliteit van het verkeer naar websites die op de resultatenpagina van de zoekmachine staan te verhogen.
Geïndexeerd worden
Een eenvoudige illustratie van het Pagerank -algoritme. Percentage toont het gepercipieerde belang. De toonaangevende zoekmachines, zoals Google, Bing en Yahoo!, gebruiken crawlers om pagina’s te vinden voor hun algoritmische zoekresultaten. Pagina’s die zijn gelinkt vanaf andere door zoekmachines geïndexeerde pagina’s hoeven niet te worden ingediend omdat ze automatisch worden gevonden.
De Yahoo! Directory en DMOZ , twee grote directories die respectievelijk in 2014 en 2017 zijn gesloten, vereisten beide handmatige indiening en menselijke redactionele beoordeling. Google biedt Google Search Console aan, waarvoor gratis een XML- sitemapfeed kan worden gemaakt en ingediend om ervoor te zorgen dat alle pagina’s worden gevonden, met name pagina’s die niet vindbaar zijn door automatisch links te volgen naast hun URL-indieningsconsole. Yahoo! voorheen een betaalde inzendingsservice exploiteerde die gegarandeerd crawlde voor een kost per klik ; deze praktijk werd echter stopgezet in 2009.
Zoekmachinecrawlers kunnen bij het crawlen van een site naar een aantal verschillende factoren kijken. Niet elke pagina wordt geïndexeerd door zoekmachines. De afstand van pagina’s tot de hoofdmap van een site kan ook een factor zijn bij het al dan niet crawlen van pagina’s.
Tegenwoordig zoeken de meeste mensen op Google met een mobiel apparaat. In november 2016 kondigde Google een grote verandering aan in de manier waarop websites worden gecrawld en begon hun index mobile-first te maken, wat betekent dat de mobiele versie van een bepaalde website het startpunt wordt voor wat Google in hun index opneemt.
In mei 2019 heeft Google de rendering-engine van hun crawler geüpdatet naar de nieuwste versie van Chromium (74 ten tijde van de aankondiging). Google gaf aan dat ze de Chromium -rendering-engine regelmatig zouden updaten naar de nieuwste versie. ]In december 2019 is Google begonnen met het updaten van de User-Agent-tekenreeks van hun crawler om de nieuwste Chrome-versie weer te geven die door hun weergaveservice wordt gebruikt. De vertraging was om webmasters de tijd te geven om hun code bij te werken die reageerde op bepaalde bot User-Agent-strings. Google voerde evaluaties uit en was ervan overtuigd dat de impact gering zou zijn.