Webmastere og indholdsudbydere begyndte at optimere hjemmesider til søgemaskiner i midten af 1990’erne, da de første søgemaskiner blev katalogisering begyndelsen Web.

I første omgang alle webmastere er nødvendige for at gøre, var at indsende adressen på en side, eller URL, til de forskellige motorer, som ville sende en “edderkop” til “kravle” den side, ekstrakt links til andre sider fra det, og vende tilbage information findes på den side, der skal indekseres.

søgemaskienr

Processen indebærer en søgemaskine spider downloade en side og gemme den på søgemaskinens egen server, hvor et andet program, der er kendt som en indexer, udtrækker forskellige oplysninger om den side, som de ord, den indeholder, og hvor disse er placeret, som samt eventuelle vægt for bestemte ord, og alle links siden indeholder, som derefter anbringes i en scheduler for gennemgang på et senere tidspunkt.

Webstedsejere begyndt at anerkende værdien af at have deres websteder højt rangeret og synlig i søgemaskinens resultater, hvilket skaber en mulighed for både hvid hat og sort hat SEO praktikere. Ifølge industrien analytiker Danny Sullivan, sandsynligvis udtrykket “search engine optimization” kom i brug i 1997.

Den første dokumenterede brug af udtrykket “Search Engine Optimization” var John Audette og hans firma Multimedia Marketing Group, som dokumenteret af en web-side fra MMG sted fra august 1997.

Tidlige versioner af søgealgoritmer påberåbt webmaster-leverede informationer, såsom søgeordet meta-tag, eller index-filer i motorer som ALIWEB.
Metatags giver en guide til hver side indhold.

Brug meta-data til indeks sider viste sig at være mindre end pålidelige, men fordi webmaster valg af søgeord i meta-tag potentielt kunne være en unøjagtig repræsentation af webstedets faktiske indhold. Unøjagtige, ufuldstændige, og inkonsekvente data i meta-tags kunne og var årsag sider at rang for irrelevante søgninger

Webindholdsleverandører også manipuleret en række attributter i HTML-kilden til en side i et forsøg på at rangere godt i søgemaskinerne.

Ved at stole så meget på faktorer som søgeord massefylde, som var udelukkende inden for en webmaster kontrol, lidt tidlige søgemaskiner fra misbrug og ranking manipulation.
At give bedre resultater til deres brugere, søgemaskiner måttet tilpasse sig sikre deres søgeresultatsider viste de mest relevante søgeresultater, snarere end uafhængige sider proppet med talrige søgeord ved skruppelløse webmastere.

Da succes og populariteten af en søgemaskine bestemmes af dens evne til at producere de mest relevante resultater til en given søgning, så disse resultater til at være falsk ville vende brugerne at finde andre søge kilder.

Søgemaskiner reagerede ved at udvikle mere komplekse ranking algoritmer, under hensyntagen til yderligere faktorer, der var vanskeligere for webmastere at manipulere.

Ph.d. studerende ved Stanford University, Larry Page og Sergey Brin, udvikles “Backrub”, en søgemaskine, der baserede sig på en matematisk algoritme til at vurdere fremtrædende websider. Antallet beregnes af algoritmen, PageRank, er en funktion af mængden og styrken af indgående links.

PageRank vurderer sandsynligheden for, at en given side vil blive nået ved en webbruger der tilfældigt surfer på nettet, og følger links fra én side til en anden. Faktisk. Betyder dette, at nogle forbindelser er stærkere end andre, som en højere PageRank side er mere tilbøjelige til at kunne opnås ved en vilkårlig surfer

Page og Brin grundlagde Google i 1998. Google tiltrukket en loyal følgende blandt det stigende antal af internetbrugere, der kunne lide dens enkle design.

Off-side faktorer (såsom PageRank og hyperlink analyse) blev anset samt on-side faktorer (såsom søgeord frekvens, meta-tags, overskrifter, links og site struktur) for at aktivere Google for at undgå den form for manipulation set i søgemaskiner at kun betragtes on-side faktorer for deres placeringer.

Selv om PageRank var vanskeligere at spillet, havde webmasters allerede udviklet link bygning værktøjer og systemer til at påvirke Inktomi søgemaskine, og disse metoder har vist sig ligeledes gældende for gaming PageRank.

Mange steder fokuseret på udveksling, køb og salg af links, ofte på en massiv skala. Nogle af disse ordninger, eller link gårde, involveret oprettelse af tusindvis af steder til det ene formål at link spamming.

I 2004 var søgemaskiner indarbejdet en bred vifte af skjulte faktorer i deres ranking algoritmer til at mindske virkningerne af link manipulation. Google siger, at det rangerer websteder, der bruger mere end 200 forskellige signaler.

De førende søgemaskiner, Google, Bing og Yahoo, ikke videregiver de algoritmer, de bruger til at rangere sider. SEO udbydere, såsom Rand Fishkin, Barry Schwartz, Aaron Wall og Jill Whalen, har studeret forskellige tilgange til søgemaskineoptimering, og har offentliggjort deres udtalelser i online-fora og blogs.

SEO praktiserende kan også studere patenter ejet af forskellige søgemaskiner til at få indsigt i algoritmer.

I 2005 begyndte Google at tilpasse søgeresultaterne for hver bruger. Afhængig af deres historie af tidligere søgninger, Google udformet resultater for logget ind brugere.

I 2008 sagde Bruce Clay, at “ranking er død” på grund af personlig søgning. Det ville blive meningsløst at diskutere, hvordan en hjemmeside placeret, fordi dens rang potentielt ville være anderledes for hver bruger og hver søgning.

I 2007 annoncerede Google en kampagne mod betalte links, transfer PageRank.

Den 15. juni, 2009, afsløres Google, at de havde truffet foranstaltninger til at afbøde virkningerne af PageRank sculpting ved brug af den nofollow attribut på links.

Matt Cutts, en velkendt software engineer hos Google, meddelte, at Google Bot ikke længere ville behandle nofollowed links på samme måde, for at forhindre SEO udbydere fra at bruge nofollow for PageRank sculpting.

Som et resultat af denne ændring brugen af nofollow fører til afdampning af pagerank.
For at undgå ovenstående SEO ingeniører udviklet alternative teknikker, som erstatter nofollowed tags med korrumperet Javascript og dermed tillade PageRank sculpting. Derudover flere løsninger er blevet foreslået, at omfatte brugen af iframes, Flash og Javascript.

I december 2009 annoncerede Google, det ville være ved hjælp af websøgeoversigt for alle dets brugere med henblik på at udfylde søgeresultater.

Google Instant, real-time-søgning, blev indført i slutningen af 2010 i et forsøg på at gøre søgeresultaterne mere tidssvarende og relevant. Historisk administratorer har brugt måneder eller endda år at optimere en hjemmeside for at øge søgningen rankings. Med væksten i popularitet af sociale medier sites og blogs de førende motorer foretaget ændringer i deres algoritmer til at tillade nyt indhold til at rangere hurtigt i søgeresultaterne.

I februar 2011 annoncerede Google en “Panda opdatering“, som straffer websites, der indeholder indhold kopieret fra andre hjemmesider og kilder.

Historisk websites har kopieret indhold fra hinanden og nydt i søgemaskine placeringer ved at indgå i denne praksis, men Google implementeret et nyt system, der straffer sider, hvis indhold er ikke enestående.

I april 2012 lancerede Google Penguin opdateringenmålet var at straffe websites, der brugte manipulative teknikker til at forbedre deres placeringer på søgemaskinen.