Vad är sociala medier?

Inom seo-branschen verkar det vara ganska spridda åsikter vad som egentligen ska klassas till ett socialt medium.  För mig som jobbar med webbutveckling blir ganska förvånad när allt färre plattformar ska omnämnas som sociala medier, ofta utan någon vettig förklaring.

Det finns åtskilliga ställen där man kan läsa olika definitioner, här följer två exempel.

Webbplatser och mobila appar med vars hjälp människor kan interagera i mänskliga sociala nätverk och, i motsats till traditionella medier, bidra med användargenererat innehåll. – Wikipedia

Exempel på tjänster som hör till utvecklingen inom den sociala webben är kommentarsfunktionerna efter artiklar i tidningarnas nätupplagor, bloggar där läsare kan kommentera inläggen och wikitjänster där flera kan samarbeta för att bygga upp uppslagsverk i olika ämnen (till exempel Wikipedia eller Kolla källans wiki). – Skolverket

Vi kan alltså inte begränsa begreppet sociala medier till enbart social nätverk såsom Facebook, Twitter och Instagram. Faktum är att jag inte funnit någon trovärdig källa som ens gör denna begränsning, förutom verksamma inom just seo-branschen.

linkedin
Ett ämne som väcker både engagemang och stundom irriterade känslor på LinkedIn

Det som man ofta kan se, så även i fallet på LinkedIn är att så fort någon nämner sociala medier:

  • Begränsas ofta begreppet till just sociala nätverk
  • ”Motståndarna” kan bara skriva om sociala signaler

Några saker som nämndes i tråden på LinkedIn var bland annat ”ett ämne som inte är sant”,  ”det har ju egentligen inget med SEO att göra”, ”Övriga i gruppen verkar ha fått termen ‘sociala medier’ om bakfoten”, ”Bloggar ingår inte i min definition av sociala medier”.

Hade man däremot ställt frågan om länkar från bloggar, forum, Wikipedia och dylika sociala medier påverkar en sidas ranking. Då får man 100% ja, det är jag villig att äta upp min vita hatt som jag har fått av Google på.

Skulle frågan däremot vara om en webbsida vars länk finns i en statusuppdatering värderas högre, om ens alls, ju fler gilla, delningar o.s.v. den har, då är svaret såklart nej.
Det senare, som jag mer uppfattat som diskussioner om sociala signaler ska inte likställas med sociala medier, det är endast en delmängd däri.

Vore intressant att höra era synpunkter på dessa definitioner och varför folk kan ha så olika uppfattning av dessa.

How ”mobile-friendly” label gave me a boost in visitors

Google have for long been talking about how important it is for website owners to have a mobile friendly website. Since I work as a web developer, like new techniques and also runs one of Swedens biggest website with phone numbers to telemarketers I had jumped on the train and already made it responsive.

Understanding your visitors

Different websites will of course get different result of making your website mobile friendly, but I can almost guarantee that none will loose anything. This post will not cover all great tools that can analyze your visitors, but a great free tool to use and start with is Google Analytics. A quick look at my visitors shows that almost half of them are browsing on either a phone or a tablet and the trend is upwards. Not so weird since almost everyone want to check who called them instantly and I also have an mobile application that can warn the user when a telemarketer is calling them.

mobile-visitors

Always one step ahead your competitors

When you want to be a fighter and deliver absolutely the best you can for your visitors, you should always try to be ahed your competitors. Since I had analyzed and understood my visitors, I knew that having a responsive website when most of your visitors are on a mobile device is a must. When I made the switch to a mobile friendly website I could almost instantly see that my visitors stayed a little bit longer and they returned more often to my website, both resulting in an increased earning.

One goal for 2015 is to get more vistitors from search engines that searched for ”vem ringde”, which is what my main competitors website is called. Everyone who works with SEO know that it is really hard to get higher positions in SERP, and to be number 1 on your competitors brand should be a really hard nut to crack. But who knew Google would help me to accomplish my goal…

vem ringde
Mobile search for vem ringde

Back in middle of november 2014 Google introduced the ”mobile friendly” label seen in the image above. Unfortunately it was only for english language, but only one month later they informed all that this feature had been rolled out globally for all languages.

So, what happened when my site was labeled mobile friendly while my competitor did not?
Until I get the number one position, the only possible way to get more visitors from the phrase ”vem ringde” is higher CTR. My CTR climbed from 5% to 8%, looking back for year 2014 my CTR had been 4.6% so this increase was more than welcome. If my competitor didn’t have all theese extra site links I’m absolutely sure I had gotten even better result. Now only users with larger screens can see my site in SERP, but my guess is that the higher CTR I get, the more visitors I get and the more willing is Google to drop some sitelinks from the top position. 2015 sure is gonna be an exciting year in my effort to get even more happy visitors and steal some of my competitor traffic 🙂

ctr for vem ringde
Graph showing CTR of my website

 

Final words

You should not only be one step ahead, so when Google also informed about https you should have listen carefully. I encrypt all traffic, even all API calls used by mine and all others appliations. The main reason for encrypting your website should be to protect your users, but as an extra flavor Google also told that https is one of many ranking signals. Hopefully this will benefit my site even more against my competitor that mostly seems to be sleeping when the Internet is changing rapidly 🙂

Fallgropar och myter med https

Ända sedan jag skapade ett publikt API till en av mina största webbsidor har jag haft lite dåligt samvete för att inte erbjuda en krypterad version av varken själva hemsidan eller API:et. Lathet har nog varit min främsta anledning, låter som världens sämsta ursäkt men tyvärr är den sann.

Som en händelse gick Google nyligen ut med att https nu är en av alla deras rankingsignaler, även om den till dagens datum säkerligen är extremt liten.
Detta räckte dock för att vissa skulle hoppa på tåget (inklusive mig) medans andra bestämt basunerade ut hur onödigt, krångligt och förödande det kunde bli i vissa fall.
SEO-faktorn är enligt min mening inte det viktiga, utan man ökar säkerhet, integritet och autentisering. Google skriver ganska bra om grunder och anledningar för tekniskt vilsna.

Något jag aldrig förstod var dock varför några enstaka personer hade sin bestämda uppfattning hur otroligt onödigt det var med https. Ogillar jag röd färg kan jag låta bli att använda den på webbsidan, jag behöver inte uppmana resten av Internet att inte använda det…

Det var lite bakgrund, jag tänkte dock berätta hur min flytt gått, vilka erfarenheter jag lärt mig och vilka myter som florerar och som inte uppstod på min webbsida.

Knappt 40 000 indexerade sidor skulle byta webbadress. När jag ändå höll på tog jag även bort www ur sökvägar, bytte till en VPS hos Glesys samt gick från Apache till nginx. Upplagt för spännande problem 🙂

Erfarenheter

Det är enkelt att byta webbadress med bibehållen sidstruktur. I mitt fall behövde jag bara göra en 301 redirect från alla gamla adresser till den nya. Det man lätt glömmer är allt annat.

  • Lägg in din nya domän i Google Webmaster Tools, du får ovärderlig information här, t.ex. när man upptäcker att teckenkodning inte alls blev samma på nginx som apache och lite väl många tusen sökvägar blev värdelösa.

    serverfel
    P.g.a dåligt testande blev många sökvägar ogiltiga och ngnix returnerade serverfel. Upptäcktes smidigt via hämta som Google i GWT (allt fungerade nämligen bra i Chrome som jag testade sidan med).
  • Se till att uppdatera webbplatskartan med nya sökvägen
  • App Indexing verkar gå rejält trögare att få uppdaterad till nya sökvägen
  • Google arbetar snabbt, rekordet var 33 172 genomsökta sidor på en dag, redan dag 1 tuggades 14 206 sidor av Googlebot.
  • Uppdatera rel canonical om det används
  • Externa javascript/bilder/osv måste också stödja https annars klagar webbläsarna. Testa gärna med Internet Explorer som klagar tydligast.
  • Använd relativa sökvägar // för inkluderade filer där det är möjligt så används rätt protokoll automatiskt)
  • Facebook måste veta om din nya adress, annars spyr den galla (Googla för fler drabbade Svenskar)

    facebook
    Så fina beskrivningar får man om man är oaktsam. Ja, CTR sjönk som en sten så ni behöver inte testa.
  • Tänk igenom eventuella externa saker som är beroende på dina sökvägar, t.ex mobilappar, folk som använder ditt API.
  • En VPS ger skillnad i svarstid, har du en viktig sida som direkt eller indirekt genererar stålar bör den inte ligga på webbhotell

    svarstid
    Det syns tydligt när jag bytte till VPS, från 400 ms till 100 ms, grovt räknat.

Myter

Att byta till https tar onödig tid!
Bortsett från att det var lite trixigt med egen server var själva installationen av certifikatet busenkelt. Det var första gången jag köpte och installerade ett certifikat, tror jag la ned max 30 min från det att jag påbörjade köpprocessen tills jag gått igenom deras enkla installationsguide och sidan rullade via https. 30 minuter för ett arbete som består i mitt fall 2 år, vill man lata sig än längre period kan man köpa certifikat som gäller uppåt 10 år vill jag minnas. Visst, tycker du 30 min är lång tid kanske du ska fokusera på annat, eller be någon med lite tekniskt kunnande hjälpa dig.

Jag kommer förlora intäkter på Adsense!
Ett annat argument som för egen del talade emot var alla berättelser om där intäkterna på Adsense sjönk uppåt 30% när man gick över till https. Det är ju inte så kul när sidan drar in lite stålar samt kostnaderna nu dessutom ökar tack vare certifikat och egen VPS. Jag har bara kört https sedan 28:e augusti, så för att få säkrare siffror bör testperioden såklart vara längre än detta, men ändå lite intressant statistik kan utläsas.

Jämför jag RPM för https (23 aug – 10  sept) gentemot http (1 jul – 22 aug) har intäkterna ökat med 15%. Väljer jag däremot gentemot http (1 jan – 22 aug) har intäkterna minskat med 4%. Det är ganska naturligt att RPM varierar lite med tiden, men jag har åtminstone inte märkt någon minskning som skedde direkt vid byte till https.

Det ger ingen SEO-effekt!
Det må hända att effekten är så liten idag att den knappt märks. Dock med tanke på att den absolut inte verkar skada din ranking och du får en uppsjö andra saker på köpet för dina besökare ser jag ingen anledning att inte införa det på åtminstone dina viktigare sidor. Driver du små reklamsidor och liknande hobbyrelaterat så kan man förstås strunta i det, sunt förnuft får användas.

Många, t.ex. Search engine land,  hänvisar gärna till en rapport som sägs visa att ett byte från http till https inte ger någon märkbar effekt. Den som läser rapporten och inte väljer att vara blind kan dock utläsa följande felaktiga slutsatser.
De analyserade vilken typ av sidor sidor (http eller https) som i snitt sett rankade bäst, man klumpade alltså ihop ett stort antal sidor som körde http mot ett gäng som körde https. Där är första felaktiga analysen, man ställde enbart http gentemot https när man borde ha kollat om ett byte från http till https påverkade rankingen, det är helt olika analyser.

Om det inte räcker som fel, plockar de dessutom bort lite populära webbsidor som körde https för att rankingen skulle bli jämnare. Varför man inte även valde att ta bort vissa http-sidor är ett mysterium, t.ex. rankar ju Wikipedia bra på många sökord och borde dra upp http-gruppen.

Faktum kvarstår dock att enda rapporten jag sett inom ämnet ranking http/https inte analyserade hur en webbsidas ranking påverkas vid ett byte av protokoll utan i bästa fall kunde påvisa att de flesta sökord rankas bäst av sidor som saknar https (om man plockar bort lite https-sidor först)…

Jag får mer data att analysera!
Japp! En bra bonus man även får är att kör man https ser man äntligen alla besökare som kommer från andra https-sidor. Enligt standarder skickas ingen http referer-information när man går från https till http. Så hade inte Facebook och Twitter fulhackat sina länkar hade okrypterade sidor inte sett en enda hänvisning från dessa två då de kör https. Dock är det värdefullt för dessa giganter att synas i folks hänvisningstrafik så de har löst det på fiffiga sätt, t.ex. javascript, meta-taggar med mera. Kolla gärna själv deras lösningar så ser ni att det inte bara är vanliga länkar som det till en början ser ut att vara.

Slutsatser

Om du anser dig ha en värdefull sida verkar det inte finnas några nackdelar varken intäktsmässigt eller som påverkar din ranking negativ. Detta baseras dock på mitt test av en relativt välbesökt sida och de rapporter jag kommit över att läsa. Det är dock stor sannolikhet att något annat påverkar din sida, särskilt när du både byter webbadress, server och mjukvara 🙂 Dessutom, ju tidigare du byter till https, desto färre felaktiga länkar behöver du gräma dig över…

Dela gärna med er av era erfarenheter, tips och trix. Själv är jag ganska förvånad att jag inte tappade mer trafik trots mina ganska stora missar som jag berättat om. Det dök i början men allt eftersom jag ordnade upp sökvägar och andra fel återkom trafiken. P.g.a tidsbrist har jag dock fortfarande kvar fel som härrör av bytet från Apache till nginx, men man ska ju låta konkurrenterna få lite trafik också ett tag 🙂

Blogg.se blockerar samtliga användares bilder från Google

En kompis fru frågade mig en fråga rörande hennes blogg Mitt kakfat, som hon har hos bloggtjänsten blogg.se

Varför ploppar det knappt upp några bilder på Google när jag söker efter exakta ord som jag har i innehåll på bloggen? På webb kommer det upp, men inte om jag ska se bilder.

Det korta svaret är, de har gjort bort sig. Du som bloggägare som går miste om besökare varje dag ända tills de fixat problemet.

Det bra i kråksången är att tack vare hennes iakttagelse har jag nu kontaktat Blogg Esse AB, företaget bakom bloggnätverket, och påpekat deras fel så allt torde vara fixat inom kort.
GoogleBot

Bakgrund

Alla bilder som laddas upp på din blogg hos blogg.se hamnar i deras CDN-nätverk. Utan att veta om det tekniska, kanske du har märkt att sökvägen till dina bilder är annorlunda, de ligger alla på domänen cdnme.se

Sökmotorer använder spindlar, små datorprogram, som automatiskt hämtar webbsidor och bilder från Internet. Ibland vill man dock inte synas i Google, en sak man då kan använda är robots.txt, en textfil som placeras i roten på din domän. Innan sökmotorn gör något kollar den om filen finns och i sådana fall följer de regler som angivits där. Saknas filen utgår alla sökmotorer från att allt är frid och fröjd och att inget blockerats med hjälp av denna textfil, i övriga fall vet dom inte vad som ska göras ska göras utan skjuter upp all indexering.

Problemet

Blogg Esse AB returnerar, säkert högst omedvetet, http 504 Gateway Time-out när man försöker nå deras robots.txt. Denna statuskod betyder varken att filen finns (200) eller att filen saknas (404). Sökmotorn vet därför vad den ska göra utan skjuter upp indexeringen av webbplatsen tills de kan nå filen . Inga bilder kommer således att indexeras på deras CDN-nätverk tills de ger tillbaka rätt statuskod för robots.txt. Då inga bilder indexeras på deras CDN-nätverk, kommer följaktligen inga bilder som du laddar upp på din blogg att synas när man söker hos Google, Bing eller vad du nu må använda.

Ett litet, men ack så förödande misstag.

Jag hoppas för allas skull att felet inte har varit ända sedan starten av deras CDN, ett sådant stort fel borde märkts av långt tidigare. Om inte av någon stackars bloggägare, utan av företaget bakom nätverket, som tjänar pengar på att få trafik till deras nätverk.

En bild säger mer än tusen ord, om den inte placeras hos blogg .se

Annonsblockering hotar dina inkomster

För ett tag sedan var jag på besök hos Google i London för att samtala om deras annonslösning Adsense. Det kom då på tal om hur tillägg till webbläsare i form av annonsblockering används av alltfler personer, någon siffra ville dock inte Google dela med sig utav.

Jag har under knappt 2 veckor samlat in data på en av mina mest välbesökta sidor, en sida som har en jämn demografi. 13% av besökarna från datorer blockerar annonserna medan motsvarande siffra för mobiler+surfplattor är 0,15%. Har du stor andel trafik via mobiler kan du således skatta dig lycklig just till detta bekymmer även om det uppstår andra saker på dessa enheter, något den aktuella sidan har med sina 47%.

Andel med annonsblockering
Andel besökare som använder annonsblockering. Data: missatsamtal.se

Det är således ett relativt vanligt problem med att folk, inklusive mig själv, blockerar annonser på webbsidor. Effekten varierar såklart beroende på vilken målgrupp samt geografi din sida riktar sig mot, data ovan vill jag nog påstå är normalt för generella sidor i Sverige.

Hur mäter jag detta?

Eftersom blockering sker i klienten, är det där du får lägga in logiken. Ett enkelt sätt är att inkludera en javascript-fil som har ett ”annonslikt” namn där du ändrar värdet på en variabel. Tilläggen som blockerar annonser kommer inte läsa in javascript-filen och variabeln blir oförändrad.

Om du använder Google Analytics kan du enkelt skapa en händelse för alla som blockerar dina annonser och sedan via segment filtrera och analysera all data.

Kodexempel:

<script>
var aCheck = true;
</script>
<script src="/advertisement.js"></script>
<script>
if(aCheck) {_gaq.push(["_trackEvent","Test","Blocker"]);}
</script>

Med samma logik kan du även utföra andra saker såsom att visa ett meddelande, skapa upp andra text-annonser eller bara dölja eventuellt tomt utrymme.

Vore intressant att se vad ni andra har för erfarenheter och statistik på era webbplatser.

3 snabba tips för ökad inkomst från Adsense

Alla borde vara medvetna om detta, men trafiken från mobila enheter ökar. Med detta som grund kommer här mina 3 snabbaste och enklaste tips på hur du ökar dina intäkter med Adsense.

Använd den responsiva koden

Äntligen slipper man diverse hack för att få rätt storlek på annonsen. Välj den responsiva annonsenheten ochdin annons anpassas helt utifrån besökarens skärmupplösning och utrymme på webbplats. Passa även på att välja asynkron för snabbare laddning av din webbsida.

Maximera bredden

Det är nu möjligt att anpassa bredden på annonsen utanför de fixa format som vanligtvis erbjuds. Perfekt om du är perfektionist och vill justera annonsen med din övriga design, eller helt enkelt bara vill ha en lite större annons. Sätt bara annonsen till 100% width och justera sedan endast höjd med css media queries.

Egen bredd
Genom att ange bredden till 100% kan vi få andra storlekar än de traditionella. Perfekt justerat med övriga designen på sidan. Här blir en vanlig 468×60 px 536×60 px.

 Mobilanpassad annons

Om du använder mobilannonsen 320x50px bör du snarast byta ut den mot det nya formatet 320×100 px som generellt sett har högre CTR och eCPM. Om du använder den helt automatiska koden för responsiva annonsenheten får du i dagsläget automatiskt mobilannonsen som är 50 px hög, bara denna ändring att styra den till 100 px hög är ett stort steg.

Exempelkod

<style>
<!-- CSS för maximal bredd -->
.adsbygoogle{width:100%;height:90px}
<!-- Höjd för mobillayout ändras förslagsvis med media queries -->
@media screen and (max-width:470px){.adsbygoogle{height:100px}}
</style>

<script async src=”http://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js”</script>
<ins class=”adsbygoogle”
data-ad-client=”ca-pub-xxxxx”
data-analytics-uacct=”UA-XXXX-XX”
data-ad-slot=”XXXXX></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>

Det var mina 3 snabba tips, det finns givetvis en hel uppsjö med andra smarta placeringar och optimeringar. Vad är dina snabba men bra tips?

Skapa extra uppmärksamhet i SERP

Med avancerade utdrag och strukturerad data kan du tala om för sökmotorer vad din sida innehåller och vart på sidan detta finns.

Köttfärslimpa
Sökresultat som visar extra data tack vare avancerade utdrag, i detta fall ett recept om köttfärslimpa.

Vilken typ av data som kan markeras upp ökas allt eftersom, i dagsläget gäller:

  • Omdömen
  • Personer
  • Produkter
  • Företag och organisationer
  • Recept
  • Event
  • Musik

Du kan välja på 3 olika sätt att märka upp din data; mikrodata, mikroformat eller rdfa. Det förstnämnda är att rekommendera då det stöds av flest sökmotorer och är mest utbyggt.

För avancerad läsning hur formatet är uppbyggt finns aktuell specifikation hos W3. Om du inte är alltför intresserad av allt tekniskt utan vill komma igång direkt kan du läsa exempelkod hos Google, där de även länkar vidare till respektive data (omdömen, personer, produkter osv). Är du ännu latare, eller om ditt CMS inte tillåter dig att ändra html-koden finns även hjälpmedlel hos Google under programmet Verktyg för webbansvariga, som ger dig möjlighet att märka upp data. Det är dock inte alltför optimalt då bara Google vet om din taggning, övriga sökmotorer läser fortfarande html-koden på webbsidan och missar allt.

 

Skapa ett länkbete

Ett bra, men inte alls enkelt sätt, att ranka bra är att få länkar till sin webbsida. I de bästa fallen ska dessa vara naturliga, det vill säga länkar du inte själv skapat, eller framförallt inte betalt för.

Så hur lyckas du få länkar till din sida, trots att du har försökt att skriva de allra bästa texterna, guiderna eller vad det än må vara och ändå inte får en enda länk.

Ett knep är att använda ett länkbete, något man nästan kan likna vid en honeypot inom datorvärlden. Där används den för att t.ex. fånga upp intrångsförsök, spam o.s.v. Lika hemskt är det dock inte inom sökmotoroptimering, här handlar det om att skapa en sida som folk är extra villiga till att dela med sig av och länka till.

Några exempel.

  • Skapa en sida som berättar om länkbete 🙂 (du läser ju detta så uppenbarligen fungerade betet)
  • Sprid infographics inom rätt målgrupp
  • Starta någon passade kampanj-sida (t.ex. skapade jag en mot införandet av säljsamtal till mobiler på en passande sida jag äger och fick tusentals namninsamligar, massa nya länkar och framförallt besökare)

Det är egentligen din egen fantasi som sätter begränsningen.

Om du tänker efter har du säkert redan sett flertalet länkbeten, vem känner inte till reklamfilmen med Zlatan från Volvo personbilar, Van Damme och Volvo lastbilar eller något av de otaliga bilder på sociala medier där man ska gilla för att det är synd om personen, att hen överlevt cancer och så vidare. Det senare exemplet finns säkert riktiga fall också, men flertalet är fejkade i syfte om att få likes till sin sida.

Det var lite kort om länkbete, ta nu något gott att dricka, spåna under helgen och visa ditt mästerverk nästa vecka 🙂

Köpta länkar är något jag tror Google försöker att sätta dit allt hårdare, trots att det är en enormt utmanade uppgift. Matt Cutts på Google har flertalet gånger påpekat att man inte ska syssla med detta, senast i denna video som kom ut i början på veckan.

Få tillbaka sökorden

Jag har tidigare berättat om att andelen (not provided) ständigt ökat och den tekniska anledningen till detta. Du som använder Google Analytics och Google Webmaster Tools kan på ett enkelt sätt få tillbaks en stor del av denna förlorade datan genom att koppla ihop tjänsterna.

Sökord i Analytics

Om du i Analytics besöker Förvärv -> Sökmotoroptimering kommer du mötas av att rapporten kräver att du aktiverar GWT. För att göra detta krävs att du är administratör.

Gå till sidan Administratör, välj konto, webbegendom och slutligen ”Inställningar för webbegendom”. Längst ned på avsnittet Inställningar för Verktyg för webbansvariga kan du se webbadressen för din webbplats, vilket bekräftar att webbplatsen är verifierad i Verktyg för webbansvariga och att du har behörighet att göra ändringar. Om du inte ser webbadressen i avsnittet måste du lägga till webbplatsen i Verktyg för webbansvariga.

Nästa gång du besöker rapporten sökmotoroptimering får du fram fin data på vilka sökord du syns på, hur ofta och CTR. En guldgruva är tillbaks.

Ständigt arbete eller mer långsiktig

Att öka synligheten för din webbplats kan läggas på olika nivåer. I många branscher såsom lån, casino och vadslagning är konkurrensen på alla viktiga sökord stenhård. Där är det i princip omöjligt att vara snäll och följa alla eventuella riktlinjer som sökmotorer sätter upp.

Vill du upp till toppen i dessa branscher krävs det att ständigt hålla sig uppdaterad vad som sker inom seo, inte minst eftersom man måste ligga på fel sida om gränsen om vad sökmotorerna antyder är okej. Att göra övertramp i sökmotorernas riktlinjer hör till det dagliga arbetet, något branschen egentligen själva orsakat då de ”tvingar” varandra till dessa metoder, för vem vill ligga på sidan 2 i sökresulatet?

Som tur är finns det gott om andra branscher där man kan nå toppen utan att stångas till döds och där man kan hålla sig mer inom de allsmäktiga riktlinjerna. Driver du webbsidan mer på hobbybasis eller att den inte spelar en betydande roll i anskaffandet av dina kunder, då duger det gott att utföra grundläggande saker såsom att ha en tydlig sidstruktur, bra titlar, informativ text och gärna fina bilder. Tänk på vad besökaren vill se, börjar du tänka på hur du bör skriva och strukturera för att sökmotorerna ska ranka din sida mest optimalt, då börjar du troligen tappa fokus på att även vanliga människor ska in på din sida.

En viktig grundsten på Internet är länkar, det är därför de flesta till 95% fokuserar på just detta. Länkbygge, alltså påhittade länkar för att få sin webbsida att ranka högre sker dagligen, det är en av alla saker sökmotorer måste försöka brottas med. Men hur ska de avgöra vad som är fejkade länkar och vilka som är äkta? Så länge det är svårt att avgöra detta med algoritmer, kommer länkbygge och försäljning av länkar fortgå.

Personligen hade jag aldrig gått med på att få en länk till min sida som skulle försvinna dagen jag inte fortsatte att ge pengar. Många bolag lever dock på detta och att de har annan uppfattning är förståeligt. Dessa tänker dock på sitt företag, pengar och förhoppningsvis kundernas bästa. En länk ska ju vara en sak man frivilligt gör, man länkar till en sida man anser förtjänar den, inte till en sida då de betalar pengar för den. Där går min gräns, därför varken köper eller säljer jag länkar.

Mycket snack och liten verkstad, det jag vill säga är dock enkelt.

Ju närmre du arbetar med metoder som kanske rankar dig högre snabbare, desto mer tid får du räkna med att antingen lägga själv eller köpa av konsulter. Detta då arbetet ständigt måste förändras så sidan inte hamnar i något filter. Lägger du arbetet på en mildare strategi kommer sidan säkert ranka bra under lång tid utan att du förändrar arbetet. Givetvis får du inget gratis, det kommer ständigt att krävas arbete av dig för att sidan ska anses intressant, att folk ska länka till dig av egen vilja och att sidan slutligen ska ranka bra. Tålamod.