Kategoriarkiv: Förändringar

Fallgropar och myter med https

Ända sedan jag skapade ett publikt API till en av mina största webbsidor har jag haft lite dåligt samvete för att inte erbjuda en krypterad version av varken själva hemsidan eller API:et. Lathet har nog varit min främsta anledning, låter som världens sämsta ursäkt men tyvärr är den sann.

Som en händelse gick Google nyligen ut med att https nu är en av alla deras rankingsignaler, även om den till dagens datum säkerligen är extremt liten.
Detta räckte dock för att vissa skulle hoppa på tåget (inklusive mig) medans andra bestämt basunerade ut hur onödigt, krångligt och förödande det kunde bli i vissa fall.
SEO-faktorn är enligt min mening inte det viktiga, utan man ökar säkerhet, integritet och autentisering. Google skriver ganska bra om grunder och anledningar för tekniskt vilsna.

Något jag aldrig förstod var dock varför några enstaka personer hade sin bestämda uppfattning hur otroligt onödigt det var med https. Ogillar jag röd färg kan jag låta bli att använda den på webbsidan, jag behöver inte uppmana resten av Internet att inte använda det…

Det var lite bakgrund, jag tänkte dock berätta hur min flytt gått, vilka erfarenheter jag lärt mig och vilka myter som florerar och som inte uppstod på min webbsida.

Knappt 40 000 indexerade sidor skulle byta webbadress. När jag ändå höll på tog jag även bort www ur sökvägar, bytte till en VPS hos Glesys samt gick från Apache till nginx. Upplagt för spännande problem 🙂

Erfarenheter

Det är enkelt att byta webbadress med bibehållen sidstruktur. I mitt fall behövde jag bara göra en 301 redirect från alla gamla adresser till den nya. Det man lätt glömmer är allt annat.

  • Lägg in din nya domän i Google Webmaster Tools, du får ovärderlig information här, t.ex. när man upptäcker att teckenkodning inte alls blev samma på nginx som apache och lite väl många tusen sökvägar blev värdelösa.

    serverfel
    P.g.a dåligt testande blev många sökvägar ogiltiga och ngnix returnerade serverfel. Upptäcktes smidigt via hämta som Google i GWT (allt fungerade nämligen bra i Chrome som jag testade sidan med).
  • Se till att uppdatera webbplatskartan med nya sökvägen
  • App Indexing verkar gå rejält trögare att få uppdaterad till nya sökvägen
  • Google arbetar snabbt, rekordet var 33 172 genomsökta sidor på en dag, redan dag 1 tuggades 14 206 sidor av Googlebot.
  • Uppdatera rel canonical om det används
  • Externa javascript/bilder/osv måste också stödja https annars klagar webbläsarna. Testa gärna med Internet Explorer som klagar tydligast.
  • Använd relativa sökvägar // för inkluderade filer där det är möjligt så används rätt protokoll automatiskt)
  • Facebook måste veta om din nya adress, annars spyr den galla (Googla för fler drabbade Svenskar)

    facebook
    Så fina beskrivningar får man om man är oaktsam. Ja, CTR sjönk som en sten så ni behöver inte testa.
  • Tänk igenom eventuella externa saker som är beroende på dina sökvägar, t.ex mobilappar, folk som använder ditt API.
  • En VPS ger skillnad i svarstid, har du en viktig sida som direkt eller indirekt genererar stålar bör den inte ligga på webbhotell

    svarstid
    Det syns tydligt när jag bytte till VPS, från 400 ms till 100 ms, grovt räknat.

Myter

Att byta till https tar onödig tid!
Bortsett från att det var lite trixigt med egen server var själva installationen av certifikatet busenkelt. Det var första gången jag köpte och installerade ett certifikat, tror jag la ned max 30 min från det att jag påbörjade köpprocessen tills jag gått igenom deras enkla installationsguide och sidan rullade via https. 30 minuter för ett arbete som består i mitt fall 2 år, vill man lata sig än längre period kan man köpa certifikat som gäller uppåt 10 år vill jag minnas. Visst, tycker du 30 min är lång tid kanske du ska fokusera på annat, eller be någon med lite tekniskt kunnande hjälpa dig.

Jag kommer förlora intäkter på Adsense!
Ett annat argument som för egen del talade emot var alla berättelser om där intäkterna på Adsense sjönk uppåt 30% när man gick över till https. Det är ju inte så kul när sidan drar in lite stålar samt kostnaderna nu dessutom ökar tack vare certifikat och egen VPS. Jag har bara kört https sedan 28:e augusti, så för att få säkrare siffror bör testperioden såklart vara längre än detta, men ändå lite intressant statistik kan utläsas.

Jämför jag RPM för https (23 aug – 10  sept) gentemot http (1 jul – 22 aug) har intäkterna ökat med 15%. Väljer jag däremot gentemot http (1 jan – 22 aug) har intäkterna minskat med 4%. Det är ganska naturligt att RPM varierar lite med tiden, men jag har åtminstone inte märkt någon minskning som skedde direkt vid byte till https.

Det ger ingen SEO-effekt!
Det må hända att effekten är så liten idag att den knappt märks. Dock med tanke på att den absolut inte verkar skada din ranking och du får en uppsjö andra saker på köpet för dina besökare ser jag ingen anledning att inte införa det på åtminstone dina viktigare sidor. Driver du små reklamsidor och liknande hobbyrelaterat så kan man förstås strunta i det, sunt förnuft får användas.

Många, t.ex. Search engine land,  hänvisar gärna till en rapport som sägs visa att ett byte från http till https inte ger någon märkbar effekt. Den som läser rapporten och inte väljer att vara blind kan dock utläsa följande felaktiga slutsatser.
De analyserade vilken typ av sidor sidor (http eller https) som i snitt sett rankade bäst, man klumpade alltså ihop ett stort antal sidor som körde http mot ett gäng som körde https. Där är första felaktiga analysen, man ställde enbart http gentemot https när man borde ha kollat om ett byte från http till https påverkade rankingen, det är helt olika analyser.

Om det inte räcker som fel, plockar de dessutom bort lite populära webbsidor som körde https för att rankingen skulle bli jämnare. Varför man inte även valde att ta bort vissa http-sidor är ett mysterium, t.ex. rankar ju Wikipedia bra på många sökord och borde dra upp http-gruppen.

Faktum kvarstår dock att enda rapporten jag sett inom ämnet ranking http/https inte analyserade hur en webbsidas ranking påverkas vid ett byte av protokoll utan i bästa fall kunde påvisa att de flesta sökord rankas bäst av sidor som saknar https (om man plockar bort lite https-sidor först)…

Jag får mer data att analysera!
Japp! En bra bonus man även får är att kör man https ser man äntligen alla besökare som kommer från andra https-sidor. Enligt standarder skickas ingen http referer-information när man går från https till http. Så hade inte Facebook och Twitter fulhackat sina länkar hade okrypterade sidor inte sett en enda hänvisning från dessa två då de kör https. Dock är det värdefullt för dessa giganter att synas i folks hänvisningstrafik så de har löst det på fiffiga sätt, t.ex. javascript, meta-taggar med mera. Kolla gärna själv deras lösningar så ser ni att det inte bara är vanliga länkar som det till en början ser ut att vara.

Slutsatser

Om du anser dig ha en värdefull sida verkar det inte finnas några nackdelar varken intäktsmässigt eller som påverkar din ranking negativ. Detta baseras dock på mitt test av en relativt välbesökt sida och de rapporter jag kommit över att läsa. Det är dock stor sannolikhet att något annat påverkar din sida, särskilt när du både byter webbadress, server och mjukvara 🙂 Dessutom, ju tidigare du byter till https, desto färre felaktiga länkar behöver du gräma dig över…

Dela gärna med er av era erfarenheter, tips och trix. Själv är jag ganska förvånad att jag inte tappade mer trafik trots mina ganska stora missar som jag berättat om. Det dök i början men allt eftersom jag ordnade upp sökvägar och andra fel återkom trafiken. P.g.a tidsbrist har jag dock fortfarande kvar fel som härrör av bytet från Apache till nginx, men man ska ju låta konkurrenterna få lite trafik också ett tag 🙂

Nu visas hashtags från Google+ på Google sök

En ny funktion rullas i skrivande stund ut på engelska Google.com och blir synlig inom ett par timmar. Poster från Google+ som är publika eller delade med dig kan komma att visas i resultaten till höger på söksidan när folk söker efter en #hashtag.

emmys

Google integrerar sin community alltmer i deras övriga tjänster och att öka sin synlighet även där blir allt viktigare ju mer integrerat allt blir. Jag har sedan tidigare skrivit om hur du blir synlig på Google+ både som person men även företag.

Även om de gamla hederliga organiska resultaten inte påverkas just nu, är det korkat att gå miste om möjligheten att gratis synas med sina budskap i högra kolumnen.

Källa: Zaheed Sabur från Google

Google+ integreras än mer med sök och övriga webb

Idag lanserades två nya uppdateringar till Google+, det handlar om författarskap och inbäddning av material från Google+.

Författarskap

För ungefär 1 år sedan lanserade Google Search , plus your world och började då visa upp innehåll som var länkat till en författare, t.ex. mig. Idag rullade du en relativt stor förändring där deras Google+ inloggning som webbplatser kan använda direkt börjar integreras med författarskap. Just nu fungerar detta bara på ett utvalt antal tjänster såsom WordPress och Typepad, men loggar du in till dessa kopplas dina inlägg automatiskt ihop med författarskap och förknippas med din profil på Google+.

Inbäddat material

Du kan nu bädda in publika inlägg och grupper från Google+ direkt på din webbsida, väldigt likt Twitter, skillnaden är än mer interaktivitet i inläggen. Genom att snabbt kunna dela andras material även utanför deras plattform finns möjlighet att nå än fler personer och de som har Google+ kan snabbt följa författaren och +1:a innehållet. För utvecklare är det bara hugga in och skapa plugin till alla tänkbara plattformar.

 

Blir SEO mer social?

Personligen tror jag sociala medier påverkar, om inte direkt så absolut indirekt genom länkar och att åtminstone ens cirklar ser material och sidor tydligare som man interagerat med.

Senaste analysen jag läste, som härrörde från Custora,  påpekade dock om att social medier stod för en extrem bråkdel av allt förvärv av kunder på alla sidor de hade analyserat. Värt att notera är dock att de exkluderat all trafik som inte innehöll kampanj-taggen. Så alla vanliga besökare som gillar, delar och postar länkar utan att klistra på denna parameter exkluderas helt från statistiken. Likaså togs all direkt trafik bort, så vad analysen visar är helt enkelt fördelningen på de medier som de valt att spåra. Alltså inte hela sanningen.

Ingen vet dock med säkerhet när och hur sökmotorer tar hänsyn till dessa nya signaler i sin ranking, men att använda sociala medier gör man förhoppningsvis av helt andra saker än att boosta sin ranking. Och det här med att sociala signaler är enkel att manipulera och därför inte bör vara en signal, hur svårt är det att skapa en egen länk?

Aktiviteter från applikationer snart i ditt sökresultat

Att Google trycker lite extra för sina egna tjänster och sociala signaler borde inte komma som någon nyhet för de som följer förändringar inom seo-branschen. Jag har tidigare skrivit om Search, plus Your World  som tar upp allt om hur du skapar din företagssida på Google+, hur du märker upp innehåll med författarskap med mera, om du inte känner till dessa grunder gör du bäst i att först läsa det inlägget som tar upp allt grundligt.

Inom kort kommer nästa nyhet från Google+ att lanseras och synas i sökresultatet på Google, aktiviteter från applikationer. Till en början lanseras det för några utvalda film- och musik-applikationer i USA men kommer gradvis att rullas ut till fler. Någon tidsplan när det även dyker upp i Svenska sökresultat har inte angetts, men troligen dröjer det månader om inte längre, hur som är det ändå en bra anledning att implementera tekniken eller åtminstone känna till den så arbetet går snabbare när det väl rullats ut även i Sverige.

Fandango applikationsaktiviteter
Till höger syns de nya aktiviteterna från sina följare vis sökning efter existerande applikation, klicka på bilden för större version.

Till en början lär sökresultat inte påverkas nämnvärt då förändringen blir att man bara får ännu mer yta till höger men exakt hur det påverkar människors sök och klick är alltför tidigt att sia om då informationen om förändringen är ganska knapphändig i skrivande stund.

Implementering av aktiviteter kan dock förhöja användarens upplevelse, ofta kan man hitta bra saker bland ens följare så en helt dum ide är det inte av Google. Det blir till en början väldigt snarlikt det Facebook har i sina sociala boxar.

Om du har en webbsida som redan idag stödjer inloggning med Facebook, Twitter och andra tjänster blir det en enkel sak att även lägga in Google+ så är du förberedd när ännu fler sociala signaler påverkar morgondagens sökresultat.

Google Developers har mer teknisk information om hur du implementerar inloggning samt aktiviteter. Även om länkar än idag har allra störst betydelse, känns det kul att alltfler saker påverkar sökresultat, särskilt när det blir lite tekniskt mer utmanande saker än att kötta länkar…

Västtrafik och hashbangs

VästtrafikVästtrafik har ganska nyligen lanserat en ny webbsida som de har jobbat med under några års tid. Det var en stor förändring och sidan fick blandat mottagande i början, hur som använder den lite ny fräck teknik och jag ville såklart intervjua projektledaren Mikael Faleke.

Berätta gärna lite kort om vem du är och vad du har för roll
Webbansvarig på Västtrafik sedan 12 år tillbaka. Är den som tagit fram den nya hemsidan i rollen som projektledare.

Ni gjorde relativt nyligen om hemsidan för Västtrafik, vad var det huvudsakliga målet med arbetet?
Visa på hur lättillgängligt det är att resa med Västtrafik, locka nya målgrupper att prova kollektivtrafiken. Men nya målgrupper menar vi för hemsidans del bilister som bor så att de har bra kollektivtrafikalternativ.

I början var det ganska högljudda åsikter om sidan, har det lagt sig nu när folk vant sig med allt nya?
Nästan ingen gillar förändringar. Så oavsett vilken hemsida du bygger om så blir det åsikter. Titta till exempel på när Facebook ändrade sin timeline. Det hör till. Hade blivit mer förvånad om vi inte fått några reaktioner alls. Eftersom drygt 95 procent av våra besökare är återkommande så ställde vi ju till det för dem och de fick lära om. Men visst – jag börjar bli lite trött på ”gör om – gör rätt”. Vi har gjort om och vi har gjort rätt. Tyvärr är sidan inte vidare mobilanpassad och det är något vi ska ha kritik för. Vi jobbar med det just nu. Men i övrigt fungerar det bra.

Sidan använder sig frekvent av Ajax, fanns det med i ert krav eller vad är de främsta anledningarna till att utnyttja denna teknik?
För att få en sömlös upplevelse där det inte upplevs som att sidan laddas om utan enbart att informationen byts ut så valde vi den tekniken. Det var inget krav från början utan det blev lösningen.

Sökmotorer kan ha problem med att indexera sidor som byggs upp via Ajax om det inte gjorts på rätt sätt, ni har dock fått till tekniken med hashbangs (#!) och escaped_fragment-stödet. Kanske lite väl tekniskt, men var det ett krav från er eller hjälpte Know IT er även med detta?
Detta är något som vi får tacka KnowIT för. De ledde in oss på det spåret. Vi har dessutom byggt upp en parallell sida som inte använder Ajax och som funkar för äldre webbläsare. Den är enklare för Google att indexera.

Även en rätt ny teknik som använder sig av pushState fungerar väl för Ajax-sidor, är det något som även tog upp för diskussion? Arbetet med webbsidan har hållt på under flera år så den tekniken kanske inte var tillräckligt utbredd på den tiden.
Nej, vi började ju redan 2010 med sajten så vi missade flera nya tekniker, till exempel responsiv webbdesign och pushState. Vi använder annan teknik för att få bakåtknappen att fungera i webbläsaren. När vi första gången såg designidén från vår samarbetspartner Forsman&Bodenfors så tog jag mig för pannan och sa att det kommer aldrig att gå. Då saknades ramverk att bygga med så det blev väldigt mycket grundarbete innan vi hade en första fungerande prototyp. Idag är detta inte raketvetenskap utan betydligt enklare att uppnå.

Några andra intressanta saker du vill ta upp som ni stött på under arbetets gång med webbsidan?
Att det finns alldeles för många webbläsare J Skämt åsido – vi skulle lanserat tidigare än vad det blev och orsaken till detta är att det tog både tid och pengar att anpassa för olika webbläsare. Till slut fick vi sätta ner foten och bestämma att äldre versioner av Internet Explorer får använda en enklare version av sidan. Man kommer automatiskt till denna om man har javascript avstängt i webbläsaren. Den stora skillnaden mellan de två sajterna är att den enkla saknar kartbakgrunden.

Stor tack till Västtrafik och Mikael Faleke!

Missa inte heller inlägget som tar upp två tekniker för att sökmotoroptimera din Ajax-sida.

När kakorna blir färre

CookieEn kaka är en liten textfil som en webbserver kan spara ned på användarens dator.
För annonssystem generellt kan kakor användas för att avgöra i slutändan hur mycket en visning utav en viss banner är värd och för affiliatesystem specifikt veta hur mycket publicisten skall få i ersättning.

Det finns olika typer av kakor, jag kommer bara ta upp de som kommer från 3:e part, en kaka där avsändaren kommer från en annan domän än den som användaren besöker.
Exempel: Du besöker www.example.com där en annons visas från ad.myexampleadnetwork.com som skickar med en kaka till webbläsaren. Eftersom domänerna skiljer sig är det tal om en kaka från 3:e part.

Kakor från 3:e part blockeras alltmer

I skrivande stund fungerar 3:e-partens kakor lite olika beroende på vilken webbläsare användaren sitter vid, alltfler webbläsare och program blockerar dock dessa.
Chrome: Alla kakor tillåts
Internet Explorer: I princip alla kakor tillåts med hjälp av P3P
Safari: 3:e parts kakor tillåts bara om det redan existerar minst 1 kaka från domänen
Firefox: Alla kakor tillåts, blockeras från version 22 som planeras släppas 25 juni 2013

Jag har frågat runt bland de största och för mig kända affiliatenätverken och här nedan är vad de har att delge om förändringen angående att 3:e-partskakor blockeras i allt högre utsträckning.
Här berättar de sin syn på hur blockerandet påverkar affiliate och annonsör.

TradeDoubler

När 3: e parts cookie blockeras kommer det att förhindra att isales / ileads spåras, detta har dock en liten inverkan på nätverket eftersom endast en liten mängd kunder betalar ut ersättning vid isales/ileads.

När det gäller Safari: cookie begränsning tillämpas endast på färska installationer av webbläsare och inte på uppgraderingar, dvs att gå från safari 5.0-5.1. Anledningen till att detta inte påverkas är att för att de utgår från de äldre versionerna.

Många program på vårt nätverk använder 1:a Part cookies ändå så det skall vara opåverkat. Safari 5.1 står för mindre än 5% av alla webbläsare som används och mindre än 2% för EU. Du kan se detta på länken nedan

Firefox och våra första test har inte visat någon effekt på post click tracking, det har blockerat cookies som sätts innan ett klick görs. Hela industrin är på väg bort från 3: e parts cookies på grund av förra årets e-privacy direktiv. Vi har även ”cookie lösa” lösningar som IP-användaragent och andra metoder som är under utveckling men är för tillfället konfidentiella.

WordOn

För WordOn’s del så arbetar vi med många sorters spårning.
Vanligtvis gäller det bannerannonsering på webbsidor där användaren skall klicka på en annons för att visa intresse. Detta gör att användaren faktiskt besöker WordOn’s webbsajt innan vi skickar användaren vidare till annonsören och därmed kan vi sätta en första klassens kaka på användarens dator.
Ett annat alternativ som vi använder är spårning utan kakor. Då skickar vi motsvarande information som skulle ligga i kakan till våra kunder och denna referenser rapporteras sedan tillbaka när köpet genomförs. Även här så krävs det förstås ett klick och ställer med krav på att annonsören faktiskt hanterar referensen.

För de fallen där man behöver spårning utan klick men inte har möjlighet att sätta kakor så finns det ju alltid alternativ eftersom varje webbläsare lämnar vissa fingeravtryck. Informationen kan då lagra på server sidan. Ett exempel på när detta tillämpas är där man vill ge en annan ersättning för köp om användaren bara sett annonsen än ifall användaren skulle ha klickat sig fram. Detta skulle ju förstås ha underlättats av 3’e parts kakor.

Sammanfattningsvis så påverkas inte WordOns verksamhet i dagsläget i större utsträckning av ändringen men vi följer utvecklingen med största intresse.

Adrecord

Vi jobbar med både förstapartscookies och tredjepartscookies hos våra annonsörer, ca 60% sätter själva en förstapartscookie för vår spårning.

Oavsett om våra annonsörer kör med egen eller vår cookie så bör cookies kompletteras med andra mätmetoder och det är något vi har diskuterat under en längre tid och kommer att införa i större skala inom kort. Hur vi jobbar och hur vår teknik fungerar i detalj kan jag av konkurrensskäl inte gå djupare in på, men det finns mycket att skruva på under huven i webbläsarna.

Vi har fått frågor kring detta vid ett flertal tillfällen de senaste åren och har haft ämnet uppe för diskussion oftare än så. Det ligger självklart i vårt intresse att kunna spåra så nära 100% som möjligt och våra affiliates och kunder ska känna en tillförlitlighet att vi varken spårar mer eller mindre.

Zanox

Den överlägst största delen av alla kakor som används av Zanox för att spåra lead och sale hanteras tekniskt som 1:a partens kakor vilket tydligt innbär att det inte påverkas av några av dessa förändringar.

Mozilla jämför förändringen med Safari och dess strategi för kakor. Safaris policy för kakor har varit i drift i över ett decennium och både användarna och reklambraschen är vana vid att arbeta enligt detta sätt.

Givetvis håller vi på med efterforskning, tester och utveckling för att minimera eventuella negativa effekter på vår spårningstjänst för annonsörer och publicister. Vad vi redan antar är att speciellt annonsörer som använder en extern spårningslösning (external tracking switch), som sätter 3:e partens kakor kommer att påverkas.

Adtraction

Traditionell affiliatemarknadsföring påverkas inte nämnvärt av detta eftersom klicken studsas från affiliatesajten via en spårningsserver till annonsören. Cookies sätts i det korta ögonblick som besökaren landar på spårningsservern och dessa utgör därmed förstapartscookies.

Double

Vi använder inte tredjepartscookies för spårning av leads och sales då all trafik går via vår domän. Tredjepartscookies används generellt vid annonsvisning för att spåra besökare vilket vi inte gör.

 

Avslutningsvis

Det verkar inte som att affiliates kommer att påverkas i någon märkbar grad, det skulle vara i de fall så man tjänat pengar på iLead/iSale vilket åtminstone till en början ej kommer vara möjligt.

Som annonsör kan man mista lite mer detaljerad statistik, men inte heller här sker några större förändringar.

Jag rikta ett stort tack till de affiliatenätverk som ställde upp och gav sin syn på förändringen med 3:e partens kakor.

(Not provided) och dess utveckling

Det var i oktober 2011 som Google meddelade att inloggade användare automatiskt skulle hamna på deras SSL-variant av Google. När folk söker på SSL-varianten skickas det ej med någon data om vilket sökord som användes utan det visas som (not provided) i t.ex. Google Analytics.

Allt fler som jobbar inom SEO har uppmärksammat detta då andelen sökningar som kommer från SSL-varianten ökar allteftersom och står nu för en ganska stor andel av alla sökningar som sker.

På Analytics hjälpsidor kan man läsa att (not provided) visas då sökning gjorts av en inloggad användare. Genom tester har jag dock funnit att det räcker med att man söker från SSL-varianten av Google, oavsett om man är inloggad eller ej. Detta påverkar såklart sökdata märkbart mer än om det enbart hade handlat om inloggade användare, särskilt med tanke på att flera webbläsare såsom Firefox och Chrome som standard skickar besökaren till SSL-varianten av Google om man använder deras sökfunktionalitet.

Jag har analyserat data för min mest välbesökta webbsida www.missatsamtal.se, vilket har en ganska normal skara besökare och räknat fram hur stor andel av alla sökningar från Google som får (not provided) när man tar hänsyn till de 3 största webbläsarna Internet Explorer (gul), Chrome (röd) och Firefox (blå). Resultatet syns i den interaktiva grafen nedan. Den gröna linjen är andelen för de 3 webbläsarna kombinerat.

Andelen (not set) av totala sök

Man ser en tydlig ökning för Firefox i slutet av juli 2012, något som sammanfaller med utrullningen av Firefox 14 som skedde 2012-07-17 och som just skickar besökarna till SSL-varianten av Google som standard. Andelen för Firefox ligger runt hela 65% mot cirka 25% innan deras förändring skedde.

För Chrome har andelen sökningar via SSL legat runt 40% vilket har varit högst av alla webbläsare fram tills Firefox 14 släpptes. Att fler är inloggade i Chrome känns naturligt, frågan är snarare hur utvecklingen kommer se ut när Chrome 25 släpps som innebär att sökningar från webbläsaren skickar besökaren till SSL-varianten av Google. Med all säkerhet kommer andelen att öka vilket betyder att marknadsavdelningar och sökmotoroptimerare får än färre data att göra sina analyser på.

Data har hämtats från Google Analytics via egna avancerade segment för tidsperioden 2012-01-01 till 2012-01-21 och tar bara hänsyn till Internet Explorer, Chrome samt Firefox. Om någon vill analysera mer i detalj finns rådata i form av datum, andelar samt diagram på Google Docs.

Har ni liknande data eller har jag räknat helt galet?