Robot és Spider (webbejáró) szűrő Analaytics-ben

2014. augusztus 06. 12:59 - Bay Áron

Google-Spider-Index-Time.jpgSokan jelezték a Google-nek az elmúlt időszakban, hogy gyakran nehéz azonosítani az oldalra látogatók valós forgalmát. Ez a probléma most részben megoldódott, lehetőségünk van a robotok és a webbejárók (spiderek) találatainak kizárására.

Speciális szűrők használatával ez már korábban is megoldható volt, mostantól viszont egyszerűen ki lehet pipálni az opciót az admin felületen a nézethez tartozó beállításoknál.

Maga az opció az "Ismert robotok és webbejárók összes találatának kizárása" néven szerepel a felületen. Kiválasztásával kizárásra kerül az összes olyan találat, ami az IAB által ismert robot és spider listában szereplő forrásból érkezik. A rendszer ki fogja zárni az összes olyan találatot, amit a User Agent alapján azonosítani tud és amelyek kapcsolódnak a listában találhatókhoz, úgy mintha egy nézet szűrőt állítottunk volna be. Ennek segítségével javítható a mérés pontossága és reálisabb képet kaphatunk a weboldalra érkező látogatók valós számára vonatkozóan.

bot_spider_szures_1.png

Jó analizálást!

Szólj hozzá!

A bejegyzés trackback címe:

https://webanalitika.blog.hu/api/trackback/id/tr106577091

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.