Az utóbbi időben egyre több régi és új ügyfél érdeklődött nálam a keresők működéséről és a keresőoptimalizálásról. Többen jelezték is, ha úgyis rendszeresen blogolok, miért nem írok erről is. Engedtem a nyomásnak és megszületett ez a kis összefoglaló. Figyelem! Ez a poszt azoknak szól, akik NEM foglalkoznak keresőoptimalizálással, így csak akkor olvass tovább, ha érdekel.
Miért fontos a keresőoptimalizálás?
Az internet hajnalán, a kilencvenes évek elején még napi pár száz megabájtnyi tartalom került fel a netre naponta, 2014-ben becslések szerint naponta 2,2 millió terabájtnyi új információval bővül a világháló. (1 terabyte = 1024 gigabyte). Akkora adatmennyiség áll rendelkezésünkre, hogy el se lehet képzelni. Ebben a hatalmas adattengerben a felhasználók naponta 4 milliárd keresést végeznek. Akik a keresők segítségével szeretnének információhoz jutni, nagyon fontos, hogy számukra releváns találati eredményeket kapjanak kézhez, ehhez szükséges a keresőoptimalizálás.
Hogyan működnek a keresők?
Minden keresőmotor (Google, Yahoo, Bing, stb.) nagyjából hasonló keresési algoritmus szerint dolgozik. A keresési algoritmusok folyamatosan változnak éppen azért, hogy ebben az irgalmatlanul nagy adathalmazban a számunkra leginkább releváns tartalmakat találja meg. Több száz féle paramétert vesz figyelembe a keresőmotor, ezt nagyjából tudja is minden keresőoptimalizálással foglalkozó szakember, mivel időről-időre közzéteszik ezeket. Azt viszont nem teszi közzé egyik keresőóriás sem, hogy melyik paramétert mekkora súlyozással vesz figyelembe. És itt jön képbe a keresőoptimalizálással foglalkozó szakember munkája. Ő ismeri ezeket a paramétereket, a feladata, hogy a lehetőségekhez mérten minél több paraméter a lehető legoptimálisabban legyen használva. Folyamatosan figyeli az eredményeket és módosít, tesztel, elemez, újratervez, hogy minél előrébb szerepeljen a keresési találati listán az adott weboldal.
Hogyan változott a keresési algoritmus?
Mivel Magyarországon a Google a kereső piac 98%-át birtokolja, így a továbbiakban csak erről lesz szó. A Google 1997-es indulása óta több ezer algoritmusfrissítést hajtott végre. (2000-ig visszamenőleg a nagyobb változtatások a moz.com-on megtekinthető) Az első 10 év gyakorlatilag a kulcsszavakra való optimalizálásról szólt. Ahhoz, hogy valaki a keresési találati lista élére kerüljön elég volt annyi, hogy minél többször szerepeltette az oldalán az adott kulcsszót, épített rá néhány linket, és már fel is ugrott az első pozícióba. Erre hamar rájöttek az ügyeskedők, no meg a Google is, ezért egyre többféle paramétert vett figyelembe a rangsoroláskor, illetve elkezdett egyre szigorúbban fellépni az ún. black hat seo ellen.
Google Panda és Pingvin a rossz minőségű tartalom kiszűrésére
Az első nagyobb támadás a Google részéről a Pandának elnevezett algoritmus váltás volt. 2011 nyarán lépett életbe, célja hogy kiszűrje a régi, elavult, gyenge minőségű, nem frissülő tartalmakat. Ez jelentős átrendeződést hozott a találati listákon. 2012 áprilisában a Pandát követte a Pingvin névre keresztelt következő „csapás”, melynek célja, hogy kiszűrje a nem megfelelő minőségű és mennyiségű linkeket, spammeléseket. Ennek valamivel kisebb volt az érezhető hatása, de jónéhány oldal, aki átvészelte a Pandát, belebukott a Pingvinbe. Jó esetben csak hátrasorolás lett a büntetése, rosszabb esetben hosszabb-rövidebb időre kitiltotta az oldalt a keresőből.
Új irány: Google Kolibri
Az évek előre haladtával és az információk exponenciális növekedésével párhuzamosan egyre többen kezdtek el ún. long tail (több szóból álló kifejezések) kulcsszavakkal keresni, mivel így pontosabban meg lehet határozni a keresés célját, és ez jóval specifikusabb találati listát eredményez. Ezzel egyre közelebb kerülünk a szemantikus webhez. Többek között ez is szerepet játszott abban, hogy a Google is segítse ezt a törekvést, és 2013 közepén szabadjára eresztette a Kolibrit. A Kolibri célja, hogy az egyedi keresőkifejezések helyett a teljes keresési információbázist figyelembe véve próbálja meg a Google keresője kitalálni, hogy mely találatok a leginformatívabbak a felhasználó számára. Ezzel ismét feladta a Google a leckét a keresőoptimalizálással foglalkozó szakembereknek. Ez a fajta váltás teljesen más megközelítést jelent SEO szempontjából, az eddigi technikai rész picit háttérbe szorul, és a tartalom került fókuszba.
Hogyan lehet ma a találati lista élére jutni?
Ez egy nehéz és összetett kérdés. A perszonalizált keresési találati oldalak már eleve nehezítik a helyzetet, ugyanis könnyen előfordulhat, hogy ugyanarra a keresési kifejezésre ugyanaz az oldal három embernél három különböző pozícióban jelenik meg. Persze fontos, hogy minél magasabb pozícióba legyen az oldal, hiszen a keresőt használók 70%-a nem lapoz tovább a találati oldalak között. Gyakorlatilag nincs különbség abban, ha a 4. vagy a 14. oldalon jelenik meg az oldal. Mobilon ez hatványozottabban igaz, mert míg desktopos keresőfelületen egy képernyőn az első 4-6 találatot látjuk (a hirdetések számától függően), addig mobilon legjobb esetben is az első három-négy találatot.
Ha keresési forgalomról beszélünk egy weboldal esetében, ne a kulcsszó pozíció legyen a mérőszám, hanem a keresőkből érkező forgalom mennyisége.
A fentiekből is látszik, hogy amikor keresőoptimalizálásról van szó, mennyi mindenre kell odafigyelni ahhoz, hogy a keresőkben megtalálják a felhasználók az oldalt, és át is kattintsanak. Ha megkérdezik tőlem, hogyan lehet ezt jól csinálni, egy nagy társasjátékhoz szoktam hasonlítani a keresőoptimalizálást, ahol lépésről lépésre haladok előre, ha jó mezőre lépek, nagyot ugorhatok előre, de néha előfordul, hogy egy-két lépést vissza kell lépni, vagy még egy kört kell futni, de előbb-utóbb célba érek.
Ha még mindig érdekel a keresőoptimalizálás, olvasgass korábbi posztjainkat a témában.
Hozzászólások