Optimizavimas paieškos sistemoms
Straipsnis iš Vikipedijos, laisvosios enciklopedijos.
Optimizavimas paieškos sistemoms (Search Engine Optimization „SEO“) – tinklalapių derinimas, siekiant palankesnės vietos paieškos sistemų rezultatuose. Norint tai pasiekti derėtų padaryti taip, kad visą informaciją tinklalapyje gelėtų lengvai pasiekti paieškos sistemos, metaduomenys būtų paruošti indeksavimui, puslapiai gausiai susieti nuorodomis, taip pat svetainė turi būti pasiekiama iš kuo daugiau kitų svetainių. Paprastai tikslas yra pakliūti tarp 10 pirmųjų paieškos rezultatų įvedant pasirinktą tikslinę frazę. Į optimizavimo paieškos sistemoms procesą taip pat įeina žodžių naudojamų tekste parinkimas bei pateikimas tiek matomose puslapio vietose, tiek metaduomenyse. Šis terminas dažnai plačiai naudojamas paieškos variklių marketinge, kaip veiksmų tiesiogiai ar netiesiogiai nukreiptų į tinklalapio reitingą bendrinis vardas. Kartais SEO naudojamas įvardinti SEO paslaugos teikėją – tai būtų suprantama kaip „SEO specialistas“ arba „SEO paslaugas teikianti įmonė“.
Turinys |
[taisyti] Paieškos sistemų darbo principai
Paieškos sistemos kūrimas susiduria su daugeliu sunkumų. Greita puslapių peržiūrėjimo technologija reikalinga puslapiams surinkti ir naujausiai informacijai saugoti. Saugojimo erdvė turi būti išnaudojama efektyviai. Indeksavimo sistema turi apdoroti šimtus gigabaitų informacijos. Užklausos turi būti vykdomos greitai, per šimtąsias ar tūkstantąsias sekundės dalis. Paieškos sistemos susideda iš penkių atskirų komponentų
- Spider („voras“): programa, kuri skaito tinklapius.
- Crawler („keliautojas“): voras,kuris automatiškai keliauja pagal tinklapio nuorodas.
- Indexer (”indeksatorius“): programa, kuri analizuoja gautus iš voro tinklapius.
- Database (”duomenų bazė“): čia saugojami voro perskaityti tinklapiai.
- Results engine (”rezultatų pateikimo sistema“): paima rezultatus iš DB ir pateikia juos vartotojui.
[taisyti] Spider
Programa, kuri skaito tinklapius. Jis dirba tokiu pat pagrindu kaip paprasta naršyklė, kai vartotojas jungiasi prie tinklapio. Voras neturi jokių vizualinių komponentų. Ta patį veiksmą (skaitymą) galima stebėti, kai su naršykle peržiūrimas tinklapio kodas („View source“). Tinklo „voro" paleidimas – sudėtinga užduotis. Yra keblių patikimumo ir produktyvaus darbo problemų ir – dar svarbiau – yra socialinių problemų. Ieškojimas ir skaitymas yra pati trapiausia programa, kadangi ji interaktyviai bendrauja su šimtais tūkstančių Interneto serverių. Voras turi būti patikimas, greitas ir robustiškas.
[taisyti] Crawler
Jo tikslas – nustatyti, kur toliau turi keliauti voras, remdamasis nuorodomis arba iš anksto paruoštu adresų sąrašu. Dažnai reikia uždrausti botui pasiekti konkrečias tinklapio dalis. Tam tikslui skirtas neoficialus standartas „Standart for Robot Exclusion (SRE)“, kurio remiasi beveik visi paieškos sistemų kūrėjai. Pagal šį standartą reikia tik sukurti failą “robots.txt“ serverio šakniniame kataloge ir įrašyti į jį keletą apribojimo komandų. Pagal serverio log-failą galima stebėti, kokias tinklapio dalis lanko botas. Kai kurie botai identifikuojami pagal savo pavadinimą – pvz. Google „Googlebot“. Kiti labiau paslėpti ir maskuojami kaip naršyklės.
[taisyti] Indexer
Indeksatorius dalina puslapį į skirtingas dalis (pavadinimai, nuorodos, tekstas, struktūriniai elementai, stiliaus elementai ir t.t) ir analizuoja juos. Botai nesupranta freimų, flash-animacijos ir skriptų.
[taisyti] DB
Tai tinklapių, kuriuos paieškos sistema indeksuoja, saugykla. Jeigu tinklapis pateko į DB, tai botai periodiškai lankys jį ir stebės visus pakeitimus. Apsilankymų kiekis priklauso nuo konkrečios paieškos sistemos.
[taisyti] Search Engine Results Engine
Rezultatų pateikimo sistema paima rezultatus (SERP, search engine result pages) iš DB ir pateikia juos vartotojui
[taisyti] Optimizacija
[taisyti] Legali
Legali optimizacija – papildymai bei tinklapio turinio ir struktūros klaidų taisymas, kad būtų galima užimti užtarnautą aukštą vietą paieškos sistemų reitinguose. Paprastai tai labai daug darbo reikalaujanti ir lėta procedūra (tinklapio puslapių kodo pakeitimai, naujų puslapių pridėjimas, tinklapio vidinių nuorodų struktūros keitimas, apsikeitimas nuorodomis su kitais teminiais tinklapiais, registracija kataloguose ir paieškos sistemose ir t.t.)
[taisyti] Nelegali
Nelegali optimizacija (spamdexing) – tai uždraustų metodų panaudojimas ir paieškos sistemų apgavystė, norint užimti neužtarnautą aukštą vietą paieškos sistemų reitinguose. Tai faktiškai yra spamas, nuo kurio kenčia ir eilinis vartotojas, kuris nerado to, ko ieškojo, – ir paieškos sistema, kurioje mažėja paieškos kokybė. O iš tikrųjų daugiausia kenkiama pačiam tinklapiui, nes anksčiau ar vėliau jis pateks į paieškos sistemų uždraustų tinklapių sąrašą
[taisyti] Perėjimai su nukreipimu (Doorways with redirect)
Tai specialūs puslapiai su beprasmiu vartotojui tekstu, bet užpildyti raktiniais žodžiais, reikalingais paieškos robotams. Taip pat šiame puslapyje kuriamas nukreipimas į pagrindinį šakninį tinklapio puslapį. Toks puslapis reklamuojamas ir patenka į aukštą reitingo vietą. Tokiu būdu lankytojas, paspaudęs nuorodą, patenka į perėjimo puslapį ir automatiškai nukreipiamas į pagrindinį ir net nepastebi to. Rasti tokius tinklapius Internete labai lengva. Užtenka tik duoti užklausą „seksas referatai porno“. Tokia technologija labiausiai paplitusi tarp adult-tematikos tinklapių, bet dažnai naudojama ir kitur.
[taisyti] Maskavimas (Cloaking)
Šis terminas sujungia daug metodų, leidžiančių pateikti lankytojams ir paieškos robotams skirtingas tinklapio versijas. Techniškai tai realizuojama taip: specialūs skriptai sulygina lankytojo IP-adresą su paieškos robotų adresų DB duomenimis. Jeigu tai yra paprastas lankytojas, tai jam pateikiamas normalus tinklapis, o jeigu robotas – tai jam pateikiamas specialiai optimizuotas tinklapis, dažnai net neperskaitomas žmogui. Norint atpažinti, ar tinklapyje naudojamas toks metodas, užtenka tik palyginti esamo tinklapio kodą su indeksuotu tinklapio kodu, kuris išsaugotas paieškos sistemos atmintyje.