Optimalizace pro vyhledávače z pohledu marketingu

Článek byl publikován pod názvem „Problematika optimalizace pro vyhledávače z pohledu marketingu“ na Mezinárodní Masarykově konferenci pro doktorandy a mladé vědecké pracovníky 2013.

Abstrakt

Popis problematiky fungování fulltextových internetových vyhledávačů, historie jejich vývoje a naznačení současných i budoucích trendů. Doporučení provozovatelům webových prezentací pro tvorbu jejich marketingové strategie v internetových vyhledávačích.

Klíčová slova: seo, vyhledávač, online marketing

Úvod

Vyhledávače jsou významným zdrojem návštěvnosti většiny webových stránek a jejich přístup k řazení výsledkům vyhledávání se neustále mění. V souvislosti s tím se musí těmto změnám přizpůsobovat i strategie provozovatelů webových stránek, která by měla odrážet trendy vývoje algoritmů řazení výsledků vyhledávání internetových vyhledávačů. V článku je shrnut princip fungování internetových vyhledávačů, jejich dosavadní vývoj, aktuální stav a naznačeny očekávané budoucí trendy jejich dalšího vývoje. Na tomto základě je představeno několik doporučení pro provozovatele webových prezentací, která by se měli snažit implementovat na svých stránkách.

Principy fungování internetového vyhledávače

Internetovým plnotextovým vyhledávačem je zpravidla rozuměn určitý program (aplikace), který na základě zadaného výrazu prohledává internet a poskytuje určité výsledky. Takovýto internetový vyhledávač pak provádí následující činnosti:

  • Prochází internetové stránky svým robotem (provádí tzv. crawling),
  • indexuje procházený obsah a
  • vyhledává v indexovaném obsahu.

Procházení stránek je realizováno pomocí specializovaného programu (robota) – crawleru, který po navštívení určité stránky automaticky následuje každý odkaz uvedený na této stránce. Sbírá a ukládá obsah, který nalezne v podobě html kódu, obrázky, dokumenty vytvořené textovými procesory, soubory typu pdf, multimédia a další obsah, který se na webu vyskytuje. Obsah každé stránky je pak analyzován a indexován – ukládají se informace o tom, v jakém kódování je vytvořen zdrojový dokument, jsou mu přiřazena klíčová slova. Přiřazení správných klíčových slov dokumentu je zásadním článkem, ovlivňujícím celé vyhledávání.

Princip fungování vyhledávače
Princip fungování internetového vyhledávače (zdroj: autor)

Klíčová slova by se měla vztahovat k tématu, kterého se daná webová stránka týká anebo kterému je příbuzná – základní princip je ten, že by mělo by být vzato v úvahu především to, jakým způsobem vyhledává dané téma koncový uživatel, ale měla by být vzata v úvahu také synonyma, slova nadřazená klíčovým slovům na webové stránce nebo výrazy používané na konkurenčních webových stránkách. Prvním zdrojem, který může být použit k definování klíčových slov přiřazených dokumentu, je obsah  titulku stránky nebo názvu dokumentu – ten by měl být teoreticky souhrnem obsahu, zhuštěnou informací o tom, čeho se dokument týká. Klíčová slova být určena dále na základě meta informací, nadpisů v textu a samotného textu webové stránky. Zde je zjišťování prováděno například na základě hustoty výskytu určitého výrazu na webu – pokud se například objeví na určité stránce nějaký výraz opakovaně a v různých souvislostech, dá se usuzovat, že je relevantní těmto klíčovým slovům. Na druhou stranu, ani příliš vysoký výskyt tohoto výrazu není zrovna atributem toho, že by tato stránka byla extrémně relevantní přespříliš často se vyskytujícímu výrazu, ale spíš je znakem toho, že zde může docházet ke snahám o manipulaci. Zpravidla je znakem relevance, když klíčový výraz nebo slovo tvoří 3-6 % celého textu stránky. Po dokončení této fáze jsou odstraněny duplicity a je provedeno propojení mezi databází uložených stránek a url odkazů. Je vytvořena indexovaná databáze záznamů tvořených titulkem, abstraktem nebo stručným popisem, url adresou, velikostí zdrojového souboru, identifikací jeho jazyka a podobnými údaji. V současnosti se vyhledávače snaží číst informace z webů více strukturovaně a stejně tak je zobrazovat ve výpisu výsledků vyhledávání jako rozšířené výstřižky (rich snippets).

Po vložení vyhledávacího dotazu uživatelem prohledává vyhledávač svůj index s cílem najít co nejlepší výsledky odpovídající položenému dotazu. Nejprve je analyzována struktura dotazu jako takového – jakými klíčovými slovy je tvořen, případně v jakém kontextu byl položen (z jakého zařízení, z jaké zeměpisné polohy, atd.). Pak je prováděno vlastní prohledávání databáze a vytváření stránky s výsledky vyhledávání, tzv. SERP. Kritérií, na základě kterých provádí toto řazení, je celá řada, vyhledávač Google jich například v současnosti používá přes 200. Tato kritéria a jejich váhy nejsou konstantní a neustále se vyvíjí.

Historický vývoj internetových vyhledávačů

Prvním pokusem na poli internetového vyhledávání byl seznam nových serverů, publikovaný na webu CERNu. Byl to ale opravdu seznam, který nedisponoval žádnou vyhledávací funkcí. První nástrojem, o kterém by se dalo říct, že sloužil k prohledávání obsahu internetu, bylo Archie. Tento program, který vznikl roku 1990 na McGillské univerzitě, fungoval tak, že stahoval obsah adresářů ze serverů, na který byl možný přístup přes anonymního ftp uživatele, a na základě toho vytvářel prohledatelnou databázi jmen těchto souborů. Samotný obsah souborů ovšem indexován nebyl a v něm se vyhledávat provádět nedalo. Po zadání jména souboru bylo Archie schopné poskytnout odpověď v podobě cesty k souboru, jehož jméno bylo totožné s dotazem hledání. Vyhledávací dotazy byly založené na syntaxy unixových příkazů, takže aby uživatel naplno využil Archie, potřeboval je dobře znát. Index Archie byl pravidelně aktualizován o nově se vyskytnuvší ftp servery s možností anonymního přístupu.

S nástupem gopheru vznikly další dva nové vyhledávací programy, a to sice Veronica a Jughead. Základní myšlenkou gopheru bylo zjednodušit navigaci a pohyb po internetových zdrojích. Správce internetové stránky tak mohl připravit menu se seznamem souborů a internetových zdrojů, uživatel pak jen vybral jednu z připravených položek a přešel na ni. Gopherové prohlížeče uměly přímo zobrazit obsah textových souborů, některé si poradily i s jednoduchými obrázkovými formáty. Gopherové vyhledávače, podobně jako Archie, prohledávaly názvy a popisky souborů uložených na serverech – Veronica prohledávala titulky v menu, existujících na většině tehdejších gopherových serverů ve světě (v její databázi bylo přes 99 % z nich). Samotný obsah menu byl poskytován opět ve formě gopherového menu. Jughead fungoval na poněkud jiném principu – dovedl získat informace o obsahu menu vždy pouze jednoho určitého gopherového serveru.

První webové prohlížeče byly pouze textové a obrázky zobrazovaly odděleně od textu, prvním prohlížečem, který zobrazoval text a obrázky jednom okně, byl Mosaic. Do roku 1993 neexistoval žádný vyhledávač webových stránek, pouze množství specializovaných katalogů. Prvním pokusem tohoto typu byl W3Catalog, který procházel weby a ukládal si jejich kopie ve standardizovaném formátu. Vyhledával však pouze ty weby, které byly zařazeny do jeho katalogu. Několik měsíců po W3Catalogu vznikl druhý webový vyhledávač – Aliweb. Weby, které procházel, neobjevoval pomocí robotu, ale na základě upozornění na existenci daného webu od webmastera dané webové stránky. Nebyl tak na jednu stranu omezen existencí katalogu, na druhou stranu sám nebyl schopen web aktivně procházet a vyžadoval manuální přidání stránky. Tento problém řešil první robot, určený k procházení webu, který vznikl téhož roku – jmenoval se Wandex a byl primárně určen k měření velikosti tehdy existujícího světového webu.

V prosinci roku 1993 vznikl Jump Station, což byl první program, který v sobě měl obsaženy všechny 3 oblasti funkcionality, které jsou podnes typické pro internetové vyhledávače – procházení webů, indexaci projitého obsahu i jeho prohledávání. Kvůli omezeným systémovým zdrojům na svůj provoz však indexoval a prohledával pouze titulky a hlavičky stránek, které prošel. Původně se jednalo o desktopovou aplikaci, nikoliv o webovou službu.

Prvním plnotextovým vyhledávačem, který prohledával a indexoval tělo projitých dokumentů, byl WebCrawler, vytvořený v roce 1994. Jeho první verze byla uvolněna v podobě desktopové aplikace a v databázi bylo 4000 webových stránek. Později získal i webové rozhraní.

Roku 1995 vznikl první pokus o metavyhledávač, tj. vyhledávač ve výsledcích vyhledávání ostatních vyhledávačů – fungoval na principu vyhledávání v 6 jiných vyhledávačích a jmenoval se MetaCrawler. V témže roce vznikl jeden z nejpopulárnějších vyhledávačů éry před příchodem Googlu, Altavista. Přinesl možnost zadávání dotazů přirozeným jazykem – například při zadání dotazu „Kde je Londýn“ nevyhledával všechny stránky, kde je obsaženo každé z 3 slov dotazu, ale pouze ty, kde je tato fráze obsažena jako celek.

Roku 1996 vznikl vyhledávač Ask, který kombinoval odpovídání na dotazy kladené přirozeným jazykem s tradičním způsobem zadávání klíčových slov do vyhledávání. Byl tak schopen přímo zodpovědět otázku formou odpovědi a uživatel tak nebyl nucen přecházet do některého z výsledků vyhledávání, které mohou odpověď na tuto otázku obsahovat.

Z řady tehdejších velmi podobně fungujících vyhledávačů poněkud vybočoval vyhledávač od Yahoo.com, který vyhledával pouze stránky zařazené v katalogu na Yahoo. Problémem této generace vyhledávačů bylo, že neexistovala žádná použitelná metoda tříděný výsledků vyhledávání podle relevance, takže existovalo významné množství uživatelů, kteří raději při hledání nových stránek na internetu používali katalogy. Mnoho z těchto vyhledávačů ukončilo svůj provoz v souvislosti se splasknutím internetové bubliny.

Významnou změnu v této oblasti znamenal až rok 1998, kdy vznikl Google. Přinesl nejen algoritmus hodnocení webových stránek PageRank, který hodnotí danou stránku na základě toho, jak na ni odkazují jiné stránky, ale také minimalistický design vyhledávače, výrazně se odlišující od tehdejších velkých portálů.

Roku 1999 začal Microsoft provozovat vlastní vyhledávací službu – MSN Search. Tento vyhledávač nejprve používal technologii vyhledávače Inktomi (s výjimkou období v roce 1999, kdy využíval AltaVistu). Až roku 2004 spustil vyhledávání pod vlastní technologií (msnbot), které přejmenoval na Windows Live Search a roku 2009 rebrandoval do podoby vyhledávače Bing, jehož výsledky jsou v současnosti jako výsledek akvizice Yahoo! Microsoftem zobrazovány i na portálu Yahoo!, který tedy již vlastní vyhledávací technologii dále nevyvíjí (Seymour et al. 2011).

Řazení výsledků vyhledávání

U prvních internetových vyhledávačů bylo pozicování stránky mezi výsledky vyhledávání založeno výhradně na obsahu jejího vlastního html kódu. V této době stačilo internetovým marketérům opakovat na určité stránce klíčové slovo, na které se chtěli umístit co nejvýše, tolikrát, jak jen to šlo a tím se posouvali nad konkurenční stránky. Takovéto techniky optimalizace už dnes ovšem nefungují a řada z praktik používaných za těchto „starých dobrých časů“ internetového marketingu je v rozporu s pravidly vyhledávačů a stránky, kde jsou používány, jsou algoritmy vyhledávačů hodnoceny jako obsahový spam. Google do tohoto systému hodnocení přinesl nový prvek – počet, kvalitu a kontext webů odkazujících na určitou stránku. Současné vyhledávací algoritmy tedy hodnotí dvě oblasti:

  • samotný obsah webové stránky
  • a množství, kvalitu a kontext odkazů vedoucích na stránku.

Robotické programy určené k procházení obsahu uloženého na webech jsou limitovány tím, že si poměrně dobře dovedou poradit s textovým obsahem, ovšem ne již tak dobře s ostatním typem obsahu, který se na internetu nachází – s obrázky, zvuky, videem, nebo obsahem vytvořeným pro interpretaci pluginem v prohlížeči (jako je flash nebo silverlight). Dalším problémem, se kterým si musí roboti na současném internetu poradit, je obrovský kontinuální nárůst množství obsahu, který neustále vzniká, tj. problém, jak mezi miliony každodenně vznikajících nových stránek určit ty, kam se má crawler vydat prioritně. Vznikají tak situace, kdy robot ví o existenci určitých stránek, ale ještě je neprošel a neindexoval. Posledním problémem, se kterým se musí roboti vyhledávačů vyrovnat, je fenomén „neviditelného webu“, tj. oblasti internetu, která je různým způsobem chráněna před návštěvou robotů vyhledávačů a nemůže být jimi navštívena, indexována a tak ani dohledána.

Předtím, než byly v úvahu brány širší souvislosti okolí webu, tedy zejména kontext odkazujících webů, bylo velmi problematické vytvořit relevantní odpověď na některé typy dotazů – například vyhledávač AltaVista při zadání obecného dotazu jako „japonské automobilové značky“ nebyl schopen poskytnout výsledky v podobě stránek konkrétních automobilek, protože výrazy jako „japonská automobilová značka“ nebyly na jejich webech obsaženy. Aby vyřešil tento problém, vytvořil Kleinberg algoritmus vyhledávání na základě kontextu odkazů (HITS), který podobně jako PageRank hodnotí webové stránky a dává jim skóre na základě jejich autority. Právě tyto práce přispěly ke změně paradigmatu fungování vyhledávačů, od čisté on-page analýzy k řazení výsledků na základě kontextu odkazujících stránek a analýzy sdílení na sociálních sítích. Signály, které uživatelé na internetu vysílají o tom, zda se jim určitá stránka líbí, se totiž v současnosti dají získat nejen ze sledování toho, zda na nějaký web odkazuje jiná stránka, ale také z toho, jestli a jak moc si ji uživatelé ukládají do různých online záložkových služeb a zda ji sdílejí na sociálních sítích. Dochází zde k posunu ve vnímání důležitosti signálů – od prvků, které jsou pod kontrolou profesionálních tvůrci webů (tj. webový obsah, odkazy mezi stránkami) k prvkům, které na internetu tvoří koncoví uživatelé a k důkladnější analýze jejich chování. Uživatelé vyhledávačů v současnosti projdou kolem 5 různých výsledků vyhledávání před tím, než se dostanou na stránku, která odpovídá jejich očekávání, je také známo a dá se sledovat to, že upřednostňují už ve výpisu na stránce SERP nehledě na pořadí některé výsledky vyhledávání před jinými – toto jsou další signály, které již nyní pomáhají rozšiřovat omezení řadících algoritmů internetových vyhledávačů a definovat skutečný kontext, ve kterém je na internetu vnímána určitá stránka. Návyky uživatelů vyhledávačů se mění – už nechtějí čekat, až se načte grafická upoutávka a pak se rozhodovat, zda budou číst statickou stránku. Dnes již očekávají více interaktivní a obsahově bohatší uživatelský zážitek. V souvislosti s tím se mění i podoba samotných stránek s výsledky vyhledávání – jsou obsahově bohatší a objevuje se na nich více informací, než výstřižek (snippet) z cílové webové stránky relevantní dotazu hledání. Výsledky vyhledávání mohou být a jsou také personalizovány – například na základě zeměpisné polohy, ze které proběhlo zadání dotazu vyhledávání. Tyto výsledky nemusí být zobrazeny ani v podobě nadpisu a výstřižku, ale přímo na mapě nebo ve formě interaktivního náhledu. Optimalizace formou výběru určité fráze a zaměření na dosažení co nejvyšších pozic tedy už nejen že není v zásadě možná, ale nedává ani smysl, zejména s přihlédnutím k dalšímu faktu: výzkumy chování uživatelů vyhledávačů prokázaly, že zřídkakdy prochází výsledky vyhledávání dále než na druhou stranu výsledků a než aby procházeli dále a podrobněji další stránky výsledků, raději přeformulují svůj vyhledávací dotaz a zkoumají nové výsledky – ale opět jen do druhé strany výpisu SERP. Online marketéři by měli toto chování vzít v úvahu a reflekovat různé synonymní vyhledávací dotazy tím, že nabídnou vstupní stránku relevantní zadaným klíčovým slovům. Za další by měli vzít v úvahu následující:

  • Webové stránky už nejsou statické a měly by mít možnost interakce s koncovým uživatelem
  • Sdílení, označování a hodnocení nabývá na důležitosti.

Pro online marketéry z toho plyne, že se musí soustředit více na aktivní činnost nejen na vlastním propagovaném webu, ale také na sociálních sítích a napomoci zasazení dotyčné webové stránky do jakési „sítě důvěryhodnosti“. Obecně jsme tedy svědky nástupu trendu, nabízet uživateli co nejvíce relevantní a přizpůsobené nabídky, zapojovat ho aktivně do komunikace skrze prostředky sociálních sítí. Vyhledávače se snaží weby a značky, které toto aktivně provádí, umístit i na stránkách SERP přednostně před hráči, kteří tímto způsobem nepostupují (Grehan a Pettijohn 2009).

Marketing ve vyhledávačích z pohledu budování značky

Více než polovina přístupů na weby v současnosti probíhá prostřednictvím vyhledávačů. Vyhledávače tak hrají významnou roli jako mezičlánek mezi uživatelem (potenciálním zákazníkem) a firmou, která má nabídku na webu. Výdaje do reklamy ve vyhledávačích rostou rychleji, než výdaje do jakéhokoliv jiného segmentu internetové reklamy. Využití vyhledávačů v online marketingu může být nasazeno jak ke zvýšení povědomí firmě, tak jako levný propagační kanál pro lokální projekty nebo pomocný nástroj budování značky. Někteří inzerenti se tak v závislosti na segmentu, ve kterém působí, zaměřují více na aspekt promování své nabídky, zatímco jiní na budování značky. Konkrétní úsilí je soustředěno na jeden z typů výsledků, které současné internetové vyhledávače nehledě na vnitřní algoritmus a aktuální nastavení vah poskytují – organické (přirozené) výsledky vyhledávání a placené výsledky vyhledávání (zobrazované na základě zadání skrze PPC systémy). Strategie a postupy pro zlepšování umístění v obou těchto typech nabývají zásadně odlišné podoby. (Ghose a Yang 2009)

Co se týká obou forem zobrazování výsledků, měli bychom si uvědomit, že jejich působnost je v zásadě dvojí – jednak působí na zvyšování povědomí o značce už jen tím, že se zobrazují ve výsledcích vyhledávání, a za další pak samozřejmě mnohem silněji ve chvíli, kdy uživatel skrze daný výsledek vyhledávání (ať už zpoplatněný či organický) přímo přejde na web. V tomto ohledu existuje velmi srovnatelná pozice malých a neznámých i velkých značek – všechny se zobrazují ve výsledcích vyhledávání vedle sebe. To, jak se značka konkrétně zapíše do vnímání zákazníků, záleží na tom, v jakém kontextu a na jaké vyhledávací dotazy viděl konkrétní uživatel internetu odkazy spojené s určitou značkou a také to, jak vysoko se tyto výsledky nacházely. Výzkumy prokazují, že výše posazeným výsledkům přikládají uživatelé vyšší hodnotu, která se přenáší i na značku, se kterou jsou tyto výsledky spojeny. Znamená to, že uživatelé internetu mají ve vyhledávače určitou důvěru, předpokládají, že vyhledávače dovedou dát na první místa weby značek, které jsou větší nebo hodnotnější, a že se v případě těchto výsledků jedná o vedoucí hráče v oboru, který vyhledávají. Tento systém hodnocení si uživatelé uchovávají ve formě implicitní znalosti na základě své dlouhodobé zkušenosti s vyhledáváním v jiných oblastech. Schéma uvažování jedince tímto principem nestojí nijak mimo rámec jeho rozhodování v jiných každodenních situacích: nerozhodujeme se na základě všech dostupných informací, ale na základě informací, které jsou nejsnáze dostupné. Kontext vnímání značky je tedy v zásadě jen další aplikací psychologického principu primingu – mozek si ukládá povědomí o určitém prvku na základě toho, v jakém kontextu o něm získal vjem. Podobně – když je neznámá značka v řazení výsledků vyhledávání nad značkou, kterou uživatel zná, přisoudí si podvědomě stejnou nebo vyšší hodnotu, jako má v jeho očích známá značka. Experimentálně bylo prokázáno, že podaří-li se tímto způsobem neznámé značce umístit viditelně ve výsledcích vyhledávání, může to prokazatelně pomoci k jejímu ukotvení v cílové skupině. (Dou et al. 2010)

Základní principy optimalizace stránek pro vyhledávače

Dotazy zadávané do internetových vyhledávačů lze klasifikovat do těchto tří skupin:

  • navigační (například, je-li zadán konkrétní název nějakého webu nebo firmy a uživatel na něj chce přejít),
  • transakční (typicky se jedná o dotazy, obsahující název nějakého produktu)
  • a informační.

Podobně inzerenti využívající placených výsledků vyhledávání mají možnost rozhodnout se, zda budou inzerovat na obecná klíčová slova nebo více specifické výrazy. Původně se internetoví marketéři zaměřovali na to, aby byl web nalezen – tj. maximalizoval se počet návštěvníků webu. Z této fáze nastal posun do roviny zaměřené na jasnější výsledky – tedy nikoliv být pouze nalezen, ale také provést konverzi, splnit cíl, učinit co největší počet prodejních transakcí. Jinými slovy, dostat se do styku s potenciálním zákazníkem v co nejranější fázi nákupního cyklu a vytvořit důvěryhodné partnerství, což pro obchodníka znamená propojit organizační funkční celky prodeje a marketingu. Marketing přejímá starost o získávání zákazníků, do značné míry i způsob vyřízení objednávky a o podporu po nákupu – tj. činnosti, které dříve spadaly do kompetencí prodejního oddělení. Právě proto je zapotřebí mít kvalitní obsah podporující všechny fáze nákupního chování – a jeho tvorba má blíže marketingu než aktivitám prodejního oddělení. S cílem minimalizovat počet nedokončených objednávek vznikají nové softwarové nástroje z kategorie MoFu (z anglického middle of the funnel), jejichž cílem je pomoci zmenšit počet opuštěných nákupních košíků a obecně počet uživatelů, kteří odešli v některé s fází nákupního cyklu vůbec – jde například o softwarové nástroje typu CRM  (Becker a Nelson 2011). Tyto nástroje začínají pak z online světa pronikat i do světa „kamenných“ obchodů – například již dnes existuje aplikace, která na základě GPS polohování identifikuje, že potenciální zákazník vešel do obchodu konkurence a v tu chvíli mu nabídnou slevu. Aby ho motivovala obchod co nejdříve opustit, je sleva časově limitována a čím později se zákazník přesune z konkurenčního obchodu do propagované prodejny, tím má slevu nižší. Méně agresivní formou se obchodníci snaží zákazníky segmentovat na základě historie jejich nákupů a pak se jim pokoušet zasílat relevantní nabídky ve chvíli, kdy je velmi pravděpodobné, že dané spotřební zboží právě vypotřebovali a budou se tedy zřejmě brzy rozhlížet po náhradě. Ať už se jedná o výzvu v okamžiku, kdy zákazník přechází jinam, o periodickou nabídku nebo o remarketingovou techniku, vždy je klíčové načasování a forma, tj. celková relevance reklamního sdělení. Všechny tyto případy spojuje ještě jeden princip – a to sice posun od modelu, kdy se realizuje jednorázová transakce a tím je vztah mezi prodejcem a zákazníkem oboustranně uzavřen, do podoby co možná dlouhodobého partnerství, kdy v pravý čas a pravou formou dostává zákazník relevantní nabídky, které pak využije raději, než když by musel sám sledovat, co mu periodicky dochází a vždy znovu vyhledávat prodejce, kteří jsou mu schopni odpovídajícím způsobem dané zboží zajistit. Tyto techniky mohou dále nabírat podob personalizovaných stránek, na kterých se na základě historie vyhledávání objevují při opakované návštěvě co možná relevantní nabídky. Opět je to další z forem úzkého propojení marketingu a prodeje (Cuddeford-Jones 2012).

Základním kamenem optimalizace webu pro vyhledávače by měla být jeho struktura a způsob organizace obsahu, který je na něm uložen. Fyzické uložení souborů by mělo ideálně být navrženo tak, aby stránky týkající se určitého tématu byly uloženy v jednom adresáři. Logická struktura odkazů mezi stránkami by měla reflektovat vztahy mezi stránkami, příbuznost a souvislost mezi nimi. Větší provázanost by měla být mezi domovskou stránkou webu a důležitými stránkami, celkově by měl být minimalizován počet nutných přechodů (prokliků) mezi stránkami nehledě na složitost organizace obsahu na webu. Složitější stránky by měly publikovat soubor typu sitemap, aby daly vyhledávačům instrukce k tomu, kde najít a jak zpracovat stránky uložené na serveru. Co se týká samotného obsahu webové stránky, měl by začít už na úrovni výběru názvu stránky – to by mělo být jednoduše zapamatovatelné, jednoduše zapsatelné do vyhledávače. Velký důraz by měl být kladen na titulek – zde je však potřeba dát pozor na to, jak dlouhé používají aktuálně vyhledávače, pro které je stránka optimalizována, titulky ve výstřižcích na stránkách výsledků vyhledávání a také to, aby titulek skutečně pravdivě reprezentoval obsah těla stránky. Za další, stránka by měla mít korektně vyplněny všechny meta informace (tj. tagy keywords, decription, případně obsah vytvořený v souladu se schema.org). Když vznikla AltaVista, bylo využití meta tagů pokusem o implementaci již ověřeného systému značení dokumentů, osvědčeného v akademickém prostředí. Autoři měli jednoduše popsat, čeho se týká jejich web a na základě tohoto označení pak mělo být prováděno řazení ve výpisu vyhledávání. Bohužel, tento koncept vzhledem k tomu, že se internet posunul z akademického do komerčního média, neosvědčil. Vzhledem k tomu, že označení webů meta tagy ovlivňovalo to, jak moc bude navštěvovaná stránka určitého komerčního subjektu a obrat objednávek uskutečněných prostřednictvím internetu, nebyly tyto informace autory webů vyplňovány korektně a byly cílem snah o manipulaci s výsledky vyhledávání. Řada stránek tak měla v meta informacích nikoliv klíčová slova, vztahující se k jejich vlastnímu obsahu, ale uvedená tam pouze proto, že byla populární a často vyhledávaná. Vyhledávače tedy postupně váhu meta tagů v algoritmu řazení výsledků vyhledávání výrazně snížily. Určitým předznamenáním renesance rozšířených popisů na stránkách se stalo zavedení zobrazování informací o autorovi konkrétní stránky, zavedené vyhledávačem Google pod názvem Google Authorship. Aby se předešlo snahám o manipulaci, vyžaduje tato funkce ověření vlastnictví stránek a propojení s profilem na sociální síti Google+. Kromě informací o autorech podporuje definice schema.org následující typy zápisů: drobečkovou navigaci, události, hudba, organizace, lidé, produkty, recepty, hodnocení, softwarové aplikace a videa. Řada z nich je již v současnosti podporována vyhledávači Google a Bing, které se přidaly k této iniciativě jako první. Opět se tedy vrací jiným způsobem to, co se již používalo v polovině devadesátých let: webmasteři opět poskytují jiným způsobem vyhledávačům rozšířené informace o webu, aby je pak vyhledávače byly schopny lépe interpretovat a přiřadit datům správný význam (Notess 2012). Obsah webu by měl být maximálně bohatý, pravidelně aktualizovaný a měl by obsahovat klíčová slova s přiměřenou hustotou (tj. 3-6 % textu). Mělo by být minimalizováno použití prvků, které vyžadují použití rozšiřujících pluginů v prohlížeči (jako je flash, java, silverlight) a použité obrázky by měly být vzhledem k tomu, že vyhledávače nedovedou chápat přesně jejich význam, správně popsány v html kódu (zejména za použití tagu alt). Za poslední, dynamicky generované url adresy by měly být převedeny na statické, aby byly snadno zachytitelné roboty. Samotný kód stránky by měl být napsán taky, aby doba jeho načítání byla co nejmenší – to znamená stylování řešit externím css souborem, stejně tak javascript nepsat přímo do kódu webu, ale řešit ho externě přes soubor .js  (Yang 2012).

Závěr

Vyhledávače jsou pro většinu uživatelů internetu nástrojem, který využívají pro hledání nových internetových stránek a pro majoritu webových stránek představují významný zdroj návštěvníků. Kromě přímého přínosu v podobě průchodu na stránku má zobrazování stránky ve výsledcích vyhledávání i dopad na vnímání značky, která je spojena s určitým webem. Dlouhodobě můžeme pozorovat snahu vyhledávačů identifikovat a eliminovat následky pokusů o manipulaci s výsledky vyhledávání a snahu donutit weby, aby měly co možná nejvíce kvalitní obsah s pravdivě vyplněnými popisy na klíčových místech, jako je titulek a nadpisy stránky. Využití meta tagů se na internetu na rozdíl od akademického prostředí neosvědčilo, alternativní iniciativou, kterou můžeme pozorovat, je ale využití rozšířených výsledků vyhledávání na základě definice schema.org, kdy není brán obsah z kódu neviditelného pro návštěvníky webové stránky, ale kdy je používána běžnému návštěvníkovi čitelná informace, pouze jiným způsobem strukturována v html kódu tak, aby vyhledávač byl schopen lépe pochopit význam uvedených záznamů. V oblasti off-site faktorů pozorujeme posun k důrazu na prvky vytvářené chováním běžnými neprofesionálními uživateli interetu, jako jsou odkazy ze sociálních sítí nebo preference určitých stránek ve výpisu SERP. Internetový marketing jako celek pak prostupuje do kompetencí ostatních funkčních oblastí podniků a do budoucna bude pravděpodobně růst tlak na to, jak vyřešit nabídku relevantního obsahu ve správný čas a pro správnou cílovou skupinu.

Použitá literatura

  1. BECKER, Ellie a Bernadette NELSON, 2011. Inbound marketing 2.0. Westchester County Business Journal. 24.10., roč. 47, č. 43, s. 16. ISSN 1057686X.
  2. CUDDEFORD-JONES, Morag, 2012. Better outcomes from inbound marketing. Marketing Week. 13.12., s. 27. ISSN 01419285.
  3. DOU, Wenyu, Kai H. LIM, Chenting SU, Nan ZHOU a Nan CUI, 2010. BRAND POSITIONING STRATEGY USING SEARCH ENGINE MARKETING. MIS Quarterly. 6., roč. 34, č. 2, s. 261–A4. ISSN 02767783.
  4. GHOSE, Anindya a Sha YANG, 2009. An Empirical Analysis of Search Engine Advertising: Sponsored Search in Electronic Markets. Management Science. 10., roč. 55, č. 10, s. 1605–1622. ISSN 00251909.
  5. GREHAN, Mike a James B PETTIJOHN, 2009. Search marketing yesterday, today, and tomorrow: Promoting the conversation. Journal of Direct, Data and Digital Marketing Practice. 12., roč. 11, č. 2, s. 100–113. ISSN 17460166.
  6. NOTESS, Greg R., 2012. Authorship, Rich Snippets, and the Semantic Web. Online. 12., roč. 36, č. 6, s. 44–46. ISSN 01465422.
  7. SEYMOUR, Tom, Dean FRANTSVOG a Satheesh KUMAR, 2011. History Of Search Engines. International Journal of Management and Information Systems. roč. 15, č. 4, s. 47–58. ISSN 1546-5748.
  8. YANG, Weiming, 2012. Research of Website Optimization Strategy based on Search Engine. International Journal of Advancements in Computing Technology. 10., roč. 4, č. 18, s. 333–340. ISSN 20058039.

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *