ŁJaworski, Z PULPITU, agh
[ Pobierz całość w formacie PDF ]
//-->AKADEMIA GÓRNICZO-HUTNICZA IM.STANISŁAWA STASZICAWYDZIAŁ INŻYNIERII METALI I INFORMATYKI PRZEMYSŁOWEJPRACA DYPLOMOWA MAGISTERSKANarzędzie do optymalizacji i pozycjonowania stron internetowych dla wyszukiwarki internetowejna przykładzie wybranego serwisu internetowego.Autor: Łukasz JaworskiKierunek Studiów:Informatyka StosowanaSpecjalność:Modelowanie i Technologie InformatycznePromotor: dr Magdalena KopernikRecenzent:Prof. dr hab. inż. Jan KusiakPodpis dyplomantaKraków 2011Podpis promotoraOświadczam,świadomy(-a)odpowiedzialności karnej za poświadczenie nieprawdy, żeniniejszyprojekt magisterski wykonałem(-am) osobiście i samodzielnie i nie korzystałem(-am) zeźródełinnych niż wymienione w pracy.Kraków, dnia ................Podpis dyplomanta ........................Łukasz Jaworski – Praca Magisterska20 WstępSpis treści:Część I - Teoretyczna1 Algorytmy wyszukiwarek2 Wyszukiwarka Google3 Internet3.1Internet na świecie3.2Internet w Polsce4 Pozycjonowanie5 Czynniki wpływające na pozycje witryny5.1Meta tagi5.1.1Meta title5.1.2Meta keywords5.1.3Meta description5.2Znacznik title5.3Nagłówki5.4Wyróżnienia tekstu5.5Oryginalność treści5.6Tekst alternatywny5.7Adres witryny5.8Adresacja podstron5.9Wiek strony oraz wiek domeny5.10PageRank5.11Linki z innych stron5.12Linkowanie wewnętrzne6 Analiza słów kluczowych6.1Google Analytics - Źródła odwiedzin6.2Google Trends6.3Google Insight6.4Cele konwersji7 Podsumowanie części teoretycznej8 Cel i założenia pracyCzęść II – Badania własne9 Charakterystyka aplikacji oraz omówienie jej głównych składowych9.1Funkcjonalność9.2Opis Interfejsu9.2.1Analiza konkurencji9.2.2Analiza Backlinków9.2.39.2.4Pozycje zdefiniowanych stronRaporty stron10 Badania i wnioski11 Podsumowanie i wnioskiŁukasz Jaworski – Praca Magisterska30. WstępStale rosnący odsetek osób posiadających dostęp do Internetu wymusza, a zarazem zachęca firmydo docierania do swoich potencjalnych klientów, właśnie za pomocą tego medium.Przynajmniej raz w tygodniu korzysta z komputera 55 proc. Polaków. Dwie trzecie ma go w domu,z czego zdecydowana większość - z dostępem do sieci. Prawie wszyscy internauci korzystają z sieciw domu, połowa w szkole lub pracy. Średnio polski internauta spędza w sieci 15 godzintygodniowo, a więc ponad dwie godziny dziennie. Ponad dwie trzecie z nich (67 proc.), czyli okołojednej trzeciej ogółu dorosłych, dokonało zakupu przez Internet.W 2010 roku wydatki na reklamę online wyniosły w Polsce 1,578 mld zł, co oznacza wzrost o 15%w stosunku do roku poprzedniego (17%, porównując tylko te podmioty, które wzięły udział wbadaniu w obydwu latach – 2009 i 2010). Jest to wzrost znacznie wyższy niż w 2009 roku (12,9%) ijasno daje do zrozumienia, że gospodarka wyszła z kryzysu i zwiększają się budżetyreklamodawców.W dalszym ciągu największy udział ma display z 45%. udziałem w całości wydatków (spadek o 5% wstosunku do 2009 r.), następny w kolejności jest SEM (ang. Search Engine Marketing, Marketing wwyszukiwarkach internetowych) 30%, co daje wzrost o 4% w stosunku do 2009 r., ogłoszenia (17%– wzrost o 2%) oraz e-mail marketing z takim samym jak w 2009 r., 6 procentowym udziałem.Widać więc, bardzo szybko rosnące zainteresowanie reklamą w wyszukiwarkach internetowych ipozycjonowaniem.Dlaczego jest to takie ważne?•internauci znacznie częściej wchodzą na strony pokazujące się wyżej w wynikachwyszukiwania,•odpowiednio dobrane frazy kluczowe mogą przyczynić się do pozyskania ruchu zodpowiedniej grupy docelowej,•wśród wielu Internautów panuje przekonanie, że zajmowanie wysokich pozycji w wynikachwyszukiwania jest tożsame z wysoką jakością usług czy produktów dostępnych w oferciefirmy.Istotnym czynnikiem przyczyniającym się do wzrostu zainteresowania firm pozycjonowaniem jestrównież relatywnie niski koszt tej formy promocji.W niniejszej pracy zostały opisane czynniki wpływające na pozycję witryny zajmowaną w wynikachwyszukiwania, a także przygotowana została aplikacja wspomagająca firmę w pozycjonowaniustron internetowych, poprzez pomiar i analizę tych że czynników. Dzięki tej aplikacji, wieleżmudnych i czasochłonnych procesów jakie mają miejsce podczas pozycjonowania stroninternetowych zostaje zautomatyzowanych, a wyniki zapisywane i dostępne w dowolnymmomencie.Podczas pisania tej pracy, część funkcjonalności stworzona została na zamówienie firmy HanBrightS.A. i będzie wykorzystywana komercyjnie, wspomagając pozycjonerów w tej firmie.Łukasz Jaworski – Praca Magisterska41. Algorytmy wyszukiwarekWyróżniamy kilka podstawowych rodzajów algorytmów wyszukiwania. Od wyszukiwarek opartychna analizie meta danych, poprzez wyszukiwarki analizujące treść stron internetowych, topologięsieci, skończywszy na wyszukiwarkach analizujących zachowania użytkowników. Istnieją równieżwyszukiwarki oparte na zasadzie aukcji miejsc.Na samym początku istnienia wyszukiwarek internetowych działały wyszukiwarki, które działały woparciu o informację zawarte w meta danych dokumentu HTML. Wyszukiwarki oparte na analiziemeta danych, były jednak bardzo podatne na nadużycia ze strony użytkowników. Wystarczyłopodać nieprawdziwe dane w polach meta, aby zmylić wyszukiwarki, które w tych czasach nieanalizowały treści strony.Później przyszedł czas na wyszukiwarki oparte na analizie treści strony, działające w oparciu oalgorytm binarnej wagi słów.Binarna waga słów to jedna z metod określania relatywności dokumentu względem termu(zadanej frazy, słowa). W tym celu określa się współczynnikWij=1 lubWij=0, gdzieWijoznaczasłowoiw dokumenciejz kolekcji dokumentów.Uogólniając, metoda ta daje jedynie informacje czy dane słowo w występuje w dokumencie i czyteż nie i nadaje współczynnikowiWijodpowiednią wartość, gdy słowo:występuje – 1,nie występuje -0.Jednak sama ocena wystąpienia frazy, szybko okazała się nie wystarczająca. Konieczna okazała sięanaliza częstości występowania słów. Zastosowanie tutaj ma algorytm TF z ang. Term Frequency,częstość wystąpienia słowa. W mechanizmach wyszukiwarek internetowych, algorytm ten określaczęstość wystąpienia żądanych słów w obrębie badanego dokumentu.Wymieniony algorytm również nie przetrwał próby czasu. Poprzez częste powtarzanie w treścidokumentu danej frazy, można było zmylić algorytm odnośnie faktycznej zawartości dokumentu.Użytkownik zamiast użytecznych informacji dostaje linki na strony nie mające nic wspólnego z jegozapytaniem.[1]Kolejnym i przełomowym krokiem, było wprowadzenie algorytmu wyszukiwania opartego naanalizie topologi sieci, co przedstawię na przykładzie.Wyszukiwarki uważały stronę A za odpowiednią na zapytanie o frazę „gry”, jeżeli wiele stron otematyce gier, linkuje do strony A. Inaczej, im więcej stron w sieci powołuje się na dany dokument,tym jego pozycja w wynikach wyszukiwania będzie wyższa.Pierwsza wyszukiwarka, która zastosowała zaawansowane algorytmy analizy topologii sieci byłoGoogle. Wyszukiwarki oparte na analizie topologicznej są często uważane za bardzo odporne nanadużycia. W rzeczywistości stosunkowo częstym atakiem są spam-systemy automatycznejwymiany linków. Inną formą ataku jest stworzenie dużej ilości gęsto linkowanych stron, z czegowszystkie na ten sam temat. Jest to jednak zadanie trudne i wymagające dużego nakładu pracy, amodyfikując heurystykę wartości początkowych można znacznie ograniczyć ten proceder, któregoskala na razie jest minimalna.Nieco inne podejście do wyszukiwania prezentuje algorytm wprowadzony przez Overture system,gdzie strony płacą wyszukiwarce za pozycje kilka centów, po czym pozycje są licytowane, a stronaktóra płaci więcej, może liczyć na wyższą pozycję. Nie jest to najlepsze rozwiązanie, ale połączone zoceną jakości reklam i stron, może dawać zadowalające wyniki. Taki model później wprowadziłoGoogle, pod nazwą Google AdWords.Łukasz Jaworski – Praca Magisterska5
[ Pobierz całość w formacie PDF ]