Одит на сайт. SEO проверка и SEO анализ на сайт



Съобщение
Поддръжката на тази страница от сайта е преустановена.
Всички SEO новини вече се публикуват само в SEO блога в категория SEO

Може също да се абонирате за новини от RSS емисия на адрес: feeds2.feedburner.com/ganbox

13.08.2014 г.

Проверка на линкове към сайт

Ganbox предлага услугата Одит на линкове, която открива всички линкове, които сочат към вашия сайт, след което линковете се оценяват и се търсят опасни линкове, които могат да доведат до наказание на сайта и дори до пълно отпадане от Google. Може да ползвате услугата еднократно, но е силно препоръчително да се абонирате за периодична проверка на линковете, защото е възможно конкурент да изгражда лоши линкове към вашия сайт. Прочетете подробна информация тук сега.

Валиден и добре структуриран HTML документ

25.09.2007 г.

Валиден HTML

За добра SEO оптимизация е добре сайтът да бъде валиден HTML документ. На адрес http://validator.w3.org има онлайн инструмент за проверка на валидност на HTML. Ще се учудите колко много сайтове НЕ са валидни.

Създаване на силно динамичен сайт с много мултимедийни възможности е изключително трудно да бъде и стриктно валиден. Но съм виждал известни сайтове, както български така и чужди, с пресичане на HTML тагове, което според мен е абсолютно недупостимо. Често срещана грешка с пресичане на тагове е: <form> <table> ... </form></table>

Структуриран HTML

По-голяма тежест при позициониране на сайтове от търсачките се дава на сайтовете с добре структуриран HTML. Какво означава добре структуриран HTML? Някои начинаещи дизайнери не разбират правилно значението на таговете H1, H2, H3 и т.н и ги използват неправилно като контейнери и чрез неправилно използване на CSS. Добре е една страница в сайта да има само едно главно заглавие H1 след това може да има няколко подзаглавия H2 и всяко от тях да има подподзаглавия H3. Но подреждането трябва да бъде примерно H1 H2 H3 H3 H2 H3. Грешно е да има H3 H2 H3 H2 H2 като големината шрифта на H2 е направена по-малка от тази на H3 чрез CSS.

Ползването на тага font с атрибут size е силно непрепоръчително точно защото предразполага към счупване на добре установената йерархия на HTML таговете.

Има едно лесно правило което може много да ви помогне при гугул оптимизация: сайтът трябва да се чете лесно и да се вижда йерархията на заглавията при изключване на CSS. Ако ползвате следния ред за задаване на CSS стилове: <link rel="stylesheet" href="style.css" type="text/css" /> опитайте следното - преименувайте временно файла със стилове style.css на style1.css (или просто изключете стиловете от браузера). Ще видите вашия сайт без красотите на CSS. Чете ли се лесно целия текст отгоре надолу и от ляво на дясно? Различават ли се заглавията и правилно ли са разположени? Ако отговорът е да сте на прав път към гугул оптимизация.

Тук е мястото да кажа, че подобни добре структурирани сайтове се четат много лесно от слепи хора. Те ще ви бъдат много благодарни за това и вероятно ще посещават вашият сайт редовно.

Описание на сайта

25.09.2007 г.

При SEO оптимизация важна роля играе текста между таговете title. Той е по-важен от meta таговете. Трябва да бъде кратък, ясен и да описва добре целта на сайта.

Виждал съм грешки и в двете посоки. От сайт с описание Untitled1 което е автоматично поставено заглавие от софтуер за създаване на сайт, когато не е въведено нищо. До сайт, който съдържа в тага title целия текст на страницата. Разбира се в този случай се виждат само първите няколко изречения и създателя на сайта очаква, че Google ще анализира целия текст. Моето мнение е, че подобна хитрост по-скоро може да навреди.

Ако създавате динамичен сайт, който представлява CMS, обикновено описанието в тага title се генерира автоматично в зависимост от избраната страница или тема и е във формат: Име на сайта - Заглавие на тема. Началото на текста има по-голяма тежест, затова препоръчвам следната оптимизация: да се разменят местата им ето така: Заглавие на тема - Име на сайта. Това създава в търсачките илюзията за много повече съдържание в сайта отколкото ако всички title започват еднакво.

Правилни META тагове и ключови думи от гледна точка на гугъл

26.09.2007 г.

Трябва да признаем, че мета таговете играят все по-малка роля за търсачки като гугъл. Но когато говорим за SEO оптимизация има няколко ключови момента.

Обновяване на 12 септември 2015г. Препоръчва се да не се ползва мета тага keywords. Причината е, че Google много отдавна не ползват тази информация.

Мета тага keywords трябва да съдържа няколко ключови думи, които кратко и ясно описват най-важните теми на сайта. Добре е да са разделени с интервал или запетая и да са подредени от ляво на дясно, като се започне с най-важните.

Много важно е да не се прекали с ключовите думи. Отрицателен ефект за оптимизация ще има ако този таг съдържа дума която няма нищо общо със съдържанието.

Дори да няма пряка връзка с SEO оптимизация, изключително важен е тага

<meta http-equiv="Content-Type" content="text/html; charset=windows-1251" />

Често срещам български сайтове без този таг (или грешен такъв) и резултатът е, че текста не се чете докато не превключиш енкодинга на браузера. Колко ли хора знаят как да си превключат енкодинга и дали ще дойдат втори път? :)

Тага description има малка тежест за SEO оптимизация, но демонстрира добър стил на писане и се препоръчва. Тук трябва да има малко по-дълго описание за целта на сайта, но не повече от 10 изречения.

Съдържание на сайта и оптимизация

28.09.2007 г.

Най-важното за гугъл е съдържанието на сайта и по-точно текстовото съдържание. Колкото повече и разнообразна текстова информация се съдържа по дадена тема, толкова по-вероятно е да бъде открит лесно сайта при търсене по тази дума в гугъл.

Темата за оптимизация на съдържанието е много обширна и строго специфична според типа на сайта.

Ако информацията в сайта е в големи количества е добре да се раздели на категории и подкатегории. Добре е началната страница да бъде лека - да съдържа само най-важните неща. Не трябва да се прекалява с броя на връзките на една страница, ако има над 50 връзки е добре да се помисли за оптимизация.

При SEO оптимизация изключително важно за търсачките е да има навигация от обикновенни линкове. Навигация написана на флаш или с помоща на JavaScript трябва да има и алтернатива с текстови линкове например в дъното на страницата.

Трябва до всяка една страница, която искате да се индексира, да има връзка или поредица от връзки и полученият URL да не съдържа параметри или сесийни променливи. Например ако имате страниците domein.com/index.php?page=about и domein.com/index.php?page=contact с помоща на mod rewrite на apache уеб сървъра тези два адреса трябва да се заменят с domein.com/about и domein.com/contact.

Подходящи връзки към сайта и на сайта при SEO оптимизация

29.09.2007 г.

Често разпространена заблуда на начинаещите уеб разработчици, когато се захващат с SEO оптимизация, е да мислят, че колкото повече сайтове са поставили връзки към техния сайт, толкова по-добре. По-важно е какъв е сайта на който сте поставили връзка към вашия сайт. Трябва сайта по възможност да бъде с повече уникални дневни посещения от вашия и да има същата тематика като вашия сайт.

Ако вашият сайт е за уеб игри и 50 различни слабо посещавани лични уеб страници добавят връзка към вашия сайт, това ще има по-малка тежест при оптимизация, ако 5 специализирани уеб сайта за игри с над 10 000 уникални дневни посещения добавят връзка към вашия сайт.

Относно изходящите връзки от вашия сайт е много важно да не поставяте връзки, които сочат към страници с нелегален софтуер или към хакерски страници. Възможно е вашият сайт да бъде завинаги изключен от индекса на гугъл.

Добавете ръчно вашият сайт в уеб директории, като отделите специално внимание на описанието на сайта. Започнете вашата SEO оптимизация с добавяне на сайта в гугъл от този адрес тук, но едва след като към сайта вече има достатъчно връзки от други важни сайтове. Списък с най-известните български търсачки и портали има тук.

При индексиране на сайт от търсачка се определя по кои търсени думи той да излиза в резултатите от търсенето. При оптимизация имайте предвид, че е важно заглавието на връзката към вашия сайт. Например връзката SEO оптимизация дава тежест на думите SEO оптимизация и търсачката отбелязва, че тези думи описват вашия сайт. Не пропускайте и атрибута title.

SEO оптимизация - насоки и правила на гугъл за уеб разработчици

03.10.2007 г.

Препоръчва се следването на тези правила, за да може по-лесно гугъл да открие, индексира и оцени страниците на вашия сайт. Дори да не изпълните всичко трябва да прочетете секция Правила за качество . Разглеждат се основните забранени практики, които могат да доведат до отстраняването на сайта ви завинаги от индекса на гугъл.

Как да започнем SEO оптимизация

След като сайта е напълно готов (без "тази страница е в разработка").
- намерете сайтове, със сходна тематика, с които да размените линкове;
- добавете сайта в гугъл от тук;
- създайте файл robots.txt и сайтмап (за това ще говорим по-късно);
- съобщете на всички сайтове, които трябва да знаят за вашия, че той вече е онлайн;

Правила за качество

- Правете страници за потребители, а не за търсачки. Не предоставяйте различно съдържание за едните и за другите.
- Не участвайте в линкови схеми, които са измислени за да увеличат PageRank на сайта ви. Не се доверявайте на фирми твърдящи, че бързо ще изкачат сайта ви в гугъл.
- Не използвайте компютърни програми, за да регистрирате страниците си и да изпращате автоматични или програмирани търсения до гугъл.
- Избягвайте употребата на скрити линкове или скрити текстове! Не използвайте пренасочвания.
- Не качвайте страници със съдържание, което не се отнася до темата на сайта ви и не създавайте много страници, поддомейни и домейни със съдържание, което е почти същото като това на сайта ви.
- Не създавайте страници, които инсталират вируси, троянски коне и подобни.

За дизайна и съдържанието

- Направете сайт с ясна йерархия и текстови линкове. Трябва да има достъп до всяка една страница от сайта ви чрез поне един статичен текстови линк. Проверете за счупени линкове и направете проверка за допуснати грешки във вашия HTML код. Вече писах за валиден и добре структуриран HTML документ.
- Създайте карта на сайта с линковете, които сочат към важните страници. Когато картата включва повече от 100 линка, разделете я на няколко отделни страници.
- Създайте полезен, информационен сайт, по възможност с уникално съдържание и напишете страници, които ясно и точно се отнасят към темата на сайта.
- Помислете за думите, които потребителите биха използвали, за да намерят сайт със съдържание подобно на това от вашите страници. Употребявайте в текста тези думи! По-голяма тежест имат, ако са към началото на страницата.
- Постарайте се да използвате текст, вместо изображения, за да посочите важните имена, съдържание и линкове. Текстът, който е част от графиката на изображението, не се разпознава от паяците на търсачките. Направете информацията в атрибутите TITLE и ALT максимално описателна и точна.

Технически правила

- Отворете сайта с текстов браузер, като например Lynx, особено началната страница, за да проверите коя част от сайта паяците ще могат да "видят". Ако сайта съдържа прекалено много JavaScript, рамки (frames), DHTML, или Flash, които не позволяват да се види основното и важно съдържание на сайта ви, това означава, че и паяците на търсачките ще имат проблем.
- При използване на сесии ще трябва да помислите за начина по който паяка обхожда сайта ви и дали изобщо ще има достъп до някои страници.
- Не използвайте "&id=" като параметър във вашите URL адреси, защото гугъл няма да индексара страниците ви.
- При ползване на CMS система, проверете дали експортира съдържанието успешно, така че паяците на търсачките могат да го индексират. Добре се справя с това WordPress.

По-подробна информация за оптимизация може да прочетете на английски в Webmaster Guidelines.

SEO оптимизация и как работи Гугъл

07.10.2007 г.

Когато се захванете с SEO оптимизация трябва да знаете как работят паяците. Това са автоматични програми на търсачките, чиято цел е ежедневно да претърсват мрежата, да анализират страниците и да ги индексират. Наричат ги още ботове - съкращение от роботи.

След като една страница е вече индексирана, паяка ще минава периодично, за да проверява дали в страницата има промени по текста и ако има ще я индексира отново. Колко често се случва това зависи от това колко често се добавя съдържание в тази страница.

За да може паяка на гугъл да посети вашия сайт трябва да има поне една връзка в друг сайт, който вече е индексиран, която да сочи към вашия сайт. Средно до седмица след като има такава връзка и вашия сайт ще бъде автоматично индексиран. Другият начин е да добавите ръчно вашия сайт в индекса на гугъл, както споменах по-горе. При ръчно добавяне минават около 48 часа, докато началната страница на сайта бъде добавена в индекса.

След като посети една страница паяка на гугъл започва да я анализира и оценява. Как точно се оценяват страниците е фирмена тайна на гугъл. При анализа се отделя текста от HTML таговете и се записват всички думи по-дълги от 3 символа и колко пъти се срещат в страницата. По-голяма тежест се дава на думите, които са заглавия и които са в началото на страницата. Текстове които са написани в картинки или други мултимедийни файлове се пропускат от паяка. Все пак картинките не се игнорират напълно, ако съдържат атрибут title се опитва да се разбере големината им и по този начин се определя тежестта на фразата в title.

Преглеждат се връзките в страницата и къде сочат. Ако това са връки към други страници в този сайт, се добавят за по-късна обработка. Страниците защитени с парола естествено не могат да бъдат посетени от паяка. Връзките създадени чрез флаш също се пропускат. Ето защо създаване на навигация на сайт единствено чрез флаш е безумие.

По специално гугъл има няколко програми паяци. Най-известните са Adsense bot, Freshbot и DeepCrawl. Паякът Adsense е специализиран за сайтове, които са поставили гугъл реклами в своите страници. JavaScript кода на рекламната позиция изпраща съобщение до Adsense паяка и той идва много бързо, за да анализира страницата и да прецени какъв тип реклама да постави в тази страница. Това се случва до 15 минути след като някой зареди страницата си в браузера от компютър различен от този на уеб разработчика.

При SEO оптимизация по-интересни са другите два паяка, които работят заедно. Freshbot е паяка, които индексира страниците от първо ниво във вашия сайт и преценява колко често се посещават. Супер динамични сайтове като Yahoo се преиндексират на всеки 10 минути. Стандартно времето за повторно посещение от този паяк е от един до 14 дни в зависимост от това колко популярна е страницата и колко често се променя. Freshbot записва в база данни всички връзки от вашия сайт сочещи към по-дълбоки нива във вашия сайт. Веднъж месечно DeepCrawl прочита връзките записани в базата от Freshbot и започва да ги индексира. Това е причината, поради която може да мине до месец, докато всички страници на сайта бъдат индексирани, особено ако имате много категории и подкатегории.

Както виждате SEO оптимизация е бавен и сложен процес. Най-доброто което можете да направите е да добавяте все повече полезно съдържание по дадена тема във вашия сайт.

Гугъл акаунт за уеб разработчици и следене на SEO оптимизация

10.10.2007 г.

При започване на SEO оптимизация на сайт, едва ли ще минете без създаване на акаунт в Google Webmaster Tools. В този сайт гугъл ви дава инструменти с които можете да следите един или няколко сайта едновременно през процеса им на SEO оптимизация. Ако вече имате поща в gmail.com може да се логнете със същите мейл и парола.

Какви уеб инструменти ще намерите тук? Възможност да виждате кога за последно паяка на гугъл е посетил вашия сайт и дали е срещнал проблеми при обхождането му. Статистика по кои ключови думи търсят хората в гугъл преди да посетят вашия сайт (виж как изглежда). Състояние на файла robots.txt, състояние на sitemap на сайта и други.

След като създадете акаунт и се логнете в него, от страница Dashboard ще можете да добавяте сайтове за следене. За всеки добавен сайт ще трябва да докажете, пред гугъл, че сайта е под ваш контрол, като добавите специален META таг в индексния файл или като качите празен файл със специално име в главната директория на сайта. След като добавите тага или файла на уеб сървъра на вашия сайт, натиснете бутона [Verify]. Ще трябва да минат седмица-две, докато статистиките започнат да действат.

От менюто Tools/Set preferred domain можете да кажете на гугъл как да показва вашия домейн в резултатите от търсенето. Дали като http://www.domain.com или просто http://domain.com. Разбира се трябва предварително да се насочили поддомейна www. Често срещана глупава грешка е двете да не сочат на едно място.
В следващата статия ще видим как се създава файла robots.

Създаване и проверка на файла robots.txt за SEO оптимизация

12.10.2007 г.

Друга стъпка от SEO оптимизация на една уеб страница е създаването и качването на файла robots.txt в главната уеб директория на вашия сайт. Файлът robots.txt е текстов файл, който указва на паяците на търсещите машини кои директории и файлове могат да индексират и кои не трябва да бъдат индексирани. Най-често се ползва, когато на сървъра има файлове, които не са html или уеб скриптове, а например файлове на документи. Това са файлове, които не са предназначени за гледане през браузер, а само за сваляне и понякога може да се окаже опасно да бъдат индексирани и така да станат достъпни за някой, който не трябва да има достъп. Също така чрез този файл може да се укаже, кои точно търсачки да имат достъп до даден файл или директория и кои не.

Важно! Трябва да се има предвид, че не всички роботи на търсещи машини се съобразяват с указанията, дадени в robots.txt! Ако имате крон скриптове или други важни файлове НИКОГА не ги поставяйте в уеб директорията, а извън нея! Не може да се разчита само на robots.txt, че ще спре достъпа до тези файлове, това може да се направи само от настройки на уеб сървъра. Всъщност даже ще помогнете на хакери да видят кои директории са ценни за вас, като отворят през браузер вашия файл robots.txt.

Файла robots.txt има определен формат на записване, който трябва да се спазва. Името на файла трябва да бъде само с малки букви. Не може да бъде например Robots.txt. Отделните групи записи в robots.txt се разделят с празен ред.

Ето един файл robots.txt, който разрешава достъп до всички файлове на всички паяци:

User-Agent: *
Disallow:

Ако вторият ред бъде променен на Disallow: /, тогава имаме точно обратния ефект - всички търсачки няма да имат достъп до всички файлове.

Файлът robots.txt съдържа два основни типа записи:
1. Запис, указващ името на паяка на съответната търсачка (или знака * за всички търсачки).
2. Втория запис указва кои точно файлове или директории да не се индексират от паяка описан на предния ред.

Например:

User-Agent: Googlebot
Disallow: /cgi-bin/

Това е името на паяка на гугъл и така му забраняваме да индексира директорията cgi-bin, която е поддиректория на главната уеб директория, както и всички файлове и директории, които cgi-bin съдържа.

Възможно е да се забрани индексирането на даден файл или директория от една търсачка и да се разреши индексирането на същия файл или директория от всички други търсачки. Ще ви е необходимо да знаете имената на паяците на търсачките. Можете да видите пълен списък в Database of Web Robots, Overview.

Във файла robots.txt може да има само един запис от вида: User-Agent: *, който се отнася за всички паяци. Той трябва да бъде следван от списък с директории или файлове които ще бъдат забранени за индексиране. Всеки запис трябва да бъде на нов ред и не трябва да има празен ред между тях. Вече е възможно имената на няколко паяка да се укажат с един запис User-agent, като трябва да бъдат разделени с табулатор.

Втория тип запис Disallow: указва кои точно файлове или директории да не се индексират от съответния паяк.
Например записите:

Disallow: my_file.php
Disallow: /dir1/dir2/
Disallow: /dir1/file.html
Disallow: /bin

забраняват индексирането на файла my_file.php от главната уеб директория, на цялото съдържание на dir2, която е в dir1 (важно е да има знака / в края), на файла file.html от директория dir1, като останалите файлове от dir1 си се индексират безгрижно и накрая се забранява индексирането на всеки файл или директория започваща с bin. Например директория binary или файловете bin.txt, bini.html и т.н. Както се вижда, всяко описание на директория или файл, трябва да бъде на отделен ред.

Можете да поставяте коментари във файла robots.txt като всеки коментар е на нов рез и започва със знака #. Например:
# Това е ред с коментар

Някои паяци, сред които и този на гугъл, могат да разбират забрана за индексиране на файлове с определено разширение, например записа
Disallow: *.asp
ще забрани индексирането на всички файлове с разширение .asp

Ето един завършен пример:

User-agent: webcrawler
Disallow:

User-agent: lycra
Disallow: /

User-agent: *
Disallow: /tmp
Disallow: /logs

Този файл изрично разрешава всичко за паяка на webcrawler, забранява всичко за lycra, забранява на всички достъп до всички директории и файлове започващи с tmp и logs. Всички останали паяци, които не са споменати ще имат пълен достъп да индексират всичко без tmp и logs.
Повече информация на английски език има тук.

Създайте вашия файл robots.txt с обикновен текстов редактор и го качете на сървъра в главната уеб директория. Трябва да можете да го отворите през браузера на адрес http://yourdomain.com/robots.txt
След това влезте във вашия гугъл акаунт (виж Гугъл акаунт за уеб разработчици и следене на SEO оптимизация) и от Dashboard отворете "Manage http://yourdomain.com", след това от менюто влезте в Tools/ Analyze robots.txt. В тази страница можете да проверите как гугъл успява да се справи с вашия файл robots.txt и дали в него има грешки.

След като всичко е наред с вашия файл robots.txt можете да поставите един от следните тагове:

<meta name="robots" content="index, follow">
<meta name="robots" content="noindex, follow">
<meta name="robots" content="index, nofollow">
<meta name="robots" content="noindex, nofollow">

Първият таг казва на паяците да индексират всичко и да проследят линковете от текущата страница. Вторият да не индексират страницата, но ще проследят линковете в нея. Третият вариант ще индексират страницата, но няма да проследят линковете в нея. При четвъртият таг няма да индексират нищо и няма да проследят линковете.

Ако имате проблем със създаването на вашия файл robots.txt можете да пишете в тази тема. Ще ви отговоря при първа възможност.

Създаване на сайтмап за SEO оптимизация

15.10.2007 г.

В тази статия ще говорим за гугъл сайтмап - XML описание на страниците във вашия сайт, предназначено за паяците на гугъл. Не трябва да се бърка с "Карта на сайта" - html страница в която са описани по-важните страници на голям сайт за по-лесно ориентиране на посетителите на сайта.

При SEO оптимизация е много полезно да имате сайтмап. Основната цел на един сайтмап е да укаже на паяка колко често възнамерявате да променяте всяка една страница от вашия сайт и колко важна е тя за вас.

Създаване на сайтмап:

1. Автоматично създаване. На адрес www.xml-sitemaps.com има полезен инструмент за онлайн създаване на сайтмап на вашия сайт. Въведете URL на вашия сайт, като за начало може да оставите останалите опции по подразбиране и натиснете бутона [Start]. Целият ви сайт ще бъде изследван (максимум 500 страници) и ще бъде създаден файла sitemap.xml. Изтеглете го от връзката под заглавието "Download un-compressed XML Sitemap" и го отворете с обикновен текстов редактор.

2. Тунинг на сайтмап. Редактирайте таговете priority за всяка връзка от сайта. Възможните стойности са 0.0, 0.1, 0.2 ... до 1.0. За по-добра SEO оптимизация е важно да разберете правилно за какво служат тези стойности и как да ги ползвате. Това са относителни стойности на вашата оценка за всяка от страниците на вашия сайт. Колкото повече различни стойности имате, толкова по-добре. С оценка 1.0 показвате коя е най-важната за вас страница в сайта, с оценка 0.9 - следващата по важност и т.н.

2.1. Тези оценки по никакъв начин не оказват влияние на вашето класиране в гугъл спрямо други сайтове, а само начина на сортиране на вашите страници в гугъл. Ако човек търси в гугъл по дума която я има в повече от една страница във вашия сайт, то тази с по-високо priority ще излезе преди другите.

2.2. Най-глупавото нещо е да сложите на всички страници 1.0, тогава всичките страници ще бъдат оценени еднакво и ще се сортират по друг начин. Опитайте се да дадете различни стойности на priority за всички линкове.

Следващият таг който трябва да промените е changefreq. Той указва колко често смятате да променяте тази страница. Възможните стойности са: always, hourly, daily, weekly, monthly, yearly, never. Стойност always се ползва само при динамични страници, които се променят при всяко едно посещение (например брояч на посещенията). Стойност never е за архиви, които няма да бъдат променени.

Тук е важно да разберете, че това са просто указания, а не команди към паяка. Ако сте маркирали с daily една страница, но не добавяте ново съдържание всеки ден, то след известно време паяка ще си я отбележи като weekly или по голямо и повече няма да се съобразява с вашия сайтмап.

3. Качване на сайтмап. След като вашия сайтмап е готов по FTP го качете във вашата главна уеб директория, така че да се вижда на адрес http://yourdomain.com/sitemap.xml и след това сте готови да го добавите във вашия гугъл акаунт (виж Гугъл акаунт за уеб разработчици и следене на SEO оптимизация). В този момент е добра идея за всеки случай да проверите файла sitemap.xml дали е валиден XML документ ;)

4. Добавяне в Гугъл. Влезте във вашия гугъл акаунт с име и парола и от Dashboard срещу вашия сайт в колона Sitemap натиснете връзката Add. На следващата страница от падащото меню изберете "Add General Web Sitemap" и в появилото се поле 3 допишете адреса до вашия сайтмап, като напишете sitemap.xml. Остава да натиснете бутона [Add Web Sitemap] и да изчакате няколко часа.

Счупени и здрави линкове при оптимизация

21.10.2007 г.

Счупени линкове казваме на връзките, които сочат към несъществуващи страници (грешка 404 Not Found). Получават се най-често при показване на връзки, който сочат към незавършени страници все още не качени на сървъра или грешки при изписване на връзката от създателя на сайта.

Такива връзки оказват негативно въздействие на вашата оптимизация, но много по-важно е, че по този начин губите доверието на посетителите към сайта. Затова:
- никога не пускайте сайт със страници under construction или с връзки сочещи към все още несъществуващи страници!
- след като сайтът е пуснат, редовно проверявайте дали не се е появил счупен линк заради грешка. Може да загубите доверието на голяма част от посетителити и те да спрат да посещават сайта ви завинаги.

Виждал съм счупени страници кеширани от гугъл, които излизат в резултатите от търсенето - повече от хората дори няма да погледнат сайта ви, ако при търсене в гугъл след връзката към сайта ви в описанието видят нещо като "тази страница все още не е завършена".

Възможно е заради счупена връзка без да искате да прекъснете достъп до цяла категория от вашия сайт, в която ще могат да влизат само хора, които имат в bookmarks запазен директен линк. Тези страници до които се стига само през този счупен линк след време ще бъдат изключени от индекса на гугъл, ако не оправите връзката навреме.

Колкото по-голям и динамичен е сайтът ви, толково по-трудно е следенето за счупени линкове. За щастие има инструменти за това. Още по време на процеса на SEO оптимизация ще имате възможност да откриете такива връзки ако съществуват.

При създаването на сайтмап (виж Създаване на сайтмап за SEO оптимизация) уеб инструмента www.xml-sitemaps.com ще анализира сайта ви и ще ви покаже ако той съдържа счупени връзки - естествено само в публичните страници без тези защитени с парола.
За големи комерсиални сайтове ви препоръчвам да ползвате специализирани услуги за автоматична, периодична диагностика на сайт - проверка за достъпност на сайта от различни места, проверка на връзките в сайта и др.

На по-късен етап можете да следите дали са се появили счупени връзки в сайта ви от вашия гугъл акаунт (виж Гугъл акаунт за уеб разработчици и следене на SEO оптимизация). В Dashboard от менюто изберете Diagnostics и после връзка "Web crawl". В тази страница има 6 категории. Ако изберете "Not found" ще видити списък със счупени връзки - най-добре е да бъде празен ;)

В категория "URLs not followed" са връзките забранени за следване от META таг, а тези в "URLs restricted by robots.txt" забранени за гугъл от файла robots.txt. Писах по-горе и за двата вида. В категориите "URLs timed out" и "Unreachable URLs " обикновено стоят връзки от вашия сайт към други сайтове, които временно или перманентно са недостъпни.

Интересно е и да видите от менюто Links и после "Pages with external links". Там се вижда колко връзки има към вашия сайт от други сайтове. При натискане върху цифрата се вижда списък с кои точно страници са линкнати и от кои сайтове. Можете да изтеглите този списък в .CSV файл, който се отваря с Excel.

Ако сериозно се захванете с SEO оптимизация не подценявайте тези съвети.

SEO оптимизация - професионални услуги

04.03.2008 г.

От дата 11.02.2008 г. сайтът ganbox.com официално предлага услугата SEO оптимизация - извършване на поредица от действия, които водят до по-лесно откриване на вашия сайт.

Други услуги предлагани от ganbox.com: оптимизиране бързодействието на сайт; оптимизиране на ползваемостта на сайт; защита на сайт от спам, флууд и ботове; защита на сайт от DoS атаки и от други хакерски атаки; защита на информацията на сайт. За повече информация моля прочетете страница Услуги.

Класиране на сайт

26.09.2008 г.

От дата 26 септември 2008 г. сайтът ganbox.com предлага безплатно услугата Класиране на сайт - уеб форма, от която всеки може да провери, какво е класирането на даден сайт по определена ключова дума при търсене в Гугъл. Тази форма ще спести време на всеки, който често проверява класиране на сайт.

SEO блог

24.04.2009 г.

От дата 24 април 2009 г. в сайта ganbox.com стартира нов блог на тема SEO и уеб програмиране. Целта на този блог е да бъде малко по различен - да съдържа възможно по-малко теория и да акцентира на конкретни примери извлечени от практиката.





горе

Защо SEO от ganbox.com?



Последвай




Подобни сайтове





Реклами от Гугъл