19 Дек, 2012
Категории: SEO, Мысли вслух, Оптимизация сайта
Автор: Вовка

Поисковый аудит сайта

Поисковый аудит сайтаКаждый раз, берясь за новый клиентский проект или покупая какой-то сайт, пополняя свою графу активов, я провожу простейшую (как уже кажется мне) и уже привычную для меня процедуру – поисковый аудит сайта. Я делаю это не из-за чрезмерной самоуверенности со словами: «Все вокруг идиоты, один я Д’Артаньян». Нет! Просто я отношусь к поисковому продвижению и в целом к поисковому трафику как основному направлению моей работы и источнику в каком-то понимании дохода, ведь у меня немало сайтов построенных на заработке с контекстной рекламы. Да и как можно построить хороший проект в наши дни без поискового трафика, если это не какой-то выносящий мозг startup конечно. Именно поэтому в моей работе как сеошника данный пункт в услугах пользуется заслуженной популярностью.

Именно о поисковом аудите я сегодня и предлагаю вам поговорить. А точнее давайте разберем то, на что стоит обращать внимание при его проведении. В этом посте не будет тонкостей, это общий алгоритм работы.

Давайте для начала сразу же определим, что дает нам поисковый аудит сайта:

  • Определение ошибок в структурированности сайта;
  • Определение ошибок во внутренних настройках сайта;
  • Определение видимости сайта на момент начала работ;
  • Наличие ошибок в семантическом ядре сайта для конкретного проекта и конкретного бюджета;
  • Соответствие инструментов и способов продвижения сайта действующим требованиям и алгоритмам поисковых систем;
  • Анализ пользовательского поведения на сайте…

Я не зря сразу определил результат нашего поискового анализа сайта. Я не просто дал вам понять, что будет в итоге, а дал возможность подумать над тем, что мы в целом должны делать, а именно то, что будет предшествовать итоговой «картине».

 

1. Определение ошибок в структурированности сайта

На самом деле от структуры многое зависит. Тяжело себе представить сайт в ТОПе, страницы которого предлагает поисковик в выдаче, а они в каком-то далеком углу самого сайта. Обычно это страницы второго или третьего уровня вложенности, куда как поисковые роботы заходят чаще, так и пользователи, что, в конечном счете, говорит о воздействии пользовательских факторов на ранжирование или как минимум дополнение внимания роботов.

Правильное создание структуры сайта процесс не простой, а уж вдвойне он не прост, если вы взялись за переделывание существующего сайта.

Лично я обычно создаю структуру в виде рисунка, далее обсуждаю его с заказчиком или обдумываю сам, если это мой личный проект. Рисую структуру я в картах Xmind, о которых писал здесь.

Карта простенького сайта в целом может выглядеть так:

 

Карта сайта

 

После определения непосредственно структуры в области вложенности стоит обратить внимание на вид URL’ов. Здесь поисковые системы не любят любые формы так называемого СПАМа. Часто мы пытаемся хоть как-то воздействовать на выдачу и переусердствуем с упоминаниями ключей. Если раньше это вполне съедалось поисковыми системами, то на дворе уже почти 2013 и старые методы не работают.

Например, я несколько раз видел следующий вид адресов страниц:

site.ru/sipuchie-materiali/sipuchii-material-pesok/sipuchii-materilal-pesok-karernii

или такой:

site.ru/sipuchie-materila-pesok-sipuchii-material

Как вам такие адреса страниц?

Лучше сделать куда короче адрес и вписать основной запрос в виде урла этой страницы. И овцы целы и волки сыты, прошу прощения за иронию.

Еще одним важным моментом создания правильной структуры сайта является взаимосвязь страниц и внутренняя перелинковка. Внутренняя перелинковка позволяет как роботу так и пользователю дойдя до определенного момента (ссылки) в тексте потом вернуться за более подробной информацией по данному моменту. Как вы помните это дает эффективность в более четкой видимости всех страниц, распределяет или дает вес определенным воздействуя на поисковую выдачу. Продвигая страницы в той же поисковой системе Google мы всегда вспоминаем о показателе Google PR. Уловили мысль?

Что же касается взаимосвязи страниц – это те самые предложения похожих материалов или сопутствующих товаров, если у вас магазин. Оба вопроса легко решаются уже на автоматическом уровне, с помощью различных модулей и скриптов – к примеру, как этот.

Дальнейшим моментом правильной структуры сайта является индексация страниц. Это включает в себя:

  • Формат подачи страниц сайта – язык программирования и т.д. Самым легкочитаемым видом является html. Не зря создаваемые мною ранее сайты на том же бесплатном сервисе Народ.ру в виде html-страниц индексировались отлично и зачастую при минимальных вложениях были куда выше своих более навороченных собратьев даже с бюджетами на продвижение;
  • Проиндексированы ли все страницы на сайте, как быстро они индексируются. Если у вас медленно идет индексация страниц сайта – это может быть причиной целого ряда проблем: ваш сайт наполнен не всегда уникальным контентом, у вас отсутствует карта сайта для роботов типа sitemap.xml, у вас слабая внутренняя перелинковка, у вас допущена ошибка в доступности для индексирования в robots.txt. Теперь, думаю, понятно, куда стоит смотреть. Если все же есть сложности с индексацией сайта посмотрите ответ здесь или здесь.
  • Следующий момент, которому я всегда уделяю время это наличие дублей, что говорит поисковым системам о шаблонности и возможном нагоне числа страниц с целью получения трафика и его монетизации, о вашей несобранности или роботизированном подходе к формированию контента.
  • Практически каждый свой сайт я даю на анализ кода опытным верстальщикам. У меня у самого есть определенный опыт в верстке и в области формирования страниц, и я с легкостью могу набросать вам много чего. Но почему я обращаюсь к профессионалам? Эти люди чаще всего следят за новыми разработками и по многу километров кода просмотрели и сами создали. Они знают, как упростить и облегчить код в считанные разы. То есть именно они чистят мои разработки от лишнего кода, который утяжеляет страницы и затрудняет индексацию, значительно увеличивая время отклика сайта. А это уже скорость загрузки страниц и следующее на что я обращаю внимание.

 

2. Анализ внутренних настроек сайта

Здесь всегда стоит заострить свое внимание на следующих моментах:

1. Правильность создания файла robots.txt. Для тех, кто не знает, в этом файле мы даем понять роботу, что ему не стоит индексировать, а на что стоит обратить особое внимание. Вот, к примеру, содержание моего файла robots.txt:

 

Файл роботс

 

Здесь ничего сложного нет и указано всего несколько видов команд. Если вам подходит или вы не разбираетесь вообще в этом – просто скопируйте его себе в файл robots.txt. Таким «макаром» можно отследить и конкурентов и нужные вам CMS, если опять же повторюсь, собственные познания в этой области оставляют желать лучшего.

Просто вводим в адресную строку: site.ru/robots.txt и смотрим.

2. Наличие карты сайта для роботов существенно помогает последним ориентироваться на вашем сайте и правильно его понимать. Давайте посмотрим на карту моего сайта: http://vovka.su/sitemap.xml. Как видите это полный список страниц, которые я отдаю роботом с проставленным показателем приоритета в виде процентов приоритета.

 

Карта сайта

 

3. Скорость загрузки страниц сайта очень важна. Помимо описанного мною выше наличия лишнего кода на скорость загрузи сайта может влиять обилие «тяжелой» графики, размер страниц. Этот момент легко решается с помощью специальных модулей кэширования, которые позволяют убрать лишние загрузки повторяющихся элементов, запомнив их единожды, что существенно облегчает задачу браузеру. О подобного рода скриптах и как измерить скорость загрузки сайта я писал здесь. Также не стоит забывать о упрощении кода с помощью заливок а не графики, подгрузки единоразовой повторяющихся элементов в пределах одной страницы и т.д.

4. Также стоит обратить внимание на расположение и наличие тегов h1-h6, проверить title и keywords. Они чаще всего прописываются в самой CMS, а наличие заголовков можно легко отследить браузером. Открываем сайт в том же Google Chrome, наводим на имеющийся заголовок и смотрим, как он прописан в коде сайта:

 

Заголовок страницы

 

Как видите у меня он заключен в тег h1. Все в порядке! Если у вас отсутствуют заголовки и нет опыта по их прописанию обратитесь к опытному верстальщику.

Таким образом с помощью Google Chrome можно проверить практически все по разметке страницы.

5. Контент – главная составляющая внутреннего наполнения сайта. Он должен быть уникальным, не заспамленным, разносторонним и востребованным.

 

3. Видимость сайта

Определение видимости сайта на начало работ для многих может быть спасательным кругом. Кому нужны лишние затраты? Если они нужны вам, то не читайте этот параграф.

Сами задумайтесь, вы уже имеете определенные позиции в поисковых системах. Ну как их не добить до конца при этом ведь затраты будут куда меньше, чем начинать все в слепую и с нуля.

Посмотреть можно с помощью сервиса SpyWords.ru (недавно о нем писал здесь), либо вполне сгодится старый и добрый Megaindex.ru, который до определенного момента бесплатен.

Выглядеть это может так (кликабельно):

 

Видимость сайта

 

Если сайт продвигался и совсем не виден, это даст вам определенное понимание что что-то тут не так, быть может фильтры со стороны поисковых систем?

 

4. Правка ошибок

От наличия ошибок в семантическом ядре сайта, составленном ранее никто не застрахован. Обычно бывает так, когда составлением семантического ядра и ведением сайта занимаются разные люди, а может вторым вы сами не имея навыка. Тут стоит понимать следующее:

  • Если вы даете кому-то задание составить семантическое ядро, то четко формулируйте свои цели, имеющийся бюджет на продвижение, дальнейшие планы. Если человек к которому вы обратились профессионал он учтет эти моменты и составим вам то число исходя из ваших средств и задач.
  • Если вы сами оптимизатор и к вам пришел клиент с заданием продвинуть сайт, уточните упомянутое в предыдущем абзаце мною. Тогда быть может вы четко будете понимать цели заказчика и не пойдете в дебри, или же пересоставите семантическое ядро и дадите человеку то, что ему нужно, а это уже часть становления вас как профессионала.

 

5. Определение актуальности способов продвижения

Окружающий мир быстро меняется и уж тем более это происходит в компьютерной индустрии и в том числе в Интернете. Все борется за место под солнцем, и при этом используют разные методы попадания под это самое солнце. Если это переложить на рельсы интернета, то мы стараемся запрыгнуть в ТОП поисковой выдачи всеми доступными средствами.

Но те способы, что ранее работали уже могут быть менее эффективными или вообще запрещенными поисковыми системами.

Помните ввод Google Penguin? Реакцию на прогоны через Хрумер? Да что там говорить, если раньше мы практически все продвижения начинали с прогона по каталогам сайтов и каталогам статей, то сейчас это больше традиция, чем реальное понимание, что тебе это что-то существенно даст.

Я не говорю полностью отказываться от этих прогонов, но стоит понимать современные требования поисковых машин и адекватно на них реагировать. А именно эти прогоны нужно дополнять и моделировать. Базы на несколько тысяч каталогов 2001 года – это уже тупой слив денег.

Мы должны четко определить самые эффективные для нас методы проецируя их на имеющийся бюджет. Ведь что эффективно для одного заказчика может быть не по карману другому.

Так же по ассортименту инструментов хотелось бы отметить, что только одним методом никак не получить ТОП. Ошибочно думать, что вам помогут только ссылки!

 

6. Анализ пользовательского поведения

Анализ поведения пользователей на сайте – это серьезный шаг вперед. В этом вам может легко помочь вебвизор, расположенный в Метрике Яндекса.

Вы можете четко определить:

  • Что пользователь не находит на сайте и как решить эту проблему;
  • Какой момент уводит пользователя с сайта;
  • Что мешает пользователю;
  • С чем он может быть не согласен и в каком моменте стоит переразместить контент;
  • Слабые и сильные стороны юзабилити сайта. Быть может какие-то блоки стоит поменять местами.

Пользовательские факторы существенно влияют на ранжирование, не забывайте об этом. В этом направлении я писал о сервисе, который вам может помочь – читаем здесь.

 

По теме данного поста хотелось бы предложить вам видео от Seopult.Tv, в гостях у которого я когда-то был (об этом читаем здесь):

Указанные мною в этом посте моменты, а также в видео Сергеем Кокшаровым и Михаилом Сливинским надеюсь, дадут вам понимание основ поискового аудита сайта. Самое важное здесь прозвучало и написано. После отработки данного алгоритма анализа вы сможете четко работать над своими проектами или же начать оказывать услуги в этом направлении, а может модернизировать существующие.

Далее в своих статьях я напишу о каждом указанном мною сегодня моменте более подробно. Всем пока!

Учительница:
- Дети, поговорим сегодня о гениях! Почти все они могли одновременно делать несколько дел!
- Вот удивили! - говорит Вовочка, - кстати, вы женщины в принципе не гениальны! Вы не можете одновременно стоять на табурете, чистить зубы...
- Можем! - перебивает его Маша.
- …и писять в раковину??! – заканчивает Вовочка.

Похожие записи в блоге:

   

Нравится как я пишу? Давайте вместе формировать интересные материалы на моем блоге. Вы можете сделать ретвит данной статьи или подписаться на мою ленту в системе микроблогов Твиттер.
Читайте меня в Твиттере и будьте в курсе последних моих действий.

Комментирование Facebook:


Блоггеру

  • Gogettop - уникальный сервис продвижения вечными ссылками с максимальной эффективностью и рассрочкой платежа на 12 месяцев. Эффективность естественных вечных ссылок очень высокая. Продвижение становится еще доступнее.

Опрос

Как нетематические ссылки стали работать в Google с вводом алгоритма Гугл Пингвин?

Просмотреть результаты

Загрузка ... Загрузка ...

Вовкин блог на Facebook