RSS

Технический СЕО-аудит

Инструментарий: автоматизированная система продвижения сайтов SeoPult, утилита Site-Auditor, утилита Xenu’s Link Sleuth, сервис CopyScape, утилита DC Finder.

Для СЕО-мастера технический аудит сайта необходим для того,что бы определить,насколько соответствует требованиям,поисковых систем. Анализу подвергаются все существенные параметры интернет-ресурса,после чего сайт приводиться в надлежащий вид.

Маркетолог, осуществляя маркетинговый аудит сайта, проверяет, насколько сайт соответствует нуждам и потребностям всех групп посетителей, и при необходимости вносит изменения с целью обеспечить максимальную отдачу от кампании по продвижению сайта. Поскольку работа по продвижению сайта носит циклический характер, возвращаться к этому этапу необходимо вновь и вновь, по мере получения обратной связи.

Процедура оптимизации. Обязательному анализу подлежат перечисленные ниже параметры сайта. На данном этапе необходимо тщательно исследовать сайт и устранить последствия работ по продвижению, которые могли выполняться ранее другими специалистами. Обратите внимание: мы намеренно исключили из рассмотрения многие нюансы, относящиеся скорее к сайтостроительству, нежели к поисковой оптимизации, такие как содержимое файла robots. txt, настройка отдачи last-modified и т.п. Это не означает, что они не важны. Они как раз важны. Однако эти аспекты явно выходят за рамки нашей книги — так что будем исходить из того, что сайт сделан в целом корректно.

Проиндексированность сайта в поисковых системах. Проверка сайта на предмет санкций со стороны поисковых систем-задача, которую необходимо выполнить прежде, чем брать на себя обязанности по продвижению. Если сайт запрещён к индексации(так называемым «бан» либо на него наложен фильтр наподобие знаменитого АГС-17, оптимизатор рискует не справиться с задачей и понести убытки.Вывести сайт из-под бана или уговорить администрацию Яндекса снять фильтр бывает довольно не- просто, и уж в любом случае это требует времени. Так что если сайт забанен или зафильтрован, лучше предложить заказчику перенести его на новый домен, кардинальным образом переработав.

Процедура проверки: просмотрите количество страниц, проиндексированных в ПС Яндекс и Google. Они могут не совпадать в точности, однако качественных различий между ними быть не должно.Как сделать: откройте Site-Auditor, выберите вкладку Экспресс-Анализ, введите URL вашего сайта и щелкните на кнопке Проверить. Возможны следующие варианты.

Если оказывается, что сайт не проиндексирован ПС Яндекс, требуется проверка на предмет “бана”. Откройте панель веб-мастера Яндекса (webmaster.yandex.ru) и попробуйте добавить URL вашего сайта. Сообщение Указанный URL запрещен к индексации означает, что ресурс забанен. На этом работу над сайтом в его текущем виде можно заканчивать.
Если ПС Яндекс проиндексировано лишь несколько страниц (только главная или до 20 внутренних), при том, что в ПС Google проиндексированных страниц значительно больше, это может означать, что сайт находится под фильтром. Здесь стоит подождать два-три апдейта Яндекса, понаблюдать за динамикой.

Если количество страниц меняется бессистемно (одни заходят в индекс, другие уходят) — причина, скорее всего, в другом. Чтобы в этом убедиться, добавьте сайт на панель веб-мастера и проверьте сайт на предмет ошибок наподобие “передано неправильное количество данных” (от этой ошибки помогает отключение last-modified). Если же число проиндексированных страниц планомерно уменьшается и панель веб-мастера не указывает на ошибку, сайт, скорее всего, под фильтром. Лечение — такое же, как и в случаев бана, т.е. новый домен и серьезная переработка контента»
Если всеми поисковыми системами проиндексировано, но значительно меньше страниц, чем есть на сайте, это может означать, что на сайте что-то не в порядке либо навигацией либо с доступностью.

Проверьте структуру сайта на предмет ошибок, уточните, всегда ли сайт доступен для посетителей.
Если ПС Яндекс проиндексировано значительно больше страниц, чем есть на сайте, это может означать лишь, что сайт неправильно “склеен”, т.е. страницы с www и без www индексируются наравне. Неправильная “склейка”, чревата выпаданием страниц или снижением позиций. Заполните файл robots. txt должным образом.
Целостность структуры сайта. На хорошем сайте не должно быть неработающих ссылок, отсутствующих картинок или прочих документов, а ошибка 404 должна обрабатываться должным образом. Убедитесь в том, что на несуществующий URL выдается специально подготовленная страница об ошибке, а сервер, в свою очередь, отдает именно ошибку 404, а не сообщения вроде 302 или 200.

Процедура проверки: проверьте целостность структуры желаемого сайта при помощи утилиты Xenu’s Link Sleuth.Как сделать: откройте утилиту Xenu’s Link Sleuth. Создайте новый проект, указав полный URL вашего сайта. Щелкните на кнопке панели инструментов с изображением бинокля. Весь указанный сайт будет проверен на предмет неработающих ссылок; результаты будут показаны в виде упорядоченного списка.

Наличие повторяющих страниц. Чем дальше, тем меньше ПС Яндекс “любит” полное или частичное дублирование контента на сайте. Наличие дублированных страниц (в том числе так называемых “нечетких дублей”) — прямая дорога к фильтру и даже к запрету на индексацию. Чтобы не допустить худшего, на сайте не должно быть никаких дублей, либо дублированный контент (например, версии страниц “для печати” — зачем-то их до сих пор делают?..) должен быть закрыт от индексации.Плагиат (в том числе частичный), использование «синонимизированных» статей и прочие дешёвые средства получения контента должны быть полностью исключены. Даже такая практика, при которой , допустим анонс материала размещается на одной странице, а сам материал (включая анонс) на другой, уже не является вполне “чистой” Да вариант типа “статья” и “статья плюс комментарии» тоже необходимо исключить. Либо показывать комментарии сразу, либо на страницах комментариев не показывать статью, либо вообще закрыть что-нибудь лишнее от индексации.Процедура проверки: сегодня уже предлагается кое-какой инструментарий для автоматизированного поиска дублированных страниц, но мы бы рекомендовали все же выполнять эту работу вручную — слишком высока ответственность. Как сделать: для устранения действительных и потенциальных дублей на сайте необходимо выполнить следующее.

Исключить явное дублирование контента — например, “версии для печати”. При необходимости можно заключить дублированный текст в тег Noindex.
Устранить частичное дублирование контента. Особое внимание следует обращать на публикацию материалов с анонсами (например, анонс на одной странице, “тело” текста с анонсом на другой) — объем анонса должен быть существенно меньше основного текста. (Как вариант — Тег Noindex.) Если материал содержит комментарии, не следует делать две страницы со статьей: одна с комментариями, другая — без. Если страницы сайта собираются автоматически из имеющихся материалов (анонсов) — к примеру, с помощью “облака тегов”, такие страницы необходимо закрывать от индексации.

Зоной риска” являются также страницы, объем уникального контента на которых сопоставим с объемом типовои информации (меню, анонсы новостей и т.п.), которую можно найти на других страницах сайта. Необходимо внимательно проанализировать весь сайт на предмет подобных недостатков. В идеале в индексе должны быть только полностью уникальные страницы.
Тщательно проверить все URL, генерируемые движком сайта. Может оказаться так, что на одну страницу могут нести разные последовательности параметров, что также вызовет негатив у поискового робота.

Добавить комментарий

 
Powered by SH CMS (www.shchms.ru)