Как разработчик может испортить жизнь SEOшнику

05.06.2012 SEO-продвижение

Данный материал не представит для SEO-специалиста ничего нового, и рассчитан прежде всего для тех разработчиков, которые иногда по незнанию, а иногда и в силу случайных оплошностей забывают о некоторых аспектах при создании сайта, которые потом создают немалые трудности не только владельцу, но и оптимизатору, который в дальнейшем будет этот ресурс продвигать в сети.

Верстка. Какой тип верстки использовать, блочный или табличный, неважно. Преимущество блочной верстки в том, что она уменьшает конечный объем документа в HTML порядка на 30-60%.

Юзабилити. Необходимо тщательно продумывать удобство использования сайта и его сервисов, так как это существенно влияет на конверсию. Структура сайта и навигация по нему должны быть предельно просты и интуитивно понятны. Структура каталогов товаров или услуг – максимально удобны для пользователя. Любые формы, которые предлагаются к заполнению, должны быть предельно коротки и не требовать от пользователей лишних данных. Если ресурс объемный, сделайте поиск по сайту.

Карта сайта. Html-карту сайта необходимо создавать по двум причинам: во-первых, с ней легче разобраться в структуре сайта, во-вторых, ее наличие позитивно влияет на скорость и равномерность индексации сайта.

Дубликаты страниц. Не следует допускать создания дубликатов страниц. Это засоряет выдачу поисковиков и негативно отражается на индексации сайта поисковыми роботами. Найти дубликаты можно на тестовой площадке, предварительно добавив сайт в поисковые системы вручную при помощи, например webmaster.yandex.ru. После индексации ресурса сравните количество страниц в разных поисковиках при помощи, например, Site-Auditor или используя плагины к браузерам SeoQuake или Page Promoter. При обнаружении разницы в числе проиндексированных страниц удалять дубли следует удалить вручную.

Поиск по сайту. Страницы с результатами поиска по сайту закрывайте от индексации, так как это создает неравномерность индексации и дополнительную нагрузку на сервер. Закрыть эти страницы следует в robots.txt.

Движок сайта может быть любым, но он должен уметь реализовывать описанные выше требования. Кроме этого, у него должна быть представлена возможность редактирования DESCRIPTION и TITLE для каждой страницы в отдельности.

Robots.txt располагается в корне ресурса и предназначается для управления индексацией сайта при помощи специальных команд поисковым роботам. Также он используется для закрытия от индесации отдельных страниц. Подробнее можно почитать здесь - robotstxt.org.ru.

Last-modified должен автоматически выставляться. Если этого не будет, то отсутствие даты будет негативно влиять на индексацию ресурса, кроме того, большинство пользователей не увидит сайт в результатах выдачи.

Битые ссылки также отрицательно влияют на индексацию ресурса, поэтому сразу же после завершения работы над сайтом следует его проверить на наличие битых ссылок, например при помощи бесплатной программы Xenu.

Хостинг следует выбирать очень тщательно, потому что любую проблему, возникшую по вине хостинговой компании, нужно будет решать оперативно и с минимальными потерями для заказчика. При подборе хостинга может помочь hostobzor.ru, не полагайтесь только на рейтинги компаний, предоставляющих хостинг, почитайте также пользовательские отзывы на форуме.

Будем надеяться, что выполняя эти несложные требования, разработчики смогут создавать ресурсы, по-настоящему дружественные к оптимизаторам и к поисковым системам, а для пользователей – информативные, красивые и удобные. 

 
Больше интересных статей

Оставьте номер телефона, чтобы наш менеджер связался с вами в удобное для вас время

Ваше имя*
Ваш номер телефона*
Тема для обсуждения
Выберите удобное время для звонка
9:00 9:15 9:30 9:45 10:00 10:15 10:30 10:45 11:00 11:15 11:30 11:45 12:00 12:15 12:30 12:45 13:00 13:15 13:30 13:45 14:00 14:15 14:30 14:45 15:00 15:15 15:30 15:45 16:00 16:15 16:30 16:45 17:00 17:15 17:30 17:45
Виды услуг
ОбзорМаксимальный размер файла - 10 мб