Содержание
Тема, которую мы хотим рассмотреть, часто всплывает, при проблемах «почему трафик на сайте перестал расти, хотя с оптимизацией все нормально?» или «почему падают позиции, хотя уже исключены все очевидные причины?».
Зомби-страницы, из-за своей скрытности, представляют угрозу для крупных сайтов, способную повлиять на их видимость и репутацию в поисковых системах. Они не только снижают качество пользовательского опыта, но и могут значительно ухудшить показатели рейтинга и конверсии.
Термин пришел к нам из западного SEO, и ориентирован, разумеется, прежде всего на Google. С точки зрения Яндекса, есть своя терминология, и большая часть таких страниц, вероятно, будет признана малоценными. А вот Google с большой долей вероятности забросит их в долгий ящик «просканировано, не проиндексировано», если краулер вообще сможет до них добраться.
В этой статье мы расскажем, что такое зомби-страницы, почему они опасны для продвижения сайта, а также, как эффективно выявить и справиться с этой проблемой.
Чтобы эффективно бороться с зомби-страницами, необходимо разработать их классификацию и методологию поиска.
У больших сайтов в этот класс могут попасть и зомби, и нужные вам для продвижения страницы. Их необходимо отделять друг от друга. И хотя работа по их вычислению очень времязатратна - ее стоит проводить.
Индексация сайта, даже настроенная лично вами, может идти не по плану.
Ей могут мешать технические проблемы, например, долгое время загрузки или неверно настроенные скрипты).
Ошибки и конфликты в настройке индексации: никто не застрахован от них, особенно, когда с сайтом ведется работа на протяжение длительного периода).
Мнение поисковика достаточно часто отличается от мнения оптимизатора, и он индексирует страницы, закрытые в robots или неканонические, но при этом игнорирует приоритетные страницы из sitemap.
Выявить такие страницы поможет инструмент «Индексирование – Страницы» (раньше он назывался «Покрытие») в Google Search Console.
Там вы найдете блок «Почему эти страницы не индексируются», и сможете удобно выгрузить страницы с каждой причиной себе на Гугл Диск.
В Яндексе есть аналогичный инструмент «Исключенные страницы» в разделе «Индексирование – Страницы в поиске».
Страницы, не оптимизированные для мобильных устройств, плохо ранжируются сами по себе, а также негативно влияют на пользовательский опыт и рейтинг в поисковых системах.
Массово выявить такие страницы можно в сторонних сервисах, или во все той же Гугл Сеч Консоли. Стоит обратить внимание, что Google анонсировал удаление отчета «Удобство для мобильных», так как он уже устарел.
Если вы планируете использовать этот отчет, обязательно нажмите на перепроверку страницы. В общем представлении — данные из кэша Google, которые могут быть устаревшими, или некорректно полученными из-за того, что страница медленно загружалась в момент сканирования ее роботом Google. При перепроверке мы в итоге часто получаем «мобилопригодную» страницу с точки зрения Google.
Однако ему на смену придет отчет «Удобство страниц» в той же сёрч-консоли, и оценка новой метрики INP там же, и в PageSpeed Insights c детализацией.
После того как проблемные страницы найдены, один из самых классических инструментов проверки: Google Mobile-Friendly Test. Однако, есть множество других комплексных платных и бесплатных инструментов (не реклама, просто одни из самых известных наборов эмуляторов: BrowserStack или MobileTest.me).
«Просроченный» контент, или потерявший свою ценность по другой причине. А также изначально некачественно написанные тексты (например, пресловутые «seo-тексты по ключам» из прошлого :-), про написание которых всем давно пора забыть).
К этой же проблеме можно отнести дубли или очень похожий контент, методы поиска которого мы описывали тут.
Пакетно найти такие страницы не легко. Но план для работы с ними выработать можно:
1. Анализ систем сбора статистики. Изучите метрики, такие как время нахождения на странице, показатели отказов и взаимодействие с контентом. Если страницы имеют низкую среднюю продолжительность сеанса и высокий показатель отказов, это может указывать на проблемы с качеством контента.
Спарсите сайт целиком, и сравните с отчетом из Яндекс.Метрики (или GA) – какие из страниц, содержащих контент, совсем не посещаются. Какие из страниц имеют устаревшие даты публикации (если они используются на сайте) или старые даты, например, в заголовках. Посмотрите, есть ли спрос и посещаемость для таких страниц сегодня?
В качестве инструментов, вы можете выбрать выгрузки и ручной анализ из Яндекс.Метрики, Google Analytics и других систем сбора статистики. Но и можете частично автоматизировать эту работу, используя различные отчеты Screaming Frog SEO Spider:
Проводите регулярные аудиты контента, оценивая его актуальность и ценность для пользователей. Идентифицируйте страницы с устаревшей или низкокачественной информацией.
2. Сравнение с конкурентами. Изучите контент на аналогичных страницах у конкурентов. Если вы обнаружите, что у вас есть страницы с менее полезным или актуальным контентом, который явно стоит обновить или расширить — это явный сигнал о необходимости внесения изменений.
Если вы берете материал для статьи у конкурентов, убедитесь, что ваша статья от них отличается. Она должна обладать добавочной полезностью к тому, что уже есть в интернете, а не быть просто рерайтом. Например, мы очень надеемся, что статья, которую вы сейчас читаете, даст вам что-то полезное, кроме того, что вы уже изучили про зомби-страницы, прежде чем попали к нам на сайт. Или, как минимум, поможет лучше структурировать информацию.
3. Обратная связь от пользователей. В виде отзывов, лайков, комментариев, репостов в соц сети, подписок на обновления, рейтингов или опросов на страницах сайта. Эти приемы нередки, но их используют далеко не все. И зря. Кроме того, что таким образом можно понравиться некоторым алгоритмам ранжирования (E.-E.-A.-T., коммерческие факторы и т.д.), вы получите некоторое базисное мнение вашей ЦА. Важно, после внедрения не забывать об анализе полученных данных.
Разумеется, этот метод плохо работает для сайтов с небольшой посещаемостью.
Сироты - это страницы на сайте, которые находятся вне общей структуры иерархии и не связаны внутренними ссылками с другими URL. Они являются своего рода "одиночками", остающимися изолированными и неиндексируемыми для поисковых машин.
Сиротские страницы могут возникнуть по разным причинам, например, когда на сайте происходят изменения в структуре, или устаревает контент, который привязан к ним. Такие страницы часто не предоставляют ценной информации для пользователей и поисковых систем, что и делает их "зомби-страницами" с точки зрения SEO.
Выявить такие страницы несложно любым анализатором или seo-парсером (например, Screaming Frog Seo Spider, Site Analyzer и другие).
Кстати, если страница без внутренних ссылок на себя присутствует в sitemap.xml – это не бережет ее от возможности стать сиротой. Во-первых, поисковики могут посчитать ее малоценной; во-вторых, могут не обойти ее по карте сайта; в-третьих, такая страница будет иметь минимум ссылочного веса.
А вот внешние ссылки на такую страницу с большой долей вероятности выведут ее из сиротского статуса.
Если вы прочитали и поняли все, что написано выше, можете пропустить этот абзац :-). Он не несет в себе принципиально новой информации, и призван аккумулировать уже сказанное.
Конечно, процесс обнаружения и борьбы с зомби-страницами может показаться сложным и трудоемким заданием. Если вам сложно разобраться в деталях, у вас нет времени или желания заниматься этим самостоятельно, обратитесь к SEO-экспертам нашей компании. Мы готовы взяться за этот сложный процесс и обеспечить вашему сайту эффективное и успешное развитие.
Мы предлагаем как циклическую услугу продвижения вашего сайта, так и отдельные работы SEO в разовом формате, без регулярной оплаты!