Способы удаления страниц из индекса.

Сео-блог

Часто встречается ситуация, когда вебмастеру нужно убрать с сайта уже проиндексированные страницы. Происходит это оттого, что информация устаревает или потому, что меняется тематика сайта и прежние статьи уже не актуальны.

Существует несколько способов удалить страницу из индекса, давайте рассмотрим их поподробнее.

• Страница 404

Это обычное удаление веб страницы. Однако вебмастеру необходимо проследить, чтобы пользователь получал уведомление о том, что данной страницы не существует. Способ этот довольно долгий, поисковый бот должен как минимум дважды зайти на страницу, увидеть ошибку 404 и только тогда страница будет исключена из индексации.

• Ручное удаление страницы

Самый надежный способ – это удалить страницу вручную. Это достаточно долгий метод, так как придется удалять только по одной странице за раз.

Для Яндекса: webmaster.yandex.ru/delurl.xml
Для Google: google.com/webmasters/tools/home?hl=ru

Но при этом следует помнить, что страница должна содержать ошибку 404 или быть прописана в robots.txt. Только после этого панель вебмастера удалит страницу из индекса.

• Robots.txt

Часто используется и файл robots.txt, с помощью которого вебмастер закрывает некоторые страницы сайта от индексации. Через непродолжительное время страница перестанет индексироваться. Для поисковиков прописывается следующее:

User-Agent: *

Disallow: /post.html # закрытие страницы post.html

Однако это не совсем надежный способ, так как на давно проиндексированные страницы могут вести внешние ссылки и в этом случае они будут видны пользователям.

• Robots в качестве мета-тега

В этом случае вебмастер работает не с файлом robots.txt, а со страницей, где в коде между head и /head он должен прописать: meta name=”robots” content=”noindex,nofollow”. Этот способ особенно хорош, когда заранее известно, что эта страница не должна индексироваться, но имеет один изъян – динамические сайты, использующие шаблонное подключение модулей в этом случае могут закрыть от индексации все страницы ресурса.

ЧИТАТЬ ЕЩЁ:  Что такое юзабилити?

• X-Robots-Tag

Как альтернатива вышеприведенным способам, может быть использован тег X-Robots. Тег прописывается в HTTP заголовке: X-Robots-Tag: noindex, nofollow. Но при этом нужно быть уверенным, что на веб-странице нет ничего подозрительного, так как это прием «черного SEO», с помощью которого от поисковиков прячут страницы со ссылками.

Оцените статью