- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация в следующем:
Сегодня смотрел проиндексированные гуглом страницы и заметил кучу вот таких урлов
К примеру:
http://сайт.ру/sredstvo-ot-potencii/feed
А в описании "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..."
Движок WP
В Robots прописано:
Disallow: */*/feed/*/
Disallow: */feed
Как с этим бороться? Как убрать эти страницы из индекса и не допустить их дальнейшего туда попадания?
Буду благодарен за любой дельный совет!
Никак. Если только убирать страницы физически и отдавать 404 ошибку.
Никак. Если только убирать страницы физически и отдавать 404 ошибку.
А еще лучше 410
Самое интересное то, что в выдачу с таким описанием попадают и служебные страницы на которые вообще нет ссылок. Спасибо браузерным стучалкам.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Никак. Если только убирать страницы физически и отдавать 404 ошибку.
Как это организовать? Получается уже встречались с подобным?
Да и почему он хавает их? Ведь в роботс всё верно прописано. Может где обсуждение было по данному вопросу?
Как это организовать? Получается уже встречались с подобным?
Да и почему он хавает их? Ведь в роботс всё верно прописано. Может где обсуждение было по данному вопросу?
Попробуйте удалить страницы через WMT.
Попробуйте удалить страницы через WMT.
бесполезно
бесполезно
Вы тоже встречались с этим? Как боролись? Какой движок?
И как на это смотрят ПС?
Нормально ли, если оставлю как есть?
отдавать 404 ошибку по этим урлам.. конечно, это не означает что по этим урлам не нужно отдавать контента этих страниц
Disallow: */*/feed/*/
Disallow: */feed
Как с этим бороться? Как убрать эти страницы из индекса и не допустить их дальнейшего туда попадания?
Буду благодарен за любой дельный совет!
убрать из роботс эти директивы т.е. открыть боту к ним доступ и добавить в functions.php темы код
add_action('rss2_head', 'feed_norobots');function feed_norobots() {
echo '<xhtml:meta xmlns:xhtml="http://www.w3.org/1999/xhtml" name="robots" content="noindex" />';
}
убедиться, что на этих стр в теле присутствует -
если да, то дальше ждать когда бот просканирует эти стр и выбросит их из индексабесполезно
Пробовали?
У меня как-то личный парсер влетел в выдачу с этим описанием. Удалил через WMT, не попадал больше в выдачу.
В robots был закрыт, естественно.