- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте +/-1000 страниц, в индекс гугла случайно попал весь шлак вордпресса — более 50 тыс страниц в индексе.
Подскажите, как заставить гугл выкинуть лишнее?
Что эффективней — запретить в robots.txt индексацию или отдавать 404 на левых страницах а в robots не запрещать?
На сайте +/-1000 страниц, в индекс гугла случайно попал весь шлак вордпресса — более 50 тыс страниц в индексе.
Подскажите, как заставить гугл выкинуть лишнее?
Что эффективней — запретить в robots.txt индексацию или отдавать 404 на левых страницах а в robots не запрещать?
У Вас страницы уже в индексе, если Вы действительно хотите их удалить из индекса, нужно делать 404.
Только сделайте, чтобы был обрабочик 404-ой ошибки, т.е. страница с контентом не отдавалась с кодом 404.
Т.е. бот гугла получает 404 и контент о том, что нет такой страницы и это страница одинакова для всех 404-ых.
У Вас в индекс наверное принт версии страниц попали? Если так, то сначала придется их удалить из индекса через 404, а потом, запрет в роботс+noindex на этих страницах в метатегах, после чего уже делать принт-версии страниц и ссылться на них так как они уже запрещены к индексации, то в индекс не полезут, хотя гуглбот будет ходить по ним.
Только сделайте, чтобы был обрабочик 404-ой ошибки, т.е. страница с контентом не отдавалась с кодом 404. Т.е. бот гугла получает 404 и контент о том, что нет такой страницы и это страница одинакова для всех 404-ых.
Вот тут не понял. Я могу отдавать 404-ю с кодом 404 и одинаковым содержанием. Или надо как-то иначе?
У Вас в индекс наверное принт версии страниц попали?
Нет, попали страницы вида:
/что-то/attachment/img_*
/что-то/attachment/img_*/feed
/что-то/?attachment_id*
Много...
Вот тут не понял. Я могу отдавать 404-ю с кодом 404 и одинаковым содержанием. Или надо как-то иначе? .
Делаете обычную страницу типа "Ой, Страница не найдена", при этом вэб сервер возвращает код 404.
Далее, при запросе по всем этим страницам гуглбот получает 404 и эту самую страницу "Ой, Страница не найдена"
Так же, запрещаете индексацию через роботс и желательно noindex в метатегах (чтобы была информация не индексировать такие ссылки).
Я такие вещи делал, но движок был на перле. Т.е. если Вы не хотите удалять ссылки фактически, то поиграть с ботом можно, отдавая ему 404. Но для этого я написал код, которые определяет с вероятностью близкой к 100%, что зашел бот гугла. Три месяца все работало, потом почистилось и все убрал.
Но если не правильно сделать код определения, то можно схлопотать за клоакинг.
Можно конечно подвердить права на домен и ручками, но 50 000 это слишком много.
Если я правилньно понял задачу
Так же, запрещаете индексацию через роботс
Не заблуждайтесь и не вводите в заблуждение. Для гугла это не запретить индексацию, а только запретить сканирование.
Если я правилньно понял задачу
Спасибо огромное, буду пробовать!
flacon2000, как Вы собираетесь отдавать 404 для существующих страниц? Тут только один вариант, закрыть все, что можно метатегом ноиндекс и ждать вылета из индекса. Специального инструмента удаления 50к+ страниц нет. Можно пачками только каталоги удалять и все.
flacon2000, как Вы собираетесь отдавать 404 для существующих страниц? Тут только один вариант, закрыть все, что можно метатегом ноиндекс и ждать вылета из индекса. Специального инструмента удаления 50к+ страниц нет. Можно пачками только каталоги удалять и все.
Мне не нужны эти страницы в индексе. Эти страницы WP создает зачем-то...
flacon2000, Вы не показываете какие именно страницы. На ВП много чего есть причем не удаляемо. Я и написал что делать.
flacon2000, Вы не показываете какие именно страницы. На ВП много чего есть причем не удаляемо. Я и написал что делать.
Писал выше:
/что-то/attachment/img_*
/что-то/attachment/img_*/feed
/что-то/?attachment_id*
Вроде все это отлично закрывается плагином YOAST. Но, я сделал ошибку и закрыл в robots.txt эти страницы от сканирования, соответственно гугл не мог узнать что они 404 и не удалял их уже месяц.
Сейчас:
1. Открыл доступ в robots.txt
2. Отдаю 404 страницу по этим URL
3. Добавил <meta name="robots" content="noindex"/> в 404
Все верно?
Сейчас:
1. Открыл доступ в robots.txt
2. Отдаю 404 страницу по этим URL
3. Добавил <meta name="robots" content="noindex"/> в 404
Все верно?
Да кроме пункта 3. В 404 страницу, не делают ноиндекс. Гугл и так поймет по заголовку (не титлу) что это страница техническая.