- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яша вообще идексирует те страрици, которые закрыты в robots.txt :D
Вначале индексирует, потом согласно правила robots.txt выкидывает, и получаем такой длительный продолжительный процесс. Т.е яндекс на вашем сайте не индексирует, а занимается тупизмом в цикле.... Ну разные отделы в Яндексе все это программят, и между собой не контачат.
Еще раз напишу - на сайте не должно быть дублей. Страницы - нужно закрывать доступ, а не в robots.txt
Тогда Яндекс займется делом
Комп древний, и даже лиса почему-то не открыла.
Эти страницы когда-либо были на сайте?
Когда-то были но я их с полгода назад удалил и ссылки с них поубирал. А яндекс всё равно их обходит почему-то
Значит для Яндекса есть доп. сигналы для адресов этих страниц.
Вы можете о них не знать или не видеть их. Их могу ошибочно генерировать код в каком-нибудь шаблоне, также могут быть внешние ссылки.
Оформляйте редиректы для этих адресов. Если это служебные разделы - закрывайте разделы для переобхода роботом.
Конечно. Не единожды.
Вы пишете настраивать редиректы. Рекомендуете 301 редирект на страницу-заглушку или главную, вместо 404 с этих удаленных страниц сделать, которые яндекс продолжает где-то находить?
Вы пишете настраивать редиректы.
которые он тоже по пол года переиндексирует
Т.е. чтобы 301 ответ эти страницы отдавали а не 404 как сейчас, так? Яндекс склеит эти страницы и перестанет обходить их?