- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, у меня на сайте раньше, до того как на страницу с фильтрами я поставил "noindex, nofollow", данные страницы были просто заблокированы в robots.txt. Но они иногда всё же вылетали в индекс, хотя были заблокированы. Потом я добавил данные теги, но в SC у меня в разделе "Обнаружено, но не проиндексировано" было очень много страниц с фильтрами.
Чтобы Googlebot мог понять, что там стоит noindex, нужно было убрать правило из robots.txt. Ну, я и убрал. Вроде бы они убрались из индекса (их было пару штук, но меня бесило то, что Googlebot по ним бегал, хотя в этом не было необходимости).
В итоге сейчас он начал каждую минуту бегать по этим фильтрам, хотя такого раньше не было. Я запрашивал проверку в SC в пункте "Страница просканирована, но пока не проиндексирована". Она прошла ещё 28.01.2025, но страницы из данного пункта так и не убрались.
С чем связано такое поведение Googlebot? Почему он начал сканировать все фильтры, чтобы убрать их из раздела "Страница просканирована, но пока не проиндексирована"?
Извините, если плохо описал, я старался как мог.
Если там пару страниц, то забейте.
А комбинации фильтров генерируют ссылки?
Если там пару страниц, то забейте.
комбинации генерируют ссылки. И страниц не пару. Но как мне кажется он просто проверяет на всех ли страницах стоит "noindex, nofollow"
А в чем вообще проблема? Googlebot как хочет, так и бегает. Ни какие теги и запреты ему ни по чем))))
проблема в том что он резко побежал. И вопрос почему? При чем он бежит по ним с какой то нереальной скоростью
комбинации генерируют ссылки.
Хотя новые страницы по идее посещать не должен, раз там nofollow.
Есть 2 проблемы:
1) google не берет страницы в индекс
2) google не выбрасывает страницы из индекса (ошибок)
Хотя новые страницы по идее посещать не должен, раз там nofollow.
Есть 2 проблемы:
1) google не берет страницы в индекс
2) google не выбрасывает страницы из индекса (ошибок)
у меня есть эти страницы уже просканеные(какая то часть). В SC отображается они в пункте "Страница просканирована, но пока не проиндексирована". И он наверное побежал по ним что проверить тег и убрать их в категорию "Запрещено тегом noindex"
проблема в том что он резко побежал. И вопрос почему? При чем он бежит по ним с какой то нереальной скоростью
у меня есть эти страницы уже просканеные(какая то часть). В SC отображается они в пункте "Страница просканирована, но пока не проиндексирована". И он наверное побежал по ним что проверить тег и убрать их в категорию "Запрещено тегом noindex"
Зачем 2 разка сканировать? Он что первый раз после разблокировки в robots.txt не увидел?
Проверьте, что он формируется.
проблема в том что он резко побежал. И вопрос почему? При чем он бежит по ним с какой то нереальной скоростью
Зачем 2 разка сканировать? Он что первый раз после разблокировки в robots.txt не увидел?
Проверьте, что он формируется.
когда блокал через robots.txt он иногда все равно закидывал их в индекс. "Проиндексирована не смотря на блокировку в robots.txt". А не видит noindex Тег. Потому что страницу не может просканировать. Бред получается