- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую. Гугл проиндексировал кучу мусорных страниц сайта, несмотря на роботс.тхт. Так уже было раньше, я удалял их, но теперь они снова в индексе. Пациент - блог, теги закрыты, но при добавлении новой статьи новые теги обязательно лезут в индекс, так же как и страница комментариев к статье, адрес фида статьи и т.п. Естесственно, все это закрыто в роботс. Как доходчиво объяснить гуглу, что эти страницы не должны быть в индексе?
И еще. Сейчас удалил все мусорные урлы, но появился такой глюк: гугл находит около 230 страниц сайта (всего допущенных к индексации около 60). Далее, переходим на третью страницу выдачи - указывает найденных результатов уже 219, на четвертой - 200, на пятой - 190. А когда доходим до 6-й страницы, оказывается что в выдаче гугла всего 50~ урлов, все остальные страницы (7-14, которые изначально были) исчезают. Надеюсь, понятно объяснил. Как победить этот глюк? Понятное дело, что все скрипты и программы поверки определяют кол-во страниц как 230. Писать гуглоплатонам бесплезно. Буду признателен за помощь.
Как доходчиво объяснить гуглу, что эти страницы не должны быть в индексе?
Самое доходчивое - 404. И убрать все ссылки, ведущие на мусор, ибо они вредят сайту.
Как победить этот глюк?
Это не глюк, а особенность DB BigTable, которую Google использует. Исправлять Google это не будет, потому что это не нужно пользователям.
404 или если они все таки нужны то мета тег noindex, если роботс он не слушается
а по поводу выдачи такой, у меня тоже самое. на первой странице 2к, а с каждой последующей меньше. и так до 1500
Спасибо, попробуем 404.