- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предыдущий владелец сайта либо дебил, либо "гений" генерировать говно. На данный момент в выдаче 300-500 страниц по типу "site.ru/tag/поисковый запрос" и на таких страницах максимум 2 статьи.
Через сколько примерно ПС поймет, что теперь эти страницы запрещены к индексации через роботс + на каждой странице noindex,follow?
Предыдущий владелец сайта либо дебил, либо "гений" генерировать говно. На данный момент в выдаче 300-500 страниц по типу "site.ru/tag/поисковый запрос" и на таких страницах максимум 2 статьи.
Через сколько примерно ПС поймет, что теперь эти страницы запрещены к индексации через роботс + на каждой странице noindex,follow?
Как только посетит данные страницы.
Когда как, обычно не более, чем через 2-3 недели вылетает запрещенное в роботсе, если вас боты регулярно посещают, конечно.
Предыдущий владелец сайта либо дебил, либо "гений" генерировать говно. На данный момент в выдаче 300-500 страниц по типу "site.ru/tag/поисковый запрос" и на таких страницах максимум 2 статьи.
?
Disallow: /tag/* присутствует ?
Если речь о гугле, он может расставаться с индексом месяцами. На одном своем сайте еще в июле на всех уровнях, включая настройки апача, гугл вебмастерс, роботс и т.п. запретил бота. В результате трафик падал медленно, в индексе до сих пор много страниц.
al-m, /tag/
Есть вообще смысл в такой ситуации пользоваться сервисом "Удалить URL-адреса"?
al-m, /tag/
Есть вообще смысл в такой ситуации пользоваться сервисом "Удалить URL-адреса"?
советую создать отдельный сайтмап с такими страничками, добавить через яндекс.вебмастер и скормить этот сайтмап Яндексу. Ну вроде как так. И скормить эту карту через Гугл.вебмастер. Яндекс обычно выплевывает через неделю, если есть все запреты. Гугл может дольше. Для Гугла важно не закрывать в роботсе! Для Гугла этот запрет будет означать вообще не заходить на эти страницы, а это значит что не увидит в коде noindex,follow. Поэтому в Гугле долго вылетают зачастую по этой причине.
А если вместо старых страниц - отдает 404 ощибку - тоже чет долго не вылетают такие
А если вместо старых страниц - отдает 404 ощибку - тоже чет долго не вылетают такие
если запрета в роботсе нету, то тут просто надо натравить робота на такие страницы. Если статус 404, то в индексе такая страница может быть только с датой кэша более ранней, чем приобретение статуса 404.
проблема такая может быть, когда одномоментно убирают внутренние ссылки на такие страницы 404 (что логично, борьба с битыми), убирают из карты сайта (что тоже логично), закрывают в роботсе. В этом случае робот может долго не посещать такие страницы - соответственно они долго болтаются в индексе со старым кэшем. Поэтому выход такой: не закрывать в роботсе, а так же либо какое-то время не убирать внутренние ссылки на такие, либо держать в отдельной карте сайте. В Гугл.вебмастере кстати очень удобно отслеживать как в этом сайтмапе улетают странички из индекса.