Павел Горбунов

Павел Горбунов
Рейтинг
123
Регистрация
13.06.2011
Интересы
SEO, веб-аналитика
SEO-оптимизатор

Смотря какие дубли.

Есть разные частные случаи.

Общего ответа на ваш вопрос нет.

А что удивительного?

Мне кажется, это типичная ситуация.

cblcg:
робот зайдет, просканирует и потом выплюнет запрещенные... но тут есть одно НО:
для яндекса правила в robots.txt железообетонны, а вот гугл может проигнорировать, поэтому для гугла чтоб на 100% надо использовать метатег robots почитать если не вкурсе

Мета-тег robots в данном случае лучше не использовать, чтобы избежать ошибок реализации.

Если настраивать его, и в случае поломки будет выводиться

<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">

на нужных страницах, ничего хорошего от этого не будет.

а вот link rel= canonical - здесь поможет, и ошибок не возникнет.

А чего бояться-то?

Конечно, нажимайте.

Если сайт небольшой, можно по 10 страниц отправлять на переиндексацию в Вебмастере.

Thommy:
Для него ключ как-то слабо ищется. Есть бесплатная альтернатива - WildShark SEO Spider. Сам недавно про него узнал.

Да для списка до 10к страниц бесплатной версии хватит, ключ не нужен.

SEMparser:
Отличия в алгоритмах, модели оплаты, ценах и остальном функционале сервиса. Можете протестировать, после регистрации дается 50 бесплатных запросов.

Возможности сервиса SEMparser:

  • Определение "коммерческости" запросов
  • Проверка текстов на соответствие ТОПу по SEO параметрам
  • Генерация ТЗ для копирайтера
  • Автоматическая группировка ключевых слов
  • Создание структуры сайта
  • Определение лидеров
  • Парсинг подсветки Яндекса
  • Определение геозависимости запросов
  • Определение релевантных страниц

Возможности те же самые, вот тарифы могут быть другие.

Надо смотреть.

Screaming Frog SEO Spider в помощь.

или Netpeak Spider, как вариант.

donc:
Список ключей, че.. Далее санкции за поисковый спам, если не повезет :)

Санкции в Яндекс? В google?

Постраничные или на весь домен?

cblcg:
да, но сейчас в яндексе не более 10 в 1 день отправлять можно. Насчет гугла не знаю. демоверсии программы должно хватить для этого, т.е. покупать не надо ничего

---------- Добавлено 08.02.2017 в 11:24 ----------

важно чтобы потом они обратно не зашли, т.е. позаботится о закрытии их от индексации

Но если их в robots.txt закрыть, то робот на них не сможет зайти. И не поймет, что их нужно удалить из индекса.

cblcg:
через панель вебмастера, но надо чтобы либо был запрет метатегами, либо 404, либо роботс.тхт - это касается яндекса
Есть программы которые позволяют массово отправлять на удаление, например такая программа как ComparseR способна... ну либо скрипт на imacros или зенке заказать

Вот это уже хорошая идея.

Зависит от количества таких страниц ,конечно.

А массовую отправку страниц на ПЕРЕиндексацию после смены урлов ComparseR может делать?

Всего: 583