- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, люди добрые...
Обнаружила дубли в списке проиндексированных (и участвующих в поисковой выдаче) Яндексом страниц. Имею ввиду страницы повторяющие контент продвигаемых страниц но url с динамическими параметрами.
Закрыла их в robots.txt, указала путь к sitemap.
Вопрос в том пропадут ли они теперь из индекса Яндекса автоматически? если да, то как быстро?
Вопрос в том пропадут ли они теперь из индекса Яндекса автоматически? если да, то как быстро?
Смотря как часто бот посещает ваш сайт и эти страницы. Но учитываю частоту апов и тормознутость яндекса, может больше месяца уйти.
Подскажите, люди добрые...
Обнаружила дубли в списке проиндексированных (и участвующих в поисковой выдаче) Яндексом страниц. Имею ввиду страницы повторяющие контент продвигаемых страниц но url с динамическими параметрами.
Закрыла их в robots.txt, указала путь к sitemap.
Вопрос в том пропадут ли они теперь из индекса Яндекса автоматически? если да, то как быстро?
если дублей несколько то удалите их через вебмастер , ежели много то проанализируйте цмс и сделайте очень грамотный роботс ибо как показывает практика полезут еще дубли ((
Если есть возможность, настройте ответ серверу 404 для этих документов.
Имею ввиду страницы повторяющие контент продвигаемых страниц но url с динамическими параметрами.
а вы учли все возможные комбинации и перестановки параметров?
Вопрос в том пропадут ли они теперь из индекса Яндекса автоматически? если да, то как быстро?
если точно попали, то пропадут, но другие могут появиться
как быстро - 1-2-3 апа
но лучше такие проблемы решать на уровне движка - чтобы таких проблем не было.
Спасибо, друзья!
Все комменты справедливы...
но настроить 404 ответ не могу, ибо эти страницы должны быть доступны пользователю,
а robots оформила по-моему грамотно (перепроверяла несколько раз).
Теперь буду ждать как сработает Яндекс.
О результатах сообщу...
Имею ввиду страницы повторяющие контент продвигаемых страниц но url с динамическими параметрами.
Clean-param в помощь