- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
noindex не вариант, так как страница реално существует (зачем её закрывать), надо удалить дубль.
1. заккрыть дубли в robots
2. дождаться когда появятся ошибки сканирования в ВМ.
3. в оптимизация \ удалить url адреса (вводить без http://сайт.ру)
4. отметить как исправленные
5. ждать
6. при появлении новых повторить п.3, 4
П.С. некоторые дубли в ошибках могут появиться и через полгода (зависит от сканирования страницы) пройдено.
За одно проверьте Оптимизация \ оптимизация HTML (бывает полезно).:)
Как то так.
Спасибо большое за советы. Но 14 тысяч страниц как-то неохота ручками из ВМТ удалять :(
Василич#, там кстати можно целыми каталогами удалять, но это если у вас не специфические урлы.
Руками не получится удалить все лишнее. Google не дает посмотреть весь индекс просканированных страниц. Не более 600 страниц.
И так вы вылечите симптомы простуды, а не причину.
Лучше всего использовать noindex.
Еще Google рекомендует для дублей canonical. У меня canonical не заработал в той форме как должен и все дубли просканировались. Возможно должно пойти время прежде чем Google решит что у всех дублей есть основной урл из canonical. В вебмастере в настройках урл указал сканировать только основной. Ждем...
noindex не вариант, так как страница реално существует (зачем её закрывать), надо удалить дубль.
1. заккрыть дубли в robots
2. дождаться когда появятся ошибки сканирования в ВМ.
Интересно, а как страница будет отдавать ошибку? Если она есть и отдает код 200. Вы сами то пробовали?
Спасибо большое за советы. Но 14 тысяч страниц как-то неохота ручками из ВМТ удалять
А не опасно ли будет это делать руками в таких объемах?
Помнится мне - Гугл хелп угрожает по этому поводу.