- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
noindex не вариант, так как страница реално существует (зачем её закрывать), надо удалить дубль.
1. заккрыть дубли в robots
2. дождаться когда появятся ошибки сканирования в ВМ.
3. в оптимизация \ удалить url адреса (вводить без http://сайт.ру)
4. отметить как исправленные
5. ждать
6. при появлении новых повторить п.3, 4
П.С. некоторые дубли в ошибках могут появиться и через полгода (зависит от сканирования страницы) пройдено.
За одно проверьте Оптимизация \ оптимизация HTML (бывает полезно).:)
Как то так.
Спасибо большое за советы. Но 14 тысяч страниц как-то неохота ручками из ВМТ удалять :(
Василич#, там кстати можно целыми каталогами удалять, но это если у вас не специфические урлы.
Руками не получится удалить все лишнее. Google не дает посмотреть весь индекс просканированных страниц. Не более 600 страниц.
И так вы вылечите симптомы простуды, а не причину.
Лучше всего использовать noindex.
Еще Google рекомендует для дублей canonical. У меня canonical не заработал в той форме как должен и все дубли просканировались. Возможно должно пойти время прежде чем Google решит что у всех дублей есть основной урл из canonical. В вебмастере в настройках урл указал сканировать только основной. Ждем...
noindex не вариант, так как страница реално существует (зачем её закрывать), надо удалить дубль.
1. заккрыть дубли в robots
2. дождаться когда появятся ошибки сканирования в ВМ.
Интересно, а как страница будет отдавать ошибку? Если она есть и отдает код 200. Вы сами то пробовали?
Спасибо большое за советы. Но 14 тысяч страниц как-то неохота ручками из ВМТ удалять
А не опасно ли будет это делать руками в таких объемах?
Помнится мне - Гугл хелп угрожает по этому поводу.