- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не работает, ни роботс, ни каноникал
Есдинственный метод, это не должно быть дублей страниц на сайте
PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
Ну и при таком количестве дублей , МПК в шаге от вашего сайта
Я пишу, что это не так. Я - практик с опытом своих магазинов в 17 лет. По canonical отлично и быстро и Яндекс и Гугл выкидывает дубли, коих у меня дохренеллион.
До внедрения canonical Яндекс рапортовал о 40 000 страниц, после - 9000. Реально уникальных 7000
А clean-param это УГ. У меня по нему выкинуло вообще все страницы с параметрами, со всеми без исключения
Яндекс даже не извинился за косяк
Я пишу, что это не так. Я - практик с опытом своих магазинов в 17 лет. По canonical отлично и быстро и Яндекс и Гугл выкидывает дубли, коих у меня дохренеллион.
Вот мой опыт.
Каноникалы выставлены, все так, как рекомендовал Яндекс, но бодался я с ним почти полгода.
Они то выкинут, то опять загонят пагинацию, хотя все рекомендации усвоены и внедрены были.
Пока noindex не прописал - были эти качели.
Проблема в том, что для Яндекса эти рекомендации могут быть усвоены, а могут быть и проигнорированы. Когда это произойдет? - даже сам Яндекс не знает.
По canonical отлично и быстро и Яндекс и Гугл выкидывает дубли, коих у меня дохренеллион.
Яндекс даже не извинился за косяк
Вам перевод нужен написанного?😂
Это ваш косяк, дублей на сайте не должно быть по умолчанию.
Ну вот просто: Зачем?
...но не будут этого делать... просто потому что не будут.
Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально
Неее, есть кто внимательно читает, и задает технические вопросы в личку. И как ни странно это девушки))
Вам перевод нужен написанного?😂
Это ваш косяк, дублей на сайте не должно быть по умолчанию.
Неее, есть кто внимательно читает, и задает технические вопросы в личку. И как ни странно это девушки))
А вот как с и-магазинами? дубли по сортировке и пагинации не удалишь, приходится использовать каноникал и мету ноуиндекс, фоллоу / только ноуиндекс
дубли по сортировке и пагинации не удалишь
В таких случаях надёжнее noindex. Бюджет хавает, но хотя бы в индекс не лезет. С бюджетом, впрочем, у Яндекса вроде бы проблем нет.
В таких случаях надёжнее noindex. Бюджет хавает, но хотя бы в индекс не лезет. С бюджетом, впрочем, у Яндекса вроде бы проблем нет.
А вот как с и-магазинами? дубли по сортировке и пагинации не удалишь, приходится использовать каноникал и мету ноуиндекс, фоллоу / только ноуиндекс
Всю пагинацию Яндекс кушает, держит в индексе и даже не выкидывает. Пишите титл и тд, уникализируйте.
Ну или это же ваш сайт, ищите варианты на практике.
Я больше про то, что Яндекс считает это критической ошибкой и требует применить то, что уже применено.
Я считаю, что canonical ПС должно учитываться прямо вот от зубов, как и 301. Мало ли, что юзеры скопипастят в URL...