Vladimir

Vladimir
Рейтинг
624
Регистрация
07.06.2004
Интересы
Photo
Dmitriy_2014 :
К статьям можно добавить фокусный ключевик, кто-нибудь это использует, нужно ли оно и что это дает.

Просто перевод неверный)) Как в фото, при малых значениях диафрагмы: фокус на портрете, а не на заднем плане))
Выделяем ключевые фразы для анализа...

avangard #:

Вопрос. Насколько скрытие Js исходящих ссылок и контента влияет на ранжирование, по сравнению, с вариантом без использования Js. Спасибо!

Ни на сколько, ни в одном из вариантов
Если же вы хотите скрыть множество ссылок на партнерку, используйте другой HTML тэг, не <a...>
qilly #:

Так и управлять проще и ресурсов надо тратить меньше на ранжирование.

Ну где то и как то направление правильное.  Т.е это одна из значимых причин МПК.
Именно это Я и хочет, но от вас.
Оптимизация crawl бюджета. Т.е можно настроить сайт, так, чтобы потреблял менее примерно 10% всего бюджета.
И Я хорошо, и вам хорошо. Боты ПС и сервер не грузят, и новые страницы быстро индексируют, и измененные также, и по старым не лазят, если нет изменений.

И дублей нет, которых обычно больше в несколько раз, чем основных страниц ( уменьшение бюджета в эти несколько раз). А, что в роботс же закрыто и каноникал выставлено


Gonchar-web #:

Не секрет?

В итоге меняется релевантность, и другая страница становится релевантной. Соглашаемся с Яндексом и гоним ее наверх. И так до трех. страниц, не более. В итоге, нужно и можно вернуть первую основную на место. Ну и побочный эффект интересный получается ( на практике отрабатываем )
boobi #:

А вот как с и-магазинами? дубли по сортировке и пагинации не удалишь, приходится использовать каноникал и мету ноуиндекс, фоллоу / только ноуиндекс 

Сортируйте не меняя URL, как вариант

Всю пагинацию Яндекс кушает, держит в индексе и даже не выкидывает. Пишите титл и тд, уникализируйте.
Ну или это же ваш сайт, ищите варианты на практике.
Snake800 #:

В таких случаях надёжнее noindex. Бюджет хавает, но хотя бы в индекс не лезет. С бюджетом, впрочем, у Яндекса вроде бы проблем нет.

Бюджет оптимизируйте, 99% сайтов этого не делают
Kaavain #:

По canonical отлично и быстро и Яндекс и Гугл выкидывает дубли, коих у меня дохренеллион.

Яндекс даже не извинился за косяк 

Вам перевод нужен написанного?😂
Это ваш косяк, дублей на сайте не должно быть по умолчанию.


samimages #:

Ну вот просто: Зачем?
...но не будут этого делать... просто потому что не будут.

Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально

Неее, есть кто внимательно читает, и задает технические вопросы в личку. И как ни странно это девушки))

Shelton724 #:
Можно взглянуть на это с другой стороны. Просто (скорее всего) активна функция переобхода страниц по счётчику, логично добавить условие, что если есть в адресе всякие GET, то код счётчика на такую страницу не отдавать.
Почему бы не взлянуть правильно не удаляя счетчик, и оптимизировать crawl бюджет?
А потом удивляетесь, почему выписали МПК
John Silver #:

Все работает. Но можете мне не верить, я теоретик)

Да, верю, что вы теоретики, и серч не читаете)

И каноникал, и роботс это рекомендации для ПС, а не правила. Которые ПС могут не учитывать.
Что Яндекс периодически и делает. Выкинет основную страницу, дубль в индекс закинет.
Он естественно, ой исправится через сутки или через неделю...но
Вам ТС прямо об этом и пишет....

Но вам то, что Если Топовую страницу выкинет, и когда она назад попадет, вас это же не интересует. Сайты то клиентские.

А так да бред, следуйте и далее своим правилам теоретики))

Ответ, для ТС все работает, т.е через сколько дней Я исправит согласно роботс
Ну и тд по кругу, пока не удалишь дубли.

olegon :

Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц

То есть задуманное не работает?

Не работает, ни роботс, ни каноникал
Есдинственный метод, это не должно быть дублей страниц на сайте

PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
Ну и при таком количестве дублей , МПК в шаге от вашего сайта

Всего: 9057