Vladimir

Vladimir
Рейтинг
614
Регистрация
07.06.2004
Интересы
Photo
Alamo #:

У кого жирнее сайт, тот и оригинал?

Немного не так... ТОП1, все что ниже дубли

dimon878 #:

Днем сейчас прикол, внес правки в роботс 4 дня назад и удалили сейчас 17 тыщ дублей 

Жуть, а потом удивляемся прилету МПК

webledi #:

Напишите, пожалуйста, где это искать в Вебмастере.

Это делается в htaccess, в крайнем случае в robots
Valeratale #:


так если бы они так и сказали что вот МПК за копипаст, вот форма аппеляции. Сколько лет яндексу? овер 20-и? И вдруг они решили озаботится копипастом? похвально. Но при этом выпилили форму "оригинальные тексты"

Но нет же, МПК прилетает совсем разным сайтам, кому-т помогает (ну вроде помогает) снятие рекламы, кому-то настойчивое бодание с поддержкой

- При чем здесь форма аппеляции и "оригинальные тексты"?. мой Пункт 2 читаем внимательно. ( Гуглу тоже 20 лет)
- Ну явно дополнительно идут и глюки с МПК, поэтому и определить факторы невозможно. Ну а по сути, они выкатили очередной бред

Alex Klo #:

только вот в Гугле они тоже отредиректятся...

Значит не 301, а 304 в этом случае, все будет делаться быстрее всегда, и в первую очередь  с теми страницам, которые вам нужны

Например с такими  страницами

huntand #:
<meta name=”yandex” content=”noindex,nofollow”>


PS Т.е использовать удаление через панель Я.Вебмастера, консоль Гугла для индексации ( удаления) - это бред. Но который звучит на серче постоянно.
Пп 2. 3 тем более

unspace #:

Вот именно. А поисковикам всего-то надо было просто начать жестко выпиливать за копипаст и не было бы проблемы. Зачем копипастить, если от этого нет толку. Но не нужно им это.

Так они наконец-то вняли вашим советам и жестко выпиливают ( раздают МПК ) копипаст
Чем недовольны?  Возражения о том, что выпиливают не тех, не принимаются.
1. Кто сказал, что они должны ( а не суд) определять авторство?
2. Ну и  до вас никак не дойдет, что такое оригинальный контент, что для Яндекса, что для Гугла.
Отсюда и проблемы с многочисленным копипастом, с которым бесполезно бороться ( по вашему мнению)

Мое мнение - можно вполне успешно. ( исходя из п.2)

Давно уже, очень понравилась очень популярная рекомендация на серче  - "чаще менять контент главной". Мол его растаскивают, и он получается дублированным, не оригинальным. Поржал.
Та же самая рекомендация сейчас: контент растащили, надо менять домен, надо менять контент....


либо используешь облачное хранилище яндекса
либо -  боты и сканеры, которые проверяют сайты на наличие уязвимостей
weter2000 :

Соственно сабж.

Так это же просто решается - прояви действия (гуглим для Гугла)

anatolievich77 :

М.б. кто-то знает, как поступить, подскажите пожалуйста. Вообще нигде не нашёл инфы.

Если такой (три года) график устроит , пиши в ЛС


SeVlad #:

Каноникал! Компетентный ты наш..

Это тебе нужна в этом компетентность, вот и изучай как правильно пишется
У меня на сайте этого нет, от слова совсем. Так как дублей не создаю, и в роботс дополнительно не загоняю
Удачи😊
SeVlad #:

Ну ты же безапелляционно утверждал, что непременно надо 404. :)

А слово "дополнительно" специально игнорим?

У себя безапеляционно 404, у себя можешь 301
Про дополнительно, сам писал - ПС правила игнорят, ну и топик надо читать

webinfo #:

Вроде как Гугл и Яндекс по-разному работают с роботсом. Если Яндекс быстро выкидывает из индекса страницы, закрытые в роботсе, то Гугл просто перестаёт на них заходить  (поэтому, например, не видит noindex на таких страницах) , и они могут ещё долго висеть в поиске, если были проиндексированы ранее.

SeVlad #:
А может 301? ;)

Их и нет.

вот в этом вся ваша компетентность)) (с)


Это уже на твое усмотрение, но не роботс

Кто тебе сказал что нет? Ссылка с форума есть? Есть. так что это твоя некомпететность

https://gold-cargo.ru/?e=full-tilt-classic-ski-boots-2019-evo-uu-W88J05HZ - 200

Всего: 8951