seo_optimist

seo_optimist
Рейтинг
108
Регистрация
09.09.2009
богоносец:
Создателям ПС приходится бороться не с зелёными человечками, а с лишними затратами своего железа (которое криворукие вебмастеры готовы засрать на 70% дублями и пр. мусором). Идеально они при этом действовать не умеют, например с yandex.ru/m/ ну не получилось (что как бы намекает на реальные олгоритмы). Да и тратить на умную фильтрацию то же самое железо не хочется. Им бы с наименьшими затратами захватить мир...

Не хочется непредвиденностей — не отвечайте 200 по хз каким урлам. И наоборот.

Хочется быстрее индексироваться — не кормите бота лишними страницами с каноникалом/мета-ноуиндексом.

Вот видите, все свелось к тому что мы выяснили что на ранжирование дубли влияют такими далекими косвенными факторами, что можно заявлять что не влияют. Только сканирование. И то, при загрузке системы, мощности которой постоянно растут.

По продемонстрированным вами примерам можно понять что вам будет уже плавать на эти дубли если дорастете до уровня Яндекса, а если сайт мелкий то всем остальным плевать на ваши дубли.

Если есть возможность малой кровью исключить, не допустить дубли то так будет лучше - используйте правильное по.

Но бороться с дублями в надежде на плюшку Гугла - реальная трата времени.

Предлагаю закрывать тему.

богоносец:
Нужны сцылки, конкуренты поставят, и /m/ вылетела... а если она продвигаемая?.. а вам могут ссылками продвигать дубли по самым левым запросам.
Да, контент в выдаче, но продвигаемая могла бы быть на лучших позициях, чем оставшийся в индексе мусор.
Ранжируются не сайты, а документы. И лучше чтобы они не вылетали в процессе чистки закромов от #!дублей. Вы можете так никогда и не узнать, за что вылетели... поскольку серёжи брины в своих алгоритмах идут на какие-то упрощения, экономят ресурсы.

У Вас ключевые слова в рассуждениях "могли бы", "если бы", "какие то". У вас сообщений выше крыши, должен был уже конкретно знать, что и за чем. Гугл это всего лишь алгоритм. Да, часто меняется но алгоритм.

Вот давайте сейчас начнем злостно бороться с зелеными человечками, а вдруг прилетят )

С другой стороны может это такая тактика борьбы с конкурентами - максимально запудрить мозги начинающим и бестолковым оптимизаторам, что бы вместо продвижения занимались всякой ахинеей, тогда - да, поддерживаю борьбу с дублями )

богоносец:
Да так плевать, что даже продвигаемую выплёвывает https://www.google.com/search?q=site:www.yandex.ru/m http://yandex.ru/yandsearch?text=url%3Awww.yandex.ru%2Fm*

Вот так Мэт Катс с Серёжей Брином ставят эксперименты. Лень повторять... чисто экономические причины такой вот их неразборчивости.

Рел=каноникал вместо 301 ... загружает бота и сеть лишним трафом, особенно если вы покажете боту сцылки на 1050 дублей.

Ну и добрые конкуренты смогут написать в выдаче, что вы гавно!

Но для указанных вами примеров необходимо условие что бы на дубли были внешние ссылки. Тем более нужный контент все равно в выдаче. А если внешних ссылок на дубли нет и у сайта нет десятка тысяч внутряка, может проще плюнуть на эту гипотетическую псевдоопасность и заняться полезным делом, как Яндекс )

Смотрю тут на форуме 90% оптимизаторов строят в корне неверные предположения относительно главных причин нелюбви Гугла к их сайтам, а дубли одно из самых больших заблуждений

Народ, а кто ставил эксперимент и может доказать что дубли 100% влияют на выдачу?! Все мои проверки свелись к тому что Гуглу плевать на дубли. Я конечно понимаю, что народу хочется почистить дубли, код страницы от ошибок, навести полный порядок и радоваться чисто выполненной работе... Я тоже за чистоту и порядок в проектах и считаю что лучше не допускать их, как минимум потому что нагрузка на сервер меньше при сканировании ботами. Канноникал для того и предназначен, но он не поднимет ваш сайт в рейтинге, так же как и избавление от дублей. Зачем мусолить и дальше темы чистки исходного кода и движка от дублей, особенно для сайта у которого всего сотня страниц. Люди, у вас что полезных дел нет?

imd:
Прогнал ссылки сервисом HWaddurl_2.0.0.10

Сколько времени обычно проходит от отправки на пинг и до индексации, чтоб проверить.

В разных сайтах очень по разному

Для начала подождать

Пропингуйте их или добавьте три! новые страницы на сайт, на которые будет ссылки с главной, с которых будут вести ссылки на все те страницы, которые раннее давали 404 ошибку

Zegeberg:
Насчёт временного карантина согласен, это вообще ко многим фильтрам относится и не только от Google, а вот про "сама собой монета станет золотой" поспорю - слишком просто и наивно.

Пока вы тут наивные спорите я проверяю )

Фильтр пингвин наподобии карантина. Поэтому от пингвина лечит только время. Если ничего не делать с сайтом от года до двух он выходит из под пингвина самостоятельно. За это время лучше сделать новый сайт и работать с ним.

Расчет Гугла очень прост, и кстати правильный. Любой сайт на арендованных ссылках и черпающий траф только с поиска за это время умрет, а спамные ссылки с ГС сайтов за это время сами отвалятся.

Bormancash:
Есть сайт - всего пару страниц. На одной странице необходимо было уместить порядка 150 связанных ключей (например: купить пылесос, купить пылесос Киев, пылесос недорого и т.д.). Основной текст был написан на 1000 сим. без оптимизации практически, а ключи добивались с помощью комментариев (например: Подскажите где купить пылесос в Киеве? ), + ссылки с Сапы с точным вхождением, много-много) и сразу (порядка 3000) - анкоры типа "site.com.ua купить пылесос Киев недорого". Через две недели все в ТОП-5, сайт новый. Ждем падения уже третий месяц)) Комментарии ОЧЕНЬ увеличивают конверсию при правильном подходе и упрощают написание основного текста. ИМХО

Огромное спасибо, натолкнули на одну очень интересную мысль, пошел допиливать движок )

Всего: 775