brunoid

Рейтинг
143
Регистрация
14.10.2008
Straifer1:
Это точно, а гугл даже такой поддержки не хочет создать, видите ли у них ни ресурсов, ни времени этим заниматься нет, судя по ответам сотрудника гугла на их форуме.

дело совершенно в другом. Они просто не хотят явно вскрывать работу своих алгоритмов дабы вебмастера не научились более грамотно их обманывать.

DeviceMaster:
Здравствуйте!
На сайте есть страница "Blog". Туда в кучу валятся все посты в хронологическом порядке. Получается вроде как дубль.
1). Стоит ли её запретить в robots.txt?
2). Если запрещать, то достаточно вписать Disallow: /blog/ ? Дело в том, что страница разделяется на несколько. blog/page/2/ и т.д. Disallow: /blog/ запретит всю ветку или надо все страницы прописывать?

я бы не запрещал эти страницы к индексации через robots.txt а сделал бы все ссылки на них с rel="nofollow" что б на них не уплывал вес.

madstallion:
Добрый вечер!

Все перепробовал. И ссылки снимал, и закупал новые анкоры, и менял тайтлы, переписывал тексты и много чего еще. Все равно на 900 примерно посетителей от Гугла меньше, чем в марте. Уже и жалко и смирился и опять жалко. И уже не знаю, реально ли вообще выйти из под фильтра?? И ключи разбивал и конверсия выросла через Яндекс. А вот Гугл все молчит.. Так, пару потугов было на взлет на +10 в день, но потом все опять... 3-5 посетителей с гугла. А было 40-60. 😡

У меня так же песня(вылет 26-27 марта). Лично для себя определил стратегию так - ненавязчиво поддерживаю старый ресурс и паралельно строю новый с учетом ошибок старого.

vagogrande:
Допиши в движок автоматическую выдачу канонического адреса.
Тогда гугл даст тебе все страницы которые дублирует, как неканонические

Так и поступил неделю назад и проставил канонические адреса. И вот вчера в ВМТ пришло письмо с примерами дубликатов. Сегодня по этому списку расставил rel="nofollow" и rel="tag nofollow"

---------- Добавлено 08.11.2012 в 12:39 ----------

Samovarov:
Лучше просто в титлах и дискрипшинах дописывать соответствующий номер страницы.

именно так и было сделано и вот здесь и появилась серьезная проблема в рамках реализации сайта-пациента.

Например есть торговая марка у которой 1000 продуктов. Каждый продукт имеет свою отдельную страницу и на этой странице кроме остновного описания есть еще список с пейджинатором на все остальные продукты от этого производителя.В итоге получилась арифметическая прогрессия страниц, то есть кол-во продуктов перемножилось на кол-во страниц с пейджингом. Ну и дальше все ушло в сопли и распылило вес.

---------- Добавлено 08.11.2012 в 14:23 ----------

Подскажите еще пожалуйста по mod_rewrite:

как заставить все урл на сайте принудительно завершаться на слеш "/" ? Это существенная проблема когда доступны оба варианта(со слешом и без него) или гугл на это не обращает внимание ?

Так же в robots.txt я бы хотел закрыть все страницы которые как часть своего урл имеют параметр:

"/?dp="

например:

/catalog/item/some-product-name/?dp=7#developer

как правильно указать маску для всех таких страниц в robots.txt ?

New Member:
Если я правильно Вас понял, то:
http://bit.ly/U2atVl

Вы просто не представляете насколько я Вам благодарен ! Огромное спасибо !

wwwwww:
Страницы категорий товаров являются копиями?

Спасибо за ваш ответ. На сайте также есть отдельно страницы с категориями товаров, с товарами отгруппированными по производителям и т.д. Там я не указывал rel="canonical".

Но так как на странице каждого продукта(то, что описано в моем первом посте) есть пейджинатор с кучей других продуктов от этого производителя - возник вот этот вопрос. Фактически в этом случае получается, что гугл будет видеть множество страниц одного и того же продукта(вверху страница будет полностью идентична) а снизу будут разные списки дополнительных продуктов. Мне кажется это дубли которые нужно устранить.. Даже Title у этих страниц практически одинаковые за исключением того, что на страницах с пейджингом есть приставка Page №

gt-web:
Ссылки сквозные половина со временем отвалится сами по себе, Для детальных советов, нужен детальный анализ (и тут халява заканчивается), а так как вы знаете сколько страниц у вашего сайта, думаю вопрос не из легких...дня три на анализ уйдет (с вынесением рекомендаций)...правка всего же сайта, это отдельная эпопея и в нашей конторке называется как внутренняя оптимизация-по сути увеличение ваших позиций...Смекаете к чему я клоню? Если вы готовы то все вопросы на мыло... нопредупреждаю сразу с голоду не пухнем ценник серьезный))))))
минут через 10 получу еще один результат по вашему сайту может дополню что то

отправил свои данные вам на мыло. Понятно, что я не расчитываю получить эту услугу бесплатно. Мне нужен толковый человек который поможет оптимизировать сайт за деньги. Дальнейшие детали предлагаю обсуждать уже в привате по координатам которые я вам выслал

gt-web:
простите забыл)
Аккуратнее надо быть с хрумером))) больше не стоит им баловаться) solomono покажет где вы накосячили, но есть хорошая сторона вопроса). Сайт живой и гугля над ним не глумится PR к тенденции на рост)
html очень Большие косяки 273 Ашипки это не допустимо! юзайте index.php
РезЬме! правьте код, не гоняйте хрумером) из титлов уберите 2000000, уменьшите количество ключей!и вообще главная заточена под один ключ converter, но как бы помягче сказать...не доточенна что ли))) на самой границе нижней планки...по этому ключю шТабы занять приличнее позиции надо увеличить количество слов в 2 раза. Да и META DESCRIPTION ну очень у коряво и не очем)))))))
Устраните эти ошибки и все будет гуд, даже выростут позиции ))))))) месяца за 1,5 а то и быстрее..
И не фиг слушать тут всяких аспирантов!

да.. с хрумаком был грех когда-то давно.. с годик назад. видать он и спалил кантору :)

Ну и спасибо за дельные советы ! Кстате может поможете эти ошибки устранить, в плане советов детальных ? Давно искал человека который бы помог эту работу проделать.

gt-web:
отправьте мне в личку ссылку на пАциента!

отправил, только не в личку а по email. Отправить вам в личку - нет такой опции у вас. спасибо.

gt-web:
Вполне возможно что санкции сняли или их не было вообще, мне пару раз приходили письма от гугльПлатона, о нарушениях, хотя нарушений не было...и в принципе сайты не просидали) и трафик не падал...Если у вас трафик с гугла ростет..можете смело подавать заявку на пересмотр...) был бы косяк был бы off...хотя если все ок на фиг подавать?,))))))

я несколько раз отправлялся на пересмотр и все время получал один и тот же стандартный ответ про ссылки на мой сайт.

Всего: 631