Eduprofit

Eduprofit
Рейтинг
40
Регистрация
03.11.2010
DeviceMaster:
Здравствуйте!
На сайте есть страница "Blog". Туда в кучу валятся все посты в хронологическом порядке. Получается вроде как дубль.
1). Стоит ли её запретить в robots.txt?
2). Если запрещать, то достаточно вписать Disallow: /blog/ ? Дело в том, что страница разделяется на несколько. blog/page/2/ и т.д. Disallow: /blog/ запретит всю ветку или надо все страницы прописывать?

Ни в коем случае)

1) Что у Вас за цмска? Вордпресс - у него по умолчанию настроен rel=canonical, который гуглу дает установку, какой из дублей оригинал, то есть ничего закрывать не надо. К тому же, что будет если Ваши посты не успеют проиндексироваться гуглом и попадут в "блог"? Потерянный навсегда контент, который не выгребет из Гугла трафа никогда.

2) Роботсы советую повесить стандартные для Вашей цмски. В нете поищите "роботсы для вордпресс" например.

---------- Добавлено 12.11.2012 в 13:25 ----------

brunoid:
я бы не запрещал эти страницы к индексации через robots.txt а сделал бы все ссылки на них с rel="nofollow" что б на них не уплывал вес.

При чем тут роботсы к рел=ноуфоллоу??

Проблема дублей в том заключается, что Гугл может поместить в ТОР внезапно не ту страницу, которую Вы хотели + повышается процент соплей, что, как говорят корифеи, негативный фактр при ранжировании Вашего сайта. А рел=ноуфоллоу вообще ума не приложу при чем тут.

kann:
"Мы не наказываем Ваш сайт, а приводим выдачу вашего сайта в соответствии с тем уровнем, каким он был бы без покупных ссылок (по нашему мнению)

Мура и ложь, как всегда... неужто один из моих сайтов не заслуживает быть хотя бы в ТОР-10 по доменному имени? Он врет-врет-врет. Каттс - брехунишко :)

Анто:
проверял под бан вроде он не попал в вебмастере тоже никаких сообщений

1) Значиться так, если сайт упал с первой на 7-ю и висит там не пару часов, а несколько дней, то это фильтр. Если всего пару часов (до 24 часов), то это могут быть Гугл Шумы.

2) Как Вы проверяли? Бан - это когда Вашего сайта вообще нет в в индексе, если он на 7-й странице, то видимо в любом случае уже не бан. Вам надо проверить, попала ли страница/сайт под фильтр. Как это сделать: вводите запрос site:домен-Вашего-сайта.тлд "ключевое слово" (например site:ru.wikipedia.org Бунин) если первая страница в выдаче та, которую Вы оптимизировали под ключевик, значит страница не под фильтром и причины надо искать дальше, но я даю 90% на то, что первая в списке будет не та страница, которую Вы продвигали под кей.

А как по мне, так это похоже на "наживку для злого сеошника" от гугла. Видели как Мет Каттс раз 5 повторил, что если Вы не использовали блек текникс, то этот инструмент не для вас.

Ladycharm:
Глупый Пингвин... Он даже витальные запросы режет.

А с чего Вы взяли, что это именно пингвин. Имхо, на емд походже (в середине октября шибанул фильр Exact Match Domain).

Увы, ничего не помогло лично моим сайтам. Хольте то, что еще висит и заливайте новые страницы в новые папки. Захватывайте Гугль по-новому

Это, видать, Вам благодарочка за НЕ работу с сапой. Видимо какой-то линкоперерасчет

fgscorp:
Гугл сегодня убрал из украинской выдачи русские, белорусские, английские и другие сайты оставив только украинские

Проверю через xseo.in - ничего подобного. По запросу "небесные фонарики":

ru.wikipedia.орг - 3-место

И во втором десятке рушек чуть больше, чем много.

fagot_seo:

- сначала сниму все безанкорные

А почему Вы начинаете с самых хороших ссылок? Может лучше убрать сначала футерные - которые самые вредные?

mashtalir:
Удаление ссылок - ждать апдейта пингвина от 2 недель до нескольких месяцев, и снова заниматься продвижением (((( Новые сайты "под гугл" проще делать...

Удаление ссылок поможет только в случае, если сайт частично фильтрануло, если же его не найти в ТОР-10 по доменному имени, а траффик - 0, то имхо, легче создавать уже новый :(

Всего: 72