TyT

TyT
Рейтинг
47
Регистрация
03.09.2007

Rus Ivan, Яндекс, вы про ПС ?

Z-Style, Спасибо

видимо принял ваш материал за свежие новости и "присосался". Вот буквально недавно читал что возможна индексация до 30 сек после публикации :)

По теме, сперва выкинет страницу из индекса и возможно через какое то время вернет с другим контентом, после нескольких таких вариаций можете потерять позиции по тем словам которые двигаете ротируемым контентом или полное исключении ее из индекса как "обманывающую" пользователя или поиск.

Сами посудите, человек находит в результатах поиска вашу пейджу и переходит, что он видит ? Верно другой материал который не соответствует его ожиданиям. Все просто надо поставить себя на место пользователя и довесить ситуацию через поиск гугля :)

Это чем то сродни клоакингу, только там роботу все время отдают одно, пользователю другое

bober:
ну правильно - так значит, если после 1000 (в данном случае) есть еще что-то - стало быть, не сработает?

Вы доказываете друг-другу одно и то же )

Разрешить

Allow: main page )

При заходе юзверя выдается 2ув страница геопринадлежности вместо главной. Пример: domain.com/rus

domain.com/ita

При этом хочется оставить к индексации и саму главную без георедиректа domain.com

вопросик такой есть, не хочется новую тему создавать.

Если я в роботсе указываю дериктории, которые хочу оставить к индексации

перечисляю их череp Allow: /блабла/, в конце беру и ставлю Disallow: / - все остальное в мусорку но главная страница обычно выступает георедиректом вида domain.com/rus - как прописать главную страницу в роботсе ?, т.е. саму domain.com

По логике вещей начинать лучше все же с Allow да и пример таким образом есть http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449

http://www.liveinternet.ru/stat/uk/searches.html?slice=uk;period=month

http://index.bigmir.net/se?y=1

где то так :) спасибо посту ниже, просто привел для сравнения :)

окей, пасиб за ответы. А то я начал подумывать что придумал велосипед :)

Maxoud:
Я посмотрел сайт и вот что есть сказать.

В-нулевых, когда на одной и той же странице меняется текст после F5 или при следующей загрузке — это плохо.

Во-первых, нужно определиться будут ли адреса папок всегда закрыты слэшами, или нет:
  • domain.com/home или
  • domain.com/home/

Все же это разные адреса.

Во-вторых, эти папки уже можно исключить из списка (там все ОК):
  • /cgi-bin - 403 Forbidden
  • /baidu - 404 Not found
  • /default -404 Not found
  • /images - 404 Not found


В третьих, закрыть в robots.txt (правда, особого смысла в этом нет):
  • Disallow: /privacy/
  • Disallow: /terms/
  • Disallow: /webadvanced/


В-четвертых, нужен или 301 редирект на морду (/home), или 403, ибо там тот же контент, а отдается 200 ОК:
  • /explore
  • /startpage
  • /bar
  • /tool
  • /search


В пятых, я не нашел
  • /clickthru

Думаю, что с clickthru можно разобраться через WMT (раздел «параметры URL» или что-то в этом роде)

Я тут не учел языки (/en), ибо и так трудно разобраться в иерархии.

Надеюсь, что помог, а не запутал.
  • /clickthru

такого вида урл я нашел в выдаче ПС ... да кстати, чем парсили сайт ? я Page Promoyterom 7, A1 Website Analayzer'om, (ну и выдачу в ПС, проиндексированных страниц визуально сколько терпения хватает) но что первая прога, что вторая довольно глючны и выделываются бывает на ровном месте.

По поводу советов выше .. а чего такая расстановка ?) одни разделы на морду 301м, вторые в 403, 404, и еще что то в роботс. Чем руководствовались ? Удобно для пользователя, этим наверное ?

Всего: 105