Тёма К.

Рейтинг
58
Регистрация
14.01.2008
Должность
www.vipseo.ru

edula, советую почитать хотя бы ту страницу, на которую ссылку дал в том посте. сдаецо мне, что эти ваши старания по поводу роботс.ткст можно сократить до нескольких строк.

Тёма К. добавил 15.11.2008 в 22:35

D_Search, например? что может быть не так?

_mihey, такое тоже по некоторым наблюдаю. да и говно площадки не покупал, все вручную, так сказать отборные..

😕

edula

edula:
Мне нужно было исключить из индекса несколько тысяч страниц товаров (спецсимволами перечислить их было нельзя)
Оказывается, при превышении 1020 строк в robots Яндекс не просто игнорирует лишние строки или весь robots, а считает сайт (начиная с главной страницы) полностью запрещенным роботсом (запретов на нужные страницы в пределах 1020 строк не было).
При написании robots.txt необходимо помнить, что у робота есть разумное ограничение на его размер. Слишком большие robots.txt (более 256 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:

User-agent: Yandex
Disallow:

выдержка из хелпа

ап походу до сих пор идет..

Откатили

наблюдал на некоторых сайтах такую картину. на значке яндексовском были изменения тица, в баре page promoter'а нет. сейчас на значке цирфы как и в баре, старые, откатили значит...

--

хотя нет :) в каталоге стоит новый тиц

LEVO, и у меня такая же ситуация

нормальный ап :)

80->240

275->300

30->40

Никто не пробовал через sitemap.xml скормить страницы?

было 10 страниц в прошлом апе, буквально вчера наблюдал уже 11,

на сегодняшний ап были все надежды, что все страницы вернутся, но ничего не вернулось 😡

на яндекс.вебмастер вот такая инфа:

webmaster.yandex.ru:
Дата последнего обращения робота к сайту: 9 августа 2008, 06:25
Число загруженных страниц: 63

Страниц в индексе: 11

😕

без изменений

нет апа

Всего: 62