bonzaza

bonzaza
Рейтинг
82
Регистрация
10.06.2006
Должность
фриланс
Интересы
разработка
жизнелюб в третьем поколении
vii:
Сложно сказать. За раз тысячу страниц и гугл и яндекс проглатывают на ура. Больше не пробовал

ИМХО вам ответили: Все равно индексировать будет постепенно, а не все сразу

Maximus325:
А, кстати, Google Saitmap не способствует равномерному распределению ПРа?

Goole Sitemap не способствует равномерному распределению PR

если только лучшему индексированию со стороны Google ? ☝ и то чуть-чуть 😎

а скорее для удобства оно создано

alex_green:
Получится, что эти страницы будут получать много ссылок с внутренних страниц, а сами отдавать PR не будут. Действительно ли это так и насколько эффективно?

как не будут ? на главную будут отдавать - исходя из того, что вы написали :)

перед вопросом эффективности надо рассмотреть:

- какое количество ссылок будут ссылаться на эти страницы (и какое их количество находится на ссылающихся страницах)

- не имеет ли смысла перенести их выше - хотя бы на 3 клика от главной ?

ИМХО на сайте с PR6 эффект будет крайне мал

Maxoud:

<script><a href="/?c=123"></script>Menu item<script></a></script>

клоакингом нет

а вот конструкция, сомнительная ИМХО

ИМХО намного полезнее сразу посмотреть тут

10 греев

этот форум читать тоже не повредит :)

Serg_Kotov:
Первое место в рейтинге корпоративных сайтов Европы заняла Германия - интернет-представительства компаний, расположенных в этой стране, набрали 65 баллов по 100 -балльной шкале оценки. Оказавшиеся в одной категории сайты компаний из Финляндии, Швеции, Норвегии и Дании заняли второе место в европейском рейтинге.

Немцы в этом плане молодцы. Единственная европейская страна, где IT на высоком уровне и работа в этой сфере престижна (неважно кто ты, программист, дизайнер или оптимизатор). Первые, что и требовалось доказать ;)

stealthy:
Про H - да, зеркальщик, но по мне они все краулеры, собственно я употребил "индексатор" в этом смысле.

:)

stealthy:

Разработчики говорят что если боты просят gzip - то так и нужно им gzip отдавать.

если поддерживает, то конечно отдавать надо

Но насколько я знаю при отсутсвии сжатия сервер уведомит робота соответсвующим заголовком (а точнее строчкой в ответе заголовка) о том, что сжатие не поддерживается. Дальнейшие действия будут зависеть от самомго робота. Но думаю что критичного при отсутсвии gzip сжатия ничего не будет.

Сжатие это плюс для сокращения трафика в сети, но минус для нагруженного сервера.

T.R.O.N:
Все просто. В отличии от юзера, индексатор за короткое время хавает большое количество страниц. Нагрузку он создает не хилую на сервак. Кеши, сжатие, динамика и т.д. должны на это нормально реагировать.

не спорю никоим разом - только в логах индексатор отмечается как (I) а не (H), как написал топикстартер

Яндекс(с) - Yandex/1.01.001 (compatible; Win16; I) — основной индексирующий робот

по моим логам он забирает страницу по разу (как правило)

по поводу того, как работает зеркальщик - честно даже понятия не имею, если кто подскажет, где почитать - то буду признателен

но исходя из сути клейки зеркал контент он точно должен обрабатывать:

Яндекс(с) - измените код главных страниц на неосновных зеркалах так, чтобы все (или почти все) ссылки с них вглубь сайта были абсолютными и вели на основное зеркало.

по этому и сделал свое предположение, почему страница забирается дважды

corpse:
если мы говорим про one.ru, а не про его поддомены, то в индексе его нет
а все узнают по разному.... у каждого так сказать свои методы...

что и требовалось доказать - на данный момент выпал полностью

Всего: 338