Понял, спасибо.
Еще, насколько я понял, бывают варианты закрытых каталогов, которые закрывают не только от сабмиттеров но и от посетителей, оставляя вход только для роботов. Получается фактически "клоакинг" и польза от таких каталогов очень временная. Вопрос - нафига так делать и стоит ли выбирать такие каталоги\системы сайтов?
В процессе работы выяснил, что робот за год не все страницы у меня взял. Четверть пропустил. Ими колупаю.
Как я понял карта увеличивает перелинковку сайта. Так что и для неё.
Но там надо умеючи, зная свои цели - понимаю куда вес будете переливать.
спасибо,
я правда надеялся на опцию движка сайта, так как SE не весь контент индексят и обычно не всё находят, но зато точно теперь знаю что такой опции нет ;-)
Навигация графическая, с альтами.
Вот я думаю - стоит её в ноиндекс пихать, чтобы не тошнила.
тему просмотрел, не нашёл понятие "контрастность ключевиков"
В качественные бэки может войти результат купленного ручного прогона по белкам? Финальная задача - побыстрее зареиндексить сайт который год не обновлялся. Ественных бэков нет, покупать морды и сквозняки - не в бюджет.
можно сказать, что в этом случае чем больше внутренних ссылок на себя (между своими страницами) тем лучше? Или там есть какие-нибудь подводные камни?
3-5 это видимо прогон. А 50-100 на какие операции тратятся?
2 JO1 - спасибо
-----------------
2 Слава Шевцов
Какой объём запросов можно было бы посчитать нормальным для "сколько-нибудь много клиентов"?
Много и не надо. Надо, чтобы сайт работал, как говорит клиент Ж-).