По моему, в Вашем случае фреймы излишни.
Да. Теоретически...
На практике время больше за счет того, что через какое-то время висения страницы в базе Яндекс решит ее переиндексировать. А переиндексирующиеся документы участвуют в делении вышеуказанного лимита на равне с новыми.
В итоге получается, что чем больше сайт, тем меньше у него шансов быть полностью проиндексированным - робот просто начнет тратить большую часть лимита на переиндексацию старых документов.
ИМХО, это уже давно устаревшая информация. Когда-то так было. Сейчас уникальность IP уже не имеет значение.
Пуф... creation, у Вас неверное понимание принципов работы системы индексации. Отцитированный фрагмент в корне неверен. Робот не выделяет сайту конкретное время - здесь нет никаких лимитов. Но один большой сайт может на пару часов (или даже дней) заставить робота индексировать только его. Чтобы такого не происходило, разработчики закладывают в робот какие-либо механизмы балансировки. Например робот Яндекса с одного сайта за один заход берет не более 500 документов.
Нет, это не индексация, а скачивание - Вы же сами правильно назвали операцию. Индексация идет позже и мы не можем сказать, когда точно она происходит. Мы можем лишь увидеть по факту обновления информации в индексе, была эта индексация произведена для конкретной страницы, или нет.
В выдаче показывается всегда дата обновления страницы, полученная роботом с сервера при последней индексации этой страницы.
1) что считать большим сайтом?
2) вы можете свое утверждение подтвердить фактами?
3) про какой поисковик идет речь?
Сайт в 10 тыс. страниц достаточно большой? Применительно к Яндексу, Рамблеру и Google обоснованно утверждаю, что от того, какая дата выдается, ничего не меняется - робот занимается переиндексацией только в том случае, если он наблюдает реальное изменение содержимого страницы, а не только изменение даты. Более того, роботы этих поисковиков учитывают тот факт, что сервер может неверно формировать дату создания файла.
Мой опыт не подтверждает это утверждение.
Приоритета никому не дается. Но, похоже, чем дольше страница не переиндекировалась, тем больше у нее шансов быть проиндексированной в следующий заход робота. Аналогично и для новых страниц. Чем больше они лежат в очереди на индексацию, тем больше у них шансов.
Для доменов на нац. языках уже есть технология, не требующая ставить специальные программы. К сожалению, не помню, как она называется. Она уже встроена во все браузере на ядре Gecko (Mozilla, Netscape etc.) и, если не ошибаюсь, в IE 6... Так что проблем с этим нет. Даже нет проблем с индексацией таких сайтов - технология основана на кодировании нац доменов обычной латиницей (хотя и выглядит закодированная версия пугающе).
Технических проблем нет. Есть нестыковки только в головах пользователей и создателей сайтов...
Кратко: никак.
Подробнее: для просмотра чего-либо в и-нете, надо сначала это что-то скачать на свой личный компьютер. Значит у смотрящего уже есть техническая возможность сделать копию. И Вы о факте копирования никак не узнаете.
Самый надежный метод защиты: воспитывать аудиторию, чтобы они, при возникновении вопроса по тематике Вашего сайта, шли к Вам, а не в поисковик.
Другой вариант - делать контент так, чтобы в нем содержалась косвенная реклама Вашего сайта. И чем сложнее будет без ущерба для полноты информации удалить такую рекламу, тем больше Вы будете защищены. Вам даже выгодно станет, если такой контент будут воровать - воры будут бесплатно рекламировать Ваш сайт. ;)
Общественное мнение не всегда верно. Есть ситуации, когда сайт на фреймах удобнее аналога без них. Не спорю, что таких ситуаций меньше, чем обратных, но все же. Тут нужно просто трезво выбирать наиболее подходящую для данного (!) сайта технологию.
А продвижение мало чем отличается от продвижения безфреймового сайта. С той лишь разницей, что "один экран" сайта технически сделан как несколько страниц. Это и надо использовать - есть возможность оптимизировать каждую страницу независимо.