Методику Харина и Ашманова я выслал по e-mail. Но это, хочется сразу заметить, не единственная, и, вероятно, не лучшая методика тестирования поисковиков, но она имеет свои преимущества.
С уважением,
Александр Садовский.
Этот способ применяется, но он тоже дает лишь оценку максимального числа пользователей, отключающих графику. Реальное число -- около 10%. Потери счетчика могут происходить из-за блокировки корпоративным прокси-сервером, из-за недогрузки страницы до конца, из-за отключенного JavaScript (если счетчик на JS) и т.д.
В данном случае да, только регулярные выражения в robots.txt неприменимы. Должно быть так:
Disallow: /cgi-bin/sta
А почему бы не индексировать те динамические страницы, на которые есть хоть одна ссылка извне (с другого сайта)? Никакого зацикливания, и самые важные страницы точно попадут в базу. А если веб-мастера начнут генерировать описательные страницы (со ссылками на все динамические страницы сайта), так Апорту это даже на пользу -- вряд ли в таких "описаниях" будут дубли, и уж точно никакого зацикливания.
[This message has been edited by funsad (edited 04-12-2001).]
По разным оценкам первой страницей ограничиваются от 50% до 90% пользователей (точный процент зависит от числа ссылок в первом десятке, способа их оформления, релевантности и т.д.).
Что касается зависимости трафика от места, закономерности всюду примерно одинаковые, а про Google вопрос уже задавался .
Еще неплохо работает Google AdWords .
Точно сказать пока не могу (если очень надо, я могу достать и абсолютно точные данные, но не сегодня), но порядок сказать можно. По моим прикидкам, трафик будет равен N*K, где, в зависимости от запроса, равно:
Проверил, все нормально работает. Бесплатная версия Wordtracker тут: http://www.wordtracker.com/trial/
Буду краток:
<IMG SRC="http://www.konkurs.ru/konkurs54/mos.jpg" border=0>
Это только анонс, реальность прозаичней. Отслеживаю с 9 ноября два запроса, по которым число выдаваемых страниц гарантированно изменится после переиндексации. Сегодня уже 2 декабря, а результаты все те же.