Спасибо, Александр!
Действительно, подождем конференции! Наверняка, СпайЛог обрадует нас интересными данными. :)
На мой взгляд, в рамках серьезного интернет-проекта сохранение лояльности аудитории сайта важнее, чем само по себе увеличение доли посетителей главной страницы в общем числе посетителей сайта. Поэтому наиболее корректным путем одновременного достижения обеих этих целей будет перестройка структуры сайта таким образом, чтобы большое количество путей по сайту стало проходить и через главную страницу.
Только-что проверял равенство двух пропорций (кол-во уникальных хостов по заглавной странице)/(кол-во уникальных хостов по всему сайту): 1. на основе данных счетчика Топ100, 2. на основе логов веб-сервера.
Получилось очень похоже - 0,444... и 0,449.
Учитывая статистику по путям перемещения посетитетелей по сайту (есть довольно большое количество путей, по которым пользователи переходят с внутренних страниц на заглавную), можно сказать, что эта гипотеза отпадает. То есть, Топ100 считает обыкновенное количество уникальных хостов на заглавной странице независимо от того, каким путем посетитель с этого хоста до этой заглавной страницы добрался.
Если под регистрацией разных страниц в Топ100 понимать установку на них разных счетчиков, то это может быть полезным в случае, если существует несколько разделов сайта с четко выраженной тематикой у каждого и при этом посещаемость каждого из разделов сайта позволяет им находиться в первых 20-50 сайтах соответствующего раздела Топ100. Иначе не имеет смысла дробить между разными счетчиками посещаемость и создавать дополнительные объекты учета.
Найти цель, ради которой будет полезно регистрировать отдельный счетчик для _каждой_ страницы сайта я не могу. :)
Действительно, Рамблер использует такую логику? Я до этого момента был уверен, что количество уникальных хостов на заглавной странице в ТОП100 при любой схеме установки счетчика - это реальное количество уникальных хостов, с которых был осуществлен просмотр этой самой заглавной страницы.
Еще есть один удобный способ - спрятать от индексации джава-скрипт через робот.тхт, а всех модераторов денно и нощно отвлекать от работы на этом форуме, чтобы ненароком не углядели. :)
Есть такое подозрение. :)
Сейчас еще раз подниму этот вопрос на форуме Яндекса.
У меня такая же ситуация. ИЦ обновился уже пару-тройку раз (точно не фиксировал даты), а ВИЦ стоит на месте.
А не так давно ведь раз в 4 дня обновлялся, если не ошибаюсь.
Интересно, в чем причины? Простые задержки, или Яндекс готовит что-нибудь новенькое? :)
Добрый день всем!
Я под словами "сегментация трафика сайта" понимаю распределение (пусть оно будет выражено в процентах) всех обращающихся к нему посетителей по нижеуказанным категориям на основе анализа реферера посетителей.
Слова "сегментация трафика рунета" подразумевают вывод средневзвешенных значений вышеупомянутого распределения по достаточно репрезентативной выборке сайтов рунета.
1. Поисковые системы
2. Каталоги+рейтинги
3. type_in трафик (набор адреса руками в адресной строке браузера) и переход по закладкам в браузере
4. Баннеры
5. Переходы по ссылкам с других сайтов, не включенных в п.п. 1,2,4
6. Рассылки и другие источники трафика
Не совсем так.
Данные директивы веб-сервера могут не действовать (или действовать не во всех случаях), если обработка документов производится интерпретатором системы управления контентом. В таком случае, приходится настраивать обработку ошибок средствами этой самой системы.