Я, кстати, до сих пор не понимаю, почему они не создадут решения в виде программного продукта для конечных пользователей с возможностью настройки под себя? Я бы с удовольствием купил его. SpyLog же делает все, что угодно, кроме программы: бесплатный online-сервис, платный online-сервис, решение для провайдеров... Причины я вижу только две:
а) стремление сохранить "глобальность" своей статистики;
б) желание получать постоянный поток денег вместо одноразовой платы.
Причем обе проблемы можно легко решить, продавая программу... Странные люди работают в SpyLog.
...и у него нет базы соответствия российских городов с IP-адресами. Из менее важных отчетов -- рунетовские каталоги и почтовые программы.
Беглый поиск дал только одну программу -- Happy Log. Судя по краткому описанию, она это позволяет: "Customize ... search engine databases, spider lists and other options to your own liking". Других достоинств у нее немного. Доступен free trial, а полная версия стоит $33.
Дискуссия эта мне очень интересна, и я с удовольствием продолжил бы тему анализа лог-файлов.
Какими программами вы пользуетесь?
Какие отчеты для вас наиболее полезны и почему?
Каким образом какой-либо отчет помог поднять трафик или сэкономить деньги?
И т.д.
С уважением,
Александр Садовский.
Зависит от сайта и того, насколько он автоматизирован. Если рассылка представляет из себя что-то совершенно отличное от обновлений сайта, это действительно может быть трудоемким. Если же новый выпуск (или подборка новостей сайта) автоматически преобразуются в рассылку и отправляются, то затраты стремятся к нулю.
Преимущества же могут быть довольно значительными:
1) накапливается база e-mail людей, интересующихся данной темой. В отличие от сайта, на который могут зайти, могут не зайти, по e-mail они всегда доступны;
2) это хороший способ управления трафиком -- если в какие-то дни необходим приток посетителей, рассылка может легко его обеспечить.
Ключевые вопросы:
1. Какие основные источники трафика были в апреле, а какие стали летом?
2. Какие способы рекламы использовались до апреля, а какие ближе к лету?
3. Если структура трафика (не столько абсолютные цифры, сколько их процентное соотношение) изменилась, то менялись ли основные источники трафика (например, поисковики вводили новые алгоритмы)?
4. Упала ли в с приходом лета посещаемость аналогичных ресурсов?
5. Каков был процент постоянных посетителей в апреле, а какой сейчас? Изменилось ли географическое распределение посетителей?
6. Какова была частота обновлений сайта в апреле, а какая сейчас? Есть ли у посетителей сайта необходимость заходить на него регулярно?
7. Были ли изменения в Вашем регионе в тарифной политике провайдеров или телефонных компаний в период с апреля по лето?
8. Были ли длительные сбои в работе хостера, у которого лежит сайт?
9. Менялся ли существенно дизайн сайта в период с апреля по лето?
10. Появились ли за это время у сайта сильные региональные конкуренты или конкуренты по одной из тем, которые охватывает сайт? Посещаемость каких разделов сайта сильнее всего упала с апреля по лето?
И т.д. После ответов на эти вопросы, думаю, можно будет уточнить диагноз или задать еще несколько наводящих вопросов.
[This message has been edited by funsad (edited 09-07-2001).]
Такие глюки у Яндекса бывают регулярно (я сталкиваюсь с ними примерно раз в 2 недели). Если я верно заметил, они чаще появляются при сложных запросах, но бывают и при обычных. Скорее всего, глюк связан с нагрузкой на поисковик (Илья, это так?).
[This message has been edited by funsad (edited 04-07-2001).]
Кстати, во время Кубка России по поиску пара ответов лучше всего находилась именно на Вашем сервере. Так что польза от его индексации очевидна.
Мне кажется, путей может быть несколько.
Первый, самый простой и самый дорогой -- договариваться с поисковиками об оплате ускоренной индексации. Возможно, это будет плата деньгами, возможно, баннеропоказами. Например, подобный подход давно применяют Inktomi (для небольших сайтов), FAST. Как вариант этого решения для Яндекса вполне походит Yandex.Site, для Inktomi -- Index Connect, для FAST -- fastsitesearch. Возможно, на условии, что после полной индексации сайта Вы его уберете, Яндекс значительно снизит цену на программу (как бы аренда вместо покупки).
Второй путь, не исключающий первый -- создать большое число ссылок на самые важные разделы сайта. В поисковиках, применяющих PageRank, в первую очередь индексируются именно страницы с наибольшим весом. Так как Вас интересует однократная индексация, то ссылки могут быть временными, то есть в случае договоренностей с другими сайтами можно предлагать довольно льготные условия (баннеропоказами или как-то еще).
Третий путь, не исключающий первый и второй -- создание большого числа доменов (можно третьего и четвертого уровня), указывающих на самые важные разделы сайта, чтобы поисковики воспринимали эти домены как отдельные сайты, а не как часть целого. Это поможет избежать лимитов времени/объема по индексации, которые есть для индивидуальных сайтов.
Самые заметные поисковики, например, Lycos, AltaVista, iWon и др. всегда попадают в ежемесячный top-50 от MediaMetrix или их же top только по поисковикам, top от Nielsen-NetRatings или top-99 от PC Data.
Мне кажется, это зависит от объемов сайта. Если сайт маленький, лучше делать подкаталоги, так как только суммарный объем посещений даст хоть сколько-то приличное место в рейтингах. Если же разделы довольно велики по объему, по-моему, стоит делить их на домены. Во-первых, тогда при определении тематики сайта (а многие поисковики ее учитывают) у искалки не возникнет проблем и сомнений. Во-вторых, перекрестные ссылки немного поднимут популярность разделов за счет LP. В-третьих, специализированные сайты и каталоги охотней ссылаются на сайты в отдельном домене, чем на разделы какого-то сайта.
Цитирую Илью Сегаловича: Полный обход сайта [...] инкрементальный. Частота захода на конкретную страницу зависит от нескольких факторов, в частности, размер сайта, размера очереди документов для данного сайта, частоты обновления страницы и еще много чего еще.
Так и есть, я был прав -- Яндекс не выполняет скрипты. Цитирую слова Ильи Сегаловича: "Ни один робот не интерпертирует javascript - очень накладно".
Что за материал? Почему ссылки еще не здесь?