Спасибо прочел, не отследил, думал с этим связанно было, ну и Buki нормальное описание дают.
В выдаче по ключевым запросам, выдается описание не морды а описания из Y.каталога.
В общем говоря sitemap может назваться как угодно и лежать где угодно
директивой Sitemap: <путь файла+имя файла> в robots.txt вы указываете где он находится, а иначе как поисковик узнает о нем? ...
Анализатор логов - анализ лог файлов Apache, данный подход к сбору статистики не заменим для анализа поисковых роботов и многих других технических показателей веб сайта.
ни слова про IIS пойду по второй ссылки
Am-Andrey добавил 02.02.2008 в 22:40
По второй ссылки тож слабовато ... нашел один отчет и тот слабенький
http://www.alterwind.com/loganalyzer/samplereport/SpidersByVisitors.html
Am-Andrey добавил 02.02.2008 в 23:17
Пока нашел только cnstats, ни кто не поделится?
Сделайте HTML Карту сайта и можно спокойно Аякс использовать
А кто будет?
Яндекс держит до 1000 ссылок с одной страницы, игнорируя урл с большим количеством ссылок
Александр Садовский, руководитель отдела веб-поиска Яндекса, ответил на наши вопросы о текущем положении дел с сервисом для вебмастеров Яндекс.Вебмастер.
Ошибки исправляются, но о заметном эффекте говорить пока рано. Работа с файлом robots.txt и использование sitemaps (в ближайших планах) позволит вебмастеру лучше управлять индексацией своего сайта, указав роботу Яндекса страницы, которые вебмастер считает ценными. В сервисе появятся инструменты, позволяющие понять, какими страницами интересуются пользователи. Мы надеемся, что со временем всё это улучшит качество сайтов и поиска.
В блоге перепечатка с рассылки Ашмановской