- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот:
Хотлог не режет "и, на, в" ... :)
однако хоть он и стоит первее ракса - он не поймал несколько переходов с внешних страниц (не с поиска).
По данным счетчикам Эксперимент можно считать законченым.
Мое заключение:
1е место РАКС (и смотреть удобнее старый вариант отчетов)
очень быстро (я бы сказал - моментально) обрабатывает новые обращения и отображает их в статистике. Только один замеченый мной минус - обрезает "и, на, в, а, за, ..." Имеет больше типоразмеров и цветов, чем тот же хотлог.
2е место Хотлог - тормозной и статистика меньше, даже несмотря на то, что он первее в загрузке, не все переходы успевает (или умеет) ловить.
спайлог халявный нафиг не нужен.
Так. Возвращаясь к эксперименту по удалению сайта из яндекса:
сегодня пришел робот, сделал 3 сессии.
После этого из индекса пропали 3 (из 6) страниц. Т.е. прошел один день :)
Подсветчиками страницы не смотрел (дабы роботу изменения показывать).
Эксперимент чист :) Т.е. пока имеем: 3 проверенных роботом страницы - 3 удаленных страницы. Буду освещать и дальше :)
"Секреты оптимизации" 2 может топик завест ;) ?
Поставил РАКСовый счётчик, копаюсь в нём уж 2-й день, и в новой версии и в старой и, хоть убейте, не могу найти, где же можно IP поглядеть людей, которые заходили.
Подскажите ПЛЗ
Hotlog во всем устраивает, но в последнее время действительно заметны тех. проблемы. Особенно огорчает обнуление статистики по дням. Так же ухудшился отлов поисковых фраз и ссылающихся страниц.
А нет такого отчета ... А он Вам действительно нужен? 10 против 1, что кроме счетчика от Ракса у Вас есть еще и Рамблер Топ 100 - в нем этот отчет есть - если потребность в подобной статистике очень периодическая, то и в Рамблер Топ 100 можно периодически заглядывать.
А нет такого отчета ...
Да, спасибо, я уже прочёл об этом на их сайте.
А он Вам действительно нужен?
Нужен, у меня посетителей мало, я их всех почти по именам знаю, вот мне и интересно, как они заходят и когда ;)
10 против 1, что кроме счетчика от Ракса у Вас есть еще и Рамблер Топ 100 - в нем этот отчет есть - если потребность в подобной статистике очень периодическая, то и в Рамблер Топ 100 можно периодически заглядывать.
Понятно, спасибо, но рамблеровского нету. У меня был ещё вчера счётчик "extreme tracking", но я его снёс, а он как раз кроме IP ничего и не показывал, переходы и всё остальное он зажимал :)
Ну вот. Эксперимент закончился. Страницы из индекса убраны, т.е. можно утверждать, что после визита робота на убираемую страницу при ее отсутствии на сайте она пропадает из индекса не более чем через неделю. Такой вот у меня срок получился. Никакими подсветчиками не пользовался. Пользовался только removeurl
Кстати, перед тем, как выкинуть окончательно из базы, приходил H (зеркальщик). Несколько раз цапал robots.txt и корневую страницу (других нет, по 404й редирект стоит на корневую).
Странно то, что это был "H", к тому же в субботу. На этот домен больше роботы яндекса не заходили. Хотя может просто совпадение (робот был раньше), но оставалось не выкинутых 3 страницы, а Н как раз 3 раза спрашивал домен. Короче, мне кажется енто он :)
Итого общий результат - 10 дней (2 раза по 3 страницы убирались, всего их было 6). Я думаю, если бы на сайт при посещении была другая квота (больше 3х страниц) - убралось бы всё из индекса после первого визита. А так - сайт ОЧЕНЬ давно не обновлялся и видимо поэтому так мало робот брал (хотя по идее 50% от сайта за один проход).
Короче - если робот ходит на ваши страницы достаточно часто - одной недели должно хватить для удаления ПРОВЕРЕННЫХ робоом страниц. Возможно воспользовавшись подсветчиком удастся ускорить этот процесс (конечно речь идет не о большом кол-ве страниц - умрешь искать свои страницы)