- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, подскажите плиз...
Есть сервис (для личного пользования), см лайт версию для обсуждения demo.bothunter.ru
Хотел бы у Вас уточнить собственно, какие отчеты для рядового оптимизатора (и/или вебмастера) актуальны и востребованы?
Сейчас bothunter позволяет (по дням):
1. отчет по индексации хоста (не заглядывая в логи и т.п.) в реалтайме с историей
2. отчет о трафике с поисковых систем (более удобный для меня формат, не стоит сравнивать с Li и G analytics
3. сравнивает IP краулера с базой адресов поисковиков, если это лже краулер (возможно парсят) то не отображает контент по данному url в момент запроса
4. позволяет сравнивать активность индексации до и после апдейта
5. выдает отчет о соотношении числа загруженных страниц яндексом к числу страниц в поиске
6. инфа по коммерческому трафику (число переходов) по запросам "купить *", "продать *" и т.п.
7. формирует отчет по региональной принадлежности пользователя, задавшего поисковый запрос (отчет только по яндексу)
Что хотелось сделать, но не могу сформулировать формат отчетов (и их востребованность):
- нужны ли отчеты по сетке сайтов, если да то какие?
- нужны ли отчеты индексации ботом сапы или нет (для вебмастеров)?
- нужны ли отчеты о фактах воровства контента с сайта (ip парсера, url который парсят, и т.п.)
- что-то еще...
жду комменты
p.s. сейчас сервис используется в личных целях, если будет у кого желание принять участие в "создании" отчетов - готов дать инвайт
Сервис интересный:) особенно отчет о поисковом трафике порадовал - наглядно и интересно. Даже "источник" есть:) на днях добавлю еще комментов
Вот насчет отчетов о воровстве. Идея хорошая. Только я не могу представить как ее реализовать :)
Вот насчет отчетов о воровстве. Идея хорошая. Только я не могу представить как ее реализовать :)
ну тут все относительно
если сисема замечает загрузку ваших страниц подряд, к примеру с перебором id
парсят
./page.html?id=1
./page.html?id=2
./page.html?id=3
...
./page.html?id=N
то можно тупо для этого "бота" выключить отображение контента на уровне кода
в итоге парсер считает пустую страницу
аналогично можно делать если пользователь представился юзерагентом поисковика хотя и не имеет IP из необходимой подсети
вопрос только в том, на сколько это востребованно (я про доп функции)
Что-то, наверное, не так :)
ну тут все относительно
если сисема замечает загрузку ваших страниц подряд, к примеру с перебором id
парсят
./page.html?id=1
./page.html?id=2
./page.html?id=3
...
./page.html?id=N
то можно тупо для этого "бота" выключить отображение контента на уровне кода
в итоге парсер считает пустую страницу
аналогично можно делать если пользователь представился юзерагентом поисковика хотя и не имеет IP из необходимой подсети
вопрос только в том, на сколько это востребованно (я про доп функции)
нет, ну как это сделать против ботов, это понятно. А вот как защититься от ручного воровства. Ведь если тематика интересная, и контент уникален, то можно ожидидать и ручного копирования :)
я бы ещё добавил статус коды отдаваемых страниц + время загрузки, для вебмастера полезная инфа
про коды... имелось ввиду заголовки?
тут сложно отследить, отдали краулеру 502 а через 10 мин 200, не очень очевидно
про ручной копипаст - это вообще не реально проконтролировать
chudinov добавил 12.03.2010 в 09:55
Что-то, наверное, не так :)
бывает... пофиксили