- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, подскажите плиз...
Есть сервис (для личного пользования), см лайт версию для обсуждения demo.bothunter.ru
Хотел бы у Вас уточнить собственно, какие отчеты для рядового оптимизатора (и/или вебмастера) актуальны и востребованы?
Сейчас bothunter позволяет (по дням):
1. отчет по индексации хоста (не заглядывая в логи и т.п.) в реалтайме с историей
2. отчет о трафике с поисковых систем (более удобный для меня формат, не стоит сравнивать с Li и G analytics
3. сравнивает IP краулера с базой адресов поисковиков, если это лже краулер (возможно парсят) то не отображает контент по данному url в момент запроса
4. позволяет сравнивать активность индексации до и после апдейта
5. выдает отчет о соотношении числа загруженных страниц яндексом к числу страниц в поиске
6. инфа по коммерческому трафику (число переходов) по запросам "купить *", "продать *" и т.п.
7. формирует отчет по региональной принадлежности пользователя, задавшего поисковый запрос (отчет только по яндексу)
Что хотелось сделать, но не могу сформулировать формат отчетов (и их востребованность):
- нужны ли отчеты по сетке сайтов, если да то какие?
- нужны ли отчеты индексации ботом сапы или нет (для вебмастеров)?
- нужны ли отчеты о фактах воровства контента с сайта (ip парсера, url который парсят, и т.п.)
- что-то еще...
жду комменты
p.s. сейчас сервис используется в личных целях, если будет у кого желание принять участие в "создании" отчетов - готов дать инвайт
Сервис интересный:) особенно отчет о поисковом трафике порадовал - наглядно и интересно. Даже "источник" есть:) на днях добавлю еще комментов
Вот насчет отчетов о воровстве. Идея хорошая. Только я не могу представить как ее реализовать :)
Вот насчет отчетов о воровстве. Идея хорошая. Только я не могу представить как ее реализовать :)
ну тут все относительно
если сисема замечает загрузку ваших страниц подряд, к примеру с перебором id
парсят
./page.html?id=1
./page.html?id=2
./page.html?id=3
...
./page.html?id=N
то можно тупо для этого "бота" выключить отображение контента на уровне кода
в итоге парсер считает пустую страницу
аналогично можно делать если пользователь представился юзерагентом поисковика хотя и не имеет IP из необходимой подсети
вопрос только в том, на сколько это востребованно (я про доп функции)
Что-то, наверное, не так :)
ну тут все относительно
если сисема замечает загрузку ваших страниц подряд, к примеру с перебором id
парсят
./page.html?id=1
./page.html?id=2
./page.html?id=3
...
./page.html?id=N
то можно тупо для этого "бота" выключить отображение контента на уровне кода
в итоге парсер считает пустую страницу
аналогично можно делать если пользователь представился юзерагентом поисковика хотя и не имеет IP из необходимой подсети
вопрос только в том, на сколько это востребованно (я про доп функции)
нет, ну как это сделать против ботов, это понятно. А вот как защититься от ручного воровства. Ведь если тематика интересная, и контент уникален, то можно ожидидать и ручного копирования :)
я бы ещё добавил статус коды отдаваемых страниц + время загрузки, для вебмастера полезная инфа
про коды... имелось ввиду заголовки?
тут сложно отследить, отдали краулеру 502 а через 10 мин 200, не очень очевидно
про ручной копипаст - это вообще не реально проконтролировать
chudinov добавил 12.03.2010 в 09:55
Что-то, наверное, не так :)
бывает... пофиксили