- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Нормальный робот должен принимать-отдавать cookie. Тогда и с сессиями бороться легче будет
а java сессии (типа jsessionid=9FD75D2AE73FDC648FE9F52AFE4DC65F) слабо? :)
в индексе уже появились страницы с такими сессиями
Вообще не слабо :)
Нормальный робот должен принимать-отдавать cookie. Тогда и с сессиями бороться легче будет
Куки тут не причем, кучу сайтов построено так, что они просто редиректят на кривой урл типа domain/page?sses=ID и подругому либо не работают, либо работают но плохо. И что они там будут показывать не зависит от того, принимаешь ты куки или нет.
Куки тут не причем, кучу сайтов построено так, что они просто редиректят на кривой урл типа domain/page?sses=ID и подругому либо не работают, либо работают но плохо. И что они там будут показывать не зависит от того, принимаешь ты куки или нет.
А можно хотя бы один-единственный пример из кучи?
http://www.tour.crimea.com/CARDS/index.php
пролинковка внутренняя... повсюду вылазят сессии
приведу пример на конкуренте, тк у нас такого не лезет откровенно:
http://www.yandex.ru/yandsearch?text=phpsessid&stype=www
Куки тут не причем, кучу сайтов построено так, что они просто редиректят на кривой урл типа domain/page?sses=ID и подругому либо не работают, либо работают но плохо. И что они там будут показывать не зависит от того, принимаешь ты куки или нет.
Ответ неверный, имхо. На моем сайте сделано так: чтобы не потерять ни одного потенциального покупателя (даже с отключенными куками) сайт, при первоначальном запросе генерит ссылки с сессиями. Если ответ браузера содержит инфу, что он поддерживает куки, то далее уже сессии не генерятся, а ИД сессии берется из кук.
Робот, судя по всему, на куки плюет, соответственно, каждый запрос к сайту трактуется сайтом как абсолютно новый (т.е. нужно сгенерить новую сессию) со всему вытекающими последствиями в виде перегрузки сервера избыточным количеством сессий и т.п.
mixb зачем тебе трекить робота? Врядли он что-то купит ;)
В данном случае нагрузка на тебя, тк нам в принципе все равно какая ссессия у тебя там. Java тоже попадает в отрубание, просто у нас сейчас есть специальное условие на 32 символа на параметр ссессии, поэтому может пролезать все что короче или длинее дефолта.
Ну и само собой сделан механизм защиты от зацикливания в данном случае. Кстати вопрос учить краулера кукам или нет у нас до сих пор открытый, тоесть сделать не проблема, вопрос надо ли?
В догонку - если у тебя свои скрипты и прочее - то почему бы вообще ботам не отдавать все страницы и не пытаться писать им куки?
приведу пример на конкуренте, тк у нас такого не лезет откровенно:
http://www.yandex.ru/yandsearch?text=phpsessid&stype=www
Ну кучу я увидел. А где хоть один, который
подругому либо не работают, либо работают но плохо
?