- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А если у юзера куки выключены?
А если у юзера куки выключены?
Значит придется делать сложную систему которая будет будет проверять можно ли записать куки и если нет по Useragentu i IP следить и записывать настройки на сервере (в базу данных либо в файл) и через скажем 30мин удалять.
Если там php с сессиями, то явно в файлах будут переменные. И вся система идет насмарку.
Конечно, все зависит от конкретной ситуации. Способ не универсален. У меня, например - работает, так как я храню в переменных сессии предпочтения пользователя. Если переменная не задана, страница запускается со значениями по умолчанию. Для робота достаточно, он предпочтений не имеет
;) ;)
Страниц таких у меня полтора десятка: терпимо, можно в роботс прописать. Считаю, в моем случае метОда оправдана. Может кому то тоже подойдет.
Вообще, простого и универсального способа в случае сессий, повторюсь, видимо, нет. С куками не у всех сработает. Иначе - изрядный огород. Т.ч. лучше сессии использовать в отдельном разделе сайта, закрытом для индексирования, а публичная информация пусть индексируется и живет отдельно, без сессий.
Все пременные прячутся при помощи mod_rewrite - для системы это будут те же переменные - а для юзера дополнительные папки скажем
index.php?id=2&rubrika=344&cat=10 превращается в самом простом варианте в /id/2/rubrika/344/cat/10/
лично я пофиксил хвост PHPSESSID простым приемом: любой урл в коде ссылки начинается с http://
и все... :)
Ну и хрен с ним. К счастью, маниаков отключающих JS и куки немного.
К тому же реальная надобность в сессиях появляется при каком нибудь интерактиве, который робот не в состоянии выполнить.
Прочитала в одной статье, что для запрета страниц, содержащих идентификаторы сессий в адресах, можно использовать подобную конструкцию:
User-agent: *
Disallow: /page3.php;phpsessionid
Собственно, вопрос:
если адрес страницы с сессией выглядит примерно так -
http://www.мойсайт.ру/article.php?id=2775&PHPSESSID=7a97d7ac9122a271911946fe33cf7501
то видимо, следует написать в роботс.тхт:
User-agent: *
Disallow: /article.php;phpsessid
я правильно понимаю или не совсем? будет ли это работать? плиз, знатоки, ответьте...