- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Имеется сайт на собственном движке, который, при наличии кукисов у клиента, хранит ID сессии там, либо передаёт через URL.
Проблема в том, что поисковые боты кукисы не сохраняют, и индексируют адреса вместе с сессиями. Где-то в настройках индексации Google я установил запрет на индексацию ?sid, для Яндекса указал Clean-param: sid в robots.txt. Никаких результатов это не принесло, после полугода всё также.
Я подумываю уже программно определять ботов и не подставлять сессии в URL для них. Собственно, вопрос: как правильно установить запрет на индексацию параметра URL? Это правильнее делать в параметрах индексации поисковика или в самом движке?
Спасибо.
Я подумываю уже программно определять ботов и не подставлять сессии в URL для них
Когда же переведутся безумные и криворукие программисты!
Когда же переведутся безумные и криворукие программисты!
ни когда :(
как правильно установить запрет на индексацию параметра URL?
Disallow: /*?
Я именно потому и спрашиваю совета, что процитированный вами вариант - не выход.
Видимо, безграмотные тоже...
Насколько я понимаю, используя Disallow я могу лишь запретить индексацию страниц по маске. Но поисковик видит все ссылки на сайте с указанной сессией в параметре, то бишь он ничего не сможет проиндексировать.
Но поисковик видит все ссылки на сайте с указанной сессией в параметре
"сайт говно - всё переделать" (с) моё
"сайт говно - всё переделать" (с) моё
Переделать-то не вопрос, но вся фишка была в том, чтобы пользователи без Cookie могли полноценно пользоваться сессиями.
чтобы пользователи без Cookie могли полноценно пользоваться сессиями.
зачем?
10 вопросов
чтобы пользователи без Cookie могли полноценно пользоваться сессиями.
И много их?
Вы готовы ради этой горстки отщепенцев отказаться от поискового трафика?
Вообще конечно это неоправданно, но сайт лично мой и я на нем просто тренируюсь. Меня интересует не сколько поисковой траффик, сколько именно возможность заблокировать для поисковика определённый параметр url. Ведь это может быть и не ID сессии, а что-то другое.
Главное, что непонятно - сделал, как написано в FAQ Яндекса, прописал параметр в настройки сайта в Google, и ничего не меняется. В чём же дело?
PAULTER, проверяйте http://webmaster.yandex.ru/robots.xml