Конструкция "SNS=md5hash...." после Яндекса.

12
D
На сайте с 05.03.2007
Offline
7
1208

Всем здравствуйте!

Коллеги, имею следующий воспрос:

Однажды на мой сайт "напал" Яндекс... :)

прошелся по нему, причем, ходил по ссылкам подставляя кругом конструкцию вроде -

_ttp://www.mysite.com/path/to/file/my_id?SNS=f3a56ae5d2b3cddea9851c1c180896b3

Что же это за выделенная конструкция ? :confused:

Похоже на какой-то яндексовский session id или что-то в этом роде...

Информации о нем что-то я нашел очень немного.

Где-то посоветовали поставить в .htaccess:

# Anti Yandex SNS !!!

php_flag session.use_trans_sid off

php_flag session.use_only_cookie on

php_flag session.auto_start on

#

Ставил...

Сейчас пока(?) не могу сильно оценить эффект, но в результатах поиска на Яндексе у меня сейчас стоит множество УРЛ-ов в этим "SNS".

Все бы ничего, но подобные посещения генерят в моей CNStats кучу "посетителей" по "уникальным" страницам, которые таковыми, естественно не являются и со статистикой у меня сейчас полнейший бардак.

Подскажите, плиз, во что же я вляпался :rolleyes: и что делать в таких случаях...?

Спасибо.

albion
На сайте с 07.10.2005
Offline
247
#1
Dimedrol:
Сейчас пока(?) не могу сильно оценить эффект, но в результатах поиска на Яндексе у меня сейчас стоит множество УРЛ-ов в этим "SNS".

И они будут всегда стоять, т.к. будут отдавать код 200, если вы не запретите эти урлы.

Добавьте в robots.txt на сервере такую запись:

Disallow: /path/to/file/my_id?SNS

P.S. надеюсь правильно написал.

или при запросе таких страниц отдавайте код 404, 403 или 301

T.R.O.N
На сайте с 18.05.2004
Offline
314
#2
Dimedrol:
Однажды на мой сайт "напал" Яндекс...
прошелся по нему, причем, ходил по ссылкам подставляя кругом конструкцию вроде -

Это не он подставляет, а твой движок

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
DO
На сайте с 28.05.2006
Offline
109
#3
albion:
И они будут всегда стоять, т.к. будут отдавать код 200, если вы не запретите эти урлы.

Добавьте в robots.txt на сервере такую запись:

P.S. надеюсь правильно написал.

или при запросе таких страниц отдавайте код 404, 403 или 301

Ух ты, robots.txt научился понимать wildcards ?:) Не надо говорить неправду..

А товарищу надо сделать две вещи:

- настроить у себя на сайте чтобы не генерился этот SID

- и поставить счётчик например liveinternet, в котором есть функция отрубания любой фигни в url

albion
На сайте с 07.10.2005
Offline
247
#4
DjOnline:
Ух ты, robots.txt научился понимать wildcards ? Не надо говорить неправду..

Ну для начала, скажите, что такое wildcards?

Так же, я сейчас прочитал несколько статей про robots.txt, и помоему я все таки был прав.

и если имелись ввиду поддериктории, то посмотрите http://www.w3.org/robots.txt

а если имелся ввиду знак вопроса, то посмотрите http://www.yandex.ru/robots.txt

DjOnline:
- настроить у себя на сайте чтобы не генерился этот SID

Этого не достаточно, т.к. те урлы которые уже есть в Яндексе, так там и остануться. Т.к. будут отдавать 200 код.

DjOnline:
- и поставить счётчик например liveinternet, в котором есть функция отрубания любой фигни в url

Да и при чем тут счетчики, если человек уже пользуется CNStats, к тому же платной.

BigBrother
На сайте с 16.06.2006
Offline
96
#5
DjOnline:
Ух ты, robots.txt научился понимать wildcards ?:) Не надо говорить неправду..
А товарищу надо сделать две вещи:
- настроить у себя на сайте чтобы не генерился этот SID
- и поставить счётчик например liveinternet, в котором есть функция отрубания любой фигни в url

1) Читаем описание на формат robots.txt - он анализирует СОВПАДЕНИЕ части URL. Сработает.

2) Если сайт отдает наружу ссылки с SID -это очень плохо. Советую убрать и для пользователей.

So many kings, but few jokers!
albion
На сайте с 07.10.2005
Offline
247
#6
BigBrother:
1) Читаем описание на формат robots.txt - он анализирует СОВПАДЕНИЕ части URL. Сработает.

Спасибо, что подтвердили. А то после фразы DjOnline, начал перерывать всю документацию по robots.txt

Revan
На сайте с 09.09.2005
Offline
321
#7

albion, угу, wildcards зло. Почти такое же как глюки кеширования...

;) BigBrother

С уважением, Прокофьев Александр, founder KudaGo.com (http://kudago.com). Отдаем информацию обо всех мероприятиях в РФ + Киев по API (/ru/forum/912869) всем желающим.
wolf
На сайте с 13.03.2001
Offline
1183
#8
BigBrother:
1) Читаем описание на формат robots.txt - он анализирует СОВПАДЕНИЕ части URL. Сработает.

Небольшое дополнение - части, с которой начинается URL:


Disallow
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved.

http://www.robotstxt.org/wc/norobots.html#format

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
DO
На сайте с 28.05.2006
Offline
109
#9

my_id - это не слово, это цифры, которые всё время разные.

Именно поэтому нельзя написать Disallow: /path/to/file/my_id?SNS - это правило никогда не сработает, потому что такого url именно с текстом my_id в url в чистом виде не бывает.

albion
На сайте с 07.10.2005
Offline
247
#10
DjOnline:
Именно поэтому нельзя написать Disallow: /path/to/file/my_id?SNS - это правило никогда не сработает, потому что такого url именно с текстом my_id в url в чистом виде не бывает.

ну для начала - вы уверены, что my_id это не текстовая часть url, а изменяющаяся переменная?

Был показан пример, URL - где my_id идет чистым текстом.

Dimedrol:
_ttp://www.mysite.com/path/to/file/my_id?SNS=f3a56ae5d2b3cddea9851c1c180896b3

и соответственно в данном случае Disallow: сработает.

А если это действительно так, то можно поступить так, как ниже написал wolf.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий