andrej-ilin

andrej-ilin
Рейтинг
42
Регистрация
28.03.2005

Это прекрасный пример того, что нужно не лениться подробно обговаривать все условия. Человек склонен видеть то, что он хочет видеть. Такова психология. Даже когда есть договор, написанный на бумаге, приходится иногда читать и перечитывать. Бывают случаи, что читать приходится не самому, а с помощью юристов.

Хотели сэкономить время, бумагу, деньги? Ну, вот теперь имеете, то что имеете.

Полоскать грязное белье и опускаться до окорблений - не выход из ситуации и совсем не место делать это здесь на форуме. Это только большой минус вашей репутации, не форумной, а той которую надо беречь с молоду.

Axeron:
Кстати после наших рассуждений, желательно всё таки закрыть </noindex>, а то вдруг не проиндэксирует форум!

Axeron, а вы код страницы смотрели? :)

GEREM, код 404 означает что документ не найден на сервере, хотя, сама страница может быть в браузере видна. Страницы с такими адресами удаляются из индекса. Если будете использовать - будьте осторожны. При неправильной настройке могут вылететь из индекса и другие страницы, а бывает, что и сайты целиком пропадают по этой причине. Вебмастер может и не сразу догадаться проверить код ответа сервера.

GEREM, от этого есть лекарство

Disallow: /order/1?PHPSESSID=

Ну, а если страниц такого типа много:

..../order/1...

.../order/2...

...

.../order/350...

то выражаю глубокие соболезнования.

Можно, как вариант, проверять наличие подстроки "PHPSESSID=" в URL и отдавать при этом код 404.

Unlock, с помощью директивы deny можно ограничить доступ не только по IP или группе IP. А что общего у этих посетителей? Откуда они лезут и куда, в смысле, по какому адресу/адресам?

GEREM, сколько отдельных страниц попали под индексацию с сессиями и какого вида у них URL?

PrMan, вы по-моему, сами ответили на свой вопрос.

если ноиндексами закрывается бОльшая часть кода, то тело страницы вообще в индекс не попадает, а если небольшая, то все нормально, т.е. индексируется все тело кроме участка, закрытого ноиндекс.

Вот что говорится о <noindex> в FAQ на Яндексе:

Может ли робот не индексировать заданные (служебные) участки текста?

Робот Яндекса поддерживает тег noindex, который позволяет решить эту проблему. В начале служебного фрагмента поставьте <noindex>, а в конце — </noindex>, и Яндекс не будет индексировать данный участок текста.

Видимо, то что вы взяли на ваших страницах в <noindex> Яндекс не может принять как "(служебные) участки текста".

Вариантов ограничения доступа много, например, с помощью директивы deny файла .htaccess

Разрешение и запрет на просмотр сайта
Директива deny позволяет ограничить доступ к вашему сайту (или его подкаталогам) определенным пользователям. Директива allow наоборот разрешает доступ к сайту и его узлам. Приорететность запрета и разрешения определяются директивой order.
Если вам надо разрешить доступ к сайту почти всем пользователям за исключением нескольких, то надо писать Order allow, deny
Если наоборот, запретить доступ к сайту почти всем пользователям за исключением некоторых, то напишите Order deny, allow
Кому именно запрещен или разрешен доступ указывается конкретно:
Deny from адрес
где адрес - можно указать All - всем пользователям,
можно указать ip адрес (или несколько ip-адресов через пробел),
можно указать частичный ip-адрес (для определения подсети, с которой запрещен доступ),
можно указать имя домена (например, deny from .com)
Синтаксис для Allow аналогичен.
Директивы Order, Deny, Allow надо объединить в группу.
Записанное все вместе выглядит так:
< Limit GET/>
Order allow,deny
Deny from 195.13.12.9
Allow from All
Это означает, что доступ к директориям сайта разрешен для всех пользователей кроме пользователей с ip-адресом 195.13.12.9
Но можно запретить или разрешить доступ к сайту на основании существования или отсутствия переменной окружения. Это удобно при настройки страниц, заданных в соответствии с особенностями браузера.
Задается это так:
Allow from env=переменная окружения
или
Deny from env=переменная окружения

Подробнее смотрите здесь:

http://httpd.apache.org/docs/1.3/mod/mod_access.html#allow

Мой совет: если будете фильтовать посетителей, то сначала потренируйтесь на кошечках. Протестируйте хорошенько работу вашей системы ограничений - ошибки в таких вещах череваты серьезными неприятностями.

User-agent: *

Disallow: /robots.txt

Тривиальная фильтрация по IP не подходит?

Всего: 667