Mosart

Mosart
Рейтинг
69
Регистрация
07.05.2010

Интересно, а ведь вопрос звучал "как прописать 302 редирект"... Или автор ошибся при написании.

4tune:
Вряд ли будут какие-то проблемы, вы же не подменяете ничего, все белое-чистое. Думаю, можно не париться на этот счет.

Спасибо за ответ. Его и включу.

Вчера на блоге появился комментарий от пользователя Xrumer test. Смсла в нем не было, явно просто кто-то тестил программу. Блог на вордпрессе. Вот и захотел сразу узнать, есть ли какие-то метода защиты для вордпресса, кроме как поставить обязательное подтверждение регистрации админом?

Вопрос все еще актуален.

Сегодня звонил - хотел записаться на курсы (подумал, что очень удачно совпало: только подумал - вот тебе и курсы). На сайте написано, что открыт "второй набор". По телефону Ольга объяснила, что курсы уже идут вторую неделю и набор на них, соответственно, закрыт, а информацию на сайте они "еще просто не успели обновить". Не знаю, что там будет к сентябрю...

Turtle_Fly:
а в адресной строке какие изменения есть?
набрали урл без слеша -> слеш появился?

Да. Но так и сразу было.

Проверяю вот этим тулом. Ссылки не на главную со слэшем и без различаются - с тех, что со слэшем вконце стоит 301 редирект на те, что без слэша (хотя у меня модуль ЧПУ со структурой http://site.ru/статья, так что думаю это он и редиректит, ибо такая же картина наблюдается по адресам ?a=номер_статьи).

А вот по обоим запросам http://site.ru и http://site.ru/ идет 200. (должно, как я понимаю, с одного 200, а с другого 301)..

Turtle_Fly:
RewriteCond %{REQUEST_URI} !\..+$
RewriteCond %{REQUEST_URI} !/$
RewriteRule (.*) $1/ [R=301,L]

Ответ сервера: HTTP/1.1 200 OK

Ответ сервера: HTTP/1.1 200 OK

Не помогло..

Прочитал топик - решил протестить. Оказалось, что и у меня на http://example.com и http://example.com/ отдается 200.

Прописал вот это:


LEOnidUKG:
RewriteCond %{REQUEST_FILENAME} !-f [NC]
RewriteRule ^(.+[^/])$ $1/ [R] [NC]

Не помогло.

Adraom:
потерто............

Adraom добавил 10.05.2010 в 19:21

Вы неправильно меня поняли. Ситуация: есть сайт 1к стр. не в индексе, нужно закупится ссылками но не только на главную а чтобы и на все внутряки, ручками копировать все ссылки на внутряки естественно будет хлопотно, вот.

Если я правильно понял, то вам можно просто карту сайта сделать и на эти ссылки закупать. Или тут еще принципиально "глубину" ссылок узнать?

Если нет - нашел в истории форума вот эту прогу GSiteCrawler - ищет ссылки, можно учесть роботс.тхт

У меня была ситуация, когда я не мог подтвердить права на сайт с www.(гугль писал, что не нашел файл подтверждения), но при этом легко подтверждал на без www. Так и не включился тогда, отчего это. Сайт был легко доступен по обоим адресам...

Всего: 203