SergoZD

Рейтинг
63
Регистрация
17.08.2005

RewriteEngine on

RewriteRule ^folder/(.*)$ http://folder.site.ru/$1 [R=301]

Вроде так, на практике проверил, работает как надо.

В robots.txt запрещение индексации папки на поддомене не скажется.

подддомене все урлы и соурсы для картинок прописаны относительно корня, то попадаю на страницу через основной сайт люди не видят ни картинок, ни текста

Именно поэтому прописывать надо абсолютные пути.

Вроде отглючилась на пока...

Потому что это разные запросы.

Давно уже сделали и обсудили.

Через расширенный поиск яндекса и смотрит большинство думаю, добавляя учет склеенных ссылок.

Точнее чем в самом яндексе вы нигде не сможете получить количество проиндексированных этим яндексом бэклинков.

Чё одно и тоже советовать?

Все что известно мне (семонитор, яндекс-бар, сеобар, расширенный поиск яндекса, сервис be1...) - не устраивает.

Чем они не устраивают?

1. Да, это оно

2. Там очевидно на каждый день свой файл, просмотри каждый файл для интересующего тебя сайта.

3. Смысл в строке - данные о каждом сделаном запросе на сайт, такие как ip, дата, строка запроса, отклик сервера, рефер, юзер-агент.

4. Отклик 304 там на каждом запросе? Или тока конкретно в этой строке было 304, а так везде 200? Должен быть 200 отклик.

5. Искать нужно в последних кавычках, раз нету такого, значит зеркальщик до твоего сайта просто не дошел =)

Лог-файл - файл, содержащий системную информацию о работе сервера и информацию о действиях пользователей:
- дату и время визита пользователя;
- IP-адрес компьютера пользователя;
- наименование браузера пользователя;
- URL запрошенной пользователем страницы;
- реферер пользователя.

Копируешь с сервера на комп, открываешь в блокноте и смотришь =)

Есть и другой софт для просмотра логов, но лучше блокнот =)

А напомните плиз, как в яндексе посмотреть ссылающиеся страницы с учетом склейки и без неё?

Ни вспомнить не могу, ни найти =)

За последний месяц на моих сайтах зеркальщик появлялся 3 и 6 апреля (на некоторых тока 6 =) )

robots.txt указать диапазон(маска) файлов....

K. Ermakov:
Маски только гугл поддерживает. Это его расширения стандарта. У других поисковиков маски не поддерживаются. Ссылка на стандарт дана выше.

Если начало url к этим страничкам одинаково, то можно запретить индексацию всего, у чего такое начало url (в т.ч. и нужные страницы).

Если нет - то только перечислением...

Всего: 963