Спасибо, AVV! Можно еще вопросы :)
1) Как я понял, этот код перебрасывает любого юзера (робота, браузера) с сайта site.ru на сайт www.site.ru ? И, таким образом, Гугл будет видеть только УРЛы с www, и со временем сочтет www.site.ru за главный и единственный. Правильно ли я все понимаю?
2) Так как на данный момент Гугл видит 500 страниц без www, и только 10 страниц с www, то не приведет ли применение вышеописанного кода к игнорированию имеющихся 500 страниц? Не пропаду ли я из поиска?
3) Как скоро Гугл может внять вышеописанному коду, и склеить сайты в один?
4) Правильно ли я считаю, что сейчас Гугл рассчитывает PageRank моего сайта отдельно для www.site.ru и отдельно для site.ru. А после склейки будет один общий ПР, который может даже возрасти на 1-2 пункта?
5) Если сейчас Яндекс считает главным www.site.ru, то введение вышеупомянутого кода в .htaccess никак не поменяет ситуацию с ним?
6) Мне встретился еще такой пример на эту же тему:
RewriteEngine on
RewriteBase /
RewriteCond %{HTTP_HOST} ^site.ru$
RewriteRule ^(.*)$ http://www.site.ru/$1 [NC,R=301,L]
Тут немного отличается от написанного AVV. В последней строчке * вместо + и буквы NC. Также еще строка RewriteBase /
Какой вариант лучше поставить?
Я посмотрел, как вы говорили. Сайт без www показывает 500 страниц, а с www - только 10! Какие шаги можно предпринять, чтобы заставить Гугл склеить сайты?
О, спасибо, gambling!
Многих из твоего списка узнал в своих логах. А откуда ты взял этот список, если не секрет?
Да, я знаю, что они теперь шифруются. Но многих еще можно поймать и по юзер-агенту. У меня несколько раз за неделю ловятся.
А яву-скрипт они тоже сейчас парсят и ходят по ее ссылкам.
Вроде, неплохая идея есть здесь - http://php.spb.ru/other/_dima_noflood.php Но, по ходу, применение этого скрипта сдерживается тем, что он будет блокировать не только роботов-качалок, но и полезных ботов, типа всяких яндексов/гуглов, если они вдруг решат съесть у тебя за раз сотню/другую/третью страниц. Видимо, наилучшим решением будет дополнить вышеупомянутый скрипт проверкой по юзер-агентам ботов яндекса и т.п. и уже на основании этой информации принимать решение.
А у кого еще какие мысли есть по данной проблеме? А то меня фотогалерея уникальных фотографий, вот и приходится бороться.
А где и как установить этот Вебалайзер? У меня на хосте есть папка logs, в ней с десяток каких-то файлов, с расширением *.log, *.gz, но как их использовать, не знаю.
ой, а что-то не видно первого кода. Пустое поле.