Polite Moose

Polite Moose
Рейтинг
85
Регистрация
22.04.2002
Chewi:
Polite Moose, это все было сделано не от хорошей жизни... Как я писал в начале топика, момент, когда Яндекс переиндексировал все страницы сайта с ww совпал с резким падением сайта в выдаче.

Это вполне могло быть связано с тем, что страницы с www и без были посчитаны дублями и автомат стал сбоить именно на дублях. Нужно было прописать безошибочный robots.txt с директивой Host (если для Вас важен выбор конкретного домена как основного зеркала) или просто подождать нормальной склейки.

Естественно, больше грешить было не на что, и я стал принимать срочные меры к тому, чтобы вернуться к индексированию страниц без www.

Все беды от паникерства 🙅 Нужно было просто чуть потерпеть :)

Редирект я убрал сегодня.

И это правильно. Теперь нужен безошибочный robots.txt с директивой Host и немного терпения. Так же, посмотрите что я писал чуть выше про динамический контент.

SiriuS:
Я в .htaccess прописал (как тут советовали) следующие:

Никогда не слушайте чужих советов, в том числе и этот :)

RewriteEngine on
Options +FollowSymlinks
RewriteBase /
RewriteCond %{HTTP_HOST} ^www.sait.ru$
RewriteRule ^(.*)$ http://sait.ru/$1 [R=301,L]

Это как правильно называется?...

Я в этих апачевских премудростях не разбираюсь и разбираться не собираюсь :) . Судя из предыдущих сообщений, это редирект с домена с www на домен без www. При этом еще и с 301 откликом.

Повторюсь: я считаю совершенно ненужным и даже более того - вредным, использование редиректов для склейки. Далее имхо, но тем не менее: Во-первых, поисковые машины всегда настороженно относятся к редиректам. Во-вторых, Вы теряете вес передаваемый по ссылкам, которые "упруться " в редирект. В-третьих, не всем посетителям может понравится, когда их принудительно перекидывают на другой домен.

Кроме того, я не вижу объективных причин, по которым может быть принципиальным использование домена только с www или только без www.

И вот допустим у сайта без WWW PR был 5, а с WWW он был 3. поисковых системах выдавался без WWW но ежидневно около 5% пользователей юзали его с www (может вручную набирали?).

Вполне возможно, что и в ручную. WWW это атавизм, но очень многим он привычен.

Да и сайту уже год, за это время не должны были склеить?

Год большой срок. По хорошему, давно должны были склеить. Видимо, что-то этому мешает. Может быть очень большо объем сайта, может быть "равновесие ссылок" на оба домена, может быть сильно динамическое содержание. Если страницы постоянно меняются (например существует постоянно обновляемая лента новостей) то это может создать у робота ложное представление о различии содержимого доменов с / без www.

Личный опыт: на один сайт заведены 4 разных домена (с учетом www / без www так и все восемь). На сайте ~ 10000 страниц. На первой странице, часть ссылок вглубь сайта сделаны абсолютными. На всех страницах сайта есть одна абсолютная ссылка на первую страницу.

В robots для Яндекса прописана директива Host, остальные поисковики разобрались и без неё.

Все восемь доменов прекрасно склеены и нет никаких проблем.

svift:
Polite Moose, Бау! Какие люди и без охраны! Рад видеть, подключишься к мероприятию?

Я за этим форумом давно наблюдаю :)

По поводу мероприятия я в раздумьях...

SiriuS:
А какой вред от того что сайт доступен по двум адресам с WWW и без. И после "Склейке" какие-то плюсы есть? нутам PR например подрастёт или тИЦ или ещё чего?

Вреда никакого лично я не вижу. В принципе, если на сайте всё нормально (никаких дурацких редиректов нет, к примеру), то со временем домены склеятся без посторонней помощи. Директива Host нужна не для самой склейки, а для того, чтобы сообщить Яндексу какой из вариантов доменов, хозяин предпочитает видеть в качестве главного зеркала.

При склейке, все сылки тоже "склеяться". То есть будут как бы вести на один домен, вместо нескольких. В результате может и PR подрасти и тИЦ и даже (шепотом) ВИЦ (только об этом никому!). Но могут и не подрасти, во всяком случае заметно.

Chewi,

не раз читал на этом форуме, что Яндекс игнорирует директиву хост...

На этом форуме много чего пишут :) По своему опыту могу сказать - директиву Host в безошибочном robots.txt Яндекс обрабатывает нормально.

Так же, специально отмечу, что хотя директива Host и запрещает индексацию доменов отличных от основного зеркала, роботы и сервисы туда ходить могут, хотя бы для того, что бы убедиться в том, что их не обманывают.

В любом случае, спасибо за совет! - это еще один повод для размышлений

Это повод для действий. Редирект вообще довольно стремная штука с точки зрения поисковиков. Настоятельно рекомендую избавиться.

Ещё вопрос: А если я крутил сайт по www.sait.ru, а потом начал по sait.ru - то эффект тот же полчучается али нет?

Если домены склеены, ссылки тоже склеятся.

Неважно, аналогична или нет. У меня к примеру нет ни одного зеркала ни у одного сайта. И ради ссылок с "халявных каталогов", без которых вообще можно обходится - зеркала я делать не буду.

Большинство халявных каталогов действительно того не стоят. Но иногда, при вдумчивом подходе и некоторых хитростях, с халявных каталогов можно получить и весьма жирную ссылку, и даже тематический трафик.

Ну а уж если зеркала есть в силу сторонних причин (например, зарезервированы сходные написания доменов), то тут уж грех не воспользоваться.

На мой взгляд, ошибкой было использование и директивы Host и редиректа одновременно. Имхо, одного Host было бы достаточно. Пусть и не сразу, но яндекс склеил бы домены с www и без и признал бы главным (в том числе и для каталога) тот, что без www.

Что касается других поисковиков, то для них, определяющим главного зеркала будет наличие бОльшего количества ссылок на один из доменов. (Исключением может быть Рамблер, который ориентируется по Тор 100)

В данный момент существует противоречие - директива Host говорит, что домены зеркальны, но в реальности, робот по одному адресу получает плноценную страницу с кодом 200, а по другому он страницы не получает. Такое положение вещей может робота "смутить".

Вернемся к редиректу и спросим: зачем он тут вообще нужен? Важно ли Вам, что бы нормальные посетители всегда получали //site.ru? Важно ли это?

Если важно, то можно навигацию по сайту сделать абсолютной, и при первом же переходе по внутр. ссылке, посетитель окажется на домене без www.

Кстати, авсолютная навигация (полные адреса с http://site.ru/ в начале) тоже поспособствует правильной склейке.

Так что мой совет - снимайте редирект, оставляйте Host и ставьте внешние ссылки на домен без www. Ну и при необходимости, делайте навигацию (или её часть) абсолютной.

Кстати, судя по логам, robots.txt он у меня кушает раз 15 в день, с чего бы это?

Это нормально. При каждом новом заходе, робот проверяет файл инструкций.

Ceres:
да хоть обстучится

p.s. для того чтоб атоматические каталоги не спамили по много раз одними и теми же сайтами делается проверка урла, и повторно ни сайт, ни директории с одним и тем же уролом добавить нельзя.

Многие проверки урлов первый раз обманываются добавлением с www и без.

Второй и последующие разы добавляются урлы не основного сайта, а подклееных зеркал, которых может быть весьма много. Ссылка на зеркало, аналогична ссылке на основной сайт, насколько я в курсе.

Количество сообщений уменьшилось, научные звания остались. Во всяком случае, я вижу академиков с < 1000 постов.

Всего: 1223