- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Chewi,
На этом форуме много чего пишут :) По своему опыту могу сказать - директиву Host в безошибочном robots.txt Яндекс обрабатывает нормально.
Так же, специально отмечу, что хотя директива Host и запрещает индексацию доменов отличных от основного зеркала, роботы и сервисы туда ходить могут, хотя бы для того, что бы убедиться в том, что их не обманывают.
Это повод для действий. Редирект вообще довольно стремная штука с точки зрения поисковиков. Настоятельно рекомендую избавиться.
А какой вред от того что сайт доступен по двум адресам с WWW и без. И после "Склейке" какие-то плюсы есть? нутам PR например подрастёт или тИЦ или ещё чего?
Вреда никакого лично я не вижу. В принципе, если на сайте всё нормально (никаких дурацких редиректов нет, к примеру), то со временем домены склеятся без посторонней помощи. Директива Host нужна не для самой склейки, а для того, чтобы сообщить Яндексу какой из вариантов доменов, хозяин предпочитает видеть в качестве главного зеркала.
При склейке, все сылки тоже "склеяться". То есть будут как бы вести на один домен, вместо нескольких. В результате может и PR подрасти и тИЦ и даже (шепотом) ВИЦ (только об этом никому!). Но могут и не подрасти, во всяком случае заметно.
Я в .htaccess прописал (как тут советовали) следующие:
RewriteEngine on
Options +FollowSymlinks
RewriteBase /
RewriteCond %{HTTP_HOST} ^www.sait.ru$
RewriteRule ^(.*)$ http://sait.ru/$1 [R=301,L]
Это как правильно называется?...
И вот допустим у сайта без WWW PR был 5, а с WWW он был 3. поисковых системах выдавался без WWW но ежидневно около 5% пользователей юзали его с www (может вручную набирали?). Да и сайту уже год, за это время не должны были склеить?
Polite Moose, это все было сделано не от хорошей жизни... Как я писал в начале топика, момент, когда Яндекс переиндексировал все страницы сайта с ww совпал с резким падением сайта в выдаче. Естественно, больше грешить было не на что, и я стал принимать срочные меры к тому, чтобы вернуться к индексированию страниц без www. Сейчас он появился без www, но по всем ключевым его нет (точнее есть наверное, но оочень далеко - по некоторым ключевым он находится в 4 сотне) - видимо, для сайта еще не все устаканилось...
Beirut, все аналогично. Давай смотреть что дальше будет :) Редирект я убрал сегодня.
пример в рамблере....
сайту года два... перидически занимал то первое место по высокочастотнику, то тринадцатое....
внимания на это особого не обращал... было непринципиально.... потом обратил внимание.... оказалось, что те периоды времени пока он 13-ый он отображается с www - хотя вся раскрутка была направлена адрес без www.... когда он 1-ый... он отображался без www....
вот такие дела....
Вот с этим моим сайтом такая же ситуация наблюдалась, только в Я, а не в Р. Хотя в яндексовском ФАКе написано, что ссылки будут склеены...
Насчет Р не знаю, у меня ним опыта пока маловато.
сегодня вообще какой-то хороший день...
в яндексе вернулась морда в выдачу посдле месячного ожидания... точнее не вренулась, так как она была там, но не было ни одного перехода с морды.... сейчас снова заняла свое законное место в десятке...
чудеса
Я в .htaccess прописал (как тут советовали) следующие:
Никогда не слушайте чужих советов, в том числе и этот :)
Options +FollowSymlinks
RewriteBase /
RewriteCond %{HTTP_HOST} ^www.sait.ru$
RewriteRule ^(.*)$ http://sait.ru/$1 [R=301,L]
Это как правильно называется?...
Я в этих апачевских премудростях не разбираюсь и разбираться не собираюсь :) . Судя из предыдущих сообщений, это редирект с домена с www на домен без www. При этом еще и с 301 откликом.
Повторюсь: я считаю совершенно ненужным и даже более того - вредным, использование редиректов для склейки. Далее имхо, но тем не менее: Во-первых, поисковые машины всегда настороженно относятся к редиректам. Во-вторых, Вы теряете вес передаваемый по ссылкам, которые "упруться " в редирект. В-третьих, не всем посетителям может понравится, когда их принудительно перекидывают на другой домен.
Кроме того, я не вижу объективных причин, по которым может быть принципиальным использование домена только с www или только без www.
Вполне возможно, что и в ручную. WWW это атавизм, но очень многим он привычен.
Год большой срок. По хорошему, давно должны были склеить. Видимо, что-то этому мешает. Может быть очень большо объем сайта, может быть "равновесие ссылок" на оба домена, может быть сильно динамическое содержание. Если страницы постоянно меняются (например существует постоянно обновляемая лента новостей) то это может создать у робота ложное представление о различии содержимого доменов с / без www.
Личный опыт: на один сайт заведены 4 разных домена (с учетом www / без www так и все восемь). На сайте ~ 10000 страниц. На первой странице, часть ссылок вглубь сайта сделаны абсолютными. На всех страницах сайта есть одна абсолютная ссылка на первую страницу.
В robots для Яндекса прописана директива Host, остальные поисковики разобрались и без неё.
Все восемь доменов прекрасно склеены и нет никаких проблем.
Polite Moose, это все было сделано не от хорошей жизни... Как я писал в начале топика, момент, когда Яндекс переиндексировал все страницы сайта с ww совпал с резким падением сайта в выдаче.
Это вполне могло быть связано с тем, что страницы с www и без были посчитаны дублями и автомат стал сбоить именно на дублях. Нужно было прописать безошибочный robots.txt с директивой Host (если для Вас важен выбор конкретного домена как основного зеркала) или просто подождать нормальной склейки.
Все беды от паникерства 🙅 Нужно было просто чуть потерпеть :)
И это правильно. Теперь нужен безошибочный robots.txt с директивой Host и немного терпения. Так же, посмотрите что я писал чуть выше про динамический контент.
Polite Moose, сталкивался со случаем, когда на безошибочный robots.txt зеркальщик Яндекса не обращал никакого внимания.
Как в этом случае советовали бы поступить?
И как быть со всеми остальными ПС, которые не обращают никакого внимания на директиву Host, если не хуже?