Уважаемые вы не правы!

12
[Удален]
1185

Привет! Недавно создавал я тему о том как запретить индексцию сайта с www в начале.

Были тут умные люди которые кричали что достаточно прописать host: site.com.

Я значит спросил, как удалить страницы которые уже проиндексировны с www, на что умные люди мне ответили: не волнуйся, Яндекс всё сам поймёт и удалит их.

А теперь бугага!!! Страниц с www было 83, а теперь 965!!! Ну что умнеки, что на это скажите?

CunninGFox
На сайте с 05.10.2007
Offline
167
#1

мы скажем

Psihadelic:
бугага!!
и не иначе...
Комплексное продвижение сайтов: увеличение количества клиентов для Вашей компании. От 8.000 рублей. Возможна работа по договору и оплата по безналу. Пишите: seo@sergeus.ru
[Удален]
#2

И не иначе!

S2
На сайте с 07.01.2008
Offline
611
#3

Давайте сначала:

1. Вы составили роботс, со следующим текстом?

User-agent: Yandex

Disallow:

Host: site.ru

2. Число страниц с www возросло. Это могло быть только в том случае, если сайт до этого был непроиндексирован полностью. www исчезнут, после прихода зеркальщика который сверит оба варианта сайта и с www исключит из индекса. Для сверки - требуется полная индексация сайта и с www и без www. Так, что ждите. Может занять несколько месяцев.

Если надо быстрее - можете принудительно исключить сайт из индекса. Затем поставить редирект с www на без www и ждать новой индексации.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
angr
На сайте с 11.05.2006
Offline
413
#4

Psihadelic, плин, вы думаете Яндекс сидит и ждет только ваших команд, ему больше делать нечего? такие процессы у некоторых месяцами проходят...

Требуется СЕО-Специалист в Кишиневе, в офис. ()
Ёхан Палыч
На сайте с 07.05.2006
Offline
169
#5
Psihadelic:

User-agent: *
Host: seo-cranking.net
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /print:page

В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву 'Host' необходимо добавлять в группе, начинающейся с записи 'User-Agent', непосредственно после директив 'Disallow'('Allow'). Аргументом директивы 'Host' является доменное имя с номером порта (80 по умолчанию), отделенным двоеточием.

Так что, Psihadelic, Вы не правы.

B
На сайте с 20.08.2008
Offline
134
#6

ТС - не слушайте "умных людей" - даж в хелпе чёрным по белому значится

- напрямую пишите Платону! Была похожая проблема. На двух сайтах. С интервалом в полгода.

Оба раза писал в саппорт (тема - "Неверно определяется главное зеркало сайта") - спустя пару автоматических ответов всё вставало так, как надо. И ещё есть два сайта, письмо о которых отправлено не было - до сих пор ждём "О великого-всемогущего-зеркальщика, который всё поймёт сам и обратит вниманимание на ненужную переменную в роботс.тхт" и смотрим на "Проиндексировано 2 страницы". Но о них писать боязно - ГС.

[Удален]
#7

Burbot, Хм, интересно, спасибо

A1
На сайте с 16.02.2006
Offline
143
#8

Недавно же тема была - здесь

с уважением, Алексей
Kirik
На сайте с 13.04.2006
Offline
266
#9

Не хочешь ждать зеркальщика, прописывай в .htaccess 301 редирект и все что тебе не нравится уйдет в ошибки а новое со временем появится в индексе, но учти, что беки и тиц могут не переклеится для яши.

И на будущее, всегда планируй такие вещи, определится за 5 минут или ждать несколько мес дело твое.

~~ Продвижение сайтов (https://kirik.pro/) ~~ PRPosting.com (https://prposting.com) - ссылки под бурж, 100+ стран, 45000 доноров, партнерка с 5% от трат ~~ Копирайтинг и рерайтинг (https://wordfactory.ua/)
Alexey Levin
На сайте с 17.07.2007
Offline
188
#10

Чувак явно хамит, а вы продолжаете ему советы давать.

Гнать поганой метлой таких :(

Один поисковый запрос занимает больше вычислений, чем отправка человека на Луну.
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий