Это происходит во время апдейта, но никак не между ними.
И того и другого. Индекс быстроробота - это отдельный индекс, который обновляется между апдейтами раз в несколько часов.
Ну можете попробовать задобрить его чем, глядишь и согласится. :)
По теме - это невозможно. ;)
Romanuser, происки быстроробота это. ;)
Служба поддержки Яндекса своими силами зеркала сайта не клеит, как собственно и не расклеивает. Можете написать и получить ответ, который уже давно известен.
По теме - поставьте 301 редирект, если хотите ускорить процесс склейки зеркал, на зеркало, которое хотите сделать главным. Директиву Host прописать в robots.txt будет тоже не лишним. ;)
art11, решение задачи тоже простое. ;)
Прописать на сайте aaa.ru в robots.txt директиву Host, если ещё не прописана, с указанием, что aaa.ru - главное зеркало, и ждать.
Процесс склейки / расклейки зеркал может занимать до 4-х - 6-ти недель, ускорить его нельзя.
По умолчания Яндекс выдаёт выдачу по всем регионам.
По той же причине, что и в ответе на первый вопрос. (см. выше)
Яндекс автоматически определяет, в каком городе находится компьютер, с которого поступил запрос, и, если уточнение по региону имеет смысл, предлагает повторить поиск, ограничив его сайтами данного региона.
Zanaf, текст из метатега "description" не является обязательным к показу, даже если на 100 % соотвествует запросу и контенту страницы.
В Яндексе текст из "description" показывается всегда, если пользователь, являясь зарегистрированным в Яндексе и авторизированным, в настройках поиска явным образом указал, что хотел бы видеть описание всегда, в независимости найдены фрагменты текста с запросом в контенте или нет.
Кажется, по наблюдениям, если найдено вхождение в текст, то Яндекс старается выбирать самые длинные и самые релевантные пассажи с этим вхождением, исключая случаи вхождения запроса в текст какой-нибудь ссылки на странице (в этом случае приоритет похоже уходит на пассаж с этой ссылкой).
Kirik, он даёт установку всем роботам тогда, когда нет инструкции для роботов конкретных ПС.
Повторюсь, в приведённом Вами примере выше для робота Яндекса ничего не запрещается.
Фига себе, ничего из ряда вон выходящего. Ну-ну...
spanchbob, Вас кто учил так составлять файл robots.txt? Допускается только одно правило вида User-agent: *. Ваш robots.txt составлен с ошибкой, ничего удивительного, что Яндекс отказывается следовать рекомендациям в нём и индексировать Ваш ресурс.
Угу, только роботу Яндекса он ничего не запрещает.
spanchbob, пропишите правильный robots.txt и советую ознакомится с правилами использования robots.txt во избежании недоразумений в следующий раз. ;)
User-Agent: Yandex Disallow: /shop/ Disallow: /kupitut.php?my=1& Disallow: /baner/ Disallow: /geometry/ Disallow: /hmsms/ Disallow: /image/ Disallow: /jpisms/ Disallow: /lib/ Disallow: /libs/ Disallow: /narodsms/ Disallow: /sky/ Disallow: /skyform/ Disallow: /sms/ Disallow: /sms_chat/ Disallow: /smsbox/ Disallow: /smsmusic/ Disallow: /test/ Disallow: /tmp/ Host: smstut.ru User-Agent: * Disallow: /shop/ Disallow: /kupitut.php?my=1& Disallow: /baner/ Disallow: /geometry/ Disallow: /hmsms/ Disallow: /image/ Disallow: /jpisms/ Disallow: /lib/ Disallow: /libs/ Disallow: /narodsms/ Disallow: /sky/ Disallow: /skyform/ Disallow: /sms/ Disallow: /sms_chat/ Disallow: /smsbox/ Disallow: /smsmusic/ Disallow: /test/ Disallow: /tmp/
Harryson, Антох, бан наврят-ли. Про бан и пессимизацию сразу пишут. Если действительно есть за что налагать, то это автоматический фильтр. Если нет, то глюк.
Хорошо искал дубли и элементы спама на страницах? Может скрыты где.
Вообще странно, обычно стараются не навредить сайту в целом, если на каких-то страницах присутствует спам, налагая фильтры на эти страницы или разделы, а тут полностью из индекса выкинули. Если не глюк, то что-то очевидно серьёзное.