Смешной сон, но очень конструктивный. Все четко и по делу. :) Теперь в каждой сео фирме надо создать секретный отдел, где будут работать сновидцы. ☝ Как полицейские пользуются услугами экстрасенсов, так и оптимизаторы будут содержать армию спящих толкователей алгоритмов и платить им за сон в рабочее время. :)
Нет. :) у меня в топе есть разные сайты.
В моем случае, догадываюсь что, виноваты внешнии ссылки с внутренних страниц на главную, с однословным анкором, имеющим точное вхождение в ключевик. Хотя такие ссылки и окружает разный текст. (Для двусловных ключевых, у меня, ситуация обратная, при тех же условиях они стремительно ползут вверх.)
Пару апав подожду чтоб убедиться - не глюк и буду пробовать удалять либо "разбавлять" такие ссылки. Может их фильтруют. Вот и узнаю. За период радео были разные штуки и необяснимо падал и так же возвращался.
В ап не в ап.. все равно.... У меня такая же ситуация сразу по трем однословным ключам вылетел во второй десяток после позапрошлого апа. В прошлый ап поднялся на несколько позиций и в этот застыл. Вообще у меня 10 первых позиций в этот апдейт по тем ключам не изменились.
И вообще, НЕ правильно ты его составил... скопируй то, что я тебе написал и будет счастье. :)
Для начала переименуй файл. НЕ robot.txt а robots.txt ssssss sss в конце.......
Да вводи url www.alfameds.ru
Не правильно... Host понимает только Яндекс. Правильно будет так:
User-Agent: Yandex
Disallow: /links.htm
Host: www.alfameds.ru
User-Agent: *
Вот:
http://www.yandex.ru/cgi-bin/test-robots - Robots.txt глазами Яндекса
И еще вот тут почитай: http://robotstxt.org.ru/ - Все о роботсе :)
Все просто... создаешь файл в блокноте robots.txt
Пишешь в нем:
User-agent: Yandex - только для Яндекса (все остальные роботы будут игнорировать)
Disallow: /cgi-bin - запретить к индексации на сайте. (по инструкции должна быть хотя бы одна такая строка) Здесь пишешь, что робот Яндекса не должен видеть.
Host: www.site.ru - сюда пишешь зеркало, которое Яндекс должен считать главным (имеет значение с www или без)
Помещаешь файл в корневой каталог, чтобы от был доступен по адресу site.ru/robots.txt
Спасибо всем. 🍻 Теперь я разобрался в теме.... до следующих баянов :)
Для регистрации в каталогах и продвежения я использую серкало в зоне ru. Домен su нужен только из-за красивого имени, которое совпадает с названием компании. (в других зонах занято). Он нужен был только заказчику для размещения на печатной рекламе.
Только к регистрации или аннулируют и те, что уже зарегистрированы? Вообще официальная информация об этом была?