Quietmars

Рейтинг
12
Регистрация
27.04.2007

Смешной сон, но очень конструктивный. Все четко и по делу. :) Теперь в каждой сео фирме надо создать секретный отдел, где будут работать сновидцы. ☝ Как полицейские пользуются услугами экстрасенсов, так и оптимизаторы будут содержать армию спящих толкователей алгоритмов и платить им за сон в рабочее время. :)

Михасик:
А по каким однословным ключам все на месте, так ведь? :) Причем у меня такая ситация даже по этому сайту, другие ВЧ однословные немного упали, щас вроде поднялись, а этот как будто заболел :)
Нет мыслей? Глюк, или яндекс помалешку выкидывает из топа старичков :)
Решили освежить его маленько :)

Нет. :) у меня в топе есть разные сайты.

В моем случае, догадываюсь что, виноваты внешнии ссылки с внутренних страниц на главную, с однословным анкором, имеющим точное вхождение в ключевик. Хотя такие ссылки и окружает разный текст. (Для двусловных ключевых, у меня, ситуация обратная, при тех же условиях они стремительно ползут вверх.)

Пару апав подожду чтоб убедиться - не глюк и буду пробовать удалять либо "разбавлять" такие ссылки. Может их фильтруют. Вот и узнаю. За период радео были разные штуки и необяснимо падал и так же возвращался.

Михасик:
Весело, сайт по продвигаемому однсловному ВЧ висел почти год в самом топе, 2-5 место максимум, пережил недавние изменения алгоритмов с небольшими проседаниями, потом вернулся. А тут вижу - в недавний ап, позапрошлый вроде ВДРУГ 29 место с 3-го, такого не было за все время, потом поднялся чуть выше, стал на 23-м, видел ещё несколько сайтов улетевших на пару страниц вниз, которые были рядом, ощущение что их подвинули ручками, хотя такого не бывает.
В итоге после сегодяншнего АПА сайт как был на 23-м месте, так и остался.

Может кто что сможет подсказать?
Сайт двигается хорошими мордами по данному ключу, плюс порядка 1000 ссылок мелких в сапе, правда пару раз прое%%л оплату сапа, хотя врятли из-за этого, вроде не в АП было.

Может кто что знает по данному поводу или была такая ситуация в это же время?
Спасиб.

В ап не в ап.. все равно.... У меня такая же ситуация сразу по трем однословным ключам вылетел во второй десяток после позапрошлого апа. В прошлый ап поднялся на несколько позиций и в этот застыл. Вообще у меня 10 первых позиций в этот апдейт по тем ключам не изменились.

И вообще, НЕ правильно ты его составил... скопируй то, что я тебе написал и будет счастье. :)

Vitiai:
а что туда вводить URL?

Для начала переименуй файл. НЕ robot.txt а robots.txt ssssss sss в конце.......

Да вводи url www.alfameds.ru

Vitiai:
вот оцените прописал робот.txt правда не знаю правильно

Не правильно... Host понимает только Яндекс. Правильно будет так:

User-Agent: Yandex

Disallow: /links.htm

Host: www.alfameds.ru

User-Agent: *

Disallow: /links.htm

Vitiai:
а как проверить все ли правильно написано в нем и работает ли он?

Вот:

http://www.yandex.ru/cgi-bin/test-robots - Robots.txt глазами Яндекса

И еще вот тут почитай: http://robotstxt.org.ru/ - Все о роботсе :)

Все просто... создаешь файл в блокноте robots.txt

Пишешь в нем:

User-agent: Yandex - только для Яндекса (все остальные роботы будут игнорировать)

Disallow: /cgi-bin - запретить к индексации на сайте. (по инструкции должна быть хотя бы одна такая строка) Здесь пишешь, что робот Яндекса не должен видеть.

Host: www.site.ru - сюда пишешь зеркало, которое Яндекс должен считать главным (имеет значение с www или без)

Помещаешь файл в корневой каталог, чтобы от был доступен по адресу site.ru/robots.txt

Спасибо всем. 🍻 Теперь я разобрался в теме.... до следующих баянов :)

Для регистрации в каталогах и продвежения я использую серкало в зоне ru. Домен su нужен только из-за красивого имени, которое совпадает с названием компании. (в других зонах занято). Он нужен был только заказчику для размещения на печатной рекламе.

booch:
СССР уже давно как нет и поэтому их могут закрыть к регистрации

Только к регистрации или аннулируют и те, что уже зарегистрированы? Вообще официальная информация об этом была?

12
Всего: 13