Ziby

Рейтинг
69
Регистрация
23.05.2007
Megavolt:
вы можите это доказать? вы лично проверяли реализацию парсера robots.txt программистами всех ПС?
развелось советчиков...

Megavolt, уважаемый, специально для Вас, из достоверного источника. ;) Речь о Яндексе, но что-то сильно сомневаюсь, что в других ПС присутствуют отличия в этом моменте, да и на своём опыте это вижу. Можете проверить, кстати. Нестандартная директива в секции не мешает роботам других ПС не индексировать, то что я запретил.

melkov:
1. Правила robots.txt:
Любая неизвестная директива просто игнорируется и никак не влияет на парсинг остальных директив в секции. И до, и после неизвестной директивы.

2. Яндекс-индексирующий робот:
Директива Host сейчас не используется. Хотя, вообще говоря (на случай, если вдруг будет использоваться), валидны все директивы Host.

3. Яндекс-робот-заркальщик:
Используется первая директива Host из встретившихся.

Ну а лично проверять, во-первых, не вижу смысла, когда первоисточники об этом говорят. А во-вторых, могу Вам по опыту сказать, что это так, ибо с обратным явлением не встречался.

akkawa:
Вообщем яндекс понимает - User-agent: * - или к нему надо именно обращаться как - User-agent: Yandex ?

akkawa, без разницы. ;)

User-agent: *
Disallow: /catalog
Host: moyhost.ru

Этой записи более чем достаточно для роботов всех ПС.

Предупреждая возможные вопросы об игнорировании секции с директивой host другими ПС, как не соответствующей стандартам, могу сказать, что любая неизвестная директива просто напросто игнорируется и, собственно, никак не влияет на парсинг остальных директив в секции. И до, и после неизвестной директивы.

Skreaper, не зная Вашего сайта (хотя бы адрес написали что-ли), лично у меня вариантов как минимум три:

1) Ваш сайт отвязался от присвоенного ему ранее региона.

2) Ваш сайт попал под санкции.

3) Изменения алгоритма ранжирования Яндекса от 20 декабря 2007 года, в следствии чего позиции Вашего сайта заметно просели.

Как посоветуете поступить?

Проверить 1-ый вариант, если всё гуд - проверить 2-ой (письмом в службу поддержки, не все санкции признаются имейте ввиду), если и там всё гуд, то ищите причину в новом алгоритме. ;)

вот только уже много раз обсуждалось, что за внешние факторы хуже быть не может.
поэтому даже самый дурацкий прогон, у самого криворукого школьника на этом форуме, хуже Вашему ресурсу не сделает...ну никак...ну вот совсем никак

T0][@, ошибаетесь. Сейчас фраза, что "за внешние факторы хуже быть не может" ну не совсем корректна, в настоящее время может быть хуже, это так. И "дурацкий прогон" ещё как может повредить, в большей мере это справедливо для новых ресурсов, можно запросто загадить анкор-лист, что в итоге выльется в очень серьёзные проблемы при их продвижении.

Seompson:
Maximus325, спасибо.... что сказали, что БГ в одноклассниках настоящий...

П.С. пойду друзьям - любителям БГ сообщу хорошую новость

Seompson, желаю успеха вашим друзьям в поиске настоящего БГ среди десятка его клонов. :)

DENIEL:
И если Яндекс выдаст донор и реципиент, то ссылка роботоспособна.

А вот это далеко не факт.

DENIEL, я не в упрёк Вам, но для определения непота инструмента, который Вы предлагаете, не достаточно. И в руках не подготовленного пользователя он может сослужить плохую службу.

pechatiplus:
... если смотреть через бар, то яша не знает его регион, но этот сайт без проблем появляется в выдаче при включенной галочке "в петербурге".

pechatiplus, через бар регион показывается, если он был проставлен вручную. ;)

pechatiplus:
Если кто знает как ещё можно дать знать яше о регионе сайта?

- регистрация сайта в Каталоге Яндекса, в сервисе Яндекс Адреса, в региональных каталогах-партнёрах Яндекса.

- употребление кода, название города, почтового индекса, названия уникальных улиц на большом количестве документов.

- использование названия региона в имени домена (domain-nsk.ru, spb-domain.ru и т.д.) или географического домена второго уровня (nsk.ru и т.д.).

- принадлежность диапазона IP к определённому региону или IP хостера к конкретному городу.

Имейте ввиду, что при определении региона должно совпасть несколько факторов, чтобы сайт привязался к нужному региону (городу).

UPD: Нашёл полезную инфу по этому вопросу - продвижение в регионах, доклад на конференции. ;)

Volkpanda:
две недели это аргументированный срок начала работы ссылок?

Volkpanda, ссылка должна начинать работать, как только попадает в основной индекс. Собственно так и происходит. Только вот попадание донора со ссылкой в основной индекс и попадание текста ссылки в анкор-лист акцептора, не всегда происходит одновременно. Очень часто наблюдаю как работоспособность ссылок сразу после попадания в основной индекс, так и после второго, третьего апа, а в некоторых случаях и дольше.

С чем связано? Хз. Возможно здесь, имеет место какая-то рассинхронизация времени попадания текста ссылки в анкор-лист и, собственно, самой ссылки в основной индекс, возможно ещё что-то. Но уж точно не «временной фильтр на ссылки».

78218:
Вроде всё сделали как доктор прописал - результата нет.

Уменьшите количество слов "и" и "в" до количества меньшего чем "фильмы" и "скачать". А затем займитесь внешними факторами, если не занимались. Или Вы действительно верите, что продвинетесь в топ только за счёт внутренних факторов по такому запросу?!

Ключевые слова, Титл, подписи к картинкам, ссылкам. Вобщем постарались все советы учесть.
stomler:
Ziby, вот-вот, мне бы грань определить! нет каких-нибудь процентных значений?

А это к вопросу об оптимальной тошноте документа, которой нет.

Могу Вам так сказать, что чем больше тошнота (определяемая ключевиком) для естественных, сделанных для людей документов, тем однозначно лучше.

А вот для сделанных не для людей. Там что 20, 30, 40, что 50 (количество самого частотного слова) практически всё равно. ;)

Всего: 1015