wolf

wolf
Рейтинг
1183
Регистрация
13.03.2001
Должность
интернет-маркетинг, SEO
иногда - это когда...

Может, всегда, когда показывается description? У кого-нибудь есть контрпример?

Красным (иногда) выделяется ключевое слово, входящее в тег description, если он показывается в выдаче

Специально добавлю, что он берет не более 10-15 документов с хоста за проверку, и ничего не индексирует. Кроме того, он не является сам по себе "пауком", так что, в силу служебной необходимости, он вынужден работать с robots.txt несколько не так, как остальные роботы.

Так, еще один невежливый робот, который по мнению представителей Яндекса и не робот вовсе. :) Ладно, закладочник, который задает запрос не GET, а HEAD. Ну, с натяжкой, робот D, который обрабатывает сабмит через Addurl (т.е. запускается руками). Но зеркальщик-то ПОЧЕМУ НЕ РОБОТ по-вашему??? Только потому, что берет за один заход всего 10-15 страниц??? Невежливых агентов, проверяющих позиции сайтов в выдаче Яндекса, которые за заход заберут 10-15 страниц, вы ведь роботами наверняка посчитаете и дадите отлуп за несоблюдение своего robots.txt!

На всех этих поддоменах (о Суперджобе ведь речь, да?) абсолютно идентичная информация. Они все отличаются от главного сайта наличием блока со ссылками на последние вакансии и резюме, но на самих поддоменах информация в этих блоках та же самая.

Не на всех. У поддоменов стран СНГ показываются вроде только свои вакансии и резюме. А вот на окружных российских поддоменах действительно все вперемешку. Вообще, это вопрос интересный - считать ли поддомен самостоятельным ресурсом с уникальной информацией, если он содержит только ту информацию, которая есть на основном сайте, всего лишь отфильтрованную по некоторому признаку?

Увы, нет. Это обсуждалось неоднократно. Если бы удаляли, то был бы отличный способ удалить всех конкурентов.

Мне известны случаи, когда Яндекс банил сайты, на которые вели редиректы

Правильно, лучше объявление в Гугле повесить "I want to buy notebook"

Памятуя недавний разговор, лучше такое объявление: Does anybody want to say to me "Sasha, buy notebook from us. PLEASE" :D

Кстати, г-н melkov, давно мучил вопрос. У вас в советах вебмастеру написано:


Если у вас сервер Apache, то можно вместо использования директивы Host задать robots.txt с использованием директив SSI:

<!--#if expr=" \"${HTTP_HOST}\" != \"www.главное_имя.ru\" " -->
User-Agent: *
Disallow: /
<!--#endif -->

В этом файле роботу запрещен обход всех хостов, кроме

www.главное_имя.ru.

То есть сайты, которые по мнению вебмастера должны считаться неглавными зеркалами, должны закрыться от индексирования файлом robots.txt. Допустим, до закрытия от индексации они были были проиндексированы, склеены и все такое. Предположим, что затем содержимое одного из второстепенных зеркал изменяется. Но Яндекс, по идее, не может узнать об этом, так как ему запрещена индексация этого зеркала. И, стало быть, два различных сайта будут продолжать считаться зеркалами со всеми вытекающими. Или же роботу-зеркальщику robots.txt не указ и он будет периодически проверять запрещенные к индексации зеркала?

Сейчас вроде бы не делает.

Делает.

Я предполагал, что самое правильное время - часа три-четыре дня. Это хороший повод сбежать с работы пораньше

А так можно сбежать с работы на весь день :)

Вот я не понимаю, так можно делать?

Раз делают, значит, наверное, можно. Это ж модерируемый каталог и, стало быть, сами редакторы позволяют такое.

Всего: 24501