Вот Вы, ТС, в статье говорите о непоте в первую очередь как о фильтре на продажные морды, это не совсем так. Если Вы знаете, то термин "непот" был введен как фильтр на беспричинно ссылающиеся друг на друга сайты, типа ты мне я тебе, т.е. обмен, а не продажа.
Про Гугл. В Гугле не так мало автоматических фильтров, как нам может показаться. Я где-то читал, что Гугл автоматом определяет не только обмен, но даже короткие кольца. Это по Вашему не сложная задача?
Теперь об автоматизме и продажных ссылках. Конечно 100% автоматом не выявить продажную ссылку, но если сделать все грамотно, то большинство скорее всего можно пропустить, а не наоборот - попасть под нож нормальным сайтам.
Вот возьмите, например, биржу по продаже ссылок. Есть продавцы есть покупатели. Покупатель купил несколько ссылок с разных сайтов, продавец продал ссылки с сайта разным покупателям. Т.е. образуется два сообщества, которые интенсивно ссылаются одно на другое, в общем случае одно сообщество продавцов и покупателей интенсивно ссылающихся друг на друга.
Продажных сайтов не так много, по некоторым оценкам их меньше 5%. Как вы думаете возможно автоматом выявить 5-10% сайтов интенсивно ссылающихся друг на друга?
Вы говорили, скажите мне как программист программисту. Я Вам скажу, что зависит от программистов, которые решают эту задачу. Кому-то она может быть в полне под силу.
Я бы чуть уточнил :)
Используйте ссылки что бы безвозмездно рекомендовать к посещению сайты, которые этого с Вашей точки зрения заслуживают.
Если говорить про саппорт, то у них возможно и нет этих "кнопок" про ссылочное. Могу себе только представить сколько там разных факторов корректирующих ссылки в алгоритм заложено. Это мы просто все "непотом" зовем.
Ну, Садовский подтверждает же, что в Яндексе накладываются разнообразные фильтры на ссылки.
Но еще раз уточню, сомневаюсь, что они будут возиться в ручную со снятием этих фильтров.
Не знаю, снимается ли он автоматически.
Прежде чем чего-то снимать в ручную нужно написать письмо Платону - применялись ли к сайту какие-то санкции. И при подтверждении, принимать меры и еще раз писать, что все устранено. Это работает. Это стандартный путь по пессимизации и бану.
В данном случае самому сайту от непота вроде ущерба нет (кроме выгоды от продажи ссылок :). Кроме того, этих фильтров (типа непота), я думаю, столько в инете Яндексом наложено, что сомневаюсь, что Яндекс в ручную будет с ними разбираться.
Да нет же. Заставить склеить Яндекс два зеркала нельзя. В том числе через robots.txt. Яндекс склеивает два сайта, т.е. считает их зеркалами если они содержат одинаковый с его точки зрения контент, причем не обязательно полностью одинаковый.
А HOST в robots Вы правильно говорите, указывает на главное зеркало, но имеет она смысл только после того как Яндекс уже посчитал (склеил) их зеркалами.
Кстати HOST влияет не на все поисковики, а только на Яндекс.
Добавление Host в robots.txt - это не склеивание. Так что я клеить через robots.txt не предлагал.
Я не предлагал склеивать роботсом. Я предлагал выбрать основное зеркало, если они уже поклеяны Яндексом.
Согласен, что ситуация интересная.
Сайт может быть и в папке.
albion, как Вы считаете если Яндекс проиндексировал www.cyber66.org/bbs
а потом встретил зеркало на com.cyber66.org Яндекс их не склеит?
Принимается :)
Только Вы пишите о том, что предпочтительнее, а это не совсем верно. Бот вообще не должен воспринять такую конструкцию (http-equiv=keywords), она синтаксически не верна.
То, что в спецификации написано, что http-equiv может использоваться вместо атрибута name - это означает в данном случае, что по синтаксису может быть или http-equiv или name, но возможные значения у этих аттрибутов совсем разные!
Если говорить более точно, то там однословный энциклопедический запрос. Термин-операция. А title говорит о коммерческом предложении этой операции.