Доклад видел, а где можно найти расшифровку ответов?
Там можно по-разному трактовать, вообще Садовский сказал, что есть люди, которым могут нечестно продвигать сайт и они типа не в курсе, поэтому впервые мы разошлем предупреждения через ВМ. О регулярности таких рассылок пока можно только догадываться, но вообще похоже на последнее предупреждение, типа снимайте сейчас, потом будет поздно.
Странный вопрос, конечно же теоретически, пока минусинск не включили и нет результатов, возможна только теория. По поводу писем, насколько я помню, рассылка вообще одноразовая, сугубо рекомендательного характера, мол успейте снять ссылки. Потом, после запуска, никаких писем уже не будет, сразу минусинск и надолго.
Проверяем естественность написания анкора, правильно? Если анкор кривой и окружение не в тему, то отмечаем как сео. Если таких ссылок допустим более 90% от общего числа, то акцептора под фильтр, а доноров в базу продавцов ссылок. Логично.
А вот по накруткам на конкурентов все сложнее, визардов будут использовать для того, чтобы "валить" конкурентов. Топ2 будет покупать ссылки на топ1, топ3 на топ2 и так далее. Эффект будет хоть и отложенный, но гарантированный :)
По поводу директа и нищеты в офисах - никто никуда не денется, и в директ будут лезть и ссылки все равно покупать будут, но аккуратно и уже скорее в ручном режиме. Сразу начнутся продажи инфопродуктов из серии "Как покупать ссылки и не попасть под минусинск" и т.д.
А более развернуто? :)
А кто-то барыжит закрытыми ссылками? :) Ссылкопомойка будет в том случае, если будет много неестественных анкорных ссылок сильно разной тематики.
Руками? Не, это не наш метод :) Во-первых, большие объемы, во-вторых делать это надо регулярно, в-третьих, процесс должен быть формализованным, контролируемым и с возможностью быстрого отката и т.д.
Предложите свой вариант - обсудим :)
Задач там сразу несколько, вот они и хотят решать их комплексно. Посмотрим, конечно, но сдается мне, что зверек этот не такой уж и страшный, как рассказывает Садовский. По словам похоже на злого голодного медведя, а окажется скорее всего просто злобным хомячком :)
Да, судя по всему, Гугл анализировал именно анкоры ссылок. Определенная логика в этом есть, ведь чем естественнее анкор, тем вероятнее, что сама ссылка естественная, а не покупная. Например, автомобильный сайт, статья про новую машину, в комментариях идет обсуждение, кто-то пишет, что на этой машине можно без проблем доехать до Тюмени. В другом комментарии кто-нибудь отвечает, что в этой Тюмени делать нечего. Третий пишет, что есть что делать, но есть нюанс, мол на всю Тюмень есть всего две приличных гостиницы и дает ссылки на сайты гостиниц с анкорами "гостиница раз" и "гостиница два". По всей логике такие ссылки не особо хорошие - и тематика мимо и сама ссылка не в основном тексте. Зато по анкорам все естественно, можно признать нормальными эти ссылки :)
Соглашусь, требуется большая выборка для анализа бэклинков, время на анализ и вычислительные ресурсы. С учетом этого есть у меня большое подозрение, что Минусинск нужен больше именно не как фильтр, а как повод заставить самостоятельно снимать плохие ссылки. Сейчас показательно зарежут несколько крупных сайтов и народ во избежание неприятностей начнет уходить с бирж. Если не начнет, то фильтр подкрутят в сторону ужесточения и повторят информационный вброс. Опять же показательно то, что Яндекс рассылает "черные метки" - письма с предупреждениями. Мол вы товарищи у нас на крючке.
По одной отдельно взятой ссылке никто со 100% уверенностью ничего не скажет, это же очевидно. Но можно оценить анкор, его частотность и естественность, можно оценить непосредственно сайт-донор (тематичность и т.д.) и где и как на нем проставлена ссылка. Дальше делается вывод о степени естественности ссылки. Если таких неестественных исходящих ссылок сильно много, то донор может помечаться как некачественный. И дальше если на сайт ссылается куча некачественных доноров, то это признак покупки ссылок на бирже. Как-то так в общих чертах. Вообще еще пишут, что если с одного компа заходить в аккаунты в вебмастере и на бирже, то это тоже легко палится.
И как аргумент - у Гугла подобный алгоритм вполне себе работает, хотя вопросов к нему тоже достаточно.