Гуглы сами придумали алгоритм, базирующийся на ссылочной популярности. Тем самым они создали рынок ссылок, с которым не могут бороться. И пока не разовьется достойный LSI-алгоритм, или итерации имеющихся не достигнут частоты 1 раз в сутки - доры будут рулить.
Джентльмены, а о каких гуглах речь? .ком.уа и .ру? И о како-язычных сайтах? Может Гугл "проапгрейдил" локальные алгоритмы?
Читая такое поневоле вспоминаешь патент, выложенный на Seo By The Sea, где предлагается алгоритм, при котором вебмастер не сможет просчитывать результаты своих действий. По сути - рандомизация выдачи в заложенных пределах. Хитро, однако... Делаешь что-то что должно помочь, а вместо роста сайт тонет, а эффект от улучшений откладывается во времени, причем время задержки тоже устанавливается рэндомли в каких-то пределах Потом откатываешь "неудачный" апдейт и закупаешь ссылки, видишь рост, который со временем сменяется падением. Таким образом вебмастеру становится совершенно непонятно, каким же образом продвигать сайт, что по задумке авторов алгоритма должно похоронить все сайты, кроме СДЛ-ов, развивающихся невзирая на позиции. В патенте не указано, но между строк прочитать можно, что таким образом вся коммерция загоняется в АдВордс, ибо кому, кроме какой-нибудь Католической Диоцезии города Санта-Моника, захочется развивать сайт не смотря ни на что...
Подпишусь. Не трогай г..но - оно и вонять не будет.
А лучше не делайте ничего! Серьезно. Письмо счастья не приходило? Сайт продвигается по плану? Тогда не трогайте ничего. Лучшее что пока можно сделать - это прикинуться ветошью и не отсвечивать.
По этой теме возникает вопрос: а как Гугл относится к субдоменам? Он их считает совершенно отдельными сайтами? Ведь если да - то тема классная.
Не всегда. Ведь когда-то общеизвестные методы оптимизации тоже были "темой."
Делаем файл disavow.txt. В нем пишем одну строку:
domain:frodio.com
Идем на Disavow Links Tool (ищем через гугл, переходим по ссылке, логинимся в наш WMT), выбираем нужный домен, жмем кнопки "Disavow Links," выходим к окошку загрузки, загружаем наш disavow.txt. После этого в WMT приходит письмо "Disavowed links updated."
Как уже сказал Proofer, одно не исключает другое. Тул помогает выйти из под manual фильтра.
То что происходит можно назвать назвать началом эпохи доров. При таких фильтрах зачем продвигать хороший сайт, если он будет как кот Шредингера? В один момент вы наблюдаете живой сайт, приносящий прибыль, в следущий момент он уже зафильтрован неподъёмно.
конечно не будет. потому и "воздалось" в кавычках
А на каком отрезке времени?
А с чего верить оф. информации? Доказательств неверности оф. информации по другим тематикам - куча. Почему верить этой? Зачем гуглу показывать сайт, который пытается его на..ать? Для вида он может сохранить позиции на короткий промежуток времени, но потом точно утопит.