Судя по тому, что в последнее время происходит с Сапой, поисковым системам не придется бороться с биржами ссылок. В частности, Сапа успешно поборет сама себя.
Мда... из серии "пособие по анатомии SEO". К сожалению в топах такие сайты далеко не редкость.
Просто поменять местами слова не прокатит. Поищите рерайтеров, нормальный рерайт можно за 2 бакса (2000 символов) сделать. На других не смотрите, старайтесь сами делать так, чтобы как можно меньше могло быть каких-либо подозрений. Сегодня они спокойно складируют неуник, а завтра их ПС за это накажет.
Так что рерайтить однозначно. На западе вон Гугл даже рекомендует это вебмастерам, если они копируют откуда-то текст - делать небольшой рерайт.
Складывается ощущение что у Сапы там тоже смена алгоритма назревает. Кодовое название: "Мухосранск". В последнее время с системой вообще практически не возможно стало работать. 504 ошибка вылезает уже ЧАЩЕ, чем, собственно, рабочий интерфейс.
Анализ доноров ссылок. Как предварительный, по большому ряду параметров, так и пост-анализ (уже по факту размещения ссылок), отслеживание всего происходящего с донором в динамике (там тоже много чего можно мониторить). В принципе у самого план разработки подобного софта под себя есть, но в открытом доступе нетц почти ничего.
Есть Promopulse.ru и в Seopult есть модуль съема, но у них, на мой взгляд, довольно ограниченный набор параметров проверки. Возможно, пока.
Анализ доноров наверное самая актуальная тема и проблема в SEO на сегодня.
Народ, я конечно извиняюсь...но вообще-то, абсолютно ВСЕ что мы делаем в рамках поисковой оптимизации - это СПАМ. И аргументов против этого быть не может. Да, мы спамим, а что еще делать-то??
А делить спам на "хороший" или "плохой" ИМХО ханжество:)
Слушай, ТС, а вообще-то - респект тебе) Кому как, а мне сервис может быть очень даже небесполезен, так как других способов определять "любовь" бота к площадке я не знаю.
petruxa добавил 25.03.2009 в 23:47
На Нетпромотере как раз Садовский отвечал по поводу XML и сказал, что по крайней мере в ближайшие несколько месяцев отключать его не планируется.
Вопрос ТСу на засыпку: скрипт определяет "трастовость" сайта как чего?? Как донора? Как акцептора? Это ведь не совсем одно и то же (хотя связь наверное и есть). Что вы лично понимаете под "трастовостью"?? (опустим, что это может не совпадать с мнением Яндекса).
Я, в принципе, тоже за теорию Вульфа, но мне также почему-то кажется, что некая корреляция между качеством сайта как реципиента и его качеством, как донора все же есть. Т.е., если на тебя ссылается куча всякого Г, то и шансы твои стать хорошим донором также падают.
И я сомневаюсь, что ссылки на Яндекс, Гугл или Вики что-то сильно сайту прибавят)) Как в том анекдоте, типа из серии "Кто на нас с Мишей??!"...
Да вообще-то, ничего странного. Я, например, если сайт новый, первое время после оптимизации вообще ничего не делаю - жду, как ПС на него отреагирует, что ей "понравится". А потом уже начинаю действовать, потихоньку и аккуратно наращивая ссылки.
А клиентам, которые хотят в ТОП за месяц... идут на*уй! Или в 2БД - они там за 2 недели продвигают...)