Фильтр был снят при помощи инструмента отклонения ссылок?
а как распределялись ссылки по сайту, на сколько страниц они шли? Что насчет анкор-листа и скорости закупки?
Может вы уже как-то вывели сайт из под санкций Гугла при помощи своей же проги и технологии?
Вообще немного не по теме Фаст Траста, но все же... По-моему из такого опыта получилась бы очень хорошая статья для вашего блога.
У одного небольшой белого сайта из 35 страниц осталось 3 в выдаче. Платон сказал, что с сайтом все ОК и скоро он должен появится в индексе. Может хостинг лажанул, правда еще, во время обхода роботом.
все у меня вышло. Сколько вы сайтов просеяли, чтобы найти 2 100 сайтов с трастом 60 - 100 ? И что насчет спама? Я просеял в сапе около 60 000 сайтов на данный момент (причем по не слабому фильтру), из них с параметрами траст>60 и спам<5 (одновременно) около 600. Получается толковых сайтов около 1%.
Более масштабные исследования делал автор проги, у него примерно такие же результаты по % хороших сайтов. Так что считаю, что все в меня получается ;)
Избавился при помощи инструмента от санкций Google за Г-ссылки
Отправил в инструмент отклонения ссылок 80% ссылочной массы. Импортировал всю сапу (кро сапы еще прилично ГГЛ и миралинкс покупал) + по базе solomono все экспортировал. Удалил пересечения.
В файл отклонения попало 80% от этой ссылочной массы (365 ссылок). Выбирал с трастом ниже 10 и спамом выше 5 (и то и другое, а не одновременно).
Всего через неделю пришел ответ от Гугла, что санкции сняты. Буду теперь наблюдать за позициями и трафиком.
Могу помочь с отсевом низкокачественных ссылок, пишите на promoprosperity@gmail.com
victim, скажите, а как скоро планируется интеграция с биржами? В частности с sape больше всего интересует.
Я понимаю, но это тоже не панацея. При покупке вечных ссылок я обязательно еще ручками смотрю.
Провел небольшое исследование.
Ссылки из сапы по следующему фильтру:
Потом взял 1 600 ссылок из rookee, которые были куплены по очень слабенькому фильтру. Тут цель была добить кучу НЧ для трастового сайта большим количеством дешевых ссылок.
А также весь миралинкс и ГГЛ. Вот что вышло:
Как видно качество гоугетлинкс и миралинкс значительно лучше, нежели у сапы. Ссылки по дешевому фильтру из руки ужасные просто. В целом все логично, что говорит о том, что прога работает адекватно.
"Самые лучшие" добавлял везде в белые списки покупал по ним ссылки, просматривая дополнительно их вручную. В сапе из этих лучших не менее 50% откровенных ГС и еще 20-30 просто ГС, остается совсем не много тех, где стоит взять.
В гоугетлинкс получше, конечно, но тоже попадаются сайты не очень из списка лучших. В миралинкс пока еще не закупался по своему списку лучших.
Вывод: самые лучшие сайты по параметрам проги не такие уж и хорошие.
В целом прогу скорее стоит рассматривать как отсев самых ГС и формирование блек листов. Как инструмент для отбора качественных ссылочных доноров данный софт может работать только при очень сильной интеграцией с мозгом.
А почему некоторые значения тиц и PR жирные?
Скажите, только ограничение по ip уже достаточно для 100% защиты от взлома?