http://www.getvn.com а этот почему не банят и не фильтруют. И ему подобные? :o
За такое разве не банят?) Весь контент через парсер и висит, даже еще как висит, диву даешься, прям кто-то из сотрудников гугла.)))
одним анкором валит. Ссылки видны быстро через яшу, так как ресурс был трастовый.
InterMaster добавил 09.02.2011 в 01:13
Сложно вычислить, так как подразумеваю, что когда он вылез наверх, то его кто-то начал гасить тем же способом, поэтому если начнешь мочить верхнего, то не факт, что это именно он и получается замкнутый круг. :)
Даже не знаю, что им ответить, еще полтора месяца будут задерживать с ответом на тот же вопрос, а потом опять про актуальность спросят.......😂
Ура, ответили! Послал письмо 11-го декабря 2010, а ответ пришел 28 января 2011. Ну и оперативность. 🚬
Вот что прислали:
Здравствуйте!
Приносим извинения за возникшую задержку в рассмотрении Вашего вопроса.
Уточните, пожалуйста, актуальна ли проблема в настоящее время?
--
С уважением,
Служба поддержки компании Mail.Ru
Не то место для понта. Порно деньги хужи дерьма в карманах. Вряд ли кому-то это даже интересно. 🚬
а сколько вы в день ссылок закупали интересно?
Пока это не показатель. Судя по скрину, то там всего 7310 стр. с такой лубудой, что очень мало, мог и из доп. выдачи его достать, раз очень релевантный запрос и походу ВЧ.=))
Гугль просто пока не видел, как увидит, то обязательно, что-нибудь подкрутит по показателям для яндекса, видимо уже стало столько ссылок на яндекс, что уже даже подкручивание
не помогает. 🚬
Раз сказали, то значит ищите. 🚬 Насколько я знаю, то хороших нет. Самый лучший это ручной рейрат. Где-то писалось, что синонимайзеры уже палят ПС, да и текст не читабельный получается, сразу понятно, если читать, что текст прогой обработан.
Однозначно не рекомендую для хорошего сайта, для ГС без проблем, если видите в этом смысл. 🚬
А я думаю, что его вообще трогать не надо, если сайт динамика, то рост будет происходить постепенно, а если статика и новый контент наполняется не в больших объемах, то будет примерно одинаково, поэтому стоит подумать о динамических страницах по теме самой целевой страницы, ну и о количестве самого нового контента. У меня даже без ссылок робот заходит 2 раза в день и шерстит больше половины сайта, ссылок для этого не закупается. Конечно, если преследуется цель увеличения просмотра страниц сайта роботом, но тут стоит уделить особое внимание уникальности контента или хотя бы его части.
Алгоритмы алгоритмами, но они только служат выявлением нарушителей, а решение принимает человек, просто алгоритм направлен на облегчение работы модератора, ну типа на снижение его загруженности, а далее алгоритм, через некоторое время, проверяет устранение нарушений, иначе как доры вычисляются в течение нескольких дней и выкидываются из поиска? Не всегда человек может отличить, что это дор, а робот и подавно.