XPraptor

XPraptor
Рейтинг
333
Регистрация
15.10.2004
Должность
Web Soft Developer
Интересы
Programming
olchy:
после установки модуля данной ПП через сутки минус 1000 хостов на сайте..... зачем оно мне надо было :(((

Панду пока еще никто не отменял, и она продолжает шерстить ряды вареза - так что ПП к вашим бедам в принципе не имеет никакого отношения - обижайтесь на разрабов Гугла. Про Панду можете почитать тут же на форуме в разделе Поисковые системы - Гугле (там найдете тысячи соратников по несчастью и рекомендации как больше под это несчастье не попасть, или хотя бы снизить шансы).

А за-то, я столько по своим темам нч запросов узнал, которых в вордстате совсем не было, и их никто даже и не использовал (и я и конкуренты) - теперь проверим сколько по ним юзеров шастает :) Встать в топ 1-3 по ним - делов, до первого ссылочного :)

ТС, ищи на сайте все новости с каспером (саму прогу, ключи) и удаляй - и больше не пости никогда. Каспер тогда не будет больше твой сайт лочить для юзеров. Нод пока либеральнее относится к этому, но тоже может начать.

Да и модуль партнерки проверь, если у тебя версия стоит без тдс автообновляемых, или не на свой паркованный домен - тоже будут лочить антивири тебя.

Z-Style:
Другими словами - создание армии ГС? Утопия...

Ну не нужно так категорично то :)

Люди пытаются пиарить свой продукт в массы, может им удастся еще и показать народу, что масса гс блогов окупается иприносит какую нить деньгу :)

Алексей Питерский, да можно и автоматом - накатал в базу себе синонимов и задал алго ротации и процент присутствия признаков на странице - и плоди кучу сайтов с уникальными карточками.

ТС - карточку товара тоже по разному можно подать. Вы вот даже просто напишите одну карту в таблице, а вторую в дивах - и то яша по разному схавает их, а уж если помесить и сами названия признаков немного - тут вообще безграничная уникализация возможна.

sergei1231, да что гугл советует то и делал. Привел все сайты в надлежащий для юзеров вид. Первым делом доноров снес всех левых и все их тексты и ссылки переставил на нормальные сайты.

Вторым делом уникализировал имажики и переделал структуру навигации, чтобы юзеры ходили целенаправленно по нужному разделу относящемуся к тематике продвигаемого запроса.

Потом придумал уникальные сервисы для каждого переделываемого сайта. Потом придумал или выловил редкий контент связанный с тематикой сайта и подал его вспомогательным ссылочным в основных разделах.

Потом начал изменят саму структуру страниц (тут не поделюсь какой она должная быть, ибо это одно из моих ноу-хау и долгий подбор на куче тестов, а если все так начнут делать, то алго может и подучиться на этом и опять придется искать долго что то новое).

Ну и переписал все дескрипшены, убрав из них кеи и фразы, а написав авторским текстом о чем страница. Со страниц с малым кол-вом текста снял все кеи с h1-h3, оставил в стронге, или просто в тексте, а в h1-h3 написал развернутые, интересные для юзера, заголовки с одним словом из кеевых фраз.

Все переделки делал сразу на сайте (то есть не готовил всю кучу изменений а потом применял - а сразу, сделал что то одно - сохранил на сайте и т.д.) при этом бот постоянно пасся на сайте и видел эти изменения, которые происходили потихоньку с сайтом.

Ну в общем как то так, что рекомендует гоша то и делал, благо сайты енг не большие, уложился в пару тройку месяцев.

Sower:
Панда это фильтр а не алгоритм. Фильтры накладываются не определённый промежуток времени, а не до устранении причин попадания под них.

Не все фильтры так накладываются уж это точно и панда один из них - еще раз говорю, снимали сразу с каждого переделанного сайта в течение 5-7 (редко чуть больше) дней.

Енг сайты проще переделывать, там, как правило (по крайней мере у меня) страниц меньше гораздо. А вот объемные сайты я даже не представляю как исправить, легче новый вывести.

Да какие доказательства миха? Я сам не знал про эти пф-ы вообще, пока в эффекторе не увидел - вот по ним и сужу что из-за них :)

А по сайту - ну да, его единственный грешок (если это можно инкреминировать ему) так сказать в том, что там такая структура, что юзеру, чтобы забрать инфу нужно 4 страницы пройти и еще "постоять" на них. Но это я не пф-ы пытаюсь накрутить, а защититься от парсеров, и почему я должен учитывать при этом пожелания яндекса, а не свои собственные, защищая свой контент?

Да яндексоиды с ПФ-ами смотрю и не стоят особо на месте. Один мой сайт месяц-полтора назад был зафильтрован пф-ами, хотя реально там ничего такого не было. Сайт не важный, я не стал даже писать, вообще не обратил внимания на это, но три дня назад вдруг пф сняли и снова пошел траф в полном объеме с яши. Значит обучают потихоньку алго свой все-таки и не стоят на месте - это радует.

Всего: 3323