panzergto

Рейтинг
178
Регистрация
27.07.2009

похоже я все запутал. Давайте объясню подробно.

Сайт попал в индекс яндекса без www. Я начал покупать ссылки, на site.net (так как он был в выдаче). Сайт по некоторым запросам вышел в ТОП10. Когда сменился алгоритм последний раз и одновременно мой стал в выдаче стал показываться с www то он очень просел до 3-5 страницы.

Я предпологаю, что возможно дело в смене алгоритма, но также возможно купленные ссылки на site.net не учитываются для имеемого теперь в выдаче www.site.net (однако в панеле вэбмастера что для site.net, что для www.site.net одинаковые). вот и хочу узнать что мне теперь делать :)

это нужно прописать в роботс?

в данный момент у меня там стоит:

User-Agent: *

Host: site.net

нужно прописать вместо или после?

так он видимо склеил, раньше в выдаче без www было, и ссылки без www покупались, а сейчас стало с www, в выбмастере как я сказал на сайт с www ссылки видны. Теперь просто непонятно что делать. Покупать ссылки с www? а старые снимать или как?

сори если тупые вопросы, а в склейке ничего не понимаю (

как-то нелогично выходит, зачем же тогда яндекс банит гс, если ссылки с них всеравно работают, основной выдаче ж гс под сапу не мешают, смысл их вообще тогда банить? :)

по моей теме пока ничего невидно, но я боюсь всеравно, ведь за месяц вылез в топ 10 - топ 3, а в буках было все гораздо хуже, так что может произойти страшный эпик фэил с моим "школьным" сайтом 😂

хороший ап, по одному запросу на 3 позицию вышел :) , но и работал много

max_k:
Немного не понятно "то что лог действий по ip ведется" каких именно действий, если в вебмастере, то скорее всего так и есть.
Под "доавлено" имеется ввиду добавленеи в адурл-ку? если да то действительно думаю ней пользоватся не стоит, а если пользоватся то очень осторожно, так же как и вебмастером яндекса😆

ну вот посмотрите: у человека например банится 50 сайтов, созданных в разное время. Если это были не саттелиты, то возможно следующее:

-сайты банятся просто рандомно по неким критериям, но тогда при таком количестве банов, тут бы наверное было написано гораздо больше, чем 60 страниц одной темы форума, так как значительная часть интернеты была забанена, так как у каждого должно выбмастера массово сайты должны были забанены. А этого нет, значит, как-то же вычисляются пачки гс, созданные одним человеком, так что вместо одного банятся сразу все а другое объяснение как-то сложно найти

почему?

то что лог действий по ip ведется, это я думаю очевидно, а если за месяц скажем было добалено с десяток хотябы сайтов, неужели они могут быть качественными?

тут после этого сразу проверяется, что они на вп и т.д что было описано выше, и вывод о том, что сделана пачка гс :)

хотел бы высказать возможно тупое предположение :)

Из того, что прочитал замечено, что банятся пачками сайты одного автора. т.е это как бы странно. Не может ли быть дело в том, что например с одного ip постоянно проверяется индексация одной и той-же группы сайтов?

Или скажем добавление кучи сатов с одного ip через addurl

хотел бы добавить, что три недели назд сделал сайтег на народе для быстрой индексации доноров, контент уник из конспектов :) , с некоторых страниц по 12 ссылок, кроме того я еще их раз в неделю все меняю на новые, сайт все еще держится в индексе :). Может всетаки качественного контента вполне достаточно лля того, чтобы не быть забненым ?

Всего: 399