В первом посте ты описал разнесение потематикам, а не:
Если ты наплодишь поддоменов и все они будут заточены на один и тот же ключ - при первом сливе тебя покиляют как дор. А может и автоалго разрулятся быстрее. В любом случае с таким подходом тебе точно не светит забить выдачу по одному кею поддоменами.
Суть вопроса в чем?! Да, такое можно сделать. Гугл поймет, если ты правильно ему покажешь. В чем именно смысл и суть вопроса?!
Сайт ГС, забаненый дроп, трабл хостинга - нужное подчеркнуть. Новому сайту достаточно 1-го дня чтобы войти в индекс. Притом без внешнего ссылочного. Поэтому у тебя явно какой-то трабл
PR не влияет на выдачу
тссс, никому не говори об этом
Есть конечно.
(Eng) МФА-сайт из 2-х страниц:
(Eng) Сателит из 3-х страниц:
Дело не в количестве страниц, а в самом сайте\его наполнении и ссылочном (его спамность, уникальность, тематичность).
Сабмиты "Статейный прогон" и "ТОПовые директории статей" соединены в одну услугу. Более детально: http://seopack.info/articlemarketing
Это не твоя заслуга, это недоработка Гугла и вопрос времени.
Сказал как в лужу пук*л... Идеальная выборка
Профессиональные журналисты не пишут "контент" для ГСов и варезников
Многие смотрят на мир через розовые очки и не видят бревна у себя в глазу. Больше часть срабатывания автофильтров направлена на сам сайт, тобишь причина именно в сайте. Относительно качества ссылочной массы - одно и тоже может быть по-разному сделано. Человек может себя спамить генеренными текстами, делать линквиллы на таких же текстах далее спамить себя каментами с ПРистых страниц НО уже с 10000 внешних ссылок и при этом рассказывать что он двигается белыми методами... Не важно как назвать фильтр, важно понять за что он сработал и устранить причину
Я написал за что срабатывает и на каких сайтах. Если тебе нужно его как-то обозвать\класифицировать для теории - пиши в Гугл. Порезло именно сайты, которые подобным промышляли. А новый фильтр, подкрутили Панду, или еще что-то - какая разница