Хммм....
А с чего ты решил что это флорида ?
Сейчас в общем и новый фильтр запущен.Если у тебя внешние линки только с ресурсов,которые по теме к твоей никак не подходят,то вполне возможен такой результат
если бот не приходил,то возможно что имеет место бан по IP.
У меня такое было.после смены адреса всё нормально пошло
Ну получается ситуация что при такой схеме и использовании шинглов - гугл скажет что страницы абсолютно разные
Например,есть файл index.html
И в нём есть строки:
aaaaaaaaaaaaaaaaaaaaaa
bbbbbbbbbbbbbbbbbbbbbb
cccccccccccccccccccccc
+всякая херь
есть файл index2.html
+всякая другая херь
тебе надо завязывать с тяжёлыми наркотиками
а вот реально кто-нибудь киньте список блогов
а может ты как раз попал под флориду ? типа переоптимизированные страницы ушли вниз
как это не учитывает ?????????????????
А как тогда работает ?
суть такая
предположим что есть 20 субдоменов на которых валяются доры.
+ всё ссылается на сайт который не проиндексирован ещё.
как правильно сделать :
1) дождаться индексации главной паги
2) выложить всё одновременно,чтобы всё проиндексировалось примерно в одно время ?
как вообще гугль отнесётся к возможности быстрого нагона PR ?
если я выложу и сайт и доры в одно время - посчитает ли Гугль за спам ?
ха
если бы за каждое потеснение в рейтинге стучали,то се-спамом никто бы не занимался
Перефразирую вопрос:меня забанят в моей ситуации,если человек из гугля не увидит сайт,а только робот
ну это если человек из гугля специально просмотрит,а для робота - это обычный текст + в нём идут ключевые слова,но не больше 7-10%.
То есть это не доры даже,а хорошо оптимизированный контент
суть такая:
каждая пага состоит из ключевых слов + размещаются автоматом по каталогам,которые тоже состоят из кл.фраз
контент из тематических текстов + насыщается ключевыми фразами
то есть по-сути даже не совсем доры
дык реально бан получить если я такое выложу на свои субдомены ?