Около 3-4 месяцев, если пустить всё на самотёк.
Впервые слышу, что сайтмап решает проблему со скоростью индексации. Вполне возможно, что причина была во внутренней перелинковке или просто совпало, что после сайтмапа гугл таки решил выставить страницы в индекс.
Стукачей ни где не любят. Тикеты обрабатывают живые люди, и могут ради спортивного интереса глянуть и на беки сайтов того, кто стучал. Если сам безгрешен, то подобные методы остаются на уровне совести, а если и сам химичил с беками, то можно и отдачу словить с такого тикета.
Только о количестве документов подходящих под этот запрос. Если бы положение в выдаче строилось исключительно по контенту, то можно было бы судить о конкурентности по количеству найденных страниц.
Самый правильный вариант определения фильтра это сравнительный анализ позиций.
После изменения структуры сайта тоже ловил фильтр на 2.5 месяцев.
В принципе, я допускаю вариант, что часть сайтов, отобранных ботом по тем или иным признакам, подвергается ручной модерации, где выставляется числовой индекс доверия сайту, на который в последствии и умножается вес страниц сайта. Что-то не понравилось, шлёпнули галочку в 0,5 вот и сползли позиции.
Совершенно не обязательно. У меня как-то даже карта сайта показывалась по запросу доменного имени, страниц тоже было столько же сколько обычно, а сайт сидел под глубочайшим фильтром. Даже по самым нч запросам не было в сотне.
Тогда по запросам crack serial keygen итд топы были бы пустые.
Фильтры разные бывают. Однозначного метода определения не существует.