Впервые слышу, что сайтмап решает проблему со скоростью индексации. Вполне возможно, что причина была во внутренней перелинковке или просто совпало, что после сайтмапа гугл таки решил выставить страницы в индекс.
Стукачей ни где не любят. Тикеты обрабатывают живые люди, и могут ради спортивного интереса глянуть и на беки сайтов того, кто стучал. Если сам безгрешен, то подобные методы остаются на уровне совести, а если и сам химичил с беками, то можно и отдачу словить с такого тикета.
Только о количестве документов подходящих под этот запрос. Если бы положение в выдаче строилось исключительно по контенту, то можно было бы судить о конкурентности по количеству найденных страниц.
Самый правильный вариант определения фильтра это сравнительный анализ позиций.
После изменения структуры сайта тоже ловил фильтр на 2.5 месяцев.
В принципе, я допускаю вариант, что часть сайтов, отобранных ботом по тем или иным признакам, подвергается ручной модерации, где выставляется числовой индекс доверия сайту, на который в последствии и умножается вес страниц сайта. Что-то не понравилось, шлёпнули галочку в 0,5 вот и сползли позиции.
Совершенно не обязательно. У меня как-то даже карта сайта показывалась по запросу доменного имени, страниц тоже было столько же сколько обычно, а сайт сидел под глубочайшим фильтром. Даже по самым нч запросам не было в сотне.
Тогда по запросам crack serial keygen итд топы были бы пустые.
Фильтры разные бывают. Однозначного метода определения не существует.
Субъективные параметры не могут лечь в основу математических расчётов.