Если допустить что это облако тегов, достаточно ли закрытия облака тегов в noindex (что в принципе сделанно) или нужно полностью снимать?
Ну контентный фильтр работает немного по другой схеме вроде, хотя могу ошибатся.
Облако тегов - первое что пришло в голову - закрыт в noindex и был уведомлен об этом Яндекс.
Смущает формулировка: На Вашем сайте были проиндексированы страницы, содержащие списки
поисковых запросов. Могут ли дать такую формулировку за теги title, h1 или эта формулировка более применима к ссылкам?
Кроме штампованых ответов ничего не получил: Ме не вступаем в переписку по поводу тяжести.... и т.д
За это могут наложить фильтр и не допускать к индексации?
А какой еще нужен?
Результаты: 1 - 10 из приблизительно 19 из домена wmast.com.ua
Это при обращении к украинскому датацентру....
УРЛ в топике http://wmast.com.ua
А по поводу Uptime.... Можно поподробней?
Я с этим согласен тоже на 100% просто интересен сам алгоритм по которому гугль заносит или не заносит в базу.... что влияет? ПР количество ссылок, другие факторы или они не имеют большого значения при индексации...
Ведь вопрос изначально был что плохая индексация....
Да как бы ничего необычного не вижу.... в принципе такое возможно, но меня больше на данный момент интересует не выдача а именно индексация сайта, точней ее отсутствие.... 😒
И http://www.yourcache.com/ показывает что по всем датацентрам - 19 :( Интересно выходит, или тот датацентр что Вы смотрели первым обновил инфу или последним... Значит или все будет гуд или наоборот... Если наоборот тогда - почему? :( странно..... 🙅 Но проблема с уникальным контентом отпадает, как я понимаю.... Гугль бы не допустил в базу одного из датацентров неуникальный контент, или я ошибаюсь.... Хотя по поводу уникального контента есть небольшие сомнения, по моему гугль не очень то хорошо разбирает русский текст... ПРосто на одном из сайтов есть две страницы - одна новей вторая более старая, текст менялся может на словах 10-15 а обе страницы в базе, и не склеены как я вижу....