но у меня вот так. Как бы по июню был провал, что аномально. И всегда идет в летний сезон рост по сравнению с апрелем
C другой стороны вижу рост непроиндексированных страниц. Вряд ли к хорошему так некоторые целевый страницы вижу в этом списке
у меня что-то подобное.
люди отзывы писать не будут
Пустые или страницы с отзывами типа "мне понравилось" Гугул будет отправлять в спам - не только страницы а потом и весь сайт даже с более менее хорошими страницами.
Тема лет как 10-15 уже умерла.
Совсем другое дело, плавный рост, и потом небольшой всплеск и рост показов. Как по мне то все ок. Что вас не устраивает?
Если говорить только про индексацию то все устраивает. Непонятны причины роста проиндексированных страниц. Он пошел одновременно с ростом удаленных. И здесь нужно понять связь. То есть почему эти страницы раньше не индексировались.
Вы хотя бы график нормальный выставите- раздельно про индексированные и нет. А то эта каша на скрине ни о чем не говорит.
Если проиндексированные то вот
вроде у всех такие срезы в топике.
ъ
У меня так вот. Рост непроиндексированных за счет удаления дополнительных некачественных страниц. Список таких страниц пошел на удаление с 19.06
Их примерно под 100 тысяч.
Почему пошел рост проиндексированнх непонятно. Новые добавляются, но их не так и много.
Но вот средняя позиция как бы падает....
Так и УРЛ тоже можно закрыть, по префиксу. И robots для ПС не жесткая директива сейчас. Могут учитывать, могут нет. В общем говоря, от поддомена вреда не будет, но и прямо ощутимой пользы тоже
Спасибо! "redirect" закрыт. Сайт конечно далеко не 2Гис - но несколько сотен исходящих ссылок есть. Большинство закрыты JS. Поэтому если хоть какое-то улучшение - то плюс
Ну не совсем уж "другой сайт". Просто отдельная статистика в вебмастерках. Какую-то небольшую пользу это даст, и в масштабах 2gis это наверно оправдано. Но для обычных коммерческих сайтов (продажи или услуги) трех вышеперечисленных действий достаточно, чтобы проблема ушла и не влияла на seo
Ну а если этот сабдомен link закрыть от индексации в robots?
Вспомнил ещё один момент для решения подобных проблем с Битриксом. Помимо вышесказанного нужно сделать, чтобы эти редиректы де факто перенаправляли на страницу ошибки 404, а не на чернуху.
Да спасибо! У меня был еще один подвопрос
Если делать через субдомен как делает 2Гис
link.2gis
вместо 2gis/link
может ли первый вариант быть предпочтительным - так как с субдомена идут все переходы, и это как-бы другой сайт со всеми минусами сайта с большим количеством исходящих ссылок.
Гениально ))
И можно было ещё Платону отписать. Чтоб фильтранул сразу.
Так это платон и отвечал, что перенаправяляем. а это обычная ссылка с редиректом от битрикса на сайт, который стал зараженным. если бы было слово что мы ссылаемся.
а откуда такая уверенность что именно за это фильтр?
в подавляющем колве случаев это внутряк и контент выход это не какая то там закрытые ссылки а почти полная переделка сайта
может быть и контент. Но большинство похожих сайтов или закрывают JS что и мы делаем. Или вот как сделал Гис. Мне кажется это более изящно.
в первом сообщении стоит в подпси https://searchengines.guru/ru/forum/661709
Так это почти 15 лет назад было. Может сейчас уже Гугул банит за это.