Совсем другое дело, плавный рост, и потом небольшой всплеск и рост показов. Как по мне то все ок. Что вас не устраивает?
Если говорить только про индексацию то все устраивает. Непонятны причины роста проиндексированных страниц. Он пошел одновременно с ростом удаленных. И здесь нужно понять связь. То есть почему эти страницы раньше не индексировались.
Вы хотя бы график нормальный выставите- раздельно про индексированные и нет. А то эта каша на скрине ни о чем не говорит.
Если проиндексированные то вот
вроде у всех такие срезы в топике.
ъ
У меня так вот. Рост непроиндексированных за счет удаления дополнительных некачественных страниц. Список таких страниц пошел на удаление с 19.06
Их примерно под 100 тысяч.
Почему пошел рост проиндексированнх непонятно. Новые добавляются, но их не так и много.
Но вот средняя позиция как бы падает....
Так и УРЛ тоже можно закрыть, по префиксу. И robots для ПС не жесткая директива сейчас. Могут учитывать, могут нет. В общем говоря, от поддомена вреда не будет, но и прямо ощутимой пользы тоже
Спасибо! "redirect" закрыт. Сайт конечно далеко не 2Гис - но несколько сотен исходящих ссылок есть. Большинство закрыты JS. Поэтому если хоть какое-то улучшение - то плюс
Ну не совсем уж "другой сайт". Просто отдельная статистика в вебмастерках. Какую-то небольшую пользу это даст, и в масштабах 2gis это наверно оправдано. Но для обычных коммерческих сайтов (продажи или услуги) трех вышеперечисленных действий достаточно, чтобы проблема ушла и не влияла на seo
Ну а если этот сабдомен link закрыть от индексации в robots?
Вспомнил ещё один момент для решения подобных проблем с Битриксом. Помимо вышесказанного нужно сделать, чтобы эти редиректы де факто перенаправляли на страницу ошибки 404, а не на чернуху.
Да спасибо! У меня был еще один подвопрос
Если делать через субдомен как делает 2Гис
link.2gis
вместо 2gis/link
может ли первый вариант быть предпочтительным - так как с субдомена идут все переходы, и это как-бы другой сайт со всеми минусами сайта с большим количеством исходящих ссылок.
Гениально ))
И можно было ещё Платону отписать. Чтоб фильтранул сразу.
Так это платон и отвечал, что перенаправяляем. а это обычная ссылка с редиректом от битрикса на сайт, который стал зараженным. если бы было слово что мы ссылаемся.
а откуда такая уверенность что именно за это фильтр?
в подавляющем колве случаев это внутряк и контент выход это не какая то там закрытые ссылки а почти полная переделка сайта
может быть и контент. Но большинство похожих сайтов или закрывают JS что и мы делаем. Или вот как сделал Гис. Мне кажется это более изящно.
в первом сообщении стоит в подпси https://searchengines.guru/ru/forum/661709
Так это почти 15 лет назад было. Может сейчас уже Гугул банит за это.
Спасибо за канал и ссылку:))
В свое время Гугл да и Яндекс буквально слово "redirect" в ссылке воспринимали что мы перенаправляем cпециально на зараженные сайты.
в случае если сайт на который ссылались становился зараженным.
Блокировали страницу с исходящей ссылкой или даже все папку например кабинет и сообщали о нарушениях что мы перенаправляем ссылку на зараженный ресурс.
Может конечно и если слово link будет то ничего не поменяется
Но если перенести на субдомен - то притензии уже как бы к субдомену.
А основной сайт как бы белый и пушистый. Не он спамовый а субдомен.
В этом топике не про веса речь а про то как выйти из под спам фильтра - если на сайте много исходящих ссылок. К примеру обычный спровочник с ссылками на тематческих партнеров
Вижу 2 Гис так делает
Они тоже много исходящих ссылок и ссылок на тематических партнеров имеют
Добрый день,
в свете последних спамапдейтов от Гугула
Или лучше делать как делает 2gis через сабдомен?
через ......link.2gis...... ?