maksfrai

Рейтинг
15
Регистрация
25.11.2018
Интересы
SEO
Vladimir SEO #:
дисавов если будут ручные меры, для яндекса платонам писать

спасибо. 

а будет ли в этом профит? disavow же реагирует на линки, а это по сути прямое перенаправление, т.е. на серверном уровне

Nadejda, LEOnidUKG, ребята, может подскажите, как быть?

починили 403 ошибку на хостинге, проблема была в том, что IPv6 мешало парсингу ботов. Заменили на IPv4

при этом проблема с капчей в тайтле осталась и подменой кода.

вернее, в вебмастерах при проверке ошибок никаких нету. Код остается исходным, обращение идет к серверам nginx.

но, если использовать проверку, например, через bertal.ru глазами ботов, то обращение идет к серверам системы защиты imunify360-webshield/1.8, где переливается трафик на капчу.

хостинг внес основных индексирующих ботов в список исключений для Imunify360 (автоматический сервис защиты от хостера), но проблема сохранилась.

Доверять ли сторонним сервисам, когда в основных вебмастерах все ок?

LEOnidUKG:
гугл бот вообще заблокирован ему 403 ошибка.
Яндексу выводит каптчу модуль imunify360

На кой чёрт он стоит, надо спрашивать у самого автора.

да, что то у нас проблемы с сервером происходят. пока что общаемся с хостингом

беда на беде)

---------- Добавлено 03.05.2020 в 15:11 ----------

всем спасибо, ребята!

---------- Добавлено 03.05.2020 в 15:42 ----------

в свое оправдание скажу, что только сейчас и у меня отобразилась эта проблема

до этого попадал в корректные проверки html страницы

The WishMaster:
А это сильно влияет на позиции?

на позиции не знаю, т.к. к сожалению не отслеживаю конкретно на ресурсе, куда наложили фильтр

но вот трафик из мобильного поиска яндекс снизился на 30% в сравнении с прошлым годом

---------- Добавлено 02.05.2020 в 13:50 ----------

яндекс ответил

Сейчас на ваш сайт действуют ограничения со стороны наших алгоритмов, что могло повлиять на его ранжирование.

Сожалею, но срабатывание не ошибочное. Периодически сайт не показывает пользователям мобильного интернета тот контент, который был проиндексирован поисковым роботом, а перенаправляет посетителей на страницы с подпиской на платные контент-услуги (https://yandex.ru/blog/webmaster/20239 ).

Пример страницы с нарушением: https://kudapostupat.by/zavedenie/id/393

Вы можете попробовать воспроизвести такое поведение, зайдя на сайт из результатов поиска другой поисковой системы через мобильный интернет и браузер с:

— чистой историей;

— очищенным кэшем (https://yandex.ru/support/common/browsers-settings/browsers-cache.html );

— удалёнными файлами cookies (https://yandex.ru/support/common/browsers-settings/browsers-cookies.html ).

Отмечу, что перенаправления могут фиксироваться не при каждом заходе.

Рекомендую проверить все элементы сайта, которые могут быть ответственны за перенаправления. Если нареканий со стороны наших алгоритмов не будет, в течение месяца ограничения будут сняты.

Мы не накладываем ограничения за размещение рекламы от РСЯ и Google AdSense, а также за редиректы мобильных операторов сотовой связи.

уже 2 часа тыкаю одну и ту же страницу и нихера. все норм

всем привет. Эта, пожалуй, самая актуальная ветка по данной теме в текущее время.

Беда и меня коснулась. Сделали недавно адаптив и как только его выкатили - словили фильтр.

Может быть ли это из-за сильно навязчивой РСЯ рекламы на сайте, которая мешает просмотру контента? или все же искать редиректы и долбить платона с кнопкой?

Coyc4uLu:
а с чего ты взял, что это вообще проблема?

основной сканирующий бот - смартфоны

при этом посещения данного робота в 20 раз меньше, чем робота десктопной версии

может я и не прав? разъясните или скиньте ссылки на материалы по сканированию сайта, а то я нигде не нашёл нужной инфы по обходу сайта роботами

никто не сталкивался с такой проблемой что ли?

пришёл к мнению, что в самом sfss можно закрыть сайт в robots.txt и открыть через allow нужный раздел

вроде парсит

но, если вложенные страницы, например, товары доступны уже по другим адресам (не раздела), то как в таком случае быть?

---------- Добавлено 06.01.2020 в 19:59 ----------

ещё один способ - парсить в SFSS через настройки CNDs, указав нужный для парсинга раздел или категорию

парсит только те ссылки, которые в ней размещены

в соседней ветке видел, что подобные проекты парсятся серверными скриптами. Может ещё есть альтернативные варианты?

ibatanov:
почитайте https://yandex.ru/support/webmaster/robot-workings/ajax-indexing.html
если так и не поймете почему в https://webmaster.yandex.ru/tools/server-response/ не отображается контент, еще раз внимательно прочитайте первый линк.

Серверный рендеринг можно настроить кучей способов, например по _escaped_fragment_ в юрл или по названию бота, в первом случае не будет ни какого html в проверке ответа сервера в вебмастере, во втором будет. И в обоих случаях будет нормально индексироваться и в гугле и в яндексе.

PS а вообще на последних версиях всяких js фреймворков, рендеринг в коробке и париться вообще не нужно, все уже настроено.

спасибо, будем вникать

Ingref:
Так если сюда https://webmaster.yandex.ru/tools/server-response/ загнать страницу, то внизу, где "Содержимое страницы" тоже выдаёт JS? Ну тогда нет там серверного рендеринга. Вот, что такое серверный рендеринг - https://angular.io/guide/universal

Т.е. вместо js должна отображаться информация с контентом?

12
Всего: 15