Ну я же не зря упомянул хаб как основу. Правильная перелинковка товаров дополнительными блоками и толковый сайтмап снимают большинство возможных проблем со сканированием. А уж если хорошо проработать фильтратор, сортировку и тегирование - то и вообще ну и вот.
Бгг. Там же в коде вот что торчит: <meta name="referrer" content="no-referrer" />Такие переходы засчитываются как прямой траф.
Общая плотность роли не играет, если речь о Яндекс. Тайтл - своя, анкоры - своя, плейн-текст - своя.Тут просто взять запрос, текстовый анализатор - и сверять по медианным данным с топами.
Да, не все поняла, но реально - когда стала менять пароль, обнаружила - что я зашла на свой сайт еще на каких то устройствах. Теперь проверяю.
В логах вообще проходной двор.
Мне непонятно, что это wp-admin/wp-ajax
Вот туда ходят постоянно. Но я сама пошла - выдает просто одну цифру. Не поняла я вот этот момент - может, кто сталкивался.
Заходят постоянно с Linux
В рег ру написано, что надо Linux банить.
Наймите вебмастера. Серьёзно. Иначе чё-то как-то всё это вот
Так же надо делать...
<meta name="robots" content="noindex, follow" />
Правильно?
Не, я не про это. В robots.txt достаточно прикрыть - если брать техническую сторону.Но важно, чтобы у вас был не тупо листинг, а именно хаб, хорошо представляющий ассортимент, связанную семантику, отлично прокачанный в текстовом плане. Хаб - это не просто список товаров. Ну и ясн-понятн, что тот же Яндекс должен ваш ассортимент видеть в полном объёме, это алгоритмически считывается в основном.
Если делать правильно, а не механически - ничего не падает, наоборот - растёт. Если у меня есть высокорелевантный хаб - сотня однообразных страничек под тот же запрос уже как бы и не нужна.
Если домен красивый - его цена растёт. Хорошие домены давно разобраны, можно сыграть хотя бы и на этом.
Если "колбасы" с добавлением-удалением пагинации в индекс нету, и запросы с целевой странички на пагинацию не переклеивают - то и фиг с ними
Все тайтл и дискрипшн которые в Вебмастере указаны как дубли, это страницы пагинации
Ну либо уникализировать (с подстановкой в шаблоне чего-то типа стр.1, стр.2 - либо пагинацию закрывать.Я обычно закрываю в robots, ибо толку от неё для поиска примерно ноль.