Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Cuys #:
Либо возраст документа играет роль.

Да это про ПФ опять. Нету входящего трафика - вот и малоценная-маловостребованная. Метрики наберет -  станет важная-нужная.
Это же Яндекс, он иначе не умеет.

Алексей Сергеев :
Как с этим бороться? 

Проблема уже хорошо пережёвана. Вариантов решения много:

  • подождать
  • дать траф
  • посмотреть, что там Яндексу не нравится - может, это неявные дубли, может, контента маловато, или страница вообще ни под какой запрос не заточена
  • ещё подождать

Рециркуляторы эти в выдаче вообще должны быть? Там категория-то - НЧ, и по скринам, например, неясно - категория-то вообще есть?

nensiwow #:
Да дело в том, что уже на протяжении двух недель провожу манипуляции с сайтмапом, такую вот ошибку все пишет, уже не знаю, что править.

2 недели - не срок, особенно если у сайта пока с лимитами обхода бедненько. Сайт случайно не новорег? С сервером всё в порядке?

Mik Foxi #:
любой самый корявый и убогий клик по выдаче по ключу до января точно подымал а не опускал. даже если клик в итоге до сайта не дошел.

Да от объёмов зависит, а также от того, какие именно ключики крутятся. И нету толка от бестолковых накруток, много примеров видал. Люди себе CTR до 70% настукивали, толку - ноль.
Попробуй покрутить запросы на нерелевантную страницу - или семантику не отработать толком.
Накрутки - только допинг, вишенка на тортике. Вишенку на чёрствую краюшку лучше не класть.

maximka77 #:
У вас скриншот не открывается (404)

Там точка в URL лишняя.
А по сабжу. Бот просто ткнулся, ему сервер сказал "Неа", вот и всё. Для Гугла обычная проблема, он ленив.
Пробуйте ещё или просто подождите.

Удален #:
Если есть хорошие входящие ссылки на старые УРЛы, то почему-бы не подержать, не вручную же

Вот не соврать, тот же RankMath такое умеет и без дополнительных плагинов

kams :

Добрый день, какой инструмент поможет собрать текста конкурентов из ТОП 10-20?

Если он умеет еще анализировать из между собой и выводить общие данные по словам (а еще лучше по фразам) - будет вообще топчик.

Составляем контент-план для сеошника, не хотим упустить моменты которые указывают конкуренты.

вы чё там парсить-то собрались? Контент целиком? Так это и "лягушкой" можно.
Да и мусор это.
Используйте текстовый анализатор хоть мегаиндекс (годится и на бесплатном тарифе), хоть just-magic.org, под гугл посоветую InfraNodus (это не парсер, это про интент и скрытые смыслы).

Станислав Романенко #:
Вопрос - какие ПФ получит каждый из этих 10 сайтов? У какого из них в этом случае ПФ от данного посещения будут лучше - у пятого сайта, который человек реально посмотрел, или у 10-го, на который был last-click (но который не был просмотрен)? И какие ПФ получает сайты с 1-го по 4-й? Они же по сути были кликнуты, но человек после них кликнул ещё 6 сайтов.

Ничего из этого. Такие данные алго Яши вероятнее всего проигнорирует. Там всё просто и тупо, это же нейросеть. С телефона такое не воспроизведешь, и пользователь "Дзен" на такое не решится, а значит - "Пренебречь, вальсируем".
Мерило - Директ, все ключи - там. 

Mik Foxi #:
если ты заблокируешь в блокировщике рекламы все стучалки в яндекс, а также выпилишь их из браузера, то яндекс не узнает на каких сайтах ты ходил. У меня в адблоке в опере заблокировано, никакая метрика не в курсе где и что я делаю, и где снять девку я ищу в гугле, потому яндекс не выдает мне рекламу по интересам.

Ой вей.
Люди под адблоком, несмотря на их количество - аномалия в любом случае.
Но Яндексу это и не надо, потому что серп решает. А от него адблоком тоже не закрыться.
Для примера: попробуй по запросу зайти на сайт и посмотри, отобразишься ли в Метрике.
Сделай то же самое в режиме "инкогнито".
Вооот.

dokmak #:
И эти редиректы временно же? Не всю жизнь их держать? Сколько будет достаточно?
4 -6 месяцев?

От сайта зависит.
По идее - когда переклеются запросы, новые страницы зайдут в индекс, старые - деиндексируются.
Нюанс: если на старые страницы есть внешние ссылки, редиректы снимать не надо.
Тут опять же в помощь панели вебмастеров и анализ логов. И качество входящих ссылок, это может быть полным мусором.
По опыту: Гугл старые URL держит в индексе годами. Ну тупо сайт давно поменялся, а бот регулярно ломится на те странички, которых физически нет уже 2 года.

Всего: 4434