Карта сайта (sitemap.xml) всегда влияла и на скорость индексирования, и на полноту (так как в ней можно настроить Last-Mod и указывать боту когда какой контент был изменен). Понятно что на небольших сайтах это незаметно, но если речь идет об интернет-магазине на 3000+ страниц хотя бы, то разница становится очевидной.
Здравствуйте!
Данные в Google Search Console в принципе отображаются с задержкой, особенно что касается внешних ссылок. Теперь насчет этого отчета.
Во-первых, на нем показываются ссылки со всех сайтов, которые на вас ссылаются (то есть те ссылки, которые вы отклонили, тоже будут показываться в отчете, но не будут учитываться). Во-вторых, если Вы удалили ссылку, со временем (как показывает практика - от одного до 3 месяцев) она исчезнет и из Google Search Console.
В вебмастере данные появляются с задержкой. Проверьте ахрефсом
Недавно решал похожую проблему, но надо увидеть ссылки на сайты. В ЛС тогда пришлите
Лучше всего в начале статьи (первый-второй абзац) + на статью должна быть обязательно ссылка с главной страницы
Вам необходимо учитывать то что Яндекс понимает русский язык гораздо лучше чем Google. Возможно, для него общая статья на тему выглядит переспамленной, поэтому он её пессимизирует и выводит оптимизированную под НЧ, а для Google основная статья вполне нормальная.
Чтобы решить эту проблему нужно использовать перелинковку + проверить основную страницу на переоптимизацию.
Если они действительно экспертные, то фильтра за thin контент не будет. + можно добавить фото/таблицы/списки и все будет ок
Возьми ту страницу (которая залетала в топ-3) и дополни ее полезной информацией с другой страницы. А затем вторую страницу удали и поставь редирект. Я так делал, у меня срабатывало
Я слышал о таком, но это когда выводится сайт с помощью JavaScript - тогда у Google приколы бывают. А можно ссылку на страницу?
Дорвеи автоматически перенаправляют пользователя на другой сайт или содержат ссылку, по которой пользователи переходят (а, насколько мы знаем, Google тоже переходит по ссылкам).
Суть клоакинга заключается в том, что пользователям и поисковым роботам показывается разный контент. По сути, поисковой системе только и нужно, что сменить робота на нового и они сразу же увидят существенную разницу между тем, что показывается пользователю и что видит робот.
О том, что Google не выполняет пользовательские действия (скроллинг, клики по фото для увеличения и так далее) говорил Девака на конференции 8p в Одессе в этом году. Вы можете посмотреть презентацию его доклада в чате и поймете, о чем он говорил