Пока решил копить материал для публикации и переехать на https (для эксперимента) надеюсь за это время появятся мысли как решить проблему с rss лентой.
Если у кого есть идеи (или сталкивался с подобным) буду признателен (может в настройках что-то не так сделал).
Отправлено с моего Redmi 3S через Tapatalk
Сейчас работает тока Титлы и контекст, дискрипшн и кейворд нету толка заполнять.
По поводу вопроса поменялись ли сниппеты, то давно не видел сайтов без schema org и тд, сейчас снипет формируется автоматически выбирая фразы из контекста а не мета дискрипшина, даже если он есть.
Спасибо большое, если можно (имеется такая возможность) примеры сайтов на бесплатном сертификате.
Несработает:
Телефоны работают с динамическим айпи это хорошо, но мак-адрес не меняется, получается 1 телефон 1 пользователь всегда. К тому же как вы будете делать регион? Накручивать ПФ тока в своём городе?)
Для этого делают просто фриланс сервис платят по рублю за посещение с клиента по 4 и люди сами Вам накрутят. Тут плюс всегда разные айпи и маки, регионы разные и тд.
Вроде все великолепно, НО если ваш сайт посещали толкьо жители Москвы, а тут явно не москвичи по рублю посещать будут, а скорей всего вообще не из РФ, это сразу в глаза поисковикам бросается. К тому же они скорей всего по 100 заданий будут выполнять, зайдут и в другую вкладку, пока 40-50 секунд не пройдет , а это видно в метрике, итог неделька эксперимента накрутки и фильтр.
Данный трафик это не люди а боты, Вам это показывает метрика, там пишется возраст устройства, регионы пол и тд тысячи людей с поиска, НО посмотрите на статистику страниц (справа) по сотне посещений страниц /metrikaxxxxx. Так метрика проверяет ваше подключение, посетите эти страницы вы увидите служебные страницы для ботов. Аналогично в Гугл, тока там 1 страничка с индентификтором файла который в папку закинули, он также как отдельная страничка существует.
All in one seo pack если это Вордпресс в плагине в настройках активируете карту ставите галку чтобы она сама изменялась и ни одной проблемы не будет. Все урл внутри, если надо даты изменений в настройках можно отключить. Любой вебмастер выдает все ок кол-во страниц верное.
Зачем создавать ошибку удалять старую статью и урл, просто перепишите статью, сделайте так как надо ее, после в вебмастер зайдите в переобход и поставьте ссылку. Робот посмотрит проанализирует начнет работать над ней. Всяко быстрей и лучше, чем 1 новая статья, попадающая в выдаe впервые через 15 недели и 1 удаленный урл по тому же запросу
Ничего не закрывайте, сразу делайте сео, потом переделывать будет труднее. Если даже что-то не то появиться, то достаточно ссылкой указать куда нужно плыть поисковику, как минимум Яндекс сразу возьмёт это за основу.
На счет wp-json то его обязательно убирать, но вот страницы /?p= я думаю также через роботса уберу. Про function.php то нашел в интернете коды для редиректа с wp-son на главную, думаю уберу их из роботса и включу функцию для редиректа. В некоторых материалах описывается вариант, когда не редиректит а выдает 404, незнаю какой вариант лучше.
На счет сайтбара и rss то сейчас через плагин all in one seo pack, поставил запрет индексации этих групп, а также пагинации разделов (сайт информационный) страниц и так далее, но все равно это не помогает, так как поставил запрет уже как неделю назад, а во многих запросах релевантная всё ещё главная страница.
Мне кажется , понял в чем проблема. Могла ли она возникнуть из-за того что в настройках all in one seo pack я забыл поставить галочку "запретить пагинацию урл"?