леонид1161

Рейтинг
176
Регистрация
27.12.2016
Sdrozdov #:

Тут пообщался с хорошим сео специалистом, тот сказал, что удалять нужно порционно и сразу же добавлять еще товары.
Вроде выглядит логично.  А по сути темы - ряд крупных конкурентов ставят 301 на категорию и позиции у них не падают.

вот и проверю скоро, когда не станет обхода по 404 если позиции вверх пойдут значит реально 404 валят сайт

SeVlad #:

Элементарно при  наличии нормального движка.

Это даже можно автоматизировать. Только при этом нужно не удалять товары, а указывать "кол-во 0"/"нет на складе". (И что выводить при этом на самой странице - тоже можно изменить как фантазия подскажет)

в любом случае огромное количество noindex также как и 404 пользы не даст сайту
qvaro #:

Подскажите, что может влиять на клики, кроме цены и настройки объявления? 

Домен может? В плане сео идет тяжело, и в тоже время с директом какая-то хрень.

Даже высокая ставка мало кликов.

Веду похожие сайты, там все ок. Тут очень высокие ставки дают клик, и то мало.

Для сравнения

1 сайт, цена клика примерно от 100 руб, количество по идее упирается в ограничение бюджета. 15/20 кликов получаю.

2 сайт (проблемный) цены ставлю 500/600/700 руб, дай бог пару кликов получить.

И это при условии, что оба сайта крутятся.  Не понимаю, как так получается. Такое ощущение, толи ограничения на домен, толи на сам аккаунт. 

могу ошибаться, но заметил: не важно какая стратегия, цена и прочее, если вносишь корректировки то показы пропадают на 1-2 дня, даже если просто цену вверх меняешь, чтобы показывалось все норм, нужно настроить и не строгать от слова совсем настройки, потихоньку пойдет показы
Александр #:

Я на разделы с этими товарами ставил, так как даже аналогов не было в структуре (сайт менял тематику на смежную).
За пару лет сайту стало легче, но, в самом начале он сильно "болел".

тоже заметил , что позиции падали от обилия 404 ?
ivan34502 #:
а 301 выставляли на похожие товары или как? куда ведет 301 ?
на категории, смысл на товары если моет позже и их придется удалить
ivan34502 #:

А не кто не пробовал сначала для удаляемых страниц прописать

<meta name="robots" content="noindex, nofollow">

Яндекс выплюнет страницы из индекса, а потом выставить им 404 ошибку))

ну и как его ставить на часть товара? поставится или на все товары или никак
Sdrozdov #:

404.

та же фигня, 404 мне кажется сильно влияет на ранжирование.. у меня на старом магазе менялась структура из-за смены шаблона еще 3 года назад, позиции тогда упали сильно, потом более менее пошел рост, но как робот начинает сканить старые 404  позиции вниз идут, долго он отвкал по ним ходить и вроде в 2022 году почти не вспоминал про них, но вот с февраля он массово начал вспоминать про них и искать, сейчас ходит по ним каждый день пачками, позиции скатились опять в дно....

собственно буквально пару дней назад настроил 301 всех-всех старых страниц 404, ничего больше делать не буду по сайту, посмотрю пойдет рост или нет, думаю должно

Sdrozdov #:
 Век живи, век учись :)
 Тоже на одном проекте удалил много старых товаров сразу и тут же нащупал дно в Яндексе.

просто 404 или 301 ставил?

Александр #:
meta name="robots" content="noindex, follow
вот https://ru.wordpress.org/plugins/noindex-seo/ попробуй поставь, в настройках есть запрет пагинации и куча другого
Александр :

Проблема тянется с января.

В вебмастере было оповещение, что страницы пагинации имели одинаковый тайтл и дескрипшен (и там перечислены страницы пагинации блога по маске: /blog/page/2......13/).
На главной странице блога стоит каноникал:
<link rel="canonical" .....
<link rel="next" .....

Я запретил их через robots: Disallow: /blog/page
Через проверку robots в вебмастере - все страницы пагинации с пометкой о запрете.

В феврале 2023 страницы пагинации блога вылетели с соответствующей пометкой в вебмастере.
В апреле 2023 года страницы пагинации блога снова вошли в индекс, о чем свидетельствует новая пометка в вебмастере.

На обращение в службу поддержки получил ответ:

Здравствуйте!
Да, вижу, указанные страницы действительно запрещены для индексирования.

Ограниченные в robots.txt страницы могут участвовать в поиске Яндекса, при этом их содержимое в поиск попасть не может. Если вы хотите полностью удалить ссылки на эти страницы из поиска, вы можете убрать запрет в robots.txt и установить мета-тег noindex, либо http-код ответа 403, 404 или 410, тогда страницы пропадут из выдачи по мере их переобхода роботом. Дополнительно можно использовать инструмент удаления страниц из поиска, чтобы ускорить процесс. Более подробно об этом можно прочитать в нашей Справке.

Объясните чайнику: куда именно вставлять <meta name="robots" content="noindex, follow"/>
Есть какое-то видео на данную тематику, где будет показан весь алгоритм для чайника? Потому, что все что я нашел, это бла-бла-бла, без наглядного пособия.

для опенкарт 3 могу дать модуль <meta name="robots" content="noindex, follow"/>
Всего: 1617