а вот найдите разницу между ними, тут сразу видно и поймете почему например гугл не индексит. Это же азы оптимизации, если вы их не знаете то так и будете с 1 страницей в индексе сидеть с нулем трафика
разница большая что по структуре - что по работе с исх .
Увы бесплатно тут никто не скажет как продвинуть, что сделать итд итп
что означает исх? не смог найти определения
Похоже я понял в чем проблема, есть сокращенный текст у вакансий, хотя у меня на сайте он также присутствует но через отдельное окно, которое всплывает.Структура сайта другая, у меня поддомены, там это в рамках одного сайта.
МПК, малополезный контент
радуйтесь, что эту метку еще не заработал сайт...
сами подумайте.. у вас неоригинальный контент...
маловероятно что гугл и янд будут его слишком хорошо индексировать...
Есть другой сайт агрегатор, там все нормально. Там страницы индексируются. Как можно решить проблему?К примеру вот https://rabota1000.ru/novosibirsk/%D0%BF%D1%80%D0%BE%D0%B4%D0%B0%D0%B2%D0%B5%D1%86-%D0%BA%D0%B0%D1%81%D1%81%D0%B8%D1%80Сейчас сделал выгрузку, Яндекс показал для страниц BAD_QUALITY (но не для всех)Я уверен, что есть решение, иначе бы сайты агрегаторы все закрылись бы уже..
У яндекса есть региональный поиск и региональные поддомены (msk, spb, nnov...) нужно отдельно регистрировать в вебмастере, иначе яндекс будет считать дублем контент если он одинаковый по разным поддоменам (я чёт сомневаюсь, чтобы вы нагенерили на 8000 городов одновременно уникальный и нормальный контент) и НЕ будет считать дублем, если там контент одинаковый (у меня например конкурент вывесил в десятке городов россии тот же сайт, чуть с другой шапкой - и его статьи яндекс не считает дублями, плююсь постоянно)
Так что да, надо прорегистрировать. Но я не думаю, что у вас это получится просто сделать.
Во-первых, вам придётся доказывать что у вас там филиал - и вряд ли вы пройдёте проверку по 8000 городам. У Сбера нет столько поддоменов по городам )
Во-вторых, 8000 - это тупо много, застрелитесь руками делать.
можно через API webmaster яндекса добавить, довольно быстро
Мне яндекс написал лимит: 1703 при добавлении, так что да, нужно добавлять только самые необходимые
смешная чушь
весь мир использует, единственный способ запретить страницу и разрешить переход по ссылкам
https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag?hl=ru
статью 2017 года приводить тут неуместно
в доках нет follow, так что похоже это уже deprecated.статья ссылается на видос от самих google
мета роботс ноиндекс фоллоу . Страница выпадает из индекса , но робот переходит по ссылкам на ней.
На stackexchange ответили, что такой подход через мета теги уже нельзя использовать, google откажутся от негоhttps://webmasters.stackexchange.com/questions/144050/more-accurate-indexing/144056#144056https://www.seroundtable.com/google-long-term-noindex-follow-24990.html
Спасибо)
Как вариант. Атрибут rel=canonical тега <link> сообщает поисковой системе, что некоторые страницы сайта являются одинаковыми, несмотря на разные URL-адреса.
С помощью него можно решить проблему с дублированием контента в пределах сайта.
Проблема не с дублированием контента, а в том, что в поисковиках у меня показывается разделы сайта, которые находятся глубоко в футере (и далее вниз по структуре) и не представляют ценности, мне же хочется чтобы поисковики их не показывали, а отоброжали только поддомены с городами