За партнерские есть отдельный фильтр, здесь ранее уже выкладывали скрин. Он к МПК не относится. К МПК относятся продажные ссылки.
Это как?
Они у меня помещены в кнопку, но я так понимаю, что они все равно "видны"
Но только лишь из-за одних ссылок вряд ли фильтр наложат.
Сейчас сижу снимаю все ссылки...надеюсь поможет😭 фильтр с 18.09
Спрячь их в form
Пережили легкую ддос атаку. В итоге, из-за кривызны рук специалиста
Это норма для него, при таких специалистах. И которые советуют руками в консоль добавлять))Поменять специалиста, настроить ответы сервера, будет несколько дней
а может я должен контентом заниматься, а не "читать больше" про закидоны поисковых систем?
Мы, владельцы сайтов, тут сидим просто потому что не понимаем что делать и пытаемся делиться опытом с этой дуростью от Яши
Если вы как владелец сайта желаете заниматься только контентом сайтаИ не хотите ни изучать, ни заниматься ни SEO, ни анализом, ни техническими ошибками сайта - тогда, что вы делаете в этой теме? Нанимайте специалистов, которые вам это сделают
Самое главное комментарии в блоге они закрыли, потому что на них сразу ушат фекалий полились
На фекалии, они такими же ответами отвечали, им не привыкать.Там достаточно много было технически правильных вопросов, вот из-за них они и закрыли
" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
- метатег robots с noindex- ?go=http://url-spamera Несмотря на закрытие в robots.txt, яндекс это г индесирует, а зачастую выкидывает из поиска страницу каноникал. Через время, извините исправился. Но если сайт большой, и такого спама много. Таких дублей в индексе много
То есть есть некая тема на форуме.. в которой представителя яндекса слили инфу, что теги надо убирать из поиска? но при этом яндексойды стесняются об этом написать где-то у себя в блоге и вебмастере
У вас каша в голове, читайте больше. И не валите все на стеснительность Яндекса
Редирект под запретом?!
Теперь вдруг по мнению яндекса это все стало плохо плохо и жуткими дублями.
Пришлось позакрывать через роботс, каноникал и метатеги большую часть структуры сайта (а то же облако тегов было накоплено за несколько лет очень большим и многие посетители этим пользовались).
"это рекомендации, а не правило." - для яндекса это рекомендации?
вообще никакой сайт нельзя сделать правильным (по мнению яндекса)
Изначально писал, что тэги, облако и прочее это дубли. Для всех это стало ясно лет 10 назадНе для, а у всех ПС это рекомендации, тема на серче была, ищем читаем, там все раскрыто.
Можно, у вас должен быть сайт со страницами 200, все остальное 404
Если вам делать нечего, я тут при чем?
Миллионы страниц качественно создать невозможно. Жизни не хватит.